跳到主要內容

[分享] 找到問題的開頭,找到困擾的源頭


人是一種很奇妙的動物,永遠無法滿足于現況,總是放大對方『好』的一面,卻放大自己『劣』的一面。每天都在苦惱中度過,總覺得工作不順心,薪水不夠用,房子不夠大,車子不好夠等雞毛蒜皮事項。完全忘記許多初衷,第一次得到工作,領到第一份薪水,完成第一份專案,第一次熬夜加班,第一次牽起彼此的手,忘記了許多的第一次,腦袋中想的只有『不滿』的現況。

沒錯!現況的確不好,事事無法如意,但是人生卻要進行下去。該怎麼做?

這的確是個千年難解的問題,家家有本難念的經,你的問題在我身上不一定會出現,而我的問題對你而言可能一笑置之。但是問題出現了,聰明的人總是希望去解決,解決這些無法用言語實際描述的困境,問過許多朋友,對於目前的現況有什麼不滿,大多得到一句『一言難盡』。

到底是『一言難盡』,還是『有苦難言』,又或者『沒有』思考過問題的本質?


問題,寫下!

在你千頭萬緒,感覺茫然,不知道該從何著手的時候,就應該如此做!拿出隨便一張紙,隨意寫下現在的問題,列出來問題,隨意列出。沒錯!就是隨意列,寫出所有目前困惑的問題,寫就對了!

這張列表,不需要公整得排版,也不需要劃線,更不需要清楚的字跡,需要的是『隨意』,就是隨心所欲的寫,列出目前所有感受到困惑的地方,感覺到複雜的心情,千頭萬緒的感受隨意的寫在上面。

似乎!心情放鬆了點,將所有的煩惱寫下之後,好像問題有了開頭。

沒錯!你已經做到了,將問題列出,現在你不再是無頭蒼蠅,你可以確切的指出自己的問題。感受一下釋放出來的暢快,喝個飲料吧!


問題,思考!

問題列出來了,而且我們要面對它,各個擊破。在列表上,快速的選出一件事情,而且是現在能做的事情,馬上處理。別管!馬上去處理!而且這個處理的時間能在掌控範圍內,處理時間盡量在15分鐘內完成。

處理之後,劃掉列表的事項,並選擇下一個項目進行!~(同上一個步驟)

等、等、等!現在應該已經完成了兩~三個項目,對吧!

咦!似乎,沒有思考任何問題,沒錯!你用的是身體思考問題,而不是腦袋,利用直覺,眼動能快速掃描,並且從經驗中快速去感受某些事件可以被解決,同時你的確解決了某些事情,在清冊上面的項目越來越少,越來越少。


問題,請離開!

現在,完成兩~三個項目後,請先停止!(未完成者請繼續)

快速檢視列表,能快速完成的項目有哪些,記下來兩~三個項目!

快速檢視列表,在期限內需要完成的事情有哪些,記下來一個項目!

現在你不需要這張列表了,可以完全將這些問題丟掉,現在你能做的就是手邊列表的事項完成,一件一件完成。完成手邊的事情就好,今天你的任務已經完成,需要煩惱的狀況已經消失,現在的你『沒問題』

後續

沒錯!你身上已經沒有任何問題,至少就今天而言,你已經往前跨進了一大步。其他事情,就留給明天再去思考,你是人不是機器,你會思考,也會累,能做的事情有限。今天的你小小的改變,明年的你大大的蛻變,要一直保持這樣的信念,只要相信,就會改變。

歡迎大家一起來討論,解決煩惱這個議題!:-D

留言

這個網誌中的熱門文章

RAG 和 Prompt 原理超簡單解說!想知道 AI 怎麼找答案看這篇

這篇文章是給對於你已經開始使用所謂的 ChatGPT / Claude / Gemini 之類的 AI 服務,甚至是 Siri (嘿丟,他也是一種 AI 應用服務喔) 簡單來說是非 技術人員, PM,小白,想要趕快惡補的人 ,直接花十分鐘可以看完的一篇科普業配文章。 或者是概念僅止於,AI 這東西會幻想,會有誤差,會對於生活有些幫助但沒有幫助的人們,做個簡單又不是太簡單的介紹,希望用一個非常入門的方式讓你們有個了解。 當然,這篇文章目的很簡單, 就是引流 ,如果你身邊有已經對於 Web 技術開發的人員,歡迎報名分享給他,年末出國不如學一技在身,參加今年我們舉辦最後一場 RAG 實作工作坊,報名連結 , https://exma.kktix.cc/events/ai-for-dev-course-rag-2 注意: 接下來每個大段落結束都會有一段工商導入,但文章絕對精彩,請注意! 為了讓各位容易想像,我們將整個世界的資訊,先濃縮到這本『西遊記』的世界觀當中,我們整個世界都在這個 『西遊記』 ,而 大型語言模型 我們用 『書精靈』 來描述。 PS. 我們先預設各位,應該都有聽過,西遊記!如果沒有聽過西遊記的,請右轉出去,謝謝! 先來談談向量 在《西遊記》的世界裡,我們可以把 向量想像成一種「內容座標」 ,讓系統知道每個角色、場景、法術等的 「位置」和「距離」 。向量幫助語言模型知道不同內容之間的關聯程度。 向量就像內容的「距離」和「位置」 比方說,唐三藏的 「位置」(向量)會接近「佛經」和「取經」 的概念,因為他一路上都是為了取經而前進。孫悟空的 向量位置則會更靠近「金箍棒」和「七十二變」 這些概念,因為這些是他的特徵。 相似內容靠得更近:像「佛經」和「取經」會靠近唐三藏的向量,因為它們彼此有很強的關聯。 相差較大內容會離得較遠:像「取經」和「妖怪」「妖怪的寶藏」就距離比較遠,因為妖怪的寶藏和取經的目標關聯性不大。 是誰決定的這些位置? 簡單來說,這些位置和關係是模型自己學出來的。語言模型會閱讀大量的資料和這世界觀的資訊,觀察哪些詞語經常一起出現,根據「共同出現的頻率」來決定它們的關係,並且自動生成向量。例如: 如果模型看到 「唐三藏」 總是和 「取經」 一起出現,它就會讓「唐三藏」的向量靠近「取經」。 ...

Vibe Coding:為什麼 Junior 更快上手?Senior 要如何追趕?

現象層面(市場觀察) 最近有篇文章討論 junior & senior 開發者在 AI 時代的角色轉變,非常熱門。 身為 Cympack 產品開發團隊 ,我們也一直關注這個議題,在閱讀這篇文章時觀察到一些有趣的現象,對我們來說,這正好反映出 AI 正在改變開發生態,junior 借力 AI 快速成長、senior 則需要在 「架構思維」 與 「多 agent 協作」 中找到新定位,其中有些啟發(insight) 可以跟大家分享。 為什麼 Junior 更容易上手 vibe coding? 心智負擔低 → Junior 沒有太多傳統 code workflow 的框架包袱 敢於嘗鮮 → Gen Z / 年輕工程師天生習慣用 prompt-based 工具、跟 LLM 互動 少「優雅程式設計」的束縛 → 不太糾結「這樣寫會不會不夠優雅」,反而 embrace 快速迭代、快速出成果 反觀 Senior: 熟悉大型系統設計 有豐富的「工程正統流程」知識(架構設計、測試策略、效能優化、設計模式) 對 AI 生成 code 的品質 / 維護性通常比較保留 部分 10+ 年資深工程師,對 prompt engineering 沒那麼熟練,還在觀望 技能面(未來的關鍵能力) Vibe coding 本質上 = prompt engineering + AI co-pilot 管理能力 能力項目 誰目前比較有優勢? Prompt 撰寫 / AI 互動 Junior 較強(熟悉 chat-based 流程) 系統設計 / 架構把關 Senior 較強 AI 生成 code 驗證 / Bug 察覺能力 Senior 較強(能看出潛在問題) 快速疊代 / Hackathon 式開發 Junior 較強 長期維護性 / 穩定性 Senior 較強 總結 Junior 確實更快適應 vibe coding,並且更習慣以 「chat-based coding」 的工作流開發。 Senior 擁有驗證 AI 產物與系統設計的深度能力,但若不主動練習 vibe coding,長期會逐漸落後於新一波開發潮流。 就如同在 GAI 技術年會分享,希望帶給各位的感受, 『與 AI 協...

v0 API 是什麼?怎麼用?一篇教你搞懂功能、價格,還能搭配 Cursor 玩出 vibe coding!

Vercel 的 v0 是一款 AI 驅動的前端開發工具,能夠將自然語言描述轉換為可部署的 React 元件和 UI 介面,支援 Tailwind CSS,並可直接部署至 Vercel 平台。此外,v0 提供 API 介面,讓開發者能將其整合至其他工具,如 Cursor IDE,進一步提升開發效率。 Vercel v0 API 介紹 v0 API 目前處於 Beta 階段,主要提供 v0-1.0-md 模型,具備以下特點: 多模態支援:接受文字與圖片(base64 編碼)輸入。  快速串流回應:提供低延遲的串流回應。  OpenAI 相容:遵循 OpenAI Chat Completions API 格式,易於整合至現有工具。  前端開發優化:特別針對 Next.js 和 Vercel 等現代前端框架進行優化。 要使用 v0 API,需訂閱 Premium 或 Team 方案 ,並啟用使用量計費。 使用方式 API 端點: POST https://api.v0.dev/v1/chat/completions 請求標頭: Authorization: Bearer YOUR_V0_API_KEY Content-Type: application/json 參數範例: { "model": "v0-1.0-md", "messages": [ { "role": "user", "content": "建立一個具有身份驗證功能的 Next.js AI 聊天機器人" } ], "stream": true } 您也可以使用官方的 AI SDK 進行整合: npm install ai @ai-sdk/vercel 範例程式 javascript import { generateText } from 'ai'; import { vercel } from '@ai-sdk/vercel'; const { text } = await generateText({ model: vercel...