top of page
All Posts


在人工智能的時代,個人應何去何從與Trinity
毋庸置疑,未來二十年將是全方位進入人工智慧時代,就如過去二十年主宰世界的資訊科技時代一般。正如曾俊華先生在2023年訪談中所言:「在AI時代,讀文科更有優勢」,因為人工智慧的核心在於語言溝通與精準表達,唯有具備深厚的人文素養,才能生成Complex Idea,...
Wilson Wong
Aug 17, 20252 min read


AI成為第二大腦之後:你如何不把「思考權」交出去
AI協作正在變成新的工作母語。你寫報告、做研究、拆解需求、看合約、寫程式、整理會議紀錄,幾乎每一步都能叫模型補上一段。效率的確上來了,但也悄悄出現一種新型的貧乏:人很快得到答案,卻越來越少真正「長在自己腦裡」的理解。你似乎知道很多,實際上只是擁有大量可複述的句子;一遇到反例、壓力測試、或需要拍板承擔後果的時刻,心裡就空。 這個陷阱的本質不是技術,而是心理。Kahneman 在《思考,快與慢》指出,人類天生偏好省力的直覺路徑;而生成式 AI 讓省力變得隨取隨用。於是「卡住 → 問 AI → 得到漂亮回答」成了新的條件反射。長期下來,你少掉的是最珍貴的一段:把概念拆開、把因果串起來、找出假設、辨認漏洞、忍受不確定的那段苦工。這些苦工看起來慢,卻是判斷力的來源;當你把它整段外包出去,你不是變笨,而是把判斷力交給一個不為後果負責的系統。 所以重點從來不是「少用 AI」,而是把 AI 放在正確的位置:當研究助理、當對照組、當辯手、當草稿機,但不要當“最後裁判”。一個實用做法是改寫你的提問方式:不要只問「結論是什麼」,要問「你這個結論成立的前提是什麼、在哪些
Wilson Wong
Aug 17, 20252 min read


當AI讓「眼見不一定為實」:深偽時代的真相、信任與自保
Generative AI 的破壞力,不只在它能寫文章、做圖、剪片,更在它開始動搖一件社會最底層的共識:我們如何確定某件事真的發生過。當影像、聲音、對話都能被合成,“證據”會變得像包裝一樣可量產。你會越來越常遇到這種場景:一段影片在群組爆開,所有人都在憤怒或興奮,但沒人知道它從哪來、是不是剪輯過、是不是 AI 做的,甚至連事件本身是否存在都未必能立刻確認。 媒介曾經已經把公共討論推向情緒化,Postman 在《娛樂至死》批判的正是這件事;而 AI 讓情緒化更進一步,因為它不只包裝觀點,還能包裝“看似無可辯駁的現場”。更棘手的是,人類天生有確認偏誤:符合立場的東西比較容易被相信;越戲劇化的內容越容易被轉發。這使得深偽不是單一技術風險,而是一個會自我加速的社會機制。 面對這個世界,個人最需要的不是「更快接收資訊」,而是把判斷的重心從“真假直覺”移到“證據鏈”。看到一段爆料,你可以先不急著站隊,先問幾個能救命的問題:原始來源是什麼、是否有多個互不相干的佐證、時間線是否連貫、是否能找到更長版本或不同角度、發佈者可能得到什麼好處。這些問題不會讓你立刻變成鑑
Wilson Wong
Aug 17, 20252 min read
bottom of page