「ChatGPT 說的」太偷懶 (★ 58 分)
在程式碼檢閱或設計文件的討論中,經常看到有人貼上 ChatGPT 生成的文字,卻沒有任何自己的觀點或具體脈絡。作者覺得,這種「ChatGPT 說⋯⋯」的回覆顯得懶惰,也毫無團隊責任感。畢竟 ChatGPT 這款由大型語言模型 (LLM, Large Language Model) 提供的 AI 工具,既不在開發團隊,也不會了解專案的技術債與商業限制,更不會在系統故障時凌晨被叫醒;真正要承擔風險和後果的,是書寫回饋的你。
直接複製貼上 AI 的建議,往往增加他人負擔:接收者必須先釐清哪些段落適用、哪些屬於通用性建議,還要猜測貼文者究竟同意哪些觀點。有建設性的檢閱回饋,應該像這樣:「這段巢狀迴圈在生產環境資料量增長時會導致 O(n²) 的效能瓶頸,建議改用雜湊表 (hash map) 以降低複雜度」。而不是:「我問了 ChatGPT,它說⋯⋯(以下三段跟專案無關的理論說明)」,讓人摸不著頭緒。
作者並不反對使用 AI 作為思考輔助;關鍵在於不要讓 AI 取代自己真正的思考過程。當 AI 幫你檢測到潛在問題或提供方向時,應先自行驗證,然後用自己的語言重述並說明為何適用於此專案。這樣不僅能展現你對程式碼與團隊動態的掌握,也能讓回饋更具說服力;畢竟你的名字就掛在這段評論底下,必須為內容負責。
在 Hacker News 的討論中,許多開發者將貼 AI 輸出比作「讓我替你 Google(搜尋)」的風格,既輕率又充滿敷衍感。有人指出,AI 回應會隨提示詞而大幅波動,缺乏固定可信度,與經過同行審核的技術文章或專書並不相同。若要引用 AI,其實更應該先行驗證、調整,再附上自己的觀點,否則很容易讓團隊浪費時間去拆解一大段雜亂的建議。
不過,也有開發者認為,當資訊不對稱或需要快速梳理繁複細節時,先用 AI 初步整理仍有助益;關鍵在於建立團隊最佳實踐:容許分享與 AI 的互動截圖或對話內容,但所有具體建議與行動方案,仍須由人為產出,並在檢閱中說明同意或駁回 AI 意見的緣由。如此才能既保有檢閱品質,也能善用 AI 的效率優勢。
👥 57 則討論、評論 💬
https://news.ycombinator.com/item?id=45695841