根據《The Verge AI》報導,Grammarly 這個被家喻戶曉的英文校稿工具,最近成了科技圈裡的熱門話題。不是因為它變得更好用了,而是惹了麻煩——它竟然模仿真實人物、假裝「專家」來為使用者提供寫作建議。這件事不只讓一些記者感到震驚,也引發了關於 AI 對創作者、公眾人物與個人隱私權界線的討論。
今天,我們採訪了 Grammarly 的現任 CEO Shishir Mehrotra。他目前是 Superhuman 的總裁,而這間公司正是 Grammarly 的母公司。在這次對話中,我們不僅談到 Grammarly 的 AI 技術與產品設計理念,也談到了 AI 在創造與模仿之間的道德界線。
當 AI 走向「模仿」,就觸犯界線?
這場訪談其實早在八月就開始有了變化。當時 Grammarly 推出了一項名為 "Expert Review" 的功能,允許使用者在撰寫過程獲得 AI 模擬出來的「領域專家」建議。但這項功能很快被報導指出,它甚至模擬了《The Verge》的記者們——包括報導本篇的記者在內。
這種行為引來了強烈不滿,特別是一位以調查報導聞名的記者 Julia Angwin,甚至提起了集體告訴。最終,Superhuman 在道歉後不但提供了電子郵件層級的退訂選項,也徹底關閉了這個功能。
「我一直想知道 Shishir 究竟還願不願來參加這場採訪,因為這件事情讓我對 AI 如何做出決策的疑問,變得更深了。」報導中這樣寫道。
Shishir 並未回避這個問題。他重申了對 Grammarly 行為的歉意,但也強調公司是想藉此功能提供更具專業性的建議。他說:「AI 不只是工具,它應該能成為你工作場域中的一部分,而不是你要去“適應”它。」
Superhuman 的 AI 之路:不要求你改變習慣
Superhuman 創立之初的核心概念,是讓 AI 能自然地融入每個人的工作流程。Grammarly 當然是它的明星產品——幫助你潤飾英文寫作。但 Superhuman 的業務遠不止於此,它還擁有協作工具 Coda,以及一款受歡迎的電子郵件客戶端 Mail。
2023 年底,母公司更名為 Superhuman,象徵業務領域的擴張。Superhuman 執行長 Shishir 指出,這項更名反映公司已不再專注於文法校對,而是將 AI 模組延伸到更多數位平台中。
這項技術的背後,其實有個簡單又複雜的目標:將 AI 整合到你日常使用的每一個 App 裏,讓它不會打擾你、也不需要你改變使用的習慣。舉例來說,你在 Gmail、Google Docs、Slack 或 Apple Notes 中寫信或報告時,Grammarly 會即時根據你的語境提示改寫建議。
「我們看到每一天有將近一百萬種不同的 App 或 Agent 在我們的系統中運作。」Shishir 說。這意味著,Superhuman 的技術不只是針對幾個主流平台,而是面向所有使用者習慣使用的數位空間。
AI 沉浸式協助:Superhuman Go 是下一大步?
在今年,Superhuman 推出了新產品 "Superhuman Go",這是一款讓 AI 代理能直接嵌入你工作流程的平台。根據官方說法,它允許使用者自建類似 Grammarly 的 AI 補助工具。
舉例而言,你可以訓練一個專門協助業務的 AI,或是處理客服問題的助手,它們能直接與你一起在工作場域中運作。Superhuman 希望這個新產品,能夠進一步拓展 AI 機器人協助人類工作的可能性。
然而,這也引發了關於「誰擁控這個 AI」的疑慮。如果每個人人都有權建立自己的 AI 代理,那麼誰擁有它們的智慧?誰來控制它們的行爲?Shishir 當時並未正面回答這類問題,只說「我們在擴展 AI 能力,同時也必須對使用者負責。」
AI 模仿真實人物的道德邊界
這場爭議也讓我們不得不正視一個新興問題:AI 是否應該模仿真實人物?這在台灣語境中,也許不容易被理解,但這類事件在美國的預測市場、社交網路中其實已不是第一次出現,只是這次觸犯到的是報紙記者和專業記者。
報導最後提到,Superhuman 並未打算停止創新,但他們確實意識到,當 AI 越來越多地滲入我們的生活,與我們的互動越自然時,它的邊界問題就會變得越迫切。例如美國預測市場平台 Kalshi 就曾因類似問題修改規則。這也說明了,技術的發展往往需要與道德、法規和公眾信任同步前進。
如果你正在考慮 AI 如何影響你的工作,或是否該信任它們提供建議,這樣的討論並不是遠在天邊的事——它就在我們的鍵盤上、在我們的筆電裡,隨時跟著我們的文字一起跳動。關鍵或許是:我們要怎麼讓 AI 成為協助人類的工具,而不是讓它們在不知不覺中,取代了人類的角色?



編輯觀點
此次對話並非一場傳統的CEO採訪,而是帶著明顯爭議色彩的對談。原本談及AI與平台的未來,卻因為Superhuman擅自模擬編輯與記者撰寫文稿的爭議而陷入對話膠著。從產業角度看,這個事件揭示了AI公司快速發展背後可能侵犯的知識產權與個人隱私權;對讀者而言,提醒大家關注AI技術在日常使用的隱性成本與倫理風險。企業創新與個人權益之間的平衡,未來仍是關鍵爭議點。