谷歌最近修改了其指導(dǎo)承包商評估人工智能響應(yīng)的方式。
審稿人現(xiàn)在不太可能因為缺乏某個主題的特定專業(yè)知識而拒絕提供反饋。
谷歌為其對這些數(shù)據(jù)的利益進(jìn)行辯護(hù),指出影響其所尋求反??饋的因素有很多種。
每當(dāng)我們談?wù)搰@人工智能的爭議時,“人為因素”經(jīng)常作為反駁出現(xiàn)。擔(dān)心人工智能搶走你的工作?還是有人要編寫人工智能代碼,管理訓(xùn)練人工智能的數(shù)據(jù)集,并分析其輸出以確保它不是胡言亂語,對吧?問題是,人類的監(jiān)督僅限于這些人工智能模型背后的公司有興趣接管它,而一份新報告提出了一些令人擔(dān)憂的問題,即谷歌和 Gemini 的界限在哪里。
據(jù)TechCrunch報道,谷歌將部分改進(jìn) Gemini 的工作外包給了 GlobalLogic 等公司。谷歌所做的一件事就是要求評審員評估 Gemini 的回答質(zhì)量,從歷史上看,這包括跳過評審員知識范圍之外的問題的指示:“如果您不具備評估此提示的關(guān)鍵專業(yè)知識(例如編碼、數(shù)學(xué)),請?zhí)^此任務(wù)。”
從表面上看,這似乎是一個非常合理的指導(dǎo)方針,有助于最大限度地減少非專家對引導(dǎo)人工智能反應(yīng)走向錯誤方向的影響。但正如TechCrunch發(fā)現(xiàn)的那樣,這種情況最近發(fā)生了變化,GlobalLogic 與其貢獻(xiàn)者分享的新規(guī)則指示他們“不要跳過需要專業(yè)領(lǐng)域知識的提示”,并至少“對你理解的提示部分進(jìn)行評分”。他們至少被要求在系統(tǒng)中輸入一條注釋,說明盡管他們?nèi)狈χR,但仍會進(jìn)行評分。