谷歌最近修改了其指導(dǎo)承包商評(píng)估人工智能響應(yīng)的方式。
審稿人現(xiàn)在不太可能因?yàn)槿狈δ硞€(gè)主題的特定專業(yè)知識(shí)而拒絕提供反饋。
谷歌為其對(duì)這些數(shù)據(jù)的利益進(jìn)行辯護(hù),指出影響其所尋求反??饋的因素有很多種。
每當(dāng)我們談?wù)搰@人工智能的爭(zhēng)議時(shí),“人為因素”經(jīng)常作為反駁出現(xiàn)。擔(dān)心人工智能搶走你的工作?還是有人要編寫人工智能代碼,管理訓(xùn)練人工智能的數(shù)據(jù)集,并分析其輸出以確保它不是胡言亂語(yǔ),對(duì)吧?問題是,人類的監(jiān)督僅限于這些人工智能模型背后的公司有興趣接管它,而一份新報(bào)告提出了一些令人擔(dān)憂的問題,即谷歌和 Gemini 的界限在哪里。
據(jù)TechCrunch報(bào)道,谷歌將部分改進(jìn) Gemini 的工作外包給了 GlobalLogic 等公司。谷歌所做的一件事就是要求評(píng)審員評(píng)估 Gemini 的回答質(zhì)量,從歷史上看,這包括跳過評(píng)審員知識(shí)范圍之外的問題的指示:“如果您不具備評(píng)估此提示的關(guān)鍵專業(yè)知識(shí)(例如編碼、數(shù)學(xué)),請(qǐng)?zhí)^此任務(wù)。”
從表面上看,這似乎是一個(gè)非常合理的指導(dǎo)方針,有助于最大限度地減少非專家對(duì)引導(dǎo)人工智能反應(yīng)走向錯(cuò)誤方向的影響。但正如TechCrunch發(fā)現(xiàn)的那樣,這種情況最近發(fā)生了變化,GlobalLogic 與其貢獻(xiàn)者分享的新規(guī)則指示他們“不要跳過需要專業(yè)領(lǐng)域知識(shí)的提示”,并至少“對(duì)你理解的提示部分進(jìn)行評(píng)分”。他們至少被要求在系統(tǒng)中輸入一條注釋,說明盡管他們?nèi)狈χR(shí),但仍會(huì)進(jìn)行評(píng)分。