【CNMO新聞】隨著GhatGPT的高速發(fā)展,人工智能這一話題被人們高度關(guān)注。各界“大佬”也紛紛發(fā)表對這一技術(shù)的看法,其中有支持者也有反對者。
(資料圖片)
【CNMO新聞】隨著GhatGPT的高速發(fā)展,人工智能這一話題被人們高度關(guān)注。各界“大佬”也紛紛發(fā)表對這一技術(shù)的看法,其中有支持者也有反對者。
近日,據(jù)CNMO了解,有“AI教父”之稱的杰弗里·辛頓(Geoffrey Hinton)周一宣布,他已經(jīng)從谷歌公司離職。半個世紀(jì)以來,辛頓一直在培養(yǎng)ChatGPT等聊天機器人背后的核心技術(shù)。但是現(xiàn)在,他擔(dān)心AI會造成嚴(yán)重危害。
辛頓表示,直到去年,谷歌一直是這項技術(shù)的“適當(dāng)管理者”,小心翼翼地不釋放可能造成傷害的東西。但是現(xiàn)在,微軟用聊天機器人增強了必應(yīng)搜索引擎,挑戰(zhàn)谷歌的核心業(yè)務(wù),導(dǎo)致谷歌也在競相部署同樣的技術(shù)。辛頓說,科技巨頭陷入了一場可能無法阻止的競爭。
杰弗里·辛頓
據(jù)了解,他目前最擔(dān)心的是,互聯(lián)網(wǎng)將充斥著虛假照片、視頻和文字,普通人將“無法再知道什么是真的”。他還擔(dān)心AI技術(shù)最終會顛覆就業(yè)市場。如今,像ChatGPT這樣的聊天機器人往往是對人類工作者的補充,但它們也可能取代律師助理、個人助理、翻譯和其他處理機械化任務(wù)的人。辛頓還表示:“它省去了繁重的工作,但它帶走的可能不止這些。”
據(jù)悉,辛頓擔(dān)心未來版本的AI技術(shù)會對人類構(gòu)成威脅,因為它們經(jīng)常從分析的大量數(shù)據(jù)中學(xué)習(xí)意想不到的行為。他說,這成了一個問題,因為個人和公司不僅允許AI系統(tǒng)生成自己的計算機代碼,還允許它們自己運行這些代碼。
他表示,“一些人相信,這種東西實際上會變得比人更聰明,”他表示,“但大多數(shù)人認(rèn)為這還很遙遠(yuǎn)。 我也曾認(rèn)為這還很遙遠(yuǎn)。我認(rèn)為這需要30到50年甚至更長的時間。顯然,我現(xiàn)在不再這么想了。”
辛頓稱,當(dāng)人們過去問他如何能研究有潛在危險的技術(shù)時,他會轉(zhuǎn)述美國“原子彈之父”羅伯特·奧本海默的話“當(dāng)你看到某種從技術(shù)上感覺不錯的東西時,你就會去做?!?/p>
版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載
標(biāo)簽: