无码成人A片在线观看,性欧美videofree高清变态,中文字幕有码无码av,国产无人区卡一卡二扰乱码 ,最近高清日本免费

CNTXJ.NET | 通信界-中國通信門戶 | 通信圈 | 通信家 | 下載吧 | 說吧 | 人物 | 前瞻 | 智慧(區(qū)塊鏈 | AI
 國際新聞 | 國內(nèi)新聞 | 運(yùn)營動態(tài) | 市場動態(tài) | 信息安全 | 通信電源 | 網(wǎng)絡(luò)融合 | 通信測試 | 通信終端 | 通信政策
 專網(wǎng)通信 | 交換技術(shù) | 視頻通信 | 接入技術(shù) | 無線通信 | 通信線纜 | 互聯(lián)網(wǎng)絡(luò) | 數(shù)據(jù)通信 | 通信視界 | 通信前沿
 智能電網(wǎng) | 虛擬現(xiàn)實 | 人工智能 | 自動化 | 光通信 | IT | 6G | 烽火 | FTTH | IPTV | NGN | 知本院 | 通信會展
您現(xiàn)在的位置: 通信界 >> 運(yùn)營動態(tài) >> 新聞?wù)?/span>
 
我們和OpenAI聯(lián)創(chuàng)聊了聊GPT的當(dāng)下局限:兩年后可能就沒了
[ 通信界 | Craig S. Smith | www.k-94.cn | 2023/4/17 10:15:22 ]
 

▎OpenAI聯(lián)合創(chuàng)始人、首席科學(xué)家Ilya Sutskever獨(dú)家講述,他的最新研究方向,就是“使這些模型更加可靠、可控,讓它們從教材數(shù)據(jù)中更快地學(xué)習(xí),減少指導(dǎo)。讓它們不會出現(xiàn)幻覺!

鈦媒體注:自O(shè)penAI在2019年首次發(fā)布GPT-2大模型以來,我們就一直保持深度關(guān)注與聯(lián)系,2022年12月初首款應(yīng)用ChatGPT發(fā)布后,鈦媒體也多次組織和參與了相關(guān)討論。最近幾個月,關(guān)于AI與大語言模型幾乎每天都有爭論,熱度不減。但OpenAI對于GPT新一代大模型的研發(fā)進(jìn)展并未停止。

日前,鈦媒體特約作者和研究員,“Eye on AI”播主Craig Smith于日前GPT-4發(fā)布之際,走進(jìn)OpenAI并與OpenAI聯(lián)合創(chuàng)始人&首席科學(xué)家 Ilya Stutskever進(jìn)行了深入探討。

我們把Craig和Ilya Sutskever深入交談的重要內(nèi)容做了一個簡略整理,中文在鈦媒體App上進(jìn)行獨(dú)家發(fā)布。

OpenAI是一個非營利性的人工智能研究機(jī)構(gòu),其分支機(jī)構(gòu)卻很可能將成為未來地球上最有利潤的實體之一,他們最新發(fā)布的GPT-4可以說是一個巨型系統(tǒng),這個系統(tǒng)消耗了數(shù)十億字的文本——超過一個人類可能在一生中閱讀的數(shù)量。

GPT(Generative Pre-trained Transformer的簡稱)代表“生成式預(yù)訓(xùn)練大模型”,這三個重要的單詞可以幫助我們理解這個荷馬史詩般的波呂斐摩斯!按竽P汀保═ransformer)是這個巨型系統(tǒng)核心算法的名稱!邦A(yù)訓(xùn)練”(Pre-trained)是指通過大量的文本語料庫進(jìn)行教育,讓它理解語言的基本模式和關(guān)系——簡而言之,讓它了解世界。“生成(Generative)”意味著這種人工智能可以從這個基礎(chǔ)知識中創(chuàng)造新的思想。

在Craig與OpenAI聯(lián)合創(chuàng)始人深度聊完后,我們意識到,雖然當(dāng)下,人工智能已影響了我們生活的許多方面,但GPT的出現(xiàn),是更加先進(jìn)、更加強(qiáng)大的人工智能,我們正在進(jìn)入這個未知的領(lǐng)域,并值得花一點時間考慮一下這意味著什么。

科技巨頭、研究者和投資者都似乎在瘋狂追求開發(fā)最先進(jìn)的人工智能,馬斯克和許多人則在大聲質(zhì)疑我們是否進(jìn)展得太快,還有當(dāng)下chatGPT可能產(chǎn)生的諸多社會問題,這些都是GPT自己尚沒有解決的問題,比如幻覺。

但這個問題并非完全無解,有數(shù)百個敏銳的頭腦正在考慮著反烏托邦的可能性——以及避免他們失控。未來是未知的,這種強(qiáng)大的新技術(shù)的影響與互聯(lián)網(wǎng)出現(xiàn)后,社交媒體的誕生一樣難以想象。會有好的,也會有壞的,但未來會有強(qiáng)大的人工智能系統(tǒng),我們的孫子輩將會有更加強(qiáng)大的人工智能。這是無法阻止的。

但同樣重要的是不要過度反應(yīng),不要像烏龜一樣躲避現(xiàn)在照耀著我們的明亮的陽光。在荷馬史詩《奧德賽》中,獨(dú)眼巨人波呂斐摩斯把奧德修斯和他的船員困在他的洞穴里,打算吃掉他們。但是奧德修斯設(shè)法讓這個巨人失明并逃脫了。人工智能不會吃掉我們。

Ilya Sutskever是OpenAI的聯(lián)合創(chuàng)始人和首席科學(xué)家,是大型語言模型GPT-4和其公共后代ChatGPT的主要創(chuàng)造者之一,我認(rèn)為毫不夸張地說,他正在改變世界。

這也不是Ilya第一次改變世界了。他是AlexNet的主要推動力量,這是一個卷積神經(jīng)網(wǎng)絡(luò),其驚人的性能在2012年震驚了科學(xué)界,引發(fā)了深度學(xué)習(xí)革命,也改變了曾經(jīng)人們對人工智能的絕望,改變了大家曾經(jīng)更深蒂固的“計算機(jī)不能學(xué)習(xí)”的認(rèn)識。曾經(jīng)計算科學(xué)的局限性,今天早已不復(fù)存在,而今天GPT的局限性,Ilya Sutskeve本人同樣也沒有那么悲觀。

CRAIG:Ilya,我知道你出生在俄羅斯。你是因為對計算機(jī)科學(xué)感興趣還是其他原因,比如神經(jīng)科學(xué),才進(jìn)入這個領(lǐng)域的呢?

ILYA:確實,我出生在俄羅斯。我在以色列長大,然后作為一個少年,我的家人移民到了加拿大。我父母說我從小就對人工智能感興趣。我也對意識非常感興趣,它讓我感到非常不安,我很好奇什么可以幫助我更好地理解它。

我17歲時就開始和Geoff Hinton(鈦媒體App編者注:“深度學(xué)習(xí)”三巨頭之一,有著AI教父之稱,當(dāng)時是多倫多大學(xué)的教授)一起工作了。因為我們搬到了加拿大,我立刻就能加入多倫多大學(xué)。我真的很想做機(jī)器學(xué)習(xí),因為那似乎是當(dāng)時完全無法訪問的人工智能最重要的方面。

那是2003年。我們現(xiàn)在認(rèn)為計算機(jī)可以學(xué)習(xí),但是在2003年,我們認(rèn)為計算機(jī)無法學(xué)習(xí)。當(dāng)時人工智能的最大成就是Deep Blue(IBM旗下機(jī)構(gòu))的象棋引擎(在1997年擊敗世界冠軍加里·卡斯帕羅夫)。

但是,你有這個游戲和這個研究,以及一種簡單的方法來確定一個位置是否比另一個位置更好。它確實感覺不可能適用于現(xiàn)實世界,因為沒有學(xué)習(xí)。學(xué)習(xí)是一個巨大的謎團(tuán)。我對學(xué)習(xí)非常感興趣。出于我的大運(yùn)氣,Geoff Hinton是大學(xué)的教授,我們幾乎馬上就開始合作了。

那么智能是如何工作的呢?我們?nèi)绾巫層嬎銠C(jī)變得更加智能?我有一個非常明確的意圖,就是為人工智能做出非常小但真正的貢獻(xiàn)。人工智能在當(dāng)時是一個令人絕望的領(lǐng)域。所以,我的動機(jī)就是,我能否理解人工智能是如何工作的?還有能否為之做出貢獻(xiàn)?這就是我的最初動機(jī)。這幾乎是20年前的事了。

CRAIG:然后是AlexNet,我們和Geoff Hinton教授談過了,他說,正是你對卷積神經(jīng)網(wǎng)絡(luò)的突破感到興奮,才讓你申請了ImageNet比賽,Alex具備了訓(xùn)練網(wǎng)絡(luò)的編碼技能。

ILYA:簡言之,我意識到,如果你在一個很大的數(shù)據(jù)集上訓(xùn)練一個大的神經(jīng)網(wǎng)絡(luò)——對不起,很大,而且很深,因為當(dāng)時深層部分還是新的——如果你在足夠大的數(shù)據(jù)集中訓(xùn)練一個很大和很深的神經(jīng)網(wǎng)絡(luò),它指定了人們要做的一些復(fù)雜任務(wù),比如視覺,只要訓(xùn)練神經(jīng)網(wǎng)絡(luò),你就一定會成功。它的邏輯是非常不可簡化的,我們知道人腦可以解決這些任務(wù),并且可以快速解決。而人類的大腦只是一個由慢速神經(jīng)元組成的神經(jīng)網(wǎng)絡(luò)。

所以,我們知道一些神經(jīng)網(wǎng)絡(luò)可以做得很好。因此,我們只需要采用一個較小但相關(guān)的神經(jīng)網(wǎng)絡(luò),并在數(shù)據(jù)上對其進(jìn)行訓(xùn)練。計算機(jī)內(nèi)部最好的神經(jīng)網(wǎng)絡(luò)將與我們執(zhí)行這項任務(wù)的神經(jīng)網(wǎng)絡(luò)有關(guān)。

所以,有一種觀點認(rèn)為,神經(jīng)網(wǎng)絡(luò),大型和深度神經(jīng)網(wǎng)絡(luò)可以解決這項任務(wù)。此外,我們有訓(xùn)練它的工具。這是杰夫?qū)嶒炇壹夹g(shù)工作的結(jié)果。所以,你把兩者結(jié)合起來,我們可以訓(xùn)練這些神經(jīng)網(wǎng)絡(luò)。它需要足夠大,這樣如果你訓(xùn)練它,它就會很好地工作,而且你需要數(shù)據(jù),它可以指定解決方案。有了ImageNet,所有的成分都在那里。Alex有這些非常快的卷積核。ImageNet有足夠大的數(shù)據(jù),有一個真正的機(jī)會做一些前所未有的事情,而且它完全成功了。

CRAIG:是的。這就是監(jiān)督學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)。2017年,《注意力就是你所需要的一切》論文發(fā)表,介紹了自我注意力和transformers大模型。那么GPT項目是從什么時候開始的?有沒有關(guān)于大模型的直覺?

ILYA:是的。

ILYA:從OpenAI成立之初起,我們就在探索一個想法,即預(yù)測下一個東西就是你所需的一切。我們用當(dāng)時更受限制的神經(jīng)網(wǎng)絡(luò)探索這個想法,但我們希望,如果你有一個神經(jīng)網(wǎng)絡(luò)可以預(yù)測下一個單詞,它將解決無監(jiān)督學(xué)習(xí)。所以,在GPT之前,無監(jiān)督學(xué)習(xí)被認(rèn)為是機(jī)器學(xué)習(xí)的圣杯。

現(xiàn)在它已經(jīng)被完全解決,甚至沒有人談?wù)撍,但它曾是一個神秘的問題,因此我們在探索這個想法。我非常興奮,因為預(yù)測下一個單詞足夠好,將為你提供無監(jiān)督學(xué)習(xí)。

但我們的神經(jīng)網(wǎng)絡(luò)無法勝任此任務(wù)。我們使用的是遞歸神經(jīng)網(wǎng)絡(luò)。當(dāng)transformers出現(xiàn)時,就在論文發(fā)表的第二天,我們立即意識到,transformers解決了遞歸神經(jīng)網(wǎng)絡(luò)的局限性,解決了學(xué)習(xí)長期依賴關(guān)系的問題。

這是一個技術(shù)問題,我們立即轉(zhuǎn)向transformers。因此,nascent的GPT項目便開始使用transformer。它開始工作得更好,你讓它變得更大,然后你繼續(xù)讓它變得更大。

這就產(chǎn)生了最終的GPT-3,成就了基本上是我們今天所處的位置。

CRAIG:我對它很感興趣,但我也想了解大型語言模型或大型模型的問題或缺點。目前存在的大型語言模型的限制在于它們的知識被包含在它們訓(xùn)練的語言中。而大部分人類知識,我認(rèn)為每個人都會同意,是非語言的。

它們的目標(biāo)是滿足提示的統(tǒng)計一致性。它們沒有關(guān)于語言所關(guān)聯(lián)的現(xiàn)實的基本理解。我詢問了ChatGPT關(guān)于自己的信息。它認(rèn)識到我是一名記者,曾在各種報紙工作,但它繼續(xù)講述了我從未獲得過的獎項。它讀起來非常流暢,但其中很少與底層現(xiàn)實相連。在你們未來的研究中,是否有措施來解決這個問題?

ILYA:所以,在我對你提出的問題發(fā)表直接評論之前,我想對相關(guān)一些更早期問題發(fā)表評論。

CRAIG:當(dāng)然。

ILYA:我認(rèn)為很難談?wù)摌O限或局限性,甚至像語言模型這樣的東西。因為兩年前,人們自信地談?wù)撟约旱木窒扌,現(xiàn)在他們完全不同了,對吧?因此,重要的是要牢記這一歷史過程。我們有多大信心相信,我們今天看到的這些限制在兩年后仍將存在?我沒有那么大信心,可能兩年后就不存在了。

關(guān)于這個問題的一部分,我想發(fā)表另一個評論,那就是這些模型只是學(xué)習(xí)統(tǒng)計規(guī)律,因此它們并不真正知道世界的本質(zhì)是什么。

我的觀點與此不同。換言之,我認(rèn)為學(xué)習(xí)統(tǒng)計規(guī)律比人們表面上看到的要更重要得多。我們最初不這么認(rèn)為的原因是因為我們沒有——至少大多數(shù)人,那些沒有花很多時間研究神經(jīng)網(wǎng)絡(luò)的人,這些網(wǎng)絡(luò)在某種程度上是統(tǒng)計的,比如什么是統(tǒng)計模型?

預(yù)測也是一個統(tǒng)計現(xiàn)象。但是要進(jìn)行預(yù)測,您需要理解生成數(shù)據(jù)的基本過程。您需要了解越來越多關(guān)于產(chǎn)生數(shù)據(jù)的世界的知識。

隨著我們的生成模型變得非常出色,它們將具有我所說的對世界及其許多微妙之處的驚人的理解程度。這是通過文本所呈現(xiàn)的世界。它試圖通過在互聯(lián)網(wǎng)上人類表達(dá)的文本空間上對世界進(jìn)行投影來學(xué)習(xí)越來越多關(guān)于世界的知識。

但是,這些文本已經(jīng)表達(dá)了世界。我給您舉個最近的例子,我認(rèn)為這個例子非常有趣和啟示性。我們都聽說過Sydney是它的化身。當(dāng)用戶告訴Sydney它認(rèn)為谷歌是比必應(yīng)更好的搜索引擎時,我看到了這個真正有趣的交互,Sydney變得好斗和攻擊性。

如何思考這種現(xiàn)象?這意味著什么?您可以說,它只是預(yù)測人們會做什么,人們確實會這樣做,這是真的。但也許我們現(xiàn)在正在達(dá)到一個語言心理學(xué)的水平,開始利用它來理解這些神經(jīng)網(wǎng)絡(luò)的行為。

現(xiàn)在讓我們來談?wù)勥@些神經(jīng)網(wǎng)絡(luò)的限制。事實上,這些神經(jīng)網(wǎng)絡(luò)有產(chǎn)生幻覺的傾向。這是因為語言模型非常擅長學(xué)習(xí)世界知識,但在生成良好輸出方面則略顯不足。這其中存在一些技術(shù)原因。語言模型在學(xué)習(xí)各種思想、概念、人物、過程等世界知識方面表現(xiàn)非常出色,但其輸出卻沒有達(dá)到預(yù)期的水平,或者說還有進(jìn)一步提升的空間。

因此,對于像 ChatGPT 這樣的語言模型,我們引入了一種額外的強(qiáng)化學(xué)習(xí)訓(xùn)練過程,稱為“人類反饋強(qiáng)化學(xué)習(xí)”。

我們可以說,在預(yù)訓(xùn)練過程中,我們希望它能夠?qū)W習(xí)關(guān)于世界的一切。而在來自人類反饋的強(qiáng)化學(xué)習(xí)中,我們更關(guān)心輸出結(jié)果。我們說,任何時候如果輸出結(jié)果不恰當(dāng),就不要再這樣做了。每當(dāng)輸出結(jié)果不合理時,就不要再這樣做了。這樣它就能夠快速學(xué)會生成良好的輸出。但這種良好的輸出水平并不在語言模型預(yù)訓(xùn)練過程中出現(xiàn)。

至于幻覺,它有時會胡言亂語,這也大大限制了它們的用途。但我非常希望,通過簡單地改進(jìn)后續(xù)的人類反饋強(qiáng)化學(xué)習(xí)步驟,我們就能夠教它不再產(chǎn)生幻覺。你可能會問,它真的能學(xué)會嗎?我的答案是,讓我們拭目以待吧。

CRAIG:如果ChatGPT告訴我獲得了普利策獎,但不幸的是我沒有獲得,我可以告訴它這是錯誤的,是訓(xùn)練它還是創(chuàng)造一些懲罰或獎勵,以便下次我問它時,更準(zhǔn)確。

ILYA:我們今天做事的方式是雇傭人來教我們的神經(jīng)網(wǎng)絡(luò)行為,教ChatGPT行為,F(xiàn)在,他們指定所需行為的方式,確切的方式有點不同。但事實上,你所描述的是教學(xué)的基本方式,這是正確的教學(xué)方式。

你只需要與它進(jìn)行互動,它就能從你的反應(yīng)中推斷出你想要的東西,當(dāng)你輸出不滿意,它會推斷,哦,這不是你想要的,下次應(yīng)該采取不同的做法。我認(rèn)為這種方法完全有可能完全解決幻覺的問題。

CRAIG:我想和你談?wù)刌ann LeCun(Facebook 的首席人工智能科學(xué)家和另一位深度學(xué)習(xí)的早期先驅(qū))在聯(lián)合嵌入預(yù)測架構(gòu)方面的工作。他認(rèn)為,語言模型可以參考它,但大型語言模型缺少的是非語言的基礎(chǔ)世界模型。我想聽聽你對此的看法,以及你是否已經(jīng)進(jìn)行了相關(guān)的探索。

ILYA:我已經(jīng)回顧了Yann LeCun的提議,其中有很多想法,它們用不同的語言表達(dá),與當(dāng)前的范式可能有一些微小的差異,但在我看來,它們并不是很重要。

我想詳細(xì)說明一下。第一種說法是,一個系統(tǒng)需要有多模態(tài)的理解能力,而不僅僅是從文本中了解世界。我對此的評論是,多模態(tài)理解確實是可取的,因為你對世界了解得更多,對人了解得更多、對他們的狀況了解得更多。因此,系統(tǒng)將能夠更好地理解應(yīng)該解決的任務(wù),以及人們和他們想要什么。

最值得注意的是,我們在這方面已經(jīng)做了很多工作,尤其是通過兩個主要的神經(jīng)網(wǎng)絡(luò)。一個叫Clip,一個叫Dall-E。它們都朝著這個多模態(tài)的方向發(fā)展。但我也想說,我也不認(rèn)為這種情況是二元的非此即彼的局面,或者如果你沒有視力,如果你不能從視覺或視頻中理解世界,那么事情就不會奏效。

我想為這個觀點辯護(hù)。我認(rèn)為從圖像和圖表中學(xué)習(xí)某些事情要容易得多,但我認(rèn)為你仍然可以僅從文本中學(xué)習(xí)它們,只不過需要更長的時間。舉個例子,考慮顏色的概念。

當(dāng)然,你不能僅從文本中學(xué)習(xí)顏色的概念,但當(dāng)你看一下嵌入時——我需要稍微解釋一下嵌入的概念。每個神經(jīng)網(wǎng)絡(luò)通過“嵌入”表示單詞、句子和概念,這些嵌入是高維向量。

我們可以查看這些高維向量,看看什么類似于什么,網(wǎng)絡(luò)是如何看待這個概念或那個概念的。因此,我們可以查看顏色的嵌入,它知道紫色比紅色更接近藍(lán)色,知道紅色比紫色更接近橙色。它只是通過文本就知道這些東西。這是如何做到的呢?

如果你有視覺,顏色之間的差異就會立刻顯現(xiàn)出來。你會立即感知它們。而對于文本,你需要更長的時間,也許你知道如何說話,已經(jīng)理解了語法、單詞和語法,只有在以后才會真正理解顏色。

所以,這就是我關(guān)于多模態(tài)性必要性的觀點:我認(rèn)為它不是必要的,但肯定是有用的。我認(rèn)為這是一個值得追求的方向。我只是不認(rèn)為它是非此即彼的。

因此,[LeCun]的提案聲稱預(yù)測具有不確定性的高維向量是一個重大挑戰(zhàn)之一。

但我發(fā)現(xiàn)令人驚訝的是,在這篇論文中未被承認(rèn)的是,當(dāng)前的自回歸大模型已經(jīng)具備了這種屬性。

我來舉兩個例子。一個是,給定一本書中的一頁,預(yù)測下一頁。可能會有很多可能的下一頁。這是一個非常復(fù)雜、高維的空間,但他們可以很好地處理。同樣適用于圖像。這些自回歸大模型在圖像上工作得非常完美。

例如,像OpenAI一樣,我們已經(jīng)在iGPT上工作了。我們只是拿了一個大模型,將其應(yīng)用于像素上,它表現(xiàn)得非常出色,可以以非常復(fù)雜和微妙的方式生成圖像。Dall-E 1也是一樣。

因此,在我看來,論文中強(qiáng)調(diào)現(xiàn)有方法無法處理預(yù)測高維分布的部分,我認(rèn)為它們肯定可以。

CRAIG:關(guān)于這個想法,即使用人類訓(xùn)練師的隊伍來與ChatGPT或大型語言模型一起進(jìn)行強(qiáng)化學(xué)習(xí),就直覺而言,這似乎不是教授模型了解其語言底層現(xiàn)實的有效方法。

ILYA:我不同意問題的措辭。我認(rèn)為我們的預(yù)訓(xùn)練模型已經(jīng)知道了它們需要了解的關(guān)于底層現(xiàn)實的一切。它們已經(jīng)掌握了語言方面的知識,以及關(guān)于產(chǎn)生這種語言的世界進(jìn)程的大量知識。

大型生成模型學(xué)習(xí)它們的數(shù)據(jù)——在這種情況下,是大型語言模型——是產(chǎn)生這些數(shù)據(jù)的真實世界進(jìn)程的壓縮表示,這意味著不僅涉及人和他們的想法、感受,還涉及人們所處的狀態(tài)和彼此之間的交互作用。一個人可能處于不同的情境中。所有這些都是通過神經(jīng)網(wǎng)絡(luò)來表示并生成文本的壓縮進(jìn)程的一部分。語言模型越好,生成模型就越好,保真度就越高,它就能更好地捕捉這個過程。

現(xiàn)在,正如你所描述的那樣,這些教師的確也在使用人工智能輔助。這些教師不是獨(dú)自行動的,他們正在使用我們的工具,而工具則承擔(dān)了大部分的工作。但是,你確實需要有人來監(jiān)督和審核他們的行為,因為你希望最終實現(xiàn)非常高的可靠性。

確實有很多動機(jī)使它變得盡可能高效和精確,以使得最終的語言模型行為盡可能地好。

是的,這些人類教師正在教授模型所需的行為。他們使用人工智能系統(tǒng)的方式不斷提高,因此他們自己的效率也在不斷提高。

這有點像是一種教育過程,如何在世界上表現(xiàn)良好。

我們需要進(jìn)行額外的培訓(xùn),以確保模型知道幻覺永遠(yuǎn)不可行。而這種強(qiáng)化學(xué)習(xí)人類教師循環(huán)或其他變體將教它。

某種東西應(yīng)該會奏效。我們很快就會找到答案。

CRAIG: 你現(xiàn)在的研究方向是什么?

ILYA: 我不能詳細(xì)談?wù)撐艺趶氖碌木唧w研究,但是我可以簡單地提到一些廣義的研究方向。我非常有興趣使這些模型更加可靠、可控,讓它們從教材數(shù)據(jù)中更快地學(xué)習(xí),減少指導(dǎo)。讓它們不會出現(xiàn)幻覺。

CRAIG: 如果你有足夠的數(shù)據(jù)和足夠大的模型,你能否在數(shù)據(jù)上訓(xùn)練模型,讓其針對一些看似無法解決的沖突得出一種讓每個人都滿意的最佳解決方案。你是否思考過這將如何幫助人類管理社會?

ILYA: 這是一個非常大的問題,因為這是一個更加未來的問題。我認(rèn)為我們的模型仍有許多方面將比它們現(xiàn)在的能力更強(qiáng)大。

如何使用這項技術(shù)作為各種建議的來源,政府使用它的方式是不可預(yù)測的。我認(rèn)為未來可能發(fā)生的一件事是,因為你有這些神經(jīng)網(wǎng)絡(luò),它們將會如此普及,對社會產(chǎn)生如此巨大的影響,我們將發(fā)現(xiàn)有必要讓一個國家的公民向神經(jīng)網(wǎng)絡(luò)提供一些信息,關(guān)于他們想要事物的樣子。我可以想象這種情況發(fā)生。你可以從每個公民那里獲得更多的信息并將其聚合,具體說明我們想讓這樣的系統(tǒng)如何行動,F(xiàn)在它打開了許多問題,但這是未來可能發(fā)生的一件事。

但是什么意味著分析所有變量呢?最終會有一個選擇,你需要決定哪些變量非常重要,需要深入研究。因為我可以讀一百本書,或者我可以仔細(xì)慢慢地讀一本書,從中獲得更多的收獲。所以這方面肯定有一些元素。另外,我認(rèn)為在某種程度上,全面理解一切可能是根本不可能的。我們來看一些更容易的例子。

每當(dāng)有任何復(fù)雜的情況出現(xiàn)在社會中,甚至在公司中,即使是中型公司,它已經(jīng)超出了任何單個個人的理解能力。而且,如果我們以正確的方式構(gòu)建我們的人工智能系統(tǒng),我認(rèn)為人工智能在幾乎任何情況下都可以提供極大的幫助。

 

1作者:Craig S. Smith 來源:鈦媒體 編輯:顧北

 

聲明:①凡本網(wǎng)注明“來源:通信界”的內(nèi)容,版權(quán)均屬于通信界,未經(jīng)允許禁止轉(zhuǎn)載、摘編,違者必究。經(jīng)授權(quán)可轉(zhuǎn)載,須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息并注明“來源:通信界”。②凡本網(wǎng)注明“來源:XXX(非通信界)”的內(nèi)容,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多行業(yè)信息,僅代表作者本人觀點,與本網(wǎng)無關(guān)。本網(wǎng)對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔(dān)全部責(zé)任。③如因內(nèi)容涉及版權(quán)和其它問題,請自發(fā)布之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時間刪除內(nèi)容。 
熱點動態(tài)
普通新聞 中信科智聯(lián)亮相2023中國移動全球合作伙伴大會
普通新聞 全球首個基于Data Channel的新通話商用網(wǎng)絡(luò)呼叫成功撥通
普通新聞 中國聯(lián)通:以優(yōu)質(zhì)通信服務(wù) 助力“一帶一路”共建繁華
普通新聞 楊杰:未來五年,智算規(guī)模復(fù)合增長率將超過50%
普通新聞 長沙電信大樓火災(zāi)調(diào)查報告發(fā)布:系未熄滅煙頭引燃,20余人被問責(zé)
普通新聞 鄔賀銓:生態(tài)短板掣肘5G潛能發(fā)揮,AI有望成“破局之劍”
普通新聞 工信部:加大對民營企業(yè)參與移動通信轉(zhuǎn)售等業(yè)務(wù)和服務(wù)創(chuàng)新的支持力
普通新聞 摩爾線程亮相2023中國移動全球合作伙伴大會,全功能GPU加速云電腦體
普通新聞 看齊微軟!谷歌表示將保護(hù)用戶免受人工智能版權(quán)訴訟
普通新聞 聯(lián)想王傳東:AI能力已成為推動產(chǎn)業(yè)升級和生產(chǎn)力躍遷的利刃
普通新聞 APUS李濤:中國的AI應(yīng)用 只能生長在中國的大模型之上
普通新聞 外媒:在電池競賽中,中國如何將世界遠(yuǎn)遠(yuǎn)甩在后面
普通新聞 三星電子預(yù)計其盈利能力將再次下降
普通新聞 報告稱華為5G專利全球第1 蘋果排名第12
普通新聞 黨中央、國務(wù)院批準(zhǔn),工信部職責(zé)、機(jī)構(gòu)、編制調(diào)整
普通新聞 榮耀Magic Vs2系列正式發(fā)布,刷新橫向大內(nèi)折手機(jī)輕薄紀(jì)錄
普通新聞 GSMA首席技術(shù)官:全球連接數(shù)超15億,5G推動全行業(yè)數(shù)字化轉(zhuǎn)型
普通新聞 北京聯(lián)通完成全球首個F5G-A“單纖百T”現(xiàn)網(wǎng)驗證,助力北京邁向萬兆
普通新聞 中科曙光亮相2023中國移動全球合作伙伴大會
普通新聞 最高補(bǔ)貼500萬元!哈爾濱市制定工業(yè)互聯(lián)網(wǎng)專項資金使用細(xì)則
通信視界
鄔賀銓:移動通信開啟5G-A新周期,云網(wǎng)融合/算
普通對話 中興通訊徐子陽:強(qiáng)基慧智,共建數(shù)智熱帶雨
普通對話 鄔賀銓:移動通信開啟5G-A新周期,云網(wǎng)融合
普通對話 華為輪值董事長胡厚崑:我們正努力將5G-A帶
普通對話 高通中國區(qū)董事長孟樸:5G與AI結(jié)合,助力提
普通對話 雷軍發(fā)布小米年度演講:堅持做高端,擁抱大
普通對話 聞庫:算網(wǎng)融合正值挑戰(zhàn)與機(jī)遇并存的關(guān)鍵階
普通對話 工信部副部長張云明:我國算力總規(guī)模已居世
普通對話 鄔賀銓:我國互聯(lián)網(wǎng)平臺企業(yè)發(fā)展的新一輪機(jī)
普通對話 張志成:繼續(xù)加強(qiáng)海外知識產(chǎn)權(quán)保護(hù)工作 為助
普通對話 吳春波:華為如何突破美國6次打壓的逆境?
通信前瞻
亨通光電實踐數(shù)字化工廠,“5G+光纖”助力新一
普通對話 亨通光電實踐數(shù)字化工廠,“5G+光纖”助力新
普通對話 中科院錢德沛:計算與網(wǎng)絡(luò)基礎(chǔ)設(shè)施的全面部
普通對話 工信部趙志國:我國算力總規(guī)模居全球第二 保
普通對話 鄔賀銓院士解讀ChatGPT等數(shù)字技術(shù)熱點
普通對話 我國北方海區(qū)運(yùn)用北斗三號短報文通信服務(wù)開
普通對話 華為云Stack智能進(jìn)化,三大舉措賦能政企深度
普通對話 孟晚舟:“三大聚力”迎接數(shù)字化、智能化、
普通對話 物聯(lián)網(wǎng)設(shè)備在智能工作場所技術(shù)中的作用
普通對話 軟銀研發(fā)出以無人機(jī)探測災(zāi)害被埋者手機(jī)信號
普通對話 AI材料可自我學(xué)習(xí)并形成“肌肉記憶”
普通對話 北斗三號衛(wèi)星低能離子能譜儀載荷研制成功
普通對話 為什么Wi-Fi6將成為未來物聯(lián)網(wǎng)的關(guān)鍵?
普通對話 馬斯克出現(xiàn)在推特總部 收購應(yīng)該沒有懸念了
普通對話 臺積電澄清:未強(qiáng)迫員工休假或有任何無薪假
普通對話 新一代載人運(yùn)載火箭發(fā)動機(jī)研制獲重大突破
推薦閱讀
Copyright @ Cntxj.Net All Right Reserved 通信界 版權(quán)所有
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像