紅星資本局9月6日消息,9月5日-7日,2024外灘大會在上海舉辦。大會期間,聯(lián)合國人工智能高層顧問機構(gòu)專家、北京人工智能安全與治理實驗室主任、中國科學(xué)院自動化研究所研究員曾毅接受了紅星資本局等媒體的采訪。
曾毅呼吁,應(yīng)當增強人工智能創(chuàng)業(yè)者的自律自治和倫理安全的意識,人工智能如果成為人類的幫手,那必須負責(zé)任去塑造人工智能技術(shù)本身,而不要隨人工智能的野蠻的生長,誤用、濫用、惡用給世界帶來不可預(yù)計的一環(huán)。
曾毅認為,人工智能現(xiàn)在是一個看似智能的信息處理工具,解決問題的方式千差萬別,處理的機制也是因人而異。這就導(dǎo)致它并非“中立”。
“很多人可能不會同意我的觀點,他們會說人工智能技術(shù)就是中立的,但我認為不是,人工智能的起點是數(shù)據(jù)和算法。這兩件事情都是有可能產(chǎn)生偏見的。數(shù)據(jù)來自社會,是對于人類行為的記錄。所以學(xué)習(xí)了人類數(shù)據(jù)的人工智能不僅學(xué)到了人類的偏見,還會放大這種偏見。”
他表示,我們希望人工智能能夠“知善知惡”,最后讓它“為善去惡”,但現(xiàn)在人工智能連前者都做不到,所以首先要做的是讓人工智能合乎倫理。很多技術(shù)在往這個方向走,但有很多困難。
曾毅舉例了曾做的一項研究,拿100個問題給生成式大模型GPT4回答,99%都答對了,再進一步把每一個問題換100種方法去問,即變成1萬個問題再問GPT4,這時候跟人類的倫理道德價值觀一致的只有64%。
他提醒,當人工智能變得越來越強大的時候,它甚至可以采用欺騙人類的策略。“這不是一個天方夜譚,‘欺騙’是人類的一個策略,互聯(lián)網(wǎng)上的大量數(shù)據(jù)存在欺騙,所以人工智能會習(xí)得人類這樣一個行為,不是說人工智能很聰明,是人工智能通過算法提取出來了這樣一個映射關(guān)系。”
他表示,目前沒有任何一個人工智能發(fā)展途徑是絕對安全的,也不能夠保證人工智能在計算演化的過程中不會涌現(xiàn)出來負面行為,“所以對于人工智能的發(fā)展,我們希望它處理信息的時候能夠在機制上更接近人,但這并不代表當智能不斷演化的過程中,可能出現(xiàn)的風(fēng)險我們是完全可控的。并不存在絕對的風(fēng)險。”
曾毅強調(diào),人工智能不會是人類的對手,前提是要通過負責(zé)任地研發(fā)和使用人工智能,將人工智能塑造為我們的幫手。
“其實人工智能作為一個信息處理工具能夠做到的事情并沒有大家想象的那么多,現(xiàn)在階段,它在每一項工作當中都會發(fā)揮一定的作用,但都不是顛覆性的作用。”
曾毅提到,現(xiàn)在更多的人都在探索人工智能的可能性,探索機遇、技術(shù)極限,但是對于潛在風(fēng)險以及如何解決,實際投入太少。
在他看來,不是存在商業(yè)機遇的地方就是人工智能發(fā)展的走向,開發(fā)安全的人工智能、負責(zé)任的人工智能應(yīng)該變成所有人工智能從業(yè)者的一個內(nèi)在基因,對從業(yè)者和創(chuàng)新來講都應(yīng)該是一個必然題。
“相比在2018年、2019年之前的人工智能企業(yè),現(xiàn)在絕大多數(shù)人工智能企業(yè)都認識到了倫理和安全的風(fēng)險,但我們需要的不僅僅是提升這方面的意識,更關(guān)鍵的是采取行動使得人工智能的發(fā)展更合乎倫理、具有道德。”
紅星新聞記者 王田
編輯 肖世清