每日經濟新聞
要聞

每經網首頁 > 要聞 > 正文

中國工程院院士譚建榮:生成式AI時代,每個人都將是“作家、制片人、導演”,但要防范五大風險

每日經濟新聞 2023-09-20 21:53:59

譚建榮指出,要防范生成式AI帶來的社會價值風險、用戶使用風險、數據合規風險、數據安全風險和數據質量風險,將大模型“用活、用好”,跟社會治理、數據治理以及人民對美好生活的追求更好的結合。

每經記者 淡忠奎    每經編輯 楊歡

Fftcvktqzh1695217867896.thumb_head

圖片來源:每經記者 淡忠奎 攝

“它(生成式AI)跟以前的人工智能有什么不同呢?過去我們搞的很多人工智能應用基本都不能通過圖靈測試,但是生成式人工智能輕易通過,ChatGPT寫的文章比一般秘書寫得還好,你分不清是人寫的還是機器寫的。很多文科的專業像翻譯,也包括理工科對某個事的分析、判斷以及實際的解決方案,都可以用生成式人工智能來解決。”

9月20日下午,2023成都創新創業交易會人工智能前沿科技成果轉化對接活動上,中國工程院院士、中國大數據技術與產業聯盟理事長譚建榮做了題為《生成式人工智能及其風險防范:關鍵技術與發展趨勢》,分享了自己對生成式人工智能最新發展趨勢以及風險防范的思考。

他認為,生成式人工智能積累了很多階段,現在集中爆發了,“特別是用于生成文本、圖像、音頻、視頻和代碼”。在生成式人工智能時代,每個人都將成為作家、制片人和導演等,至少現在每個人成為作家已經“不是很遙遠,部分已經實現”。

與此同時,也要防范生成式AI帶來的社會價值風險、用戶使用風險、數據合規風險、數據安全風險和數據質量風險,將大模型“用活、用好”,跟社會治理、數據治理以及人民對美好生活的追求更好的結合。

每個人將是“作家、制品人、導演”

在譚建榮看來,人工智能最簡潔的表述就是“計算機思維,或者計算機模擬人的思維”。如何判斷?就是靠著名的圖靈測試,簡單而言“就是人機對話放出來,你分不清哪一句是人說的,哪一句是機器說的。這時候我們就說機器有思維了”。

他認為,生成式人工智能需要深厚的技術積淀,包括高性能訓練與推理、復雜環境支持、多樣訓練方式、豐富算法集成、多語言支持和低成本接入訓練等。比如,ChatGPT、Lens Studio以及國內的文心一言、華為盤古等典型示例。

“不僅能夠寫文章,而且能作曲、畫畫等。很多文科的專業像翻譯,也包括理工科對某個事的分析、判斷以及實際的解決方案,都可以用生成式人工智能來解決。”譚建榮認為,信息技術的推進在三個方面非常令人震驚,確實是顛覆性技術。其中,第一項就是生成式人工智能。第二項則是元宇宙數字空間,要打造一個虛擬現實、增強現實和數字孿生等在內的虛擬空間,“我們每個人在數字空間里都有一個虛擬化身。”

在他看來,生成式人工智能、元宇宙數字空間和擬人化機器人三項技術交叉融合發展,將是一個顛覆性技術。甚至有觀點認為,這樣將會產生人類2.0版本,完全自動化、人機一體化。“生成式人工智能能夠生成內容、生成解決方案,或者通過深度學習、神經網絡等算法,通過大量數據的訓練,使得計算機能夠像人類一樣思考和創作。”

生成式人工智能擁有六大能力,包括分析能力、學習能力、判斷能力、創造能力、預測能力和寫作能力。它能積累了很多階段,現在集中爆發了,“特別是用于生成文本、圖像、音頻、視頻和代碼”。

譚建榮舉了一個例子——過去我們要拍照片可能就要請專業攝影師,因為沒有經過訓練搞不清快門、焦距、光圈等等。但是現在手機上有個智能系統就知道具體環境下感光是多少,焦距應該怎么調,所以現在每個人都是攝影師。

“在生成式人工智能時代,我們每個人都將是作家,每個人將作為制片人,每個人將成為導演,“我們現在都每個人成為作家,已經不是很遙遠,部分已經實現了。”他說。

防范生成式AI“五大風險”

“任何技術都是雙面的。生成式人工智能有很多應用,但是也有一些風險。”譚建榮表示,生成式人工智能有五大風險。

其中包括,社會價值風險、用戶使用風險、數據合規風險、數據安全風險、數據質量風險。以用戶使用風險為例,機器深度學習后生成的內容能夠達到“以假亂真”的效果,而且人工智能應用的門檻在不斷降低,“一旦被惡意使用,將會給個人和社會造成安全風險和實質性傷害”。

而模型基于學習需要對用戶的數據留存、分析可能侵犯個人和商業隱私、版權和著作權以及相關數據保護法案。

那么,如何制定防范措施呢?譚建榮認為,我們首先要制定能力的政策,包括公正、透明、隱私保護等方面。切實保證AI的合理使用,尊重他人的合法權利,防止對他人身心健康的傷害,“包括肖像權、名譽權和個人隱私的損害等。”

第二,還要建立責任的機制,包括社會主義核心價值觀等,比如不能歧視少數民族,不能歧視老年人,不能歧視婦女和小孩等;第三,是要投資AI的安全研究。我們過去對網絡安全已經有很多研究,做了很多防火墻,但是對人工智能安全的研究還相對較少,“一些詐騙團伙也開始利用一些人工智能技術詐騙,很難提防”;第四,還要限制人工智能的濫用,制定法律法規限制生成式人工智能(GAI)的濫用,比如使用GAI進行欺詐、惡意攻擊等活動要受到法律的制裁。

除此之外,還要增加問責制,包括知識產權的風險、算法的風險、數據安全和個人信息保護的風險、能力道德的風險等。“整個生成式人工智能是一項新的制度,很多方面還在有待探索。包括很多公司在中國發布了很多大模型,但是很多大模型的應用案例還沒有看到。”他說。

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

歡迎關注每日經濟新聞APP

每經經濟新聞官方APP

0

0

国产午夜精品理伦片,亚洲手机在线人成网站播放,欧美一级一级a做性视频,亚洲国产色精品三区二区一区
日本永久免费Aⅴ在线观看 午夜激情视频国产 | 日韩动漫一区在线观看 | 青青热久免费精品视频6 | 午夜男女视频一区二区 | 亚洲欧美国产国产综合一区 | 色综合久久久久久久久五月 |