首頁 -> 視頻 ->通時事
防AI“胡說八道”之後 我們該防AI“胡作非為”了?分享到:
【同期】中國網絡空間安全協會理事長 趙澤良
我們以前講大模型講安全,我們擔心的什麼?我們擔心的是胡說八道,到了今天我們還要擔心什麼?我們還要擔心胡作非為,我們以前擔心人工智能,關注的什麼?關注的認知污染,它生成的內容,有問題的影響人的認知,我把它叫認知污染。今天我們要擔心什麼?我們要擔心行為失控,開車我們用導航地圖,我們有點擔心導航地圖會不會瞎指路,明天我要擔心我的智駕系統會不會瞎開車,這些都給網絡安全帶來了現實的挑戰。 最近幾天人工智能領域大事多新鮮事多,3月17日,英偉達的GPU技術大會在硅谷召開,兩天前(3月19日)華為的合作夥伴大會在深圳召開。我們的人工智能特別是我們大模型,正在從追求超大參數,超規模算力,向塑身型、高效率應用落地來轉變。 OpenClaw它是一個重要的標誌,讓我們的人工智能,讓我們的大模型從能說到會做,為人工智能的應用落地提供了一個非常好的起點。我們要關注的第二件事,也是最近在業界推出的MiniMax M2.7,讓我們的人工智能可以在受控條件下來完成局部的自我進化。第三個事例那就是微軟不久前推出的BitNet Distillation這種框架,這種模型讓我們的大模型現在從計算的維度講,我們通用的FP16,BF16,當然也有FP8,它的模型表示寬度到了1.58比特,這就意味著我們的人工智能,我們的大模型在塑身,在更加小型化這個部分上邁出了關鍵的步伐。我們要關注的第四件事情,OpenAi前不久推出了它的GPT5.4,它不是單一功能的提升,它不再是我們現在習慣的一問一答,它是將我們的問答,將我們的編碼,將我們的任務應用調動接入一體,它是一個綜合性的躍升。從技術維度說我們還可以列舉很多事情,但是我覺得不光是技術,還有治理,(3月20日)白宮發布了美國人工智能的國家政策框架,從六個方面對人工智能提出了監管的要求和重點,技術發展功能增強,安全就更加重要了。 我認為我們的網絡安全,我們的人才培養都需要重構,都需要創新。就安全而言,傳統的網絡安全,我們更多地關注有沒有黑客攻擊,我們今天要更多地關注我們自己的系統,我們自己計算機的智能體,因為你已經把智能體請到你的系統裡了,你已經把小龍蝦安到你的筆記本裡和手機裡了。我們以前做安全更多地在從事分析檢測,那麼我們今天我們更要關注,對AI對智能體怎麼來明確它的權限邊界,我的系統裡的智能體,它能看到什麼,它能調用什麼,它能做到什麼程度都要有明確的權限邊界和責任要求,我們以前的安全比較多事中和事後處理,今天的安全一定要事前定義,事前明確邊界,事前來規範,不是出了問題再彌補。 我們的人才培養也是這樣, AI衝擊最大的是教育,衝擊最大的是人才培養方式。我們要以人工智能的方式來學習來教學,我們可能要去討論是不是現在的學習還一定是從理論到實踐,從基礎到應用,把學習當成一個鏈條,人工智能時代的學習它會不會是網狀型的,會不會是跳躍式的?我們能不能從實踐再深入到理論,從現實的問題去了解中間的理論基礎,讓我們的學習過程和現實問題的解決更加緊密地融合,可以更好地激發我們的學習興趣,也更好讓人才把知識和市場結合起來。 記者 孫思琳 香港報道 相關新聞 |
視頻更 多
“腦機接口”新突破 港大團隊研發超長續航“類腦芯片”
【通說環球】中國醫療憑什麼讓外國人打“飛的”來看病?
地緣衝突升溫 油金避險不再是最佳選擇?股市震盪中投資者應如何應對?
因戰爭停擺的文化交流 在香港再次聯動
防AI“胡說八道”之後 我們該防AI“胡作非為”了?
【你不知道的香港】來香港還可以這樣玩!藏在美食工廠的穿越之旅
馬龍訪港與霍啟剛郭晶晶對打 笑稱六金是被“畫餅”畫出來的
來論更 多評論更 多
論壇更 多閱讀排行
|









