AI不是“神仙”也不是“妖怪”
摘要:AI的本事全來自人類喂給它的數據。就像教小孩認動物,如果只給看黃狗的照片,它見了黑狗就不認識。
中國發展改革報社評論員 張守營
最近兩年,AI(人工智能)徹底火了。手機里的語音助手,短視頻平臺上的“數字人”主播,連小區門口包子鋪都用上了AI點餐系統??稍绞菬狒[,普通人越犯迷糊:有人說AI能治病救人,轉頭又聽說AI編瞎話騙人;有人喊著“再不學AI就要失業”,也有人擔心“AI統治人類”。這感覺就像走進個科技廟會,鑼鼓喧天眼花繚亂,但普通人到底該信啥?拋開那些高大上的名詞,用大白話說說AI,它不是“神仙”也不是“妖怪”,AI其實就是個“放大鏡”。
AI的本事全來自人類喂給它的數據。就像教小孩認動物,如果只給看黃狗的照片,它見了黑狗就不認識。之前有銀行用AI推薦理財產品,結果推薦的全是外國基金,因為訓練數據里壓根沒中國大媽愛買的國債信息。更逗的是,AI寫文章時經常“一本正經地胡說八道”,比如非說“秦始皇用過智能手機”——這不是它故意騙人,是壓根不懂自己在說啥。所以,千萬別把AI當神仙供著,它頂多是個特別會查資料的“學霸”,真遇到要緊事,還得咱們自己拿主意。
鄰居王阿姨最近吃了大虧。她在短視頻看到個“AI理財專家”,聽它說得頭頭是道,把養老錢全投進去,結果血本無歸。后來才知道,那個AI推薦的所謂“高收益產品”根本不存在,全是它自己瞎編的。這種“AI幻覺”現在越來越常見,就像小孩為了完成作業硬湊答案。
技術專家打了個比方:AI說話像玩成語接龍,只管句子通順不管真假。讓它寫篇云南旅游攻略,它能編出“昆明海底世界有會說話的企鵝”;讓它推薦養生食譜,敢說“每天吃二兩觀音土排毒”。清華大學搞了個“AI測謊儀”,專門檢查AI說的話靠不靠譜,可普通人哪分得清?記住三條保命法則:看病問真大夫,投資找正規機構,重要信息多查官方渠道,AI頂多當個參考。
看著新聞里動不動幾十億元的AI投資,很多人覺得這是大公司的玩具??稍酆谫u煎餅的李姐不這么想——她用手機上的免費AI工具分析顧客喜好,發現早上七點買煎餅的多是上班族,就在這個時段推出“加蛋送豆漿”套餐,一個月多賺了三千塊。
現在各地政府都在推“AI惠民包”,就像當年教大爺大媽用微信支付。菜農用AI預測菜價、小飯館用AI設計菜單、廣場舞隊都用AI編舞。當然,大公司確實掌握更多資源,但普通人用好現成的AI工具,照樣能改善生活。這就好比用不起私人飛機,但騎共享單車也能到達目的地。
最近歐盟吵翻了天,說要禁止AI看病判案,國內也要求所有AI生成的內容必須打上“電子水印”。這些規定就像給熊孩子定家規:不管吧,怕它闖禍;管太嚴吧,又怕限制成長。
技術派專家急得跳腳:“你們知道訓練個AI多燒錢嗎?天天審查還咋創新?”可普通人更擔心的是,AI萬一把自家孩子照片亂傳到網上,或者租房時被AI算法歧視怎么辦?其實這事兒得兩頭抓:既要給AI劃紅線,比如不準冒充真人、不準搞種族歧視,又得留出成長空間,就像孩子犯錯不能一棍子打死。聽說現在有“AI道德委員會”,里頭不只有科學家,還有律師、教師甚至家庭主婦。這就對了——管AI不能光靠專家,得大家商量著來。
AI放大人性的善與惡,放大社會的進步與缺陷。用得好,就像給全村人配上望遠鏡,看得更遠;用歪了,就成了照妖鏡,照出貪心與偏見。
咱們要做的,不是跪拜也不是恐懼,而是像學用智能手機那樣,慢慢摸清它的脾氣。政府得當好“家長”,既鼓勵創新又守住底線;企業不能光想著賺錢,得教用戶怎么正確使用;而咱們自己,少刷點“AI毀滅人類”的營銷號,多學點實用技能。畢竟,決定未來的從來不是工具,而是使用工具的人。
責任編輯:宋璟