保障人工智能安全需要確保AI始終說真話。
多知4月2日消息,埃隆·馬斯克 (Elon Musk) 在為期四天的豐富峰會(huì)期間的“人工智能大辯論”研討會(huì)上談到了人工智能 (AI) 的風(fēng)險(xiǎn)??紤]到人工智能對(duì)人類造成危險(xiǎn)的可能性很小(大約 10% 到 20%),他表示,冒險(xiǎn)仍然值得。
馬斯克沒有深入探討具體細(xì)節(jié),但他說:“我認(rèn)為它有可能終結(jié)人類。我可能同意 Geoff Hinton(被譽(yù)為深度學(xué)習(xí)教父) 的觀點(diǎn),即大約是 10% 或 20% 或類似的數(shù)字。我認(rèn)為積極情況可能超過了消極情況。”
對(duì)于如何保障人工智能安全?埃隆·馬斯克在峰會(huì)上表示,保障人工智能安全的計(jì)劃很簡單:確保人工智能始終說真話,因?yàn)橐坏┤斯ぶ悄軐W(xué)會(huì)說謊,就很難停下來。
埃隆·馬斯克說,到2030年人工智能將比人類更聰明,這就是為什么需要更加小心該技術(shù)的不良后果。他將制造超級(jí)智能的人工智能與培養(yǎng)一個(gè)真正聰明的孩子進(jìn)行了比較,他表示,教會(huì)人工智能始終說真話并保持好奇心非常重要。
“你培養(yǎng)了一個(gè) AGI。這幾乎就像撫養(yǎng)一個(gè)孩子,但是一個(gè)像超級(jí)天才,你如何撫養(yǎng)這個(gè)孩子很重要,”他補(bǔ)充說,“其中之一我認(rèn)為對(duì)于人工智能安全來說非常重要的是擁有最大程度的尋求真相和好奇的人工智能。”(多知 Penny)