從傳感器新聞、大數(shù)據(jù)分析到算法推薦、可視化呈現(xiàn)等,人工智能正在帶來一場媒體技術(shù)革命。在歡呼技術(shù)帶給人巨大福利的同時,很多人文學(xué)者和科學(xué)家對人工智能的風(fēng)險產(chǎn)生了擔(dān)憂。智能媒介作為人工智能重要組成部分,其現(xiàn)實和未來風(fēng)險包括“單向度的人”“信息繭房”“信息過載”“自我截除”“被替代”“透明人”“黑箱”“客體化”等,這些現(xiàn)象近年來受到廣泛關(guān)注。
大眾媒體時代的延續(xù)風(fēng)險:單向度的人
20世紀(jì)60年代,馬爾庫塞在《單向度的人》中對發(fā)達(dá)工業(yè)社會進(jìn)行了批判,他認(rèn)為現(xiàn)代新技術(shù)形態(tài)對人進(jìn)行了全面操縱和控制,使人喪失了否定的、批判的、超越性的第二向度思維,從而導(dǎo)致“單向度的人”。他認(rèn)為,大眾媒介是國家的“話筒”,是權(quán)力的工具,在“單向度的人”形成過程中“功”不可沒。
因此,“單向度的人”并非因人工智能媒介而產(chǎn)生的,甚至網(wǎng)絡(luò)時代的到來曾在一定程度上消解了大眾媒體時期人的單向度:人同時作為生產(chǎn)者和消費(fèi)者,主體傳播地位增強(qiáng);網(wǎng)民建立了公共話語空間,在網(wǎng)絡(luò)上產(chǎn)生了“意見市場”。這些都有效地促進(jìn)人的全面發(fā)展。
但智能媒介的廣泛應(yīng)用卻使這些情況發(fā)生了變化,“信息繭房”的形成對人的單向度起了強(qiáng)化和極化作用。其一,智能媒介深諳人們的喜好,用定制信息搭建起了“信息繭房”。在智能化、移動化媒介的“共謀”中,一些人的思想沉迷在極為狹窄的領(lǐng)域中,成為比大眾媒體時代更為典型的“單向度的人”。傳媒學(xué)者喻國明認(rèn)為,算法甚至可以使公眾在由自己的意志編織起來的“信息繭房”中背離事實,削弱其理性判斷力,從而實現(xiàn)對公眾的操縱。其二,智能媒介技術(shù)的高門檻在“信息繭房”的外圍又搭建起一道高墻。神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)等工具的技術(shù)障礙對于普通網(wǎng)民是難以逾越的,容易引起“智能崇拜”,使網(wǎng)民“屈從”于智能媒介給出的事實解讀。其三,大數(shù)據(jù)技術(shù)和不當(dāng)媒體操作合謀,很容易根據(jù)性別、年齡、購買行為等為人精準(zhǔn)畫像,使人變成“透明人”!巴该魅恕北阌谛畔⑼诰、歸類,成為游說、推銷的對象,進(jìn)而變成“票倉”“市場”,而其他向度卻被棄之一旁,從而又增強(qiáng)了“信息繭房”的效應(yīng)。
綜上所述,智能媒介技術(shù)利用其推薦算法為很多網(wǎng)民搭建起了“信息繭房”,技術(shù)的高門檻、人的透明化在“信息繭房”之外又筑造了兩道高墻,這種情況下人的單向度進(jìn)一步提高。
當(dāng)前智能媒介的主要風(fēng)險:算法黑箱
“算法新聞”指的是以機(jī)器學(xué)習(xí)或神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)生產(chǎn)和推薦的新聞。牛津路透新聞研究所《數(shù)字新聞報告 2017》顯示,54% 的受訪者更喜歡通過算法來篩選新聞故事。由于算法技術(shù)本身的復(fù)雜性,受眾很難像了解傳統(tǒng)媒體運(yùn)作流程那樣去了解算法新聞的產(chǎn)制過程,因此這個中間環(huán)節(jié)常被稱作“算法黑箱”。
算法黑箱的風(fēng)險主要是算法偏見,即用貌似客觀的算法代替新聞的各個環(huán)節(jié),輸出違背客觀真實的結(jié)果。對于公眾而言,算法宣稱的技術(shù)中立姿態(tài)常常具有極大的欺騙性。而算法偏見大多來源于算法設(shè)計者、輸入數(shù)據(jù)以及程序設(shè)計。
媒介即信息,算法即權(quán)力。英國文化研究專家斯科特·拉什(Scott Lash)強(qiáng)調(diào),“在一個媒體和代碼無處不在的社會,權(quán)力越來越存在于算法之中”。算法自身的高門檻、神秘性為其披上了“黑箱”的外衣,其標(biāo)榜的技術(shù)客觀性掩蓋了算法偏見,然而算法偏見塑造的擬態(tài)環(huán)境會對客觀真實帶來真正的傷害。
未來智能媒介的真正風(fēng)險:人被客體化
人類傳播史是一部理性主義不斷擴(kuò)張的歷史,實際上也是人類主體性不斷增強(qiáng)的歷史。新聞傳播從口口傳播、官方發(fā)布到后來職業(yè)化生產(chǎn)再到“人人都有麥克風(fēng)”,無不體現(xiàn)著技術(shù)的強(qiáng)大延伸作用。
麥克盧漢在《理解媒介》一書中指出,任何發(fā)明或技術(shù)都是人體的延伸或自我截除。設(shè)想一下未來智能媒介報道火災(zāi)新聞的場景:火災(zāi)發(fā)生時,分布在現(xiàn)場的傳感器可以判斷出火情大小并初步判斷傷亡情況,并將現(xiàn)場圖像和信息傳真至智能系統(tǒng)。系統(tǒng)在收到信息后,迅速加工成可視化新聞,推送到受眾屏幕上。在這種場景中,除了系統(tǒng)的設(shè)計維護(hù)者,傳統(tǒng)意義上的編輯記者已經(jīng)“被消亡”。此時,人的身份就成了防止算法跑偏的把關(guān)人、不斷給算法系統(tǒng)升級的工程師以及推薦新聞的收受者。法國哲學(xué)家雅克·埃呂爾(Jacques Ellul)認(rèn)為技術(shù)相對于人是自主的:“我們已經(jīng)看到,在技術(shù)的自我增長方面,技術(shù)沿著它自己的路線前進(jìn),越來越獨(dú)立于人……人降低到了催化劑的層次。”
現(xiàn)在我們經(jīng)常聽到的論述是:人工智能在新聞報道領(lǐng)域只能勝任那種預(yù)制的格式化任務(wù),缺少深度和人情味,不會發(fā)散式思考,沒有整體性思維。這種自信實際上帶有很大的主觀性,是對人工智能科技發(fā)展的選擇性遮蔽。人工智能的未來發(fā)展有兩個路向,一是模擬人類的思考,用神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)加上人機(jī)接口等技術(shù),用電腦模擬人腦;另一個路向正是很多科學(xué)家更為擔(dān)憂的,即人工智能跨越現(xiàn)有人類思維邏輯,選擇全新路徑,以降維打擊方式在思維和實踐能力上超越人類。近年來,一些人文學(xué)者對機(jī)器不會代替人類的堅信正被科學(xué)家的擔(dān)憂取代,被比爾·蓋茨譽(yù)為“預(yù)測人工智能未來最權(quán)威的人”的雷·庫茲韋爾(Ray Kurzweil)堅信,人工智能會超越人類智能,而且超越的速度比人們預(yù)想的快得多。
波茲曼指出,任何一種工具都存在觀念上的偏見,都會傾向于將世界構(gòu)建成某種特定形態(tài),看重某種特定的事物,強(qiáng)化某種特定的感官、技能或態(tài)度。特別需要提出的是,在智能機(jī)器自主性增強(qiáng)并突破“奇點”之時,如何保證智能媒介的目的和人類總體價值觀相一致?智能媒介是否會與部分人類或智能機(jī)器共謀,變成謠言制造者、隱私收集者或騷亂煽動者?當(dāng)智能機(jī)器并入物聯(lián)網(wǎng)之后,新聞與控制信息的界限將變得模糊,智能媒介成為直接行動者的可能性是否絕對不存在?這些問題都是需要我們深思的。
從單向度的人、算法偏見到人被客體化,智能媒介的風(fēng)險逐漸加強(qiáng),并且呈現(xiàn)階段性風(fēng)險的特征。人的單向度風(fēng)險在大眾媒體時代就已經(jīng)廣泛存在,只是智能媒介將其強(qiáng)化、極化而已;算法以技術(shù)中立的外衣導(dǎo)致的報道失實,是我們面臨的主要現(xiàn)實危險;未來智能媒介技術(shù)的突破性發(fā)展,可能會真正危及人的主體性。本文并非以技術(shù)悲觀主義看待智能媒介的未來,但在任何情況下都必須看到,技術(shù)本身不能帶來解救,而只有對技術(shù)本質(zhì)的反思才會提供前途。
(作者單位:中國人民大學(xué)新聞學(xué)院)