免费高清特黄a大片,九一h片在线免费看,a免费国产一级特黄aa大,国产精品国产主播在线观看,成人精品一区久久久久,一级特黄aa大片,俄罗斯无遮挡一级毛片

分享

信息繭房,如何破除?

 老犁叔 2023-06-27 發(fā)布于北京

原創(chuàng) 葉晨鑫 網(wǎng)絡(luò)傳播雜志

互聯(lián)網(wǎng)給我們制造了一個信息海洋,但“算法”和“自我選擇”卻在編織一個個信息繭房。

算法推薦,即利用算法和大數(shù)據(jù),對用戶進行畫像以實現(xiàn)信息的個性化精準推送,目前在購物、社交、短視頻、新聞分發(fā)等領(lǐng)域均已廣泛實踐。

“信息繭房”這一概念,最初是在桑斯坦的《信息烏托邦——眾人如何生產(chǎn)知識》一書中提出的,意指在信息傳播中,因公眾自身的信息需求并非全方位的,公眾只注意自己選擇的和使自己愉悅的領(lǐng)域,久而久之,會將自身像蠶繭一般桎梏于“繭房”中。

信息繭房既包括算法推薦造成的繭房,也包括用戶的自身選擇將自我陷入繭房之中。

信息繭房現(xiàn)象及其存在原因

信息繭房現(xiàn)象在信息傳播過程中較為普遍,其產(chǎn)生的主要原因在于個體追求個性化的主觀需求,而算法推薦技術(shù)的發(fā)展則導致其更為顯著。

1

信息繭房現(xiàn)象在算法推薦中的表現(xiàn)

在購物平臺中,首頁基本是前一次搜索物品的同款;在短視頻平臺中,觀看某一視頻時多看了幾遍,接下來刷到的視頻內(nèi)容都是相似的;在聚合類新聞平臺中,搜索或者點贊、評論了某新聞,隨后接觸到的是大量關(guān)于該新聞的內(nèi)容......

算法推薦所想達到的目標是實現(xiàn)用戶的個性化體驗。信息的確在算法推薦技術(shù)的推動下變成了“千人千面”的狀態(tài),滿足了用戶的偏好,但對于單個用戶來說,其接觸的信息持續(xù)性地處于“單人單面”的狀態(tài),導致用戶深陷信息繭房而不自知。

一般而言,人工智能的發(fā)展需要經(jīng)歷弱人工智能、強人工智能和超人工智能的發(fā)展階段?,F(xiàn)階段內(nèi)容算法推薦的智能化水平處于弱人工智能階段,導致推送結(jié)果存在缺陷,如“今日頭條”現(xiàn)階段主要的推薦方法是基于內(nèi)容的推薦系統(tǒng),簡言之,推送的內(nèi)容與受眾之前的閱讀內(nèi)容類似程度較高,這可能導致用戶只能看到與上次閱讀主題相同的內(nèi)容,無法突破特定的主題,這顯然無法與用戶全面的閱讀需求和興趣相匹配,造成信息獲取的“繭化”。

2

信息繭房產(chǎn)生和加劇的原因

個體主觀偏好

即使是在日常的生活中,“挑食”這一現(xiàn)象就足以洞見人們對自己的喜愛事物總是希望多加獲取,即如果餐桌上都是愛吃的菜,那也就不存在挑食的行為了。

信息繭房的形成也是如此,人們對自己愛買的東西、愛看的新聞總是帶有一定的偏好,并樂于沉浸在這種同質(zhì)化世界中。

個體的主觀偏好自然而然地引導人們盡量接觸與自己觀點相吻合的信息,同時竭力避開相抵觸的信息,這種選擇性接觸實際上造成的是一個又一個的信息繭房,但由于此時仍是公眾自我選擇的結(jié)果,因此,雖然該信息繭房已經(jīng)產(chǎn)生,但稱不上是一個媒介倫理問題。

算法推薦技術(shù)的推動

算法技術(shù)被運用于個性化推薦,這實際上也與個體的主觀需求有關(guān)。為了滿足公眾日益增長的個性化需求,“注意力經(jīng)濟”之下,算法技術(shù)被不斷地開發(fā)利用于個性化推薦之中,以增強用戶黏性。

短時間內(nèi)人的注意力是有限的,若用戶被鎖定在由算法精準推送的某類固定信息中,久而久之,會造成思維固化、認知結(jié)構(gòu)單一,甚至會模糊或淡化對現(xiàn)實社會的真實感知,間接地剝奪了用戶對其他信息的“知情權(quán)”。

因此,當算法介入公眾的選擇時,信息繭房問題逐漸顯現(xiàn)出來了。

過去,用戶可能意識到是自己的主動選擇造就了所接觸信息的同質(zhì)性,對“信息繭房”效應保有一份距離,而當下“信息繭房”卻是用戶接收新聞即產(chǎn)生的,很難被察覺和意識到。

算法推薦當中的算法運行過程會按照計算機語言設(shè)定的程序運行,即通過編寫建模邏輯算法,機械性的重復操作可被同樣機械性的計算機循環(huán)運算取代。

算法推薦中“信息繭房”加劇的主要原因在于算法機械性,即算法總是根據(jù)設(shè)定好的程序?qū)τ脩暨M行畫像,再向用戶進行新聞精準推送。

盡管算法的模型有很多種,并且也可以采用切換式混合的方式去優(yōu)化結(jié)果,但是不論如何,其所基于的算法程序總是帶有一定的機械性,例如算法總是基于用戶歷史行為,按照其預先設(shè)定的程序進行新聞推送,使得被推送的新聞在題材、體裁、內(nèi)容上等均缺乏一定的新穎性。長此以往將會造成更堅固的信息繭房。

為何要破除算法推薦中的信息繭房?

1

過度個性化

信息繭房應當對算法推薦中用戶盲目追求個性化以及平臺無條件滿足用戶個性化需求的行為提出一定要求。

用戶追求個性化是其自由,但過度追求信息的個性化,一味尋求自我偏好的滿足,對于個人的信息獲取以及成長發(fā)展來說或許并非益事。另外,目前看來,所謂的“信息繭房”并不全是用戶自身喜好所造成的,而是當下用戶注意力資源成為商業(yè)趨利競爭的對象所導致的,而這實際上侵害了公眾對除推送之外的其他信息的知情權(quán),并且很有可能因此而限制公眾個人視野,強化固有偏見,甚至導致社會分化加劇。

以國外某社交平臺為例,其算法將會據(jù)此對民眾進行精準的信息投放,在美國總統(tǒng)大選期間,支持共和黨的民眾無法接收到關(guān)于民主黨的新聞內(nèi)容;在英國脫歐公投期間,支持脫歐的民眾無法看到有關(guān)英國留在歐盟有利的新聞言論。

民眾在看到的信息都由自己的在線歷史行為決定,算法會自動過濾用戶不感興趣的新聞,而自動推送用戶感興趣的新聞。

在算法推薦機制下,通過算法過濾處理的信息在來源、題材、體裁等方面會被限制,用戶的信息會被自身喜好不斷固化。久而久之,會使成用戶的視野越來越窄,甚至可能出現(xiàn)桑斯坦說的“不同群體之間無法溝通,造成群體極化現(xiàn)象”。

2

在一定程度上與公共利益相悖

從社會層面來說,信息繭房所帶來的是公共領(lǐng)域的逐步喪失和社會文化基本功能的削弱,“繭房”之中的同質(zhì)化信息,影響著公共事務的討論,呈現(xiàn)出封閉化的趨向,這與哈貝馬斯所闡釋的“公共領(lǐng)域具有開放性、平等討論性以及涉及的內(nèi)容具有公共性”不一致。

與此同時,“繭房”內(nèi)的信息主要迎合了用戶的偏好,更多地是站在用戶贊成、支持的立場,缺乏一定的對抗和思辨,最終將進一步固化社會群體的刻板印象,阻礙社會共識的形成,影響社會的整體穩(wěn)定。

這表明算法推薦在一定程度上并未考慮到公共領(lǐng)域中絕大多數(shù)公民的利益,由算法推薦加劇的信息繭房問題更是在一定程度上限制了公眾接觸新知識和新觀點的范圍和途徑,使得公眾無法接觸到完整的信息。

3大破除之道

1

強化企業(yè)責任,提高用戶素養(yǎng)

首先,作為算法推薦技術(shù)的實際應用者,平臺企業(yè)應當對信息繭房問題負起責任。目前一些算法推薦平臺已經(jīng)在反思算法推薦技術(shù)帶來的倫理問題,對此也進一步明確了自身的立場,這是企業(yè)自身為打破用戶的信息繭房所轉(zhuǎn)變的倫理立場。

其次,提高用戶算法素養(yǎng)是掙脫信息繭房的關(guān)鍵一步。用戶必須清楚地意識到“我在獲取信息”,而拒絕沉浸于算法推薦日復一日的同質(zhì)化信息內(nèi)容當中。

與此同時,用戶算法素養(yǎng)的提升還在于對算法推送技術(shù)進行主動了解。根據(jù)凱西·戴維森的說法,用戶的受教育程度與算法素養(yǎng)基本成正比,因此算法應該融入教育哲學,作為第四個“R”(“閱讀”“書寫”“文學”“算法”,即reading,riting,rithmetic,rithms),從而避免其被束縛在算法推送所帶來的信息繭房中而無法掙脫。

2

改進算法推薦機制,增設(shè)專業(yè)把關(guān)人

改進算法推薦技術(shù),主要目的在于打破信息繭房的封閉空間,同時提高整個平臺空間的優(yōu)質(zhì)氛圍。

一是突破單一推薦模式。從形式來看,應當將個性化搜索和個性化推薦相結(jié)合,這在絕大多數(shù)算法推薦平臺中都得以應用,但在個性化推薦環(huán)節(jié),主要適用的是協(xié)同過濾推薦算法和基于內(nèi)容的推薦算法,信息收集模式和依據(jù)信息進行用戶畫像的模式均過于單一,應當在此基礎(chǔ)上進行完善,在滿足用戶個性化需求的同時力爭從更多的角度進行用戶畫像,防止信息呈現(xiàn)的結(jié)果過于單一。

二是讓算法推薦機制推薦更有公共價值、更有專業(yè)水準、多方面平衡的內(nèi)容。從該層面講,算法推薦事實上真正要做的是在內(nèi)容層面提高優(yōu)質(zhì)信息的推送權(quán)重,通過算法甄別和提取對用戶最有價值的信息,并且能夠在更大的社會關(guān)系框架中提供相關(guān)知識和關(guān)系圖譜,滿足人們更深層次的認知需求。

三是增設(shè)專業(yè)把關(guān)人,將公共價值重新還原到信息傳播本身當中,特別是對于新聞行業(yè)來說,不能把傳播完全交由算法運作,具有專業(yè)素養(yǎng)的把關(guān)人仍有存在的必要性。

在算法推薦中,目前的人工編輯通常只能決定內(nèi)容的推薦狀態(tài),而無法決定其具體的呈現(xiàn)位置,即用戶最終能否看到此條內(nèi)容基本由算法決定,人工編輯干預較少。因此,從該層面來講,人工編輯在智能媒體時代的把關(guān)職能比在傳統(tǒng)媒體時代要大大減弱。

算法還引發(fā)了新聞分發(fā)標準的變革,即由傳統(tǒng)媒體時代新聞編輯與分發(fā)中判斷新聞價值所依據(jù)的“時效性、重要性、接近性、顯著性、趣味性”五要素轉(zhuǎn)變?yōu)樗惴▽τ脩絷P(guān)聯(lián)度、新聞實用性和用戶興趣度的高度關(guān)注和依賴。

此外,以算法應用為主的應用軟件是典型的技術(shù)驅(qū)動平臺,公司的核心利益指標主要由技術(shù)部門承擔,編輯團隊的話語權(quán)由此不可避免地被削弱,傳統(tǒng)意義上的把關(guān)職能弱化。

為此,必須考慮到人工編輯團隊把關(guān)功能弱化所帶來的弊端,采取一些創(chuàng)新舉措,如國外某社交平臺在新聞推薦上舍棄了原有的標簽算法,推出了新聞聚合功能插件Moments,以人工編輯篩選、整合信息,形成當天熱點事件的整合推送。

3

加強對算法推薦規(guī)則的規(guī)制

在算法推薦中,用戶將自身對信息的選擇權(quán)和決策權(quán)在一定程度上讓渡給了算法,這也意味著算法將成為法律監(jiān)管的核心。

針對信息繭房問題,除了企業(yè)和相關(guān)技術(shù)人員的自律、算法推薦技術(shù)的改進、人機協(xié)調(diào)等,還需要一定的法律制度予以規(guī)制,但法律并非無所不包,對于信息繭房這樣的倫理問題,法律只能針對實際造成的損害進行規(guī)制。

因此,將算法納入法律的渠道,不是信息繭房問題的直接解決方式,而是期望能夠從宏觀上強化對算法自身的法律監(jiān)管,從源頭上防止信息繭房負面效應的進一步擴大。通過分析算法推薦技術(shù)的推薦傾向與推薦標準,評估其可能產(chǎn)生的一系列后果及影響,為算法設(shè)置“底線”。

對此,在法律監(jiān)管中應注意納入以下幾個方面:算法決策規(guī)則的標準;算法的審查程序及規(guī)則;算法利用用戶信息的底線。應用平臺如需利用算法推薦技術(shù),必須進行事前備案,相關(guān)部門需要不定期抽檢算法推薦技術(shù)的運行情況,同時接收用戶的投訴舉報,在發(fā)現(xiàn)推薦決策規(guī)則異常后,立刻要求相關(guān)平臺進行解釋說明,并對其行為進行懲戒。此舉將有助于防止算法推薦平臺濫用算法推薦技術(shù)從而加劇信息繭房問題。

總之,信息繭房并非是新出現(xiàn)的問題,其歷史由來已久,只是算法推薦技術(shù)的出現(xiàn)使得該問題更為凸顯。換言之,信息繭房是必然存在的事物,也并非是一個全然負面的事物。我們要警惕的是隨著算法推薦技術(shù)的深入發(fā)展,信息繭房引發(fā)的信息鴻溝擴大、群體偏見和刻板印象固化、間接操縱公共領(lǐng)域等負面問題。

?本文 作者單位為華東政法大學。

?投稿 wangluocb@vip.sina.com

?征訂 《網(wǎng)絡(luò)傳播》雜志郵發(fā)代號:80-199

原標題:《信息繭房,如何破除?》

閱讀原文

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多