国产精品,特级露脸av毛片,中文字幕无线码一区亚洲中文字幕,亚洲国产日批av在线免费,亚洲无码久久性爱视频,免费久久99精品一二三区,男男真人无码作爱免费视频,亚洲日韩日本中文在线

別讓“算法”成為“算計”

2024-02-05 11:19:58 來源:人民日報海外版
  超七成用戶表示曾被“算法”推薦服務(wù)困擾,認為“算法”潛藏風(fēng)險
 
  別讓“算法”成為“算計”(“融”觀中國)
 
  ——透視“算法”系列報道之二
 
  你是否有過這樣的經(jīng)歷:閱讀一條新聞,同類新聞便源源不斷推送過來;瀏覽一件產(chǎn)品,產(chǎn)品廣告就會接踵而至;甚至,不經(jīng)意間聊到某話題,相關(guān)信息也會紛至沓來,手機好像無時無刻不在記錄著你的只言片語……這些都不是巧合,而是“算法”計算的結(jié)果。
 
  因為“計算”,用戶獲取信息成本大幅降低,網(wǎng)絡(luò)服務(wù)更加精準高效。然而,越來越多用戶擔(dān)心被“算計”,日益關(guān)注“信息繭房”“大數(shù)據(jù)殺熟”“誘導(dǎo)沉迷”等問題。“別讓‘算法’成為‘算計’”成為網(wǎng)民共同心聲。
 
  痛點
 
  “流量至上”引發(fā)亂象
 
  最近,北京市民王蘭遇到一件令人啼笑皆非的事情:兒子睿睿還不到10歲,手機卻頻繁收到各種相親信息。追根究底,原來是兒子前幾天誤點了一則相親廣告。這讓王蘭感到擔(dān)憂:“網(wǎng)絡(luò)對用戶信息的收集已到了無孔不入的程度。”
 
  大學(xué)生宋凡不久前下載了一款閱讀軟件。打開后,一篇標記著“您可能感興趣”的小說被推送至界面。“這不恰好是我喜歡的作者嗎?”他點開鏈接,一看就是一個多小時??赐旰?,系統(tǒng)又推薦了這篇小說的“番外”。不知不覺,他一連“刷”了幾個小時,連老師布置的課題都忘了寫。
 
  “這就是‘算法’的作用。”杭州某互聯(lián)網(wǎng)公司的算法工程師向陽介紹,“手機軟件可以隨時抓取用戶數(shù)據(jù),通過智能模型分析人們的行為、習(xí)慣和喜好,過濾掉用戶不感興趣的內(nèi)容,推薦用戶感興趣的信息。”
 
  他透露,對一些商業(yè)平臺來說,使用“算法”的主要目的是提升流量,提高收益,至于推送的信息是優(yōu)質(zhì)還是劣質(zhì)、會否帶來網(wǎng)絡(luò)沉迷等問題,則不在考慮之列。“就像小孩喜歡吃糖,有些商家的唯一目標是盡可能賣更多糖給孩子,至于會不會影響健康,不是他們關(guān)心的。”
 
  這種“流量至上”的商業(yè)邏輯,促使一些網(wǎng)絡(luò)平臺借助“算法”頻繁推送用戶感興趣的同質(zhì)化內(nèi)容,更有甚者,以博人眼球的劣質(zhì)低俗內(nèi)容取悅用戶。久而久之,用戶接收信息的范圍就會變窄,渠道也變得單一,從而陷入人們常說的“信息繭房”。
 
  除了“信息繭房”,頻受詬病的還有“算法歧視”。所謂“算法歧視”,是指在“算法”設(shè)計和應(yīng)用過程中,由于偏見、歧視性數(shù)據(jù)集或其他因素導(dǎo)致的“不公平結(jié)果”。
 
  家住石家莊的劉女士,孩子在北京上大學(xué),她每次來京探望孩子都會入住校旁一家酒店。今年初,她通過某手機軟件預(yù)訂一個房間,價格每晚近800元??伤k入住時發(fā)現(xiàn),有客人預(yù)定了同樣房型,價格只要600元。經(jīng)過比對,兩人在同一手機軟件上看到的價格完全不一樣。
 
  “我還是這家酒店的白金卡客戶呢,非但沒有享受到優(yōu)惠,反而還被‘宰’了,孩子告訴我,這叫‘大數(shù)據(jù)殺熟’!”
 
  “大數(shù)據(jù)殺熟”是“算法歧視”的表現(xiàn)形式之一。指平臺利用“算法”進行用戶“畫像”, 如果用戶已是熟客,就不再需要低價吸引,同時,平臺可能通過搜集消費數(shù)據(jù)檢測到用戶消費能力,從而“定向”抬高價格。向陽表示,“算法歧視”一度甚囂塵上,買機票、打網(wǎng)約車甚至網(wǎng)絡(luò)購物,都會被“大數(shù)據(jù)殺熟”,后來有關(guān)部門強力監(jiān)管,這種現(xiàn)象才有所收斂,但目前仍在業(yè)界不同程度存在。
 
  難點
 
  “算法”違規(guī)不易評判
 
  有網(wǎng)友總結(jié),“算法”推薦的劣質(zhì)信息有三個特點:真假難辨、缺乏深度、價值導(dǎo)向錯亂。不少人認為,“價值導(dǎo)向錯亂”是規(guī)范“算法”的最大難點。
 
  王軍是一位自媒體人,最近打算寫一篇關(guān)于“年輕人該不該啃老”的話題。當(dāng)他打開手機,搜索這個話題時,發(fā)現(xiàn)多數(shù)網(wǎng)友都不支持年輕人啃老,這與他的觀點非常一致。
 
  不料,有同事告訴他,現(xiàn)在多數(shù)年輕人都認為,“啃老沒什么問題,人生就是拿來享受的!”這讓王軍感到詫異,同事將手機拿到王軍眼前:“你看,滿屏都是支持啃老的觀點。”而當(dāng)王軍也將自己的手機頁面展示給同事時,兩人只能面面相覷。
 
  “判斷用戶價值導(dǎo)向并非難事,有多種方法可以評價。比如,抓取用戶觀看某話題的停留時間、分析留言是正面還是負面、統(tǒng)計用戶點贊記錄等,都可以用來判定用戶觀點,然后依據(jù)‘內(nèi)容相似度’和‘用戶相似度’,把最受認可的內(nèi)容推薦到頁面上。”向陽進一步解釋,“算法”在某種程度上充當(dāng)了內(nèi)容“編輯”的角色,是否推送、推送給誰、推送多少,都是預(yù)先設(shè)定好的程序說了算。
 
  近年來,針對“算法”引發(fā)的亂象,監(jiān)管部門多措并舉,通過約談、處罰、整改、下架等手段大力凈化網(wǎng)絡(luò)風(fēng)氣。然而,如何有效通過“算法”倡導(dǎo)正確導(dǎo)向的信息,仍是有待破解的命題。
 
  向陽表示,雖然“算法”作為一項技術(shù)是中性的,但其模型設(shè)計、數(shù)據(jù)分析等都離不開設(shè)計者的個人選擇,其主觀意識會潛移默化地嵌入“算法”系統(tǒng)。同時,由于“算法”設(shè)計具有較高的技術(shù)門檻,其設(shè)計過程有如一只黑箱,外界很難洞悉其中原理和邏輯,因此,也很難判定“算法”體現(xiàn)了哪種導(dǎo)向。
 
  向陽的說法不斷被現(xiàn)實印證。由于多數(shù)“算法”設(shè)計者不會將運算細節(jié)公之于眾,即使公開,也很難準確判定。由于缺乏專業(yè)技術(shù)知識,用戶在權(quán)益受到損害時,依法維權(quán)的成本較高。多起因“算法”引起的訴訟均沒有得到理想的判罰結(jié)果。
 
  “‘算法’推薦作為一種商業(yè)秘密和技術(shù)秘密,應(yīng)用過程中又往往涉及社會公共利益,如何平衡、把握對‘算法’推薦法律規(guī)制的邊界,是面臨的一大難題。”北京大學(xué)法學(xué)院副院長薛軍認為,在司法以及行政理念上,需要將“算法”的運用作為“算法”運營者行為的延伸。無論運營者是否存在過錯、是否存在行政違法等,“算法”因素都應(yīng)被納入追責(zé)的考量范圍。
 
  焦點
 
  凝聚合力規(guī)范“算法”
 
  隨著公眾對“算法”持續(xù)關(guān)注,加強“算法”規(guī)范的呼聲也越來越高。一項調(diào)查顯示,超過70%受訪者表示曾被“算法”推薦服務(wù)困擾,超過60%受訪者認為生活中普遍存在“大數(shù)據(jù)殺熟”。絕大多數(shù)用戶認為,“算法”推薦技術(shù)潛藏了窺探、泄露用戶個人隱私的重大風(fēng)險。濫用“算法”的行為,侵害了消費者的知情權(quán)、選擇權(quán)和個人信息權(quán)益,也給網(wǎng)絡(luò)空間的傳播秩序帶來負面影響。
 
  在這個背景下,一些用戶希望關(guān)閉“算法”推薦功能,停止將個人信息分享給平臺使用。在有關(guān)部門督導(dǎo)下,各大網(wǎng)絡(luò)平臺都上線了關(guān)閉“算法”推薦的功能,將是否收集用戶偏好的選擇權(quán)交還用戶。
 
  然而,平臺個性化推薦存在關(guān)閉難等問題。上海市消保委曾對消費者常用的10款手機軟件開展為期8個月的專項測評,結(jié)果顯示,關(guān)閉個性化推薦最多需7步。
 
  記者登錄幾個下載排名靠前的主流手機軟件,目前關(guān)閉“算法”推薦功能的方式主要是通過“個人設(shè)置”來操作。操作步驟與此前調(diào)查結(jié)果一致,大多仍需要5—7步。記者隨機采訪了20名手機用戶,絕大多數(shù)表示并不知曉手機軟件還有關(guān)閉“算法”推薦的功能,只有1位用戶知道該功能并懂得具體操作。
 
  “這種現(xiàn)象反映了業(yè)界的矛盾心理,一方面不希望用戶大規(guī)模關(guān)閉‘算法’,另一方面也意識到,只有規(guī)范才能長遠。”向陽說,規(guī)范“算法”,需要社會各界發(fā)揮合力,尋找最大公約數(shù)。
 
  “有效治理‘算法’亂象,是構(gòu)建安全清朗的網(wǎng)絡(luò)生態(tài)的必然要求。”中國政法大學(xué)副教授鄭玉雙表示,要健全“算法”的法律規(guī)制模式,破解“算法”的法律規(guī)制難題,實現(xiàn)算法善治。
 
  “對于‘算法’運用是否產(chǎn)生不良后果,要建立一種社會性的評議機制進行持續(xù)性的跟蹤研究。如果社會評議機制有充分的理由,認定特定‘算法’的運用導(dǎo)致不良后果,就應(yīng)該啟動問責(zé)機制,要求相應(yīng)的‘算法’運營者予以解釋與說明并作出優(yōu)化。”薛軍建議。(記者 盧澤華)
返回頂部