1865年,在北京永定門外的平地上,英國人杜蘭特在一條只有一里多長的鐵路上開起了蒸汽機(jī)車。當(dāng)時(shí)京城的老百姓對此聞所未聞,根據(jù)清人李岳瑞 《春冰室野乘記》記載:“京師人詫所未聞,駭為妖物,舉國若狂,幾至大變?!?/p>
最后結(jié)局是步軍統(tǒng)領(lǐng)衙門下令拆掉。類似的,10年后在上海吳淞鐵路建成通車同樣引起了騷動(dòng),結(jié)局也是清政府收購了這條鐵路,并將其拆除。 如今,算法的遭遇同樣如此。
英語里對這種現(xiàn)象有個(gè)專門的詞,叫Technophobia。類似上個(gè)世紀(jì)《科學(xué)怪人》那種大眾文化所體現(xiàn)的,人們對新技術(shù)的一種天然恐懼。
簡單通俗的講,算法就是一套評判機(jī)制。這套機(jī)制對平臺(tái)的所有用戶都有效,通過根據(jù)用戶的一系列反饋行為來改進(jìn)平臺(tái)功能,提高用戶體驗(yàn)最終使平臺(tái)形成一個(gè)可循環(huán)的良性生態(tài)。
但妖魔化算法的言論一直不絕如縷。比如近來《比抖音讓人墮落更可怕的,是今日頭條讓我們變傻》這類文章。這些文章強(qiáng)調(diào)兩點(diǎn):
1、算法只給你推你喜歡看的
2、今日頭條、抖音等平臺(tái)只靠算法
這些立論有意將客觀事實(shí)簡化了,其實(shí)是非常標(biāo)準(zhǔn)的Technophobia。當(dāng)人工智能被用于內(nèi)容分發(fā)之后,隨之而來的,用戶需求如何與推薦內(nèi)容進(jìn)行有效重合并清晰定義其邊界的討論會(huì)是一個(gè)非常長期的議題,不是簡單粗暴就可以下結(jié)論的。
1 、頭條和抖音的內(nèi)容機(jī)制一直在自我進(jìn)化
《變傻》一文的作者,很可能并沒有用過現(xiàn)在的頭條和抖音,他的認(rèn)知還停留在過去。
互聯(lián)網(wǎng)評論就是這樣,總有人喜歡拿一成不變的眼光,來打量、評判對方,以至于得出錯(cuò)誤的結(jié)論。
頭條很清楚算法是不完美的,有自身的局限。
所以它需要另一種分發(fā)手段來補(bǔ)足算法的不足和弊端,或者說找到驅(qū)動(dòng)頭條系的第二個(gè)輪子,現(xiàn)在看來第二個(gè)輪子就是粉絲分發(fā),或者叫社交分發(fā)。如今的今日頭條已經(jīng)更新過7個(gè)大版本,早已不是純算法,而是“算法+社交+搜索+問答”的綜合體。
比如,你可以通過搜索功能自發(fā)地去尋找任何對你而言有價(jià)值的信息。 如果你喜歡哲學(xué),可以在今日頭條上搜索“尼采”、“柏拉圖”、 “福柯”等關(guān)鍵詞來獲取相關(guān)資訊,和人交流。事實(shí)上,“主動(dòng)搜索”并獲取信息是所有平臺(tái)都希望大家會(huì)去做的事情,因?yàn)檫@本身可以創(chuàng)造更精準(zhǔn)的價(jià)值。 算法的價(jià)值還在于長尾分發(fā),即使小眾信息也能獲得較好的推薦,與此同時(shí),在信息足夠豐富的情況下,擁有小眾興趣的人也能找到有價(jià)值的信息。
比如一些比較冷門的電影,80年代的老照片,大學(xué)的校園資訊。這些原本散落在互聯(lián)網(wǎng)各個(gè)角落的信息,被收納進(jìn)一個(gè)推薦盒子,出現(xiàn)在你眼前,而不是像過去那樣被埋沒在信息的大海中。
而且如果你看一下整個(gè)今日頭條首頁,它其實(shí)是有四塊:
第一個(gè)是搜索區(qū),用戶可以主動(dòng)搜索感興趣的信息;
第二個(gè)是置頂區(qū),屬于國家大事;
第三個(gè)是要聞區(qū),屬于重要的媒體新聞,通常會(huì)打上“熱”的標(biāo)簽;
第四個(gè)才是個(gè)性化區(qū),屬于用戶偏好的資訊,這里既包括用戶自主訂閱的信息,也包括系統(tǒng)推薦的信息。 也就是說,在今日頭條實(shí)際產(chǎn)品機(jī)制中,算法并不只是給你推感興趣的內(nèi)容,也不存在只能看到算法推薦的內(nèi)容的情況。
今日頭條的成功,主要還是靠對流量的理解和公司的運(yùn)營、算法、數(shù)據(jù)化思維形成的執(zhí)行力。算法是很重要,但也只是其中的一環(huán)而已。
2、算法并不是你喜歡什么就只給你推什么
如果你以為算法是你喜歡什么就給你推什么,就未免把算法想得過于簡單了。
其實(shí)這種說法很早就有了,傳播學(xué)里面叫所謂echo chamber situation(回音室效應(yīng)),很多人擔(dān)心互聯(lián)網(wǎng)的內(nèi)容推薦算法會(huì)加劇這種所謂的回音室效應(yīng)——喜歡什么就推什么,最后全部都是同一類內(nèi)容,看不到其他。但事實(shí)證明這并沒有發(fā)生,也沒有哪個(gè)互聯(lián)網(wǎng)公司會(huì)傻到這么去做。
原因很簡單,人性本身就是喜新厭舊的,對多樣性的追求是一個(gè)很基礎(chǔ)的需求。喜歡什么就永遠(yuǎn)推什么本身就很反人性。就好像愛吃什么就頓頓都給你吃一樣的東西,不給你看菜單一樣,沒有任何一家飯店會(huì)這么做。
比如我們拿抖音實(shí)驗(yàn)一下,用一臺(tái)新手機(jī)在未登錄狀態(tài)下打開抖音隨機(jī)刷10條,統(tǒng)計(jì)如下:日常生活(2條),簡筆畫(1條),萌寵(1條),戶外紀(jì)實(shí)(1條),小姐姐(1條),英文教學(xué)(1條),家庭親子(1條),健身(1條),炒菜(1條)。 在已登錄狀態(tài)連續(xù)點(diǎn)贊了50個(gè)小姐姐視頻,重啟后,抖音接下來推薦的50個(gè)視頻分別是:小姐姐24個(gè),日常生活9個(gè),旅行風(fēng)景6個(gè),跳舞5個(gè),正能量3個(gè),萌寵1個(gè),科普1個(gè),健身1個(gè)。
也就是說,即使你再瘋狂關(guān)注小姐姐,抖音也不可能連續(xù)給你推送小姐姐視頻。
事實(shí)上,算法針對用戶的興趣偏好,具備一定的打散機(jī)制,不會(huì)出現(xiàn)連續(xù)雷同推薦的現(xiàn)象。認(rèn)為算法只是記錄你單一的喜好,然后根據(jù)這一愛好來做推薦,首先是看不起人性,其次是瞧不起算法。一個(gè)擁有健全人格的人,從來不可能只有一種愛好——喜歡小姐姐,并不妨礙你同時(shí)喜歡萌寵,世界各地的風(fēng)景,音樂和舞蹈。
而且因?yàn)檫呺H效用遞減的規(guī)律,連續(xù)推送同一個(gè)主題是一件很虧的事情,吃力不討好。
社會(huì)心理學(xué)上也有“貝勃定律”。當(dāng)人經(jīng)歷強(qiáng)烈的刺激后,再施予的刺激也就變得微不足道。就心理感受來說,第一次刺激會(huì)沖淡第二次刺激。 這也解釋了人們?yōu)槭裁纯偸恰跋残聟捙f”,一個(gè)人的興趣愛好,不可能總是一成不變。
可以說,即使從滿足用戶需求的角度,平臺(tái)也不可能一直給你推小姐姐。
3、算法自身有探索能力
何況,算法不是機(jī)械的算術(shù)。
若是如此,各大科技公司也用不著為爭搶名校畢業(yè)的算法工程師而擠破頭,算法工程師也根本不值得年薪百萬,Google、微軟等也無需聘用大量的高端人才進(jìn)行推薦算法優(yōu)化。算法的魅力,在于不斷學(xué)習(xí)、迭代和進(jìn)化。
機(jī)器人之所以能夠戰(zhàn)勝世界頂級棋手,就是因?yàn)樗鼜?qiáng)大的學(xué)習(xí)能力,形成極高的競爭壁壘。
而探索性,本來就是推薦算法原本就有的特質(zhì)之一。 這里涉及到一個(gè)知識(shí)點(diǎn):協(xié)同推薦。
算法的協(xié)同推薦,除了內(nèi)容本身,還包括基于用戶推薦,根據(jù)分析不同用戶之間的相似性,從而擴(kuò)展推薦的探索能力。張三喜歡科技、財(cái)經(jīng)、體育,李四喜歡科技、財(cái)經(jīng)、體育、健康內(nèi)容,那么,算法會(huì)嘗試將健康資訊推送給張三。
因?yàn)樵谕扑]系統(tǒng)看來,張三和李四是相似的人。于是,張三就可以接收到原本不在自己興趣范圍內(nèi)的健康資訊。 推薦系統(tǒng)是在推薦跟你相似的一群人可能感興趣的內(nèi)容。
他們感興趣的內(nèi)容很可能是你會(huì)感興趣的,但是你此前還不知道的,所謂的“你不知道自己不知道”。這在一定程度上豐富了內(nèi)容。
4、 算法比社交更容易突破圈層
相比之下,朋友圈具有更大的“回音壁”效應(yīng),人往往陷入而不知。 因?yàn)榕笥讶锏囊磺行畔?,完全由你個(gè)人定制,因?yàn)閮?nèi)容產(chǎn)出方完全是自己篩選出來的,人根本聽不到和自己相左的觀點(diǎn)和意見,很容易形成同一類人或者同一群人的偏見。
而通過算法推薦內(nèi)容,不是根據(jù)觀點(diǎn)推薦,這就可以確保更多種多樣的觀點(diǎn)。
若不是短視頻APP出現(xiàn),社會(huì)底層的工作者、普通人,還會(huì)被這個(gè)社會(huì)繼續(xù)忽略。
這些人可能是你每天給你送外賣的小哥,很有可能是給你理發(fā)的學(xué)徒,是你手上拿著的手機(jī)的流水線上的工人,他們不曾上過微博熱搜,從不逛知乎,更不會(huì)出現(xiàn)在你的微信朋友圈里。是算法讓來自全國各地、各種身份的人無差別地匯聚到了你的手機(jī)里。這才能透過手機(jī)屏幕看到豐富多樣的人生百態(tài)。 比如,抖音甚至?xí)匦峦扑]數(shù)據(jù)庫里的“優(yōu)質(zhì)老內(nèi)容”,給它更多的曝光。
這些老作品之所以能被“引爆”,一般都是因?yàn)檫@些賬號已經(jīng)發(fā)布了足夠多足夠垂直的內(nèi)容,標(biāo)簽變得更清晰,推薦算法能夠幫助這些優(yōu)質(zhì)內(nèi)容匹配給更精準(zhǔn)的用戶。而在公眾號這樣的平臺(tái)上,很少會(huì)有一個(gè)月前的精品內(nèi)容能被“挖墳”再火的,這其實(shí)是對海量優(yōu)質(zhì)內(nèi)容的浪費(fèi)。
一個(gè)優(yōu)質(zhì)的推薦系統(tǒng),本質(zhì)上是信息降噪的過程。
從一個(gè)巨大的內(nèi)容池中,選出對你而言有價(jià)值的信息推薦給你,降低你尋找信息、篩選信息、組織信息的成本。 說到底,算法也好,APP也好,都只是一個(gè)工具。誠然,算法作為工具應(yīng)該不斷完善。但具體如何使用,取決于人自己。
羅素提過一個(gè)看法:不管你是在研究什么事物還是在思考任何觀點(diǎn),請只問你自己“事實(shí)是什么”以及“這些事實(shí)所證實(shí)的真理是什么”。永遠(yuǎn)不要讓自己被自己所更愿意相信的,或者你認(rèn)為人們相信了之后會(huì)對社會(huì)更加有益的東西所影響。只是單單地去審視,什么才是事實(shí)。
讓我們變傻的不是算法,而是失去理性的審視。