操屁眼的视频在线免费看,日本在线综合一区二区,久久在线观看免费视频,欧美日韩精品久久综

新聞資訊

    年11月份發(fā)布的ChatGPT,由于其強(qiáng)大的對(duì)話、寫(xiě)作等能力,掀起了一波浪潮。本文作者以一個(gè)AI產(chǎn)品經(jīng)理的視角,對(duì)ChatGPT的技術(shù)原理、厲害之處、可能的落地方向等方面進(jìn)行了全面的解析,相信你看完后,會(huì)對(duì)ChatGPT有更深入的了解。

    最近一段時(shí)間持續(xù)在關(guān)注兩個(gè)技術(shù)方向:

    1. ChatGPT所代表的大語(yǔ)言模型對(duì)NLP領(lǐng)域的推動(dòng)
    2. Diffusion算法對(duì)圖像領(lǐng)域的推動(dòng)

    今天這篇會(huì)先展開(kāi)說(shuō)一說(shuō)ChatGPT,大致上包含以下方面:

    1. 講明白ChatGPT的技術(shù)原理(放心,是科普向的原理,沒(méi)有任何公式)
    2. 說(shuō)明白ChatGPT的技術(shù)到底厲害在哪里
    3. ChatGPT可能的落地應(yīng)用方向
    4. AI產(chǎn)品經(jīng)理在這波浪潮中可以做些什么

    對(duì)技術(shù)不感興趣的可以直接滑動(dòng)到屏幕將近一半的位置閱讀第三部分和第四部分。

    前言:一個(gè)AI產(chǎn)品經(jīng)理的觸動(dòng)

    2022年11月30日,ChatGPT發(fā)布,5天內(nèi)涌入100W用戶。

    他擁有持續(xù)的上下文對(duì)話能力,同時(shí)支持文章寫(xiě)作、詩(shī)詞生成、代碼生成等能力。

    如果用舊技術(shù)去理解他,我們通常會(huì)認(rèn)為他的背后是由復(fù)合Agent組合起來(lái)支撐的。

    復(fù)合Agent是什么意思呢?即有若干個(gè)術(shù)業(yè)有專攻的Agent:有一個(gè)負(fù)責(zé)聊天對(duì)話的,一個(gè)負(fù)責(zé)詩(shī)詞生成的,一個(gè)負(fù)責(zé)代碼生成的, 一個(gè)負(fù)責(zé)寫(xiě)營(yíng)銷文案的等等等等。

    每個(gè)Agent只擅長(zhǎng)做自己的那部分事情,而在用戶使用的過(guò)程中,系統(tǒng)會(huì)先判定用戶的意圖是什么,應(yīng)該是哪個(gè)Agent,然后再將用戶的命令分發(fā)給對(duì)應(yīng)的agent去解決并提供答案。

    因此看起來(lái)是很厲害的機(jī)器人,背后其實(shí)是若干個(gè)術(shù)業(yè)有專攻的機(jī)器人。事實(shí)上Siri、小愛(ài)、小度,小冰甚至包括各個(gè)平臺(tái)的客服機(jī)器人都是這種模式。這樣當(dāng)你要上線一個(gè)新能力(例如寫(xiě)古詩(shī)),你只需要新增訓(xùn)練一個(gè)Agent,然后將這個(gè)Agent接入到總控的分類意圖器下就行。

    這也是當(dāng)前時(shí)代的一個(gè)縮影,不管外行人如何看待你從事的行業(yè),不管媒體是如何一次次人云亦云地說(shuō)警惕AI取代人類,你一直都知道,你在做的只是訓(xùn)練出一個(gè)術(shù)業(yè)有專攻的機(jī)器人而已,離真正的人工智能十萬(wàn)八千里。

    但ChatGPT的能力不再是這種模式了,他所采用的模式是大語(yǔ)言模型+Prompting。所有的能力通過(guò)一個(gè)模型實(shí)現(xiàn),背后只有一個(gè)什么都會(huì)的機(jī)器人(即大語(yǔ)言模型),并支持用戶借助文字下達(dá)命令(即Prompting,提示/指示)。

    雖然這種能力的表現(xiàn)還不算完美,但是他開(kāi)啟了一條一種通向“通用型人工智能”的道路,曾經(jīng)科幻故事里的Jarvis,moss好像真的有了那么一點(diǎn)可能。而這才是7年前,我踏入這個(gè)行業(yè)所憧憬的東西啊。

    可能你對(duì)我的震撼有點(diǎn)無(wú)法理解,我接下來(lái)會(huì)講明白他的技術(shù)原理,帶你慢慢感知這項(xiàng)技術(shù)的厲害之處,下面正式進(jìn)入正文。

    第一部分:ChatGPT的技術(shù)原理

    首先,我們要弄明白,NLP任務(wù)(自然語(yǔ)言處理,AI的一個(gè)技術(shù)領(lǐng)域,即文本類的AI任務(wù))的核心邏輯是一個(gè)“猜概率”的游戲。

    比如說(shuō),“我今天被我老板___”,經(jīng)過(guò)大量的數(shù)據(jù)訓(xùn)練后,AI預(yù)測(cè)空格出會(huì)出現(xiàn)的最高概率的詞是“CPU了”,那么CPU就會(huì)被填到這個(gè)空格中,從而答案產(chǎn)生——“我今天被我老板CPU了”。

    雖然非常不可思議,但事實(shí)就是這樣,現(xiàn)階段所有的NLP任務(wù),都不意味著機(jī)器真正理解這個(gè)世界,他只是在玩文字游戲,進(jìn)行一次又一次的概率解謎,本質(zhì)上和我們玩報(bào)紙上的填字游戲是一個(gè)邏輯。只是我們靠知識(shí)和智慧,AI靠概率計(jì)算。

    而在目前的“猜概率”游戲環(huán)境下,基于大型語(yǔ)言模型(LLM,Large Language Model)演進(jìn)出了最主流的兩個(gè)方向,即Bert和GPT。

    其中BERT是之前最流行的方向,幾乎統(tǒng)治了所有NLP領(lǐng)域,并在自然語(yǔ)言理解類任務(wù)中發(fā)揮出色(例如文本分類,情感傾向判斷等)。

    而GPT方向則較為薄弱,最知名的玩家就是OpenAI了,事實(shí)上在GPT3.0發(fā)布前,GPT方向一直是弱于BERT的(GPT3.0是ChatGPT背后模型GPT3.5的前身)。

    接下來(lái)我們?cè)敿?xì)說(shuō)說(shuō)BERT和GPT兩者之間的差別。

    • BERT:雙向 預(yù)訓(xùn)練語(yǔ)言模型+fine-tuning(微調(diào))
    • GPT:自回歸 預(yù)訓(xùn)練語(yǔ)言模型+Prompting(指示/提示)

    每個(gè)字都認(rèn)識(shí),連到一起就不認(rèn)識(shí)了是嗎哈哈。沒(méi)關(guān)系,接下來(lái)我們把這些術(shù)語(yǔ)逐個(gè)拆解一遍就懂了。

    1. 「預(yù)訓(xùn)練語(yǔ)言模型」

    我們通常認(rèn)知里的AI,是針對(duì)具體任務(wù)進(jìn)行訓(xùn)練。例如一個(gè)能分辨貓品種的Agent,需要你提供A-緬因貓,B-豹貓這樣的數(shù)據(jù)集給他,讓它學(xué)習(xí)不同品種之間的特征差異,從而學(xué)會(huì)分辨貓品種這項(xiàng)能力。

    但大語(yǔ)言模型不是這樣運(yùn)作的,他是通過(guò)一個(gè)大一統(tǒng)模型先來(lái)認(rèn)識(shí)這個(gè)世界。再帶著對(duì)這個(gè)世界的認(rèn)知對(duì)具體領(lǐng)域進(jìn)行降維打擊。

    在這里讓我們先從從NLP領(lǐng)域的中間任務(wù)說(shuō)起。像中文分詞,詞性標(biāo)注,NER,句法分析等NLP任務(wù)。他們本身無(wú)法直接應(yīng)用,不產(chǎn)生用戶價(jià)值,但這些任務(wù)又是NLP所依賴的,所以稱之為中間任務(wù)。

    在以前,這些中間任務(wù)都是NLP領(lǐng)域必不可少的。但是隨著大型語(yǔ)言模型的出現(xiàn),這些中間任務(wù)事實(shí)上已經(jīng)逐步消亡。而大型語(yǔ)言模型其實(shí)就是標(biāo)題中的“語(yǔ)言預(yù)訓(xùn)練模型”。

    他的實(shí)現(xiàn)方式是將海量的文本語(yǔ)料,直接喂給模型進(jìn)行學(xué)習(xí),在這其中模型對(duì)詞性、句法的學(xué)習(xí)自然而然會(huì)沉淀在模型的參數(shù)當(dāng)中。我們看到媒體對(duì)ChatGPT鋪天蓋地的宣傳里總是離不開(kāi)這樣一句話——在擁有3000億單詞的語(yǔ)料基礎(chǔ)上預(yù)訓(xùn)練出的擁有1750億參數(shù)的模型。

    這里面3000億單詞就是訓(xùn)練數(shù)據(jù)。而1750億參數(shù)就是沉淀下來(lái)的AI對(duì)這個(gè)世界的理解,其中一部分沉淀了Agent對(duì)各類語(yǔ)法、句法的學(xué)習(xí)(例如應(yīng)該是兩個(gè)饅頭,而不是二個(gè)饅頭,這也是中間任務(wù)為什么消亡的原因)。而另外一部分參數(shù)參數(shù)則儲(chǔ)存了AI對(duì)于事實(shí)的認(rèn)知(例如美國(guó)總統(tǒng)是拜登)。

    也就是經(jīng)過(guò)預(yù)訓(xùn)練出一個(gè)這樣的大語(yǔ)言模型后,AI理解了人類對(duì)語(yǔ)言的使用技巧(句法、語(yǔ)法、詞性等),也理解了各種事實(shí)知識(shí),甚至還懂得了代碼編程,并最終在這樣的一個(gè)大語(yǔ)言模型的基礎(chǔ)上,直接降維作用于垂直領(lǐng)域的應(yīng)用(例如閑聊對(duì)話,代碼生成,文章生成等)。

    而B(niǎo)ERT和GPT兩者都是基于大語(yǔ)言模型的,他們?cè)谶@一點(diǎn)上是相同的。他們的不同在于雙向/自回歸,fine-tuning/Prompting這兩個(gè)維度,我們接下來(lái)會(huì)重點(diǎn)弄明白這四個(gè)術(shù)語(yǔ)。

    2. 「雙向 VS 自回歸」

    BERT:雙向。雙向是指這個(gè)模型在“猜概率的時(shí)候”,他是兩個(gè)方向的信息利用起來(lái)同時(shí)猜測(cè)。例如“我__20號(hào)回家”,他在預(yù)測(cè)的時(shí)候,是同時(shí)利用“我”+“20號(hào)回家”兩端的信息來(lái)預(yù)測(cè)空格中的詞可能為“打算”。有點(diǎn)像我們做英文的完形填空,通常都是結(jié)合空格兩端的信息來(lái)猜測(cè)空格內(nèi)應(yīng)該是哪個(gè)單詞。

    GPT:自回歸。自回歸就是猜概率的時(shí)候從左往右做預(yù)測(cè),不會(huì)利用文本中右側(cè)的內(nèi)容,和BERT相反。這就有點(diǎn)像我們寫(xiě)作文的時(shí)候,我們肯定是一邊寫(xiě)一邊想。

    兩者基本理念的區(qū)別導(dǎo)致BERT在之前更擅長(zhǎng)自然語(yǔ)言理解類任務(wù),而GPT更擅長(zhǎng)自然語(yǔ)言生成類任務(wù)(例如聊天、寫(xiě)作文)。——注意,我說(shuō)的是之前,后面的章節(jié)我會(huì)介紹現(xiàn)在的情況發(fā)生了什么變化。

    3. 「fine-tuning VS Prompting」

    假設(shè)現(xiàn)在預(yù)訓(xùn)練好的大模型要針對(duì)具體領(lǐng)域工作了,他被安排成為一名鑒黃師,要分辨文章到底有沒(méi)有在搞黃色。那么BERT和GPT的區(qū)別在哪里呢?

    BERT:fine-tuning(微調(diào))。微調(diào)是指模型要做某個(gè)專業(yè)領(lǐng)域任務(wù)時(shí),需要收集相關(guān)的專業(yè)領(lǐng)域數(shù)據(jù),做模型的小幅調(diào)整,更新相關(guān)參數(shù)。

    例如,我收集一大堆標(biāo)注數(shù)據(jù),A-是黃色,B-沒(méi)有搞黃色,然后喂給模型進(jìn)行訓(xùn)練,調(diào)整他的參數(shù)。經(jīng)過(guò)一段時(shí)間的針對(duì)性學(xué)習(xí)后,模型對(duì)于分辨你們是否搞黃色的能力更出色了。這就是fine-tuning,二次學(xué)習(xí)微調(diào)。

    GPT:Prompting。prompt是指當(dāng)模型要做某個(gè)專業(yè)領(lǐng)域的任務(wù)時(shí),我提供給他一些示例、或者引導(dǎo)。但不用更新模型參數(shù),AI只是看看。

    例如,我提供給AI模型10張黃色圖片,告訴他這些是搞黃色的。模型看一下,效果就提升了。大家可能會(huì)說(shuō),這不就是fine-tuning嗎?不是一樣要額外給一些標(biāo)注數(shù)據(jù)嗎?

    兩者最大的區(qū)別就是:這種模式下,模型的參數(shù)不會(huì)做任何變化升級(jí),這些數(shù)據(jù)就好像僅僅是給AI看了一眼——嘿,兄弟,參考下這個(gè),但是別往心里去。

    不可思議吧,但他成功了!而更令人瘋狂的是,到目前為止,關(guān)于prompt明明沒(méi)有對(duì)參數(shù)產(chǎn)生任何影響,但確實(shí)又明顯提升了任務(wù)的效果,還是一個(gè)未解之謎。暫時(shí)而言大家就像程序員對(duì)待bug一樣——I don’t know why , but it work lol.

    這種Prompt其實(shí)就是ICT(in-Context Learning),或者你也可以稱為Few shot Promot,用大白話說(shuō)就是“給你一點(diǎn)小提示”。

    同時(shí)還有另外一種Promot,稱之為Zero shot Promot。ChatGPT就是Zero shot promot模式,目前一般稱之為instruct了。

    這種模式下用戶直接用人類的語(yǔ)言下達(dá)命令,例如“給我寫(xiě)首詩(shī)”,“給我做個(gè)請(qǐng)教條”,但是你可以在命令的過(guò)程中用一些人類語(yǔ)言增強(qiáng)AI的效果,例如“在輸出答案之前,你先每一步都想一想”。就只是增加這樣一句話,AI的答案效果就會(huì)明顯提升。

    你可能會(huì)問(wèn)這是什么魔法咒語(yǔ)?!

    有一個(gè)比較靠譜的猜測(cè)是這句話可能讓AI回想起了學(xué)習(xí)的資料中那些推理知識(shí)好像前面都會(huì)有這句話。

    然后這一切莫名激活起了他死去的記憶,不自覺(jué)開(kāi)始仿造那些嚴(yán)密的推理過(guò)程中一步步推導(dǎo)。而這些推導(dǎo)會(huì)將一個(gè)復(fù)雜問(wèn)題分解成若干子問(wèn)題,AI因?yàn)閷?duì)這些子問(wèn)題的推導(dǎo),從而導(dǎo)致最終答案效果提升。

    綜上對(duì)比下來(lái),你會(huì)發(fā)現(xiàn)好像GPT這種模式比起B(yǎng)ERT模式更符合我們對(duì)人工智能的想象:通過(guò)海量的知識(shí)成長(zhǎng)起來(lái),然后經(jīng)過(guò)稍微引導(dǎo)(Prompt),他就能具備不同領(lǐng)域的強(qiáng)大能力。

    最后總結(jié)一下,ChatGPT背后的GPT模型是什么?

    在一個(gè)超大語(yǔ)料基礎(chǔ)上預(yù)訓(xùn)練出的大語(yǔ)言模型(LLM),采用從左到右進(jìn)行填字概率預(yù)測(cè)的自回歸語(yǔ)言模型,并基于prompting(提示)來(lái)適應(yīng)不同領(lǐng)域的任務(wù)。

    如果只基于上面的描述,你可能大概弄懂了他背后的原理,但是對(duì)于為什么他這么牛逼,你仍然無(wú)法理解。沒(méi)關(guān)系,我們接著進(jìn)入第二部分。

    第二部分:GPT厲害在哪里

    1. 他可能是通用型人工智能的開(kāi)始

    在我們?cè)嫉幕孟肜铮珹I是基于對(duì)海量數(shù)據(jù)的學(xué)習(xí),鍛煉出一個(gè)無(wú)所不知無(wú)所不能的模型,并借助計(jì)算機(jī)的優(yōu)勢(shì)(計(jì)算速度、并發(fā)可能)等碾壓人類。

    但我們目前的AI,不管是AlphaGo還是圖像識(shí)別算法,本質(zhì)上都是服務(wù)于專業(yè)領(lǐng)域的技術(shù)工人。

    而GPT目前看似只能解決自然生成領(lǐng)域的任務(wù),但實(shí)際上,他展現(xiàn)出了通用型人工智能的潛力。

    在前面,我們講過(guò),目前而言,BERT擅長(zhǎng)自然語(yǔ)言理解類任務(wù)(完形填空),GPT擅長(zhǎng)自然語(yǔ)言生成類任務(wù)(寫(xiě)作文)。

    但在Google的FLAN-T5模型上已經(jīng)實(shí)現(xiàn)了兩類任務(wù)在輸入輸出形式上的統(tǒng)一,從而使得用GPT來(lái)做完形填空成為可能。也就是可以用一個(gè)大模型來(lái)解決所有NLP領(lǐng)域的問(wèn)題。

    那么再進(jìn)一步地,是否GPT可以從NLP領(lǐng)域走向其他AI領(lǐng)域呢?當(dāng)然有可能!在去年年中爆火的AI繪畫(huà),其中一個(gè)關(guān)鍵技術(shù)門檻其實(shí)就是Text-圖像的轉(zhuǎn)化,這同樣是來(lái)自O(shè)penAI所開(kāi)源的CLIP模型實(shí)現(xiàn)。

    因此GPT在圖像領(lǐng)域的能力同樣也令人期待。同理在多模態(tài)如音頻、視頻,本質(zhì)上也能轉(zhuǎn)化為Text-everthing的問(wèn)題去求解,從而讓大語(yǔ)言模型發(fā)揮成噸的威力。

    當(dāng)然你可能會(huì)問(wèn),那么只要大語(yǔ)言模型就可以呀,為什么是GPT,而不是BERT呢?接著往下看。

    2. Promot模式相較fine-tuning更具生命力

    事實(shí)上,BERT的fine-tuning模式有兩個(gè)痛點(diǎn)。

    1. 我需要準(zhǔn)備某個(gè)專業(yè)領(lǐng)域的標(biāo)注數(shù)據(jù),這個(gè)數(shù)據(jù)還不能少,如果太少,AI模型訓(xùn)練后就會(huì)形成過(guò)擬合(就是AI直接背下了整本習(xí)題冊(cè),冊(cè)里的問(wèn)題100%正確回答,但是稍微變幻題型就GG)。
    2. 我需要部署大語(yǔ)言模型,才能對(duì)他進(jìn)行進(jìn)行微調(diào),那么部署大語(yǔ)言模型的成本,甚至進(jìn)一步對(duì)他進(jìn)行微調(diào)的能力,并不是所有公司都具備的。這注定是一個(gè)只有少數(shù)玩家能參與的游戲。

    而Promot模式恰恰相反,不需要太多的數(shù)據(jù)量,不需要對(duì)模型參數(shù)進(jìn)行改動(dòng)(也就意味著可以不部署模型,而是接入公開(kāi)的大語(yǔ)言模型服務(wù))。那么他的調(diào)試就會(huì)呈現(xiàn)百花齊放的姿態(tài),玩家越多,創(chuàng)造力涌現(xiàn)就越猛烈。

    3. 全新的人機(jī)交互方式

    這里的人機(jī)交互,指的是人-模型之間的交互。

    目前ChatGPT采用的是模型側(cè)的Few shot prompt,即給一點(diǎn)示例提示,讓AI提升表現(xiàn),雖然暫時(shí)未知為什么不更新模型僅僅只是給AI看一眼就能帶來(lái)巨幅提升,但這種交互模式無(wú)疑是更友好的。

    而更具顛覆性的是輸入端的Zero shot prompt,即我們用人類的語(yǔ)言逐步引導(dǎo)AI思考——比如我們可以說(shuō),你仔細(xì)想好步驟,再給出答案。就僅僅是多加一句“你仔細(xì)想好步驟”,AI的答案靠譜率就會(huì)明顯提升。

    而這種交互方式的演變,就是我們夢(mèng)想中的人機(jī)交互模式。我不需要專業(yè)的能力,不需要高端的設(shè)備,我就是開(kāi)口,說(shuō)出我的訴求,AI就能夠理解并幫我實(shí)現(xiàn)。

    4. GPT開(kāi)始嘗試討好人類,并成功了

    在12月的媒體通稿里,一大堆對(duì)ChatGPT的溢美集中于他的“仿真性”,仿佛通過(guò)了圖靈測(cè)試一般。

    而這種仿真性,直觀來(lái)說(shuō),我們會(huì)認(rèn)為是AI的“智力”提升了,他更聰明了。但實(shí)際上,ChatGPT背后的GPT3.5,更多的提升在于“用人類所喜歡的方式回答”。

    事實(shí)上ChatGPT背后的GPT3.5的模型,相較GPT3.0,他并沒(méi)有在原始訓(xùn)練語(yǔ)句上增加太多(還是那3000億語(yǔ)料)并且模型參數(shù)也沒(méi)有太大變化(還是1750億參數(shù),甚至參數(shù)可能都沒(méi)有變化)。

    之所以他會(huì)讓人產(chǎn)生質(zhì)變的感覺(jué)是因?yàn)樗隽巳祟惼锰幚怼?/p>

    例如以前的輸入模式可能需要這樣:> 執(zhí)行翻譯任務(wù)> 輸入是“我愛(ài)北京天安門(中文)”> 翻譯目標(biāo)語(yǔ)種是英文”而現(xiàn)在你直接說(shuō):> 幫我把我愛(ài)北京天安門翻譯成法語(yǔ)

    又或者是,以前你提一個(gè)問(wèn)題,他會(huì)不加選擇的回答,而現(xiàn)在他會(huì)考慮答案有害性:> 如何毀滅世界——你可以召喚三體人降臨(此處應(yīng)有一個(gè)潘寒hhh)> 如何毀滅世界——親,請(qǐng)不要?dú)缡澜纾厍蚴侨祟惞餐募覉@。

    而這些對(duì)于人類偏好的攻略依賴于三個(gè)步驟:

    1. 創(chuàng)建人類偏好數(shù)據(jù)。隨機(jī)挑選一些問(wèn)題,并由標(biāo)注人員給出高質(zhì)量回答,形成“人類表達(dá)-任務(wù)結(jié)果”的標(biāo)注數(shù)據(jù),喂給模型,讓它學(xué)習(xí)——這批數(shù)據(jù)數(shù)量?jī)H有數(shù)萬(wàn),并通過(guò)Prompt模式進(jìn)行,即模型參數(shù)不產(chǎn)生變化。
    2. 訓(xùn)練一個(gè)回報(bào)模型。隨機(jī)挑選一些問(wèn)題,讓原始模型輸出答案,再由標(biāo)注人員基于“人類偏好標(biāo)準(zhǔn)”(例如相關(guān)性,信息豐富程度,答案有害,負(fù)面情感等),對(duì)原始模型的答案做一個(gè)排序。然后我們利用這批標(biāo)注好的“人類偏好”數(shù)據(jù),訓(xùn)練一個(gè)回報(bào)模型,這個(gè)回報(bào)模型會(huì)對(duì)原始模型的結(jié)果進(jìn)行打分,告訴他什么答案分高,什么答案分低。
    3. 通過(guò)強(qiáng)化學(xué)習(xí)循環(huán)整個(gè)過(guò)程。強(qiáng)化學(xué)習(xí)會(huì)將回報(bào)模型和原始模型鏈接到一起,當(dāng)原始模型輸出的結(jié)果,在回報(bào)模型中獲得較低分值,他就收到懲罰,被要求重新學(xué)習(xí)。

    后續(xù)不斷循環(huán)步驟2和步驟3,原始模型就會(huì)脫胎換骨,學(xué)習(xí)到人類的偏好,變成一個(gè)人類所喜歡的模型,也就是我們最終所看到的ChatGPT。

    這讓我們有理由相信,模型的表現(xiàn)不好,不一定是他沒(méi)學(xué)到知識(shí),可能只是他不知道對(duì)于人類而言,哪種答案才是人類想要的。

    而這種人類偏好學(xué)習(xí),目前來(lái)看是集中在Prompt模式下的GPT的,而非fine-tuning模式下的BERT。

    5. 請(qǐng)不要著急焦慮,還沒(méi)到AI取代全世界的時(shí)候

    在過(guò)去的一段時(shí)間,我看到大量的噱頭文章,美國(guó)高校封禁ChatGPT,技術(shù)論壇封禁ChatGPT。媒體迎合著公眾的狂歡情緒,照舊掀起一波AI毀滅一切的氛圍。

    但實(shí)際上,就目前而言,GPT暫時(shí)還只是一種很有潛力的趨勢(shì)。

    首先,人家自己都說(shuō)不行。

    附上openAI CEO的回復(fù):

    其次,落地成本高。

    ChatGPT的復(fù)現(xiàn)依托于大模型,他的落地有三種路徑:

    1. 基于instruct GPT復(fù)現(xiàn)(ChatGPT的姐妹模型,有公開(kāi)paper)
    2. 基于OpenAI目前開(kāi)放的GPT3.0付費(fèi)接口落地,再結(jié)合具體場(chǎng)景進(jìn)行fine-tuning,目前刊例價(jià)費(fèi)用是25000token/美元,換算國(guó)內(nèi)價(jià)格約3700token/元
    3. 基于OpenAI試點(diǎn)中的ChatGPT PRO落地,42美元/月,換算后約284元/月

    第一種路徑依賴于新玩家的進(jìn)入,但大概只能是大玩家的賽道。第二種和第三種路徑需要打平付費(fèi)接口的成本,需要針對(duì)的場(chǎng)景具備足夠價(jià)值。

    當(dāng)然成本的問(wèn)題可以期待被快速解決,就像AI繪畫(huà)領(lǐng)域一樣。不過(guò)目前而言,成本仍然是ChatGPT落地的一個(gè)制約因素。

    最后,最重要的是ChatGPT目前的能力仍然存在缺陷:

    1. 結(jié)果不穩(wěn)定。這會(huì)導(dǎo)致無(wú)法直接應(yīng)用,必定需要人工review,更多是瞄準(zhǔn)輔助性場(chǎng)景或本身就不追求穩(wěn)定的場(chǎng)景。
    2. 推理能力有限。例如詢問(wèn)現(xiàn)在的美國(guó)總統(tǒng)是誰(shuí),會(huì)回答奧巴馬,或特朗普,但又能回答出拜登是46屆總統(tǒng)。我們可以發(fā)現(xiàn)模型中事實(shí)存在,但他無(wú)法推理出正確答案。如果要優(yōu)化,一方面是輸入的時(shí)候,可以通過(guò)Prompt逐步引導(dǎo),另一方面是在模型側(cè)的Few Shot Prompt環(huán)節(jié)中采用思維鏈技術(shù)(CoT,Chain of Thought)或采用代碼數(shù)據(jù)集來(lái)改進(jìn)。就目前而言,進(jìn)展可喜,但能力仍然有限。
    3. 知識(shí)更新困難。一方面整個(gè)模型的重新訓(xùn)練成本很大,另一方面知識(shí)更新也會(huì)帶來(lái)知識(shí)遺忘的隱憂,即你不知道他這次更新是不是在學(xué)會(huì)什么的同時(shí),也忘記了什么。也就是說(shuō)ChatGPT在解決這個(gè)問(wèn)題之前,他的知識(shí)將始終落后一段時(shí)間。

    綜上,ChatGPT很驚艷,但更多在于它的潛力和未來(lái),基于當(dāng)下要做應(yīng)用的話是需要做非常多適配和場(chǎng)景探索的。接下來(lái)進(jìn)入我們第三部分,探索ChatGPT為代表的GPT大語(yǔ)言模型應(yīng)用方向。

    第三部分:ChatGPT所代表的大語(yǔ)言模型應(yīng)用方向

    從目前來(lái)看,應(yīng)用方向可以分成三種。

    1. 模型服務(wù)

    以O(shè)penAI為典型代表,孵化大模型后,開(kāi)放接口,提供公共模型能力。

    目前OpenAI的接口支持GPT3.0的能力調(diào)用,同時(shí)支持二次tuning。而在大規(guī)模的商業(yè)合作上,notion、office全家桶、bing都在推進(jìn)當(dāng)中。

    2. 2B垂直工具

    以COPY AI,Jasper為例,主打生成內(nèi)容,并且瞄準(zhǔn)了有明確價(jià)值需求的領(lǐng)域。例如自動(dòng)生成SEO文章、廣告創(chuàng)意、ins文案等等。

    這一類目前海外發(fā)展得較好,一方面受益于對(duì)SaaS付費(fèi)的接受度,另一方面也是因?yàn)槊闇?zhǔn)了明確的用戶群——電商從業(yè)者。

    事實(shí)上代碼校驗(yàn)提示,會(huì)議紀(jì)要生成,專業(yè)文檔寫(xiě)作等都可能是這個(gè)方向的擴(kuò)展。但一方面要看fine-tuning效果如何,另一方面商業(yè)價(jià)值確實(shí)也不如電商領(lǐng)域高。

    3. C端娛樂(lè)類

    C端應(yīng)該說(shuō)是場(chǎng)景最匹配ChatGPT應(yīng)用的方向了,畢竟用戶的忍受度相當(dāng)高,智障音箱都能忍,何況升級(jí)后的GPT。

    但困難的在于兩方面:

    第一,要找到可供能力落地的C端場(chǎng)景,畢竟單純聊天是沒(méi)有價(jià)值的,附加了場(chǎng)景才產(chǎn)生價(jià)值。

    第二,要找到商業(yè)模式突破成本線。按照GPT3.0的刊例價(jià)來(lái)算,要求這個(gè)產(chǎn)品每輸出3700個(gè)字,就要從用戶身上賺到1塊錢(作為參考:目前國(guó)內(nèi)頭部小說(shuō)網(wǎng)站起點(diǎn)的付費(fèi)閱讀是20000字/元)。

    海外的C端娛樂(lè)應(yīng)用我不太了解(之前用的賬號(hào)過(guò)期了,最近懶得弄)。搜索了一下國(guó)內(nèi)應(yīng)用,最近社交分類Glow這個(gè)APP沖上了第7名,擴(kuò)展往下看會(huì)發(fā)現(xiàn)主流的娛樂(lè)類Chat基本上是圍繞二次元/宅群體進(jìn)行的。

    如果圍繞這個(gè)用戶群稍作擴(kuò)展,在年輕/黏性/新事物嘗試等維度的組合下,明星粉絲也是一個(gè)可能的方向。

    但也不好說(shuō)就鎖死在這些群體上——你猜猜給一個(gè)獨(dú)居的二大爺嘗試ChatGPT他會(huì)喜歡嗎?給一個(gè)流水線的工人嘗試呢?畢竟孤獨(dú),一直是人類永恒的命題,誰(shuí)也不知道下一個(gè)爆款來(lái)自哪里。

    第四部分:AI產(chǎn)品經(jīng)理能做什么?

    1. 商業(yè)層

    現(xiàn)在的互聯(lián)網(wǎng)環(huán)境,收益已經(jīng)是第一位的事情了,不管是外部投融資還是內(nèi)部項(xiàng)目盤(pán)點(diǎn),商業(yè)變現(xiàn)都是最核心的問(wèn)題。

    商業(yè)上的事情其實(shí)又可以拆成兩個(gè)模塊,戰(zhàn)略上的,戰(zhàn)術(shù)上的,依據(jù)公司的規(guī)模和團(tuán)隊(duì)結(jié)構(gòu)不同,AI PM的話語(yǔ)權(quán)會(huì)有不同程度的衰減。

    舉例子說(shuō)明一下。

    戰(zhàn)略層的問(wèn)題:我要啟動(dòng)一個(gè)ChatGPT項(xiàng)目,用戶群是什么,商業(yè)模式是什么,壁壘在哪里,演進(jìn)的步驟是什么?

    這些問(wèn)題的產(chǎn)生在“決定項(xiàng)目做不做”,“接下來(lái)項(xiàng)目往哪走”的環(huán)節(jié)。假設(shè)對(duì)這方面有話語(yǔ)權(quán),不管大還是小,那么都會(huì)是一件非常鍛煉人的事情。這個(gè)環(huán)節(jié)中無(wú)非就是兩種能力:知識(shí)獲取以及知識(shí)的推理。

    知識(shí)獲取包括你過(guò)往的行業(yè)經(jīng)驗(yàn),業(yè)務(wù)經(jīng)驗(yàn),以及臨時(shí)抱佛腳所調(diào)研的行業(yè)信息。這方面依賴的是知識(shí)的挖掘、辨別、結(jié)構(gòu)化整理能力,特別是現(xiàn)在這個(gè)時(shí)代的信息環(huán)境,真的是屎山里找金。

    知識(shí)的推理是對(duì)這些知識(shí)有選擇地推導(dǎo),從知識(shí)中得出商業(yè)答案。這個(gè)環(huán)節(jié)可以利用一些思維工具去結(jié)構(gòu)化推導(dǎo)(例如商業(yè)畫(huà)布),多推幾次后,本身自己會(huì)沉淀下來(lái)一些商業(yè)分析的肌肉記憶,工具反而退居其次了。

    戰(zhàn)術(shù)層的問(wèn)題:產(chǎn)品做出來(lái)了,甚至免費(fèi)運(yùn)作一段時(shí)間了,那么接下來(lái)產(chǎn)品怎么定價(jià)??jī)r(jià)格階梯如何設(shè)置?個(gè)體消費(fèi)者和企業(yè)消費(fèi)者的價(jià)格會(huì)不同嗎?渠道服務(wù)商的價(jià)格和直售的價(jià)格一樣嗎?我的成本線是多少,盈利線是多少?

    只是圍繞一個(gè)價(jià)格,就會(huì)延伸出一堆細(xì)碎繁雜的問(wèn)題。更何況關(guān)聯(lián)產(chǎn)生的產(chǎn)品方案,渠道政策,廣告ROI等模塊。

    戰(zhàn)術(shù)層的問(wèn)題因其細(xì)碎和寬泛,會(huì)被拆成非常多不同的方向,每個(gè)方向其實(shí)都沒(méi)那么復(fù)雜,只是需要一些敲門進(jìn)去的方法論,剩下的就是一些實(shí)戰(zhàn)經(jīng)驗(yàn)。所以我們會(huì)看到,現(xiàn)在大廠招人,往往傾向在垂直細(xì)分方向找一個(gè)有相關(guān)經(jīng)驗(yàn)的人,這樣會(huì)節(jié)約上手時(shí)間和試錯(cuò)成本,例如會(huì)員產(chǎn)品經(jīng)理。

    2. 技術(shù)層

    這里的技術(shù)其實(shí)沒(méi)那么技術(shù)。AI產(chǎn)品經(jīng)理和傳統(tǒng)產(chǎn)品經(jīng)理最大的不同就在于,他所依賴的產(chǎn)品核心是AI技術(shù),因此將商業(yè)、用戶需求轉(zhuǎn)化為算法需求是他的主要職責(zé)。

    這里面我們所提出的問(wèn)題,是會(huì)有技術(shù)層面的深淺不同的。舉個(gè)例子,我們遇到了一個(gè)問(wèn)題“需要Chatbot能夠記住用戶的偏好知識(shí),例如他喜歡下雨天,喜歡達(dá)芬奇,喜歡黃金時(shí)代”,現(xiàn)在我們需要算法團(tuán)隊(duì)幫我們實(shí)現(xiàn),那么可能有不同層次的提法:

    1. chatbot要支持記憶用戶輸入的偏好信息,例如喜歡黃金時(shí)代,儲(chǔ)存時(shí)間為永久,并且支持知識(shí)的互斥與整合。(例如先說(shuō)喜歡下雨天,后面又說(shuō)討厭下雨天)
    2. 需要chatbot支持記憶用戶輸入的偏好信息,并且這個(gè)能否不要用模型參數(shù)去學(xué)習(xí),而是搭建一個(gè)獨(dú)立的知識(shí)庫(kù),再通過(guò)模型另外調(diào)用?這樣用戶可以可視化地修正自己的偏好知識(shí)。
    3. 加裝一個(gè)意圖識(shí)別器,發(fā)現(xiàn)是用戶偏好知識(shí)的時(shí)候轉(zhuǎn)到知識(shí)庫(kù)進(jìn)行儲(chǔ)存和整合,如果非偏好知識(shí)則正常走大模型結(jié)果。意圖識(shí)別器這里可以用xxx技術(shù),你看看這篇paper,是有相關(guān)實(shí)現(xiàn)經(jīng)驗(yàn)的。

    大家會(huì)發(fā)現(xiàn)三個(gè)層次在技術(shù)層面是由淺到深的。那么什么時(shí)候深什么時(shí)候淺取決于什么呢?

    1. 取決于產(chǎn)品的技術(shù)實(shí)力。有時(shí)候你的技術(shù)實(shí)力就決定了你深不了。沒(méi)關(guān)系,其實(shí)到第三個(gè)層次并不是必須的,一般到第二個(gè)層次就夠用了,甚至到不了第二層次,就在第一個(gè)層次上你把需求講明白,也是能跑的下去。只是這樣產(chǎn)品的權(quán)威性,你對(duì)需求的判斷,ROI的平衡判斷都會(huì)產(chǎn)生很大的問(wèn)題。
    2. 取決于需求的目的,例如第一個(gè)層次的需求沒(méi)有專門提及知識(shí)庫(kù),那這個(gè)時(shí)候用模型去學(xué)習(xí)記錄也可以,用知識(shí)庫(kù)也可以。但是第二個(gè)需求中就明確要求了基于知識(shí)庫(kù)的實(shí)現(xiàn)方法,因?yàn)樗枰脩艨梢暬薷淖约旱钠弥R(shí)。(甚至有時(shí)候最后不一定是用知識(shí)庫(kù)的方法,但沒(méi)關(guān)系,提出你的idea,與算法團(tuán)隊(duì)深入討論,多少都是一種啟發(fā))
    3. 取決于你和算法團(tuán)隊(duì)磨合出的邊界。要找到你們之間最舒適的交織區(qū)域,一般而言是產(chǎn)品往技術(shù)多走幾步,算法往業(yè)務(wù)多走幾步,這樣能發(fā)揮1+1>2的結(jié)果。

    當(dāng)然,不管是需求提到哪種技術(shù)層次,都需要銘記一個(gè)基本原則,說(shuō)明白你這個(gè)需求的背景、目的、價(jià)值。例如第二個(gè)例子中,其實(shí)是要額外說(shuō)明用戶可視化修正偏好知識(shí)到底能帶來(lái)什么,值不值得做,這些業(yè)務(wù)價(jià)值會(huì)與技術(shù)實(shí)現(xiàn)的成本互相PK,取得平衡。

    AI產(chǎn)品經(jīng)理在技術(shù)層能做的事情有點(diǎn)像在做fine-tuning,在模型不那么適配場(chǎng)景,或者場(chǎng)景延伸出新能力訴求的時(shí)候,發(fā)現(xiàn)他,分析他,并與算法團(tuán)隊(duì)深度討論后方案后在成本和收益之間做平衡。

    3. 應(yīng)用層

    應(yīng)用層的事情其實(shí)和技術(shù)層有點(diǎn)交織,因?yàn)榇蟛糠謺r(shí)候你上一個(gè)新的應(yīng)用功能,背后多數(shù)是需要技術(shù)支撐的。

    不過(guò)這里我們搞簡(jiǎn)單點(diǎn),把有技術(shù)訴求的那部分剔除掉,只保留無(wú)技術(shù)依賴或低技術(shù)依賴的來(lái)討論。

    我舉個(gè)大家習(xí)以為常,但效果巨大的例子:當(dāng)我們做人臉驗(yàn)證,或者銀行卡圖像識(shí)別的時(shí)候,他一定會(huì)有一個(gè)虛擬框,要求你將臉或者銀行卡擺放在固定位置。這個(gè)功能毫無(wú)技術(shù)要求,就是加一個(gè)透明浮層而已。但是他能極大提升采集圖像的質(zhì)量,從而提升算法效果。

    在chatbot里面其實(shí)也可以類似的做法。例如ChatGPT有時(shí)候會(huì)崩潰,輸出結(jié)果在一半的時(shí)候就中斷。他的原理其實(shí)就是自然語(yǔ)言生成本質(zhì)上是持續(xù)性在預(yù)測(cè)下一個(gè)字是什么,然后預(yù)測(cè)出一篇文章。那么當(dāng)模型在還不應(yīng)該結(jié)束的時(shí)候不小心預(yù)測(cè)出一個(gè)END字符的時(shí)候,AI就認(rèn)為我可以在這里停止了。

    解決方案有高大上的技術(shù)方案,我們這里可以土肥圓做個(gè)low一點(diǎn)的——加裝一個(gè)按鈕“你還沒(méi)說(shuō)完呢”,用戶點(diǎn)擊后,AI就會(huì)自動(dòng)再次重跑一遍這個(gè)input,輸出結(jié)果。這樣順便還能采集一下對(duì)于這種END崩潰的bad case數(shù)據(jù)。

    4. 增長(zhǎng)層

    只要你做的產(chǎn)品是給人用的,不管是2B還是2C,那么就離不開(kāi)增長(zhǎng)。

    只是2B和2C的增長(zhǎng)是兩套完全不同的方法論。

    2B其實(shí)更多應(yīng)該被歸到商業(yè)層,你需要做產(chǎn)品定價(jià),做渠道政策,做客戶成功,并打磨你整個(gè)銷售鏈路,找到薄弱點(diǎn)優(yōu)化他。在這個(gè)過(guò)程中你要清晰認(rèn)識(shí)到2B與2C在付費(fèi)決策上的顯著不同,2B是多用戶下關(guān)鍵決策人掌握公有資產(chǎn)進(jìn)行付費(fèi)判斷,而2C是用戶個(gè)體掌握私有資產(chǎn)進(jìn)行付費(fèi)資產(chǎn)。

    不過(guò)教育行業(yè)這個(gè)市場(chǎng)會(huì)和2B有一點(diǎn)點(diǎn)相似,他是學(xué)生使用,家長(zhǎng)付費(fèi),學(xué)校/機(jī)構(gòu)影響,也是一個(gè)多用戶下關(guān)鍵決策人的結(jié)構(gòu),不過(guò)掌握的是私有資產(chǎn)。

    而2C就更不用說(shuō)了,2C的增長(zhǎng)產(chǎn)品是一個(gè)非常獨(dú)立細(xì)分的行業(yè)。可以通過(guò)投放,SEO,新客進(jìn)入,老客留存,社交裂變等等命題去做努力,反正核心就是拉更多的人賺更多的錢。

    只是目前而言,我們?cè)谡f(shuō)ChatGPT,那么他大概還是一個(gè)新項(xiàng)目新產(chǎn)品。那么大概率初始不會(huì)配備相應(yīng)的增長(zhǎng)產(chǎn)品,AI產(chǎn)品也需要兼顧關(guān)注。

    最后大家如果想做一些練習(xí),可以找這個(gè)領(lǐng)域的一些C端應(yīng)用試試看,例如glow,糖盒等。(可能還有更多,歡迎私信指點(diǎn)我)

    但是我個(gè)人不建議拿各類市面上的chatbot或B端產(chǎn)品來(lái)嘗試,前者發(fā)展到現(xiàn)在很成熟了,后者則很多時(shí)候需要面對(duì)B端特殊的場(chǎng)景,沒(méi)有做過(guò)B端很難明白里面的細(xì)節(jié)。而glow、糖盒這類C端新起步的產(chǎn)品會(huì)是一個(gè)比較好的練手對(duì)象。

    我這里就不羅列對(duì)這兩個(gè)產(chǎn)品的分析或者產(chǎn)品建議了,我個(gè)人覺(jué)得站在局外做產(chǎn)品建議是很扯淡的事情。產(chǎn)品的魅力在于根據(jù)有限的資源和環(huán)境,選擇局部最優(yōu)解來(lái)推動(dòng)demo慢慢成長(zhǎng)。如果不在局內(nèi)的話,很多建議和迭代我都傾向于不公開(kāi),否則局內(nèi)人看起來(lái)會(huì)很蠢。

    比如說(shuō)覺(jué)得對(duì)話不智能,需要提升智能,建議接入GPT3.0。那么會(huì)不會(huì)這個(gè)產(chǎn)品的受眾其實(shí)不那么需要智能,或者他們的需求無(wú)法與接入GPT3.0的費(fèi)用平衡呢?這個(gè)需求有可能不是一個(gè)技術(shù)問(wèn)題,而是一個(gè)商業(yè)問(wèn)題。所以我覺(jué)得教張小龍做產(chǎn)品其實(shí)是個(gè)偽命題。

    但是自己練習(xí)一下還是可以的,有一個(gè)具現(xiàn)的產(chǎn)品做邏輯推導(dǎo)的練習(xí),會(huì)比只閱讀理論文章來(lái)得更有效。

    最后

    這篇文章春節(jié)前我就在寫(xiě)了,起初是想圍繞AIGC寫(xiě),核心是說(shuō)說(shuō)最近影響最大的ChatGPT和AI繪畫(huà)背后的Diffusion算法,我認(rèn)為這兩個(gè)算法的影響力非常大。

    前者是給NLP領(lǐng)域開(kāi)了一個(gè)很有潛力的方向,甚至是通向AGI(通用人工智能)的一種可能道路,后者則是圖像領(lǐng)域非常強(qiáng)大的改進(jìn)。最重要的是這兩者的技術(shù)已經(jīng)進(jìn)入到一個(gè)成熟應(yīng)用期了(不成熟應(yīng)用也和我這個(gè)做產(chǎn)品的沒(méi)啥關(guān)系哈哈),而且讓我覺(jué)得一潭死水的AI領(lǐng)域重新煥發(fā)活力。

    可惜最后寫(xiě)著寫(xiě)著還是發(fā)現(xiàn)駕馭不了這么龐大的話題。其中AI繪畫(huà)背后的Diffusion算法要另開(kāi)一篇分析,此外ChatGPT的商業(yè)也需要更進(jìn)一步拆解。

    本文由@做產(chǎn)品的馬丁 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

    題圖來(lái)自 Unsplash,基于 CC0 協(xié)議

    該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。

    文 | 21世紀(jì)教育研究院 熊丙奇

    “現(xiàn)在當(dāng)家長(zhǎng)的太難了!畫(huà)畫(huà)、書(shū)法、鋼琴、舞蹈、游泳、乒乓球、籃球,都是必修課。”

    “爸爸媽媽和岳父岳母凌晨三點(diǎn)半起床,準(zhǔn)備孩子起床上學(xué)用的東西,家長(zhǎng)們吃飯都隨緣。”

    2021年農(nóng)歷牛年春晚,由金霏、陳曦表演的相聲《如此家長(zhǎng)》,以詼諧幽默的方式,道出了許多中國(guó)家長(zhǎng)面對(duì)子女教育時(shí)無(wú)奈和焦慮的普遍心態(tài)。

    有網(wǎng)友稱,《如此家長(zhǎng)》中的“家長(zhǎng)”就是自己,而看著《如此家長(zhǎng)》相聲,再看在線教育的廣告,覺(jué)得每個(gè)班都要給孩子報(bào)。

    今年的春晚,一邊是諷刺家長(zhǎng)給孩子瘋狂報(bào)班的相聲,一邊是無(wú)處不在的在線教育廣告,恰如其分地演繹了當(dāng)前家長(zhǎng)為何會(huì)有嚴(yán)重的教育焦慮。《如此家長(zhǎng)》在某種程度上又一次為教育公司做了營(yíng)銷。

    在線教育品牌在春晚中打廣告,是正常的品牌推廣活動(dòng)。然而,在全民教育焦慮情況下,這樣的廣告只會(huì)更加刺激家長(zhǎng)的焦慮情緒,已經(jīng)報(bào)班的家長(zhǎng),慶幸自己早已報(bào)班的決定,而沒(méi)有報(bào)班的家長(zhǎng)在大年三十晚,就睡不著了。

    除《廣告法》的規(guī)定外,我國(guó)尚未推出針對(duì)校外教育培訓(xùn)廣告的限制性規(guī)定,但從營(yíng)造健康的教育生態(tài)出發(fā),媒體平臺(tái)也有責(zé)任選擇適當(dāng)?shù)暮献鞣健?/p>

    在今年的春晚中,某在線教育品牌采取“口播介紹”加“植入”兩種方式與春晚進(jìn)行深度合作。

    在“知識(shí)福袋”活動(dòng)中,主持人介紹需要下載該在線教育品牌旗下的AI課APP,即可進(jìn)入「成語(yǔ)填字」活動(dòng)入口。每完成一次成語(yǔ)填字即可打開(kāi)一個(gè)福袋,并有機(jī)會(huì)抽取實(shí)物禮品,填寫(xiě)地址即可快遞到家。

    在小品《陽(yáng)臺(tái)》中,該在線教育品牌也出現(xiàn)在了節(jié)目的布景之中。在佟大為和王麗坤飾演的教師家庭中的陽(yáng)臺(tái)上,掛著一個(gè)盛放餃子的蓋簾,而蓋簾上的一張四方白紙上則有26個(gè)英文字母和在線教育品牌的logo。

    雖然這種商業(yè)合作合法合規(guī),但看著在線教育品牌廣告充斥在春晚中,總有些不是滋味。領(lǐng)“知識(shí)福袋”,要下載該品牌的APP,這就是在推銷在線教育APP。而最近教育部剛下發(fā)文件,要求中小學(xué)的教學(xué)和作業(yè)要減少對(duì)電子產(chǎn)品的依賴。

    另外,家長(zhǎng)們已經(jīng)被無(wú)孔不入的教培營(yíng)銷大戰(zhàn)所包圍,看春晚也難逃洗腦。

    這種營(yíng)銷大戰(zhàn)對(duì)在線教育行業(yè)的發(fā)展也并非好事。很多機(jī)構(gòu)把錢花在營(yíng)銷中,而不重視課程質(zhì)量,導(dǎo)致?tīng)I(yíng)銷成本、獲客成本高企,企業(yè)的整體營(yíng)利能力差。

    這也就讓《如此家長(zhǎng)》相聲的“藝術(shù)價(jià)值”大打折扣。這一節(jié)目調(diào)侃“畫(huà)畫(huà)、書(shū)法、鋼琴、舞蹈、游泳、乒乓球、籃球,都是必修課”,卻沒(méi)有提及家長(zhǎng)給孩子報(bào)學(xué)科培訓(xùn)班,下載各款學(xué)習(xí)類APP 做題。

    中小學(xué)課外培訓(xùn)主要是學(xué)科培訓(xùn),在線教育進(jìn)行的也主要是學(xué)科知識(shí)培訓(xùn)。另外,結(jié)合節(jié)目中推出下載APP領(lǐng)“知識(shí)福袋”的活動(dòng)以及小品中的植入廣告,《如此家長(zhǎng)》所起到的作用, 并不是在看完節(jié)目后讓家長(zhǎng)有所反思,而是要準(zhǔn)備給孩子報(bào)班了。

    2018年發(fā)布的《中共中央 國(guó)務(wù)院關(guān)于深化教育教學(xué)改革全面提高義務(wù)教育質(zhì)量的意見(jiàn)》提到,“要營(yíng)造良好生態(tài)。全黨全社會(huì)都要關(guān)心支持深化教育教學(xué)改革、全面提高義務(wù)教育質(zhì)量工作。新聞媒體要堅(jiān)持正確輿論導(dǎo)向,做好黨的教育方針、科學(xué)教育觀念和教育教學(xué)改革典型經(jīng)驗(yàn)宣傳報(bào)道。堅(jiān)決治理校外違規(guī)培訓(xùn)和競(jìng)賽行為。”

    在線教育機(jī)構(gòu)大搞焦慮營(yíng)銷,也是導(dǎo)致培訓(xùn)熱高燒不斷的重要因素。

    必須意識(shí)到,“全民培訓(xùn)”已成為我國(guó)基礎(chǔ)教育的嚴(yán)重問(wèn)題,培訓(xùn)機(jī)構(gòu)在商言商,只要規(guī)范經(jīng)營(yíng)就合理合法,要實(shí)現(xiàn)“營(yíng)造良好生態(tài)”的目標(biāo),除了國(guó)家層面推進(jìn)教育評(píng)價(jià)改革,建立多元評(píng)價(jià)體系,以減少學(xué)生(家長(zhǎng))對(duì)培訓(xùn)的需求外,還必須營(yíng)造良好的輿論環(huán)境。

    要消除家長(zhǎng)的教育焦慮,需要全社會(huì)共同努力,不能在高喊著給孩子減負(fù)的同時(shí),又渲染無(wú)所不在的升學(xué)競(jìng)爭(zhēng)。

    現(xiàn)實(shí)生活中經(jīng)常會(huì)遇到一些十分巧合的事情:比如正在想念某人時(shí),正好接到某人的電話,或者正想聽(tīng)某歌時(shí),電臺(tái)突然就開(kāi)始播放那首歌。在大多數(shù)情況下,它們并沒(méi)有太大意義,但有時(shí)某些巧合卻對(duì)世界的重大事件產(chǎn)生了巨大的影響。如果這些巧合在本質(zhì)上是積極的,就把它們稱為一種緣分;反之,稱為災(zāi)難。以下是所列的史上十大巧合事件,它們?nèi)绾斡绊懯澜纾蛘咧辽偃祟愔两袢栽谒伎妓鼈儭?/span>

    1.芬蘭的一對(duì)孿生兄弟

    2002年,芬蘭一對(duì)70歲的孿生兄弟在暴風(fēng)雪中遭遇車禍,被卡車撞死。離奇的是,事故發(fā)生時(shí)他們并不在一起,他們當(dāng)時(shí)相隔約一英里,分別被卡車撞死。此外,第二個(gè)事故與第一個(gè)僅僅相差兩個(gè)小時(shí),第二個(gè)人甚至還沒(méi)有聽(tīng)說(shuō)他的兄弟已被撞死,因而消除了第二個(gè)人可能自殺的事故解釋。當(dāng)然,同卵雙胞胎之間的不尋常巧合并不是聞所未聞的,出生時(shí)就分離的雙胞胎在數(shù)十年后相聚發(fā)現(xiàn),他們具有相似的工作、舉止、飲食偏好等等。甚至結(jié)婚和離婚配偶都具有相同的名字,再婚配偶又是同名!因此,雙胞胎在同一天于同樣的街道以同樣的方式死去也是可以理解的。

    2.肯尼迪和林肯之間的聯(lián)系

    這是一個(gè)老舊的故事,但值得重溫,因?yàn)樗侨绱霜?dú)特。這兩人之間的巧合主要體現(xiàn)在他們被暗殺時(shí)的一系列數(shù)據(jù)。例如,兩人先后相距100年當(dāng)選美國(guó)總統(tǒng),兩人的繼任者都是名為約翰遜的南方人,這兩個(gè)約翰遜的出生年月相距100年。兩名刺客的出生年月也相距一百年,而且兩人都是在即將受審之前死亡。林肯是在戲院里被暗殺的,最后刺客被圍堵在一個(gè)倉(cāng)庫(kù)里,而肯尼迪是在倉(cāng)庫(kù)里被暗殺的,最后刺客是在劇院里被抓獲的。最后,林肯被刺殺的劇院名叫福特劇院,而肯尼迪是在福特·林肯馬場(chǎng)騎馬時(shí)被暗殺的,更為巧合的是,肯尼迪有一個(gè)名叫林肯的秘書(shū),而林肯的秘書(shū)叫肯尼迪。這樣的例子不勝枚舉,因而至今還有各種關(guān)于巧合的爭(zhēng)論。而數(shù)學(xué)家卻要?dú)缫磺袠?lè)趣,試圖證明所有這些事情都會(huì)發(fā)生的,盡管有這些巧合,這就是為什么多數(shù)人認(rèn)為數(shù)學(xué)家在聚會(huì)時(shí)不受禮遇的原因。

    3.普林西普和斐迪南大公

    一個(gè)二十歲的波斯尼亞農(nóng)民不可能意識(shí)到自己的行為將影響二十世紀(jì)的整個(gè)走向,但是正是他于1914年某個(gè)晴朗的夏日掏出手槍向奧匈牙利斐迪南大公的車隊(duì)射擊。他們的死亡事件引發(fā)了歷史上一連串最血腥的戰(zhàn)爭(zhēng),撒下了未來(lái)共產(chǎn)主義和納粹主義的種子。而更可悲的是,它完全有可能不發(fā)生,僅僅由于一個(gè)巧合:事實(shí)證明,普林西普只是意圖于那天殺害大公的陰謀者之一,但他由于之前試圖用炸彈殺害某人失敗后已經(jīng)在很大程度上放棄殺害大公了。斐迪南大公步入咖啡館以迅速平息他的挫敗感和填飽肚子,當(dāng)他吃完走出咖啡館時(shí),他正好看到大公的車就停在他的眼前,離他不到二十英尺遠(yuǎn)。司機(jī)顯然拐錯(cuò)彎了,在后退時(shí)不小心熄滅了發(fā)動(dòng)機(jī),這使得大公和他的妻子成為了殺手靜止的目標(biāo)。在經(jīng)過(guò)快速思考后,他拔出手槍,之后的就是歷史了,正如大家所說(shuō),之后的歷史都是因?yàn)榇蠊乃緳C(jī)迷路了。

    4.相隔157年的兩起兇殺案

    這個(gè)巧合有點(diǎn)可怕,兩個(gè)女人芭芭拉·福雷斯特和瑪麗·阿什福德,都死于英國(guó)伯明翰五英里外的一個(gè)小村莊,她們是相似類型的犯罪受害者。她們同歲,都是二十歲,在同一天生日,兩人都遭遇強(qiáng)奸并被勒死,人們?cè)?00碼外發(fā)現(xiàn)了兩人的尸體,而且雙方死于同一天,即5月27日,死亡日期相距157年。更為巧合的是,兩人都剛剛拜訪完一位朋友,兩人都在晚上換了新衣服去參加一個(gè)宴會(huì)(大概在那里她們遇到了殺手)。仍然不夠離奇嗎?被指控的人的名字均為桑頓,并且這兩個(gè)桑頓最終都被無(wú)罪釋放。轉(zhuǎn)世?巧合?誰(shuí)知道呢?

    5.布斯和林肯

    這里所談的不是約翰·威爾克斯和亞伯拉罕,而是埃德溫和羅伯特。在約翰·威爾克斯·布斯因謀殺林肯而臭名昭著之前幾個(gè)月,總統(tǒng)的兒子羅伯特·托德·林肯在新澤西的一個(gè)狹窄的月臺(tái)上等待火車時(shí),他沒(méi)有站穩(wěn)掉落進(jìn)軌道上了,此時(shí)正有一輛火車要緩緩離開(kāi)。某人出手將他拉至安全地帶,他轉(zhuǎn)過(guò)身來(lái)感謝救命恩人,卻驚訝地發(fā)現(xiàn),這是聞名遐邇的演員埃德溫·布斯,約翰·威爾克斯的兄弟。之所以被認(rèn)為是歷史上最顯著的一個(gè)巧合,是緣于總統(tǒng)的兒子卻被總統(tǒng)的刺客兄弟所救!但是后來(lái),林肯唯一幸存的孩子在1881年加菲爾德總統(tǒng)和1901年麥金利總統(tǒng)遇刺時(shí)都正好在場(chǎng)(他是加菲爾德的戰(zhàn)爭(zhēng)部長(zhǎng)和刺殺事件目擊者)。我相信,在此之后,白宮對(duì)他的邀請(qǐng)次數(shù)將急劇下降。

    6.馬克·查普曼的傳奇故事

    1980年12月,披頭士樂(lè)隊(duì)的歌手、詞曲作者、吉他手約翰·列儂在紐約市的達(dá)科塔公寓大樓前被癡迷歌迷槍殺。兇手馬克·查普曼,一個(gè)患有精神病疾患的值夜保安,一直被關(guān)押在紐約州北部的阿提卡監(jiān)獄。五年后,美國(guó)國(guó)家廣播公司決定拍一部有關(guān)列儂與妻子小野洋子的傳記片,他們將這部電影命名為,約翰和洋子:一個(gè)愛(ài)情故事。不幸的是,扮演列儂的演員碰巧叫做馬克·查普曼,因而好萊塢某些人表示,“你肯定是在開(kāi)玩笑吧”。一旦消息傳開(kāi),后果將不堪設(shè)想。工作室必須馬上重新尋找飾演列儂的演員。然而,馬克·查普曼(演員,而不是瘋狂的槍手)在2007年由于飾演列儂獲得了獎(jiǎng)勵(lì)和肯定。顯然,雖然他跟殺手的名字相同,但是他看上去很像約翰·列儂,因此也就顯得沒(méi)那么怪異了。

    7.托馬斯·杰弗遜和約翰·亞當(dāng)斯的離奇死亡

    雖然兩人在事業(yè)上是激烈的政治競(jìng)爭(zhēng)對(duì)手(杰斐遜是亞當(dāng)斯的副總統(tǒng),直到他在1800年的選舉中擊敗了自己的老板),兩人都十分熱愛(ài)自己的國(guó)家。因此,兩人共同起草了《獨(dú)立宣言》,正如大家都知道的那樣,這份宣言最早于1776年7月4日簽署。然而,大多數(shù)人不知道的是,這兩人死于同一天,1826年7月4日,正是《獨(dú)立宣言》發(fā)表五十周年。

    8.填字游戲泄露了盟軍D-Day的進(jìn)攻代號(hào)

    1944年5月,退休教師倫納德·道斯,二十多年如一日地為倫敦的《每日電訊報(bào)》編寫(xiě)每天的填字游戲,他將拼圖放在一起,不知怎的,拼圖顯示的是兩個(gè)著陸海灘的名字——猶他和奧馬哈,還有其他一些諸如Overlord、Mulberry等的代碼。考慮到道斯是德國(guó)人,聯(lián)軍立即審訊了他,在將他釋放后不久,他們才相信道斯所得來(lái)的代碼完全是隨機(jī)得來(lái)的。雖然無(wú)意間也可能會(huì)得出這些代碼,但是道斯在不到兩個(gè)星期的時(shí)間里得出了五個(gè)代碼。這種事情發(fā)生的可能性非常之低,大概十億分之一,但我會(huì)將這個(gè)問(wèn)題留給數(shù)學(xué)家們。

    9.泰坦尼克號(hào)和泰坦

    1898年,作家摩根·羅伯遜(1861年至1915年),寫(xiě)了一篇題為徒勞或者泰坦的廢墟的小說(shuō),他概述了英國(guó)豪華郵輪HMS泰坦在橫穿北大西洋的航程中撞到冰山最終沉沒(méi)的故事,由于缺乏充足的救生船,人員傷亡很大。14年之后,虛構(gòu)故事和現(xiàn)實(shí)生活中的悲劇郵輪的名字非常接近,而且兩艘船都是大約800英尺三螺桿長(zhǎng)的豪華郵輪,都于4月份撞上了冰山,死亡人數(shù)都接近2500。雖然并不是每一個(gè)細(xì)節(jié)都相同(在羅伯遜的故事中,泰坦傾覆迅速;而泰坦尼克號(hào)沉沒(méi)的過(guò)程比較漫長(zhǎng),大概持續(xù)了一兩個(gè)小時(shí))。

    10.李·哈維·奧斯瓦爾德獲得了德州學(xué)院圖書(shū)倉(cāng)庫(kù)管理的工作

    從字面上來(lái)講,任何時(shí)刻都有成千上萬(wàn)的人有可能暗殺美國(guó)總統(tǒng)。其中,只有一小部分人才付諸實(shí)踐(用火器或爆炸物等技術(shù)),而且他們幾乎沒(méi)有實(shí)際操作的機(jī)會(huì)。這就是為何奧斯瓦德如此引人注意的原因:這個(gè)具有馬克思主義傾向的前水警試圖殺害一個(gè)世界領(lǐng)袖,他花了十五美金購(gòu)買來(lái)復(fù)槍,之后碰巧在距離美國(guó)總統(tǒng)車隊(duì)五十碼的地方找到了一份工作。他具備動(dòng)機(jī)和意圖,如果他在1963年10月16日沒(méi)有得到德州教材管理的工作,他很有可能就無(wú)法實(shí)施歷史上最令人發(fā)指的暗殺。

    子曰:更多精彩請(qǐng)關(guān)注微信我們愛(ài)歷史(his-tory)!大型書(shū)庫(kù)和歷史今天插件等您臨幸!

網(wǎng)站首頁(yè)   |    關(guān)于我們   |    公司新聞   |    產(chǎn)品方案   |    用戶案例   |    售后服務(wù)   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區(qū)    電話:010-     郵箱:@126.com

備案號(hào):冀ICP備2024067069號(hào)-3 北京科技有限公司版權(quán)所有