• <track id="bnqdd"><span id="bnqdd"><td id="bnqdd"></td></span></track>
  • <bdo id="bnqdd"><optgroup id="bnqdd"></optgroup></bdo>
    <track id="bnqdd"></track>

    1. <bdo id="bnqdd"><optgroup id="bnqdd"><dd id="bnqdd"></dd></optgroup></bdo>

      <menuitem id="bnqdd"></menuitem>

      1. <track id="bnqdd"></track>

        <tbody id="bnqdd"></tbody>

      2. <track id="bnqdd"></track>
      3. <track id="bnqdd"><span id="bnqdd"><tr id="bnqdd"></tr></span></track><nobr id="bnqdd"><optgroup id="bnqdd"><big id="bnqdd"></big></optgroup></nobr>

          AlphaGo 到 chatGPT已顛覆許多生意,甚至帶來更大社會變化

          相似的 AI 狂熱,歷史上有過幾次。最近一次是 2016 年春天,Google 旗下 DeepMind 開發的 AlphaGo 大勝圍棋大師李世石。人們期待 AI 會快速跨行業復制、應用,顛覆已有的許多生意,甚至帶來更大的社會變化。

          75 歲的圖靈獎獲得者杰弗里·辛頓(Geoffrey Hinton) 大半輩子都在研究 AI, 推動深度學習成為了 AI 研究的主流,長出了如今的大模型和 ChatGPT。現在,他怕了,也后悔了,擔心自己的畢生工作,也許會把人類推向未知風險。

          “我用一個常用借口安慰自己:如果我沒做,其他人也會做。” 5 月初宣布從 Google 離職后,辛頓告訴媒體,“在搞清楚是否能控制 AI 前,我不認為應該再擴大它的規模。”

          深度學習奠基人的深切擔憂,是 GPT 強大力量的一個注釋。

          去年 11 月底上線后不到 2 個月,ChatGPT 就獲取 1 億用戶,成長速度超過此前任何一個互聯網產品。今年 4 月,光網站上用 ChatGPT 的用戶就超過了微軟必應搜索,相當于百度的 60%,創紀錄的發展速度引爆了全球產業和資本熱情。

          每一周,都有大小公司在推出自己的大模型,AI 顛覆世界不再被當成遙遠的想象。可以在各個領域代替人工的通用人工智能(AGI,artificial general intelligence)似乎隨時就會誕生。

          相似的 AI 狂熱,歷史上有過幾次。最近一次是 2016 年春天,Google 旗下 DeepMind 開發的 AlphaGo 大勝圍棋大師李世石。人們期待 AI 會快速跨行業復制、應用,顛覆已有的許多生意,甚至帶來更大的社會變化。

          AlphaGo 到 chatGPT已顛覆許多生意,甚至帶來更大社會變化

          2016 年 4 月,《醫療未來學家》:AlphaGo 能重塑醫療行業的未來

          但過去 7 年里,那些想收獲巨大商業價值的投資人和創業者,和擔心 AI 會引發大規模失業的批評者,都 “想多了”。

          原因之一是,在不同行業、場景和客戶之間,復制 AI 能力的難度與成本遠超想象——AI 通用性被大大高估了。

          當人們想在醫療、金融、工業質檢、營銷決策等多種行業、場景使用 AI 時,別說跨行業,跨客戶也很難。一批以 “AI 賦能千行百業” 為愿景的創業公司在 2016 年后成長為超級獨角獸。但因人員成本高昂、產品難以標準化和規模復制,它們中的多數淪為不斷做定制項目的軟件外包公司。

          原因之二是,以深度學習為基礎的 AI 有 “黑箱” 特性。在 2017 年底舉行的 AI 頂級學術會議 NIPS 上,來自 Google 的阿里·拉希米把深度學習比作煉金術:“我不懂飛機原理,但不怕坐飛機,因為我知道有一大批專家掌握原理。深度學習界最讓人擔心的是,我自己都不知道原理,而且我知道你們也不知道。”

          開發 AI 模型和算法的人也無法完全解釋它如何運轉,在商業實踐中,也就無法明確知道一些改動可能帶來何種效果變化,這極大提高了模型調優的難度,增加了項目交付成本;同時也很難完全杜絕模型的某些特定問題。這會影響 AI 落地一些不能出錯的場景,比如追求極致安全的無人駕駛。

          這一輪大模型熱潮解決了 AlphaGo 時期,AI 商業化的部分阻礙,但另一些當時暴露的問題仍存在,甚至還在進一步放大。

          1

          上一次,通用 AI 的威力如何被錯判

          AlphaGo 時期,AI 公司做不同的客戶項目時,基本要從頭訓練不同模型。2019 年、2020 年和 2021 年上半年,人工智能公司商湯科技分別生產了 1152、9673 和 8377 個 AI 模型,但并未產出相應商業收益,有些模型做出來后,可能只有三五個客戶可復用。從 2019 年到 2020 年,商湯模型數量增長了 740%,營收增速只有近 14%。

          AlphaGo 到 chatGPT已顛覆許多生意,甚至帶來更大社會變化

          中國的 AI 四小龍,商湯、曠視、云從和依圖在遞交招股書前,總融資額約 75 億美元,跟同期成立的字節跳動 2020 年前的融資總額相當。但字節 2020 年的收入超過 2360 億元人民幣,是這四家公司同期總收入的 30 多倍。

          字節成功的關鍵也是用好了 AI 技術,它打磨出了一套高效推薦算法,再配合新聞資訊和短視頻 App 實現廣告變現,是典型的互聯網商業模式。商湯等公司原本的期待則更宏大,卻更難落地——用 AI 賦能千行百業。

          這是一個足以吸引大把抱負、智慧、野心和資本的遠大愿景。在 2016 年前后,一批科技巨頭、頂尖學者、投資機構和創業公司對這一方向投入原因和現在一樣——AlphaGo 也讓人們看到了更通用的 AI 的可能,只是這種 “更通用” 的短期商業價值被高估了。

          AlphaGo 之前,當時的大多數深度學習模型需要用大量預先標注好的數據來訓練,這被稱為 “監督學習”。這些數據通常是機器搜集的一個信息對應人工標注的一個結果,例如醫院診斷場景的標注數據是 “病人癥狀描述” 和對應的 “醫生診斷和醫療措施”。

          監督學習碰到的數據問題,直接影響 AI 商業落地時的效果和成本。

          因為在監督學習中,模型的表現會因數據環境變化而有較大波動。且商業化所需的數據,尤其是客戶現場的真實數據難以獲得。當時多數模型在開發階段,只能先使用小規模行業數據做訓練,這些數據不一定能反映最新行業情況和客戶特點。所以一個模型雖然在研發階段能取得不錯的效果,但真到了客戶那兒,數據和環境一變,效果就沒準了。AI 公司必須重新收集客戶環境下的數據,重新訓練模型,無法做到 “一次開發,多次售賣”,模型交付的邊際成本居高不下。

          IBM AI 醫療系統 Watson,就曾因為訓練模型時使用的數據跟不上最新醫療護理標準而誤診。另一個常見的例子是,在工廠部署 AI 檢測工具時,真實車間的光線、粉塵條件的變化都會影響模型效果,從而影響同一套方案在不同工廠、流水線或工位上的表現。

          AlphaGo,尤其是其后續版本 AlphaGo Zero 則帶來轉機,它并未學習人類的下棋數據,而是自己生成數據,在自己與自己的對弈中不斷提升下棋水平,不需要人類專家提前標注大量數據。這能大幅降低數據獲取難度,提升訓練的數據量,取得驚人效果。

          但當人們想把這種模式復制到圍棋、德撲、星際爭霸等有限規則游戲之外的場景時,它的適用范圍卻十分有限。

          AlphaGo 可以在計算機模擬環境中自我對弈,無限試錯,直至找到神之一手。但大多數場景,尤其是涉及線下物理世界的場景沒有這樣的試錯空間,AI 醫生不能拿病人試錯,AI 司機不能拿行人試錯。

          在虛擬環境中建立自動駕駛仿真器、機器人仿真器來獲取數據是解決手段之一,但又會遇到新困難:想要做到對物理世界 100% 的仿真,開發成本無限高;如果跟物理世界差距太大,訓練又沒效果。

          開發出 AlphaGo 的 DeepMind 自己也沒能做到拓展行業。2016 年-2017 年,它啟動了一批與醫療、能源行業的合作,試圖讓 AI 走出虛擬游戲世界,這些項目要么慘淡收場,要么就一直停在宣傳狀態。

          那些被 AlphaGo 刺激,投入上一輪 AI 商業化熱潮的公司,往后幾年里不得不用新故事包裝一個實際變化不大的技術方案,活成了無法用標準產品服務多個客戶的 “項目公司”。

          為了讓一項 AI 產品落地,調參、優化模型,做工程配套,把 AI 嵌入客戶已有業務系統或流程,這些工作一個都不能少。其中模型調參、優化等工作一般需要 AI 公司派薪資不菲的算法工程師去客戶處駐場,這是一個辛苦活。高工資成本之外,這也使 AI 公司留不住人。

          最后一公里,成了最遠、最累的一公里。

          2

          大模型讓 AI 更通用了,但可能還不夠

          與 AlphaGo 相似,方興未艾的大模型熱潮,也許諾一個更通用的 AI。上個月,OpenAI 與沃頓商學院一起發表了一篇論文,標題就是《GPT 是通用技術》(GPTs are GPTs,第二個 GPTs 指 General-Purpose Technologies)。

          GPT 的確表現出了超出以往的通用性:它可以在不需要特殊新數據和訓練的情況下,學習一些新技能;在不同場景、客戶那里復制自己已學會的技能時,它也能以更低成本適應新的數據環境。

          其中,學習新技能的能力來自大模型不斷擴大訓練數據量和模型參數時產生的 “涌現” 現象。如 OpenAI 在 2019 年發現,GPT-2 出乎意料地自學了文本摘要和翻譯等幾種技能。此前 OpenAI 并沒有用不同語種間的對應語料,專門為翻譯任務進行訓練,這是過去讓 AI 學會翻譯的常規方法。

          GPT 之外,其他生成式預訓練大模型也表現出了 “隨模型規模增長,學會更多新技能” 的規律。這種前所未有的無師自通是大模型更強通用性的主要來源。

          AlphaGo 到 chatGPT已顛覆許多生意,甚至帶來更大社會變化

          隨著參數從 80 億增長到 5400 億, Google PaLM 大模型學到了多個新技能。

          對數據更好的適應,則是指基于基礎大模型做微調(fine-tuning),獲得定制化模型和產品的過程。

          大模型的預訓練使用無需標注的數據,而微調仍需使用成本更高、更難獲取的標注數據。但因為已經有了強大的通用模型,微調理論上比過去遇到新任務、新環境就得重新收集、標注數據,重新訓練模型的做法更便宜、簡單。

          上述特性都指向業務復制和行業遷移時的更低邊際成本。提供 GPT 大模型的公司,有可能用統一的通用模型服務多種行業和場景,完成 AlphaGo 之后很多公司一度追求卻越行越遠的目標。

          然而,一些跡象也顯示,從通用模型到真正的可用產品,今天的 “最后一公里” 仍成本不菲。

          在 GPT-3.5 基礎上打造 ChatGPT 時,為提高對話效果和減少虛假、歧視信息,OpenAI 雇用了大量標注員給機器的回答打分,標記仇恨、色情和暴力言論。綜合媒體報道,OpenAI 給美國本土的數據標注人員付 15 美元時薪,給非洲的合同工的時薪只有十分之一,但這些工人正在爭取更高的工資,肯尼亞的一些數據標注員上周已投票成立工會。OpenAI 在東歐、拉丁美洲也雇有約 1000 名從事類似工作的合同工。

          結合 GPT 大模型技術特點和各行業需求,GPT 類大模型商用時的局限首先在于,通用性的范圍有邊界。

          目前 GPT 主要是通過文本數據預訓練獲得各種與自然語言相關的認知智能能力。大模型的多模態能力范圍仍未驗證,GPT-4 能看懂梗圖里的梗,但未必能識別 X 光胸片里的異常。因此,在以數值回歸、行為預測為代表的決策智能,和以圖像、視頻識別為代表的感知智能領域,大模型的適用性會打個問號。

          正常情況下,這一局限本不是問題,因為沒有任何技術能適用一切情況。但狂熱會沖散常識。一些本來和大模型關系甚遠的行業,現在也在講 “快速顛覆”,一些公司向客戶許諾新技術有神奇威力,但對適用性描述不足。

          對認真想用大模型做事的人來說,更值得考慮的問題是,即便是在大模型最擅長的語言認知智能領域,其固有能力缺陷,也會限制某些場景的商業化。

          這些缺陷包括規劃能力不足、無法持續學習、缺乏長期記憶、推理成本高和時延高等。其中對商業化威脅最大的問題是大模型的不可控、不可預測和不可靠。典型表現是大模型有幻覺(hallucination)傾向,它會產生 “完全沒有出處的非真實內容”。

          辛頓的學生,OpenAI 首席科學家伊利亞·莎士科爾(Ilya Sutskever)多次表示,幻覺是大模型應用到更重要場景中的最大問題,但當前無法從根本上控制幻覺的產生。因為 OpenAI 給 GPT 設立的訓練目標就是更準確地 “預測下一個詞”。為不斷給出符合人類語言習慣和預期的內容,大模型并不關心信息真假,有時編故事編得越像、越投入,就越容易獲得人類好評。可以說幻覺是一種內生于 GPT 模型目標和架構中的缺陷,隨著用戶更加信任模型,幻覺的危害會越來越大。

          同時,給大模型帶來更強通用性的 “涌現” 過程,本身也不可控、不可預測,因而難以圍繞涌現做商業和業務規劃。

          Google、斯坦福和 DeepMind 聯合發表的《大語言模型的涌現能力》(Emergent Abilities of Large Language Models)論文發現,大模型的新能力涌現不是隨著模型參數的線性增長而逐漸發生的,而是在模型參數超過某個臨界點后爆發,如超過 620 億參數后,會獲得思維鏈(CoT)多步推理能力,超過 1750 億參數后,會獲得識別諷刺內容的能力。

          AlphaGo 到 chatGPT已顛覆許多生意,甚至帶來更大社會變化

          LaMDA、GPT-3 等模型隨參數規模擴展的新技能學習曲線。

          人們現在很難預測,參數規模的下幾個臨界點在哪兒,以及突破這些臨界點后,可能涌現出什么能力,這些能力對特定商業目標是有益還是有害。這就很難在應用落地時提升特定新技能涌現的效率與確定性。

          這些大模型落地時的局限,可能使一些理論上可行、聊起來很嗨的應用場景,在商業化過程中經歷長期碰壁。

          例如,一對一的大模型私人醫生服務要真正落地,依賴于醫療場景下,多模態圖像能力的突破,還需要模型能長時間記住病人情況、治療歷史和溝通過程,而且這個系統必須準確,否則一個小錯誤就可能帶來致命結果。這都是目前大模型的短板。在無法 100% 解決模型缺陷時,做大模型醫療服務的公司,還要與監管機構在試錯空間、法律規范和監管方式上達成一致。

          在預估大模型的通用化落地時間時,OpenAI 首席科學家伊利亞曾用自動駕駛來類比:“看看特斯拉的自動駕駛,看起來什么都能做,但在可靠性上還有很長的路要走。大模型也一樣,雖然看起來什么都能做,但同時還需要做更多工作,直到我們真正解決所有問題。”

          3

          市場狂熱,OpenAI 謹慎

          基于對跨行業落地難度和風險的認知,OpenAI 從去年下半年就開始和法律、教育、醫療等不同行業伙伴,對 GPT-4 行業應用的效果和問題進行了專業、嚴謹的實驗。

          例如在法律行業,OpenAI 支持 Casetext 公司基于 GPT-4 開發 AI 法律助手 CoCounsel,嘗試應對幻覺問題。

          首先,由 AI 工程師和律師團隊花費近 4000 小時,基于 3 萬多個法律問題進行模型訓練和微調。然后,組織了 400 多名律師作為 Beta 測試小組,要求他們在日常工作中使用 CoCounsel 至少 50000 次,并提供詳細的問題反饋。通過這樣的項目,可以在大模型投入應用之前,更早暴露潛在問題,評估風險級別以及風險解決方案的有效性。

          這不是一個輕松、便宜的工作,需要一批專業人士與技術人員一起完成行業定制。與 AlphaGo 后的上一輪 AI 熱潮相似,如果目標市場太小、未來復用機會不多,或復用起來邊際成本太高時,如此高投入的前期開發就沒什么商業前景。

          在 OpenAI 謹慎、扎實推進某些行業應用的時刻,被它刺激的市場卻要狂熱和激進得多。

          春節以來,A 股 “ChatGPT” 板塊多支股票大漲,發大模型,成為不少上市公司拉升股價的利器。美股也類似。如今年 1 月底,美國一家企業級應用提供商 C3 AI 宣布,將基于 OpenAI 最新的 GPT 大模型能力提供一款生成式 AI 企業搜索產品,企業用戶可以直接用自然語言詢問這款產品,“這個銷售計劃完成的可能性有多大?” 或 “這輛卡車什么時候需要維修?”

          盡管沒有解釋自己如何使用企業數據來做出分析預測,消息一發布,C3 AI 的股價依然飆升超 20%。市場盡可以發揮想象力,但企業客戶在考慮類似 C3 這類應用承諾時,應當了解,大模型目前并不具備與數值相關的預測能力,未來能否涌現也未知。

          一家新能源工業軟件公司董事長在近期一次媒體訪談中說,他認為 ChatGPT 在工業領域真正要產生業務價值還需很長時間,但產業需要這樣的概念,“沒有概念,你就沒有投資,沒有投資這事就沒有任何機會”。

          他委婉地指向一種現象:無論 GPT 短期能不能產生價值、是不是自家產品的核心,為了拿到錢或資源,很多公司選擇先把羊頭掛起來。這進一步放大了虛假繁榮和樂觀。只是有人是在表演樂觀,有人是真被帶得樂觀過了頭。

          4

          在失控中追求可控

          1994 年的《失控:機器、社會與經濟的新生物學》一書中描述了復雜系統的進化、涌現和失控。凱文·凱利總結,人類大腦的神經網絡、蟻群、蜂群這類系統的動作是從一大堆亂哄哄卻又彼此關聯的事件中產生的,像是成千上萬根發條在并行驅動一個系統,任何一根發條的動作都會傳遞到整個系統。從群體中涌現出來的不是一系列個體行為,而是眾多個體協同完成的整體動作,例如從相互連接的無數神經元中涌現的人類思維,成千上萬的螞蟻無意識協作下建筑的蟻巢。這就是群集模型系統。

          AI 大模型也符合群集系統的特點。由于缺乏中心控制,群集系統效率相對低,如大模型就存在信息冗余,且不可預測、不可知、不可控。但缺乏中心控制也帶來了可適應、可進化、無限性和新穎性的優勢,因此大模型能通過涌現自學新技能。

          OpenAI 推測,涌現也許是一種類似進化的機制。OpenAI 首席科學家伊利亞為作者之一的論文《學習生成評論并發現情感》中提到,當給了足夠的模型容量、訓練數據和計算時間后,GPT 大模型內部自行產生了一個情感分析功能單元,能準確辨別文字是在表達喜悅、悲傷還是憤怒。

          論文認為,這有可能是因為能辨別情感色彩,對 GPT 更好完成其目標,即預測下一個詞有很大幫助。就像人類為了生存繁衍這個單一目標,進化出了復雜的生理特征和文化習俗,那些更適宜生存、讓種群擴大的特點會被保留,涌現可能就是這樣一個類似自然選擇的進化過程。

          而進化的另一面是失控,能進化的東西,本身不會是完全可控和可以提前設計的。進化不光創造新技能,也可能創造出幻覺。學會使用一個正在快速進化的黑箱工具,是人類以前沒遇到過的課題。我們需要在接受、理解和適應失控的前提下,尋找可控的部分,避免商業風險和更大的風險。

          一方面,AI 學界仍在做更多研究,盡可能多了解大模型涌現的規律。阿里·拉希米 2017 年把 AI 比作煉金術時,曾建議借鑒物理學簡化問題的方法,打開 AI 黑箱。

          6 年后,《通用人工智能的火花:GPT-4 早期實驗》論文一作、微軟研究院的塞巴斯蒂安·布貝克(Sébastien Bubeck)又一次提出了 AI Physics 的研究方向,即借鑒物理學思想,用簡化模型和受控實驗的方法拆解大模型,希望找到影響涌現的元素。

          就在昨天,OpenAI 也發表論文《用語言模型解釋語言模型里的神經元》,用 GPT-4 解釋 GPT-2 中某些神經元的一些工作情況。這種方法目前仍存在局限,如僅解釋了行為而沒有解釋相關機制和對任務表現的影響,但 OpenAI 希望完善這種方法來推進大模型的可解釋性,并且是能完全自動化地做解釋。

          另一方面,產業界也正在嘗試各種方法,讓 AI 大模型整體的結果更可控。

          選好做什么,不做什么

          AlphaGo 到 chatGPT已顛覆許多生意,甚至帶來更大社會變化

          有些場景中,大模型的一些現有缺陷對商用的影響沒那么大,甚至可能是助益。如強調個性化和趣味性的聊天應用 character.ai 創始人說:“我并不認為幻覺是需要解決的問題,我甚至很喜歡它,這是模型有趣的特點。” 在 character.ai 做的 “角色扮演” 聊天場景中,幻覺是想象力的源泉。

          但對另一些容錯很低的行業,如醫療診斷、自動駕駛、工業自動化,幻覺卻危害顯著。

          通過人工或機器手段來給大模型的缺陷打補丁

          在適合使用 GPT 大模型能力的領域,針對幻覺、規劃能力不足、缺乏長期記憶等缺陷,現在都有部分解決方案。

          機器手段包括,通過本地數據庫查詢的方式在對話中帶入歷史記憶,增加模型的記憶能力;通過兩個模型間左右互搏的方式識別幻覺。人工手段包括,通過提示工程指引大模型進行復雜規劃,通過人工審核來發現并糾正模型幻覺。

          以上手段在不同行業場景、不同數據環境下的效果與成本,需要用實踐驗證,其綜合結果會影響 GPT 大模型在這個行業或場景的商業價值。

          針對目標行業做深入地定制化,對快速顛覆有謹慎期待,對額外的成本有預期

          由于比以前更通用但還不夠的通用大模型仍無法通吃所有行業,越來越多人意識到,在通用大模型之上,還可以針對垂直領域精細化訓練和定制大模型,這類模型僅在指定行業場景下執行有限種類任務,規模可適當縮小。

          從輕到重,做定制化的方式有:

          • 基于已有閉源大模型的 API 接口,通過應用級的微調 + 打補丁做定制應用。
          • 選擇開源的、已經完成預訓練工作的基礎模型,做更多定制。
          • 從頭自己訓練垂直模型:從預訓練數據選擇、模型結構設計切入,定制全新大模型,以解決特定行業場景的問題。如彭博推出了 500 億參數的金融垂直大模型 BloombergGPT,預訓練使用的金融數據集和通用數據集各占一半,在金融特有任務,如新聞情感分析上領先于通用大模型。

          越重的做法,成本越大,壁壘也越高。不同行業,怎么做最有競爭優勢,沒有標準答案,但可以有一個大致的決策模型:

          更穩的選擇是先做最輕的打補丁,在掌握問題和數據、驗證業務價值后,再決定是否走徹底定制路線。但這可能錯過時間窗口,導致追不上行業里更早做出垂直模型的公司,后者可能更快形成數據反饋到模型能力迭代的 “數據飛輪”,與其他人拉開差距。

          更大膽的方式是跳進選好的方向,直接從頭一邊煉大模型一邊找業務價值,這需要持續的資源,也是目前一批融資能力最強的創業者的共同選擇,如美團聯合創始人王慧文和搜狗創始人王小川。

          未來大模型可能是這樣一種商業生態:市場上將有少數幾個通用大模型來自 “OpenAI+ 微軟云” 這樣的頂尖創業公司和云巨頭的組合,或其他自研通用大模型的巨頭。他們會自己開發部分產品,直接滿足一些大模型最擅長的場景,或更能容忍錯誤和不可靠性的場景,如個人知識助理、陪伴式聊天、創意內容生成、非專業的問答式檢索等;同時提供 MaaS(Models as a Service)服務,為一些想做定制化應用的企業客戶提供模型基礎,這需要簡化微調工作,使第三方集成商或客戶也能方便地自己微調,低成本交付產品。OpenAI 已在讓微調本身變得更自動化。

          而在一些高價值、高要求,需要數據保密或數據不好獲取的專業場景,還會存在更多單獨訓練、服務行業的垂直大模型。

          在蒸汽機時代,全社會花了幾十年來充分實現新技術的潛力,大模型的跨行業落地也會經歷一個比想象中曲折的過程。正如 OpenAI 論文《GPT 是通用技術》中所說,這需要針對其缺陷,結合各行業的特點,與產業合作方共同發明應用解決方案,甚至重新設計企業組織。

          這個過程會伴隨信心起伏,高估后有貶低,低谷中又醞釀下一個變化。引燃 GPT 熱潮的 OpenAI 成立于 2015 年 11 月,它本身是上一輪 AI 信心的產物,只是它對 AI 的信心與眾不同。OpenAI 成立之初就在追求 AGI,而大部分從業者過去并不認為這能在他們有生之年實現。多年來 OpenAI 并未急于給上一階段的 AI 技術進展找實際商業場景,而是在摸索 AGI 的突破口,直到堅硬的巖石終于被鑿開一絲裂縫。這還不是可以輕易收獲的時刻,只是一個漫長征途的開端。

          來源:鄭榮南

          本站文章收集整理于網絡,原文出處:鄭榮南 ,本站僅提供信息存儲空間服務。如若轉載,請注明出處。

          (0)
          上一篇 2023-06-07 10:28
          下一篇 2023-06-07 17:53

          相關推薦

          發表回復

          您的電子郵箱地址不會被公開。 必填項已用*標注

        1. <track id="bnqdd"><span id="bnqdd"><td id="bnqdd"></td></span></track>
        2. <bdo id="bnqdd"><optgroup id="bnqdd"></optgroup></bdo>
          <track id="bnqdd"></track>

          1. <bdo id="bnqdd"><optgroup id="bnqdd"><dd id="bnqdd"></dd></optgroup></bdo>

            <menuitem id="bnqdd"></menuitem>

            1. <track id="bnqdd"></track>

              <tbody id="bnqdd"></tbody>

            2. <track id="bnqdd"></track>
            3. <track id="bnqdd"><span id="bnqdd"><tr id="bnqdd"></tr></span></track><nobr id="bnqdd"><optgroup id="bnqdd"><big id="bnqdd"></big></optgroup></nobr>

                国产黄色视频