[AI發展]AI/大數據 ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布 #AI人工智慧#AI基礎建設 #台灣之光#台積電#護國神山#半導體#晶片#NVIDIA #2024總統大選 立委選舉 政黨票 #中華民國(民國)台灣 臺灣 Taiwan #網路紅人 #網紅Youtuber #館長館粉必看#年輕人必看!台灣團結!台灣人必看!大學生必看!台商必看!

ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布

 
ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布

OpenAI連發兩則重量級消息,首先ChatGPT可以看、聽、說了。 

新版ChatGPT開啟一種更直觀的對話模式,可以向AI展示正在談論的內容。 

像是拍一張照片,詢問如何調整自行車座椅高度。

官方還給出另一個實用場景:打開冰箱拍一張照片,詢問AI晚餐可以吃什麼,並産生完整菜單。 

更新將在接下來的兩周內向ChatGPT Plus訂閱用戶和企業版用戶推出,iOS和Android都支持。 

與此同時,多模態版GPT-4V模型更多細節也一併放出。 

其中最令人驚訝的是,多模態版早在2022年3月就訓練完了……

ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布

看到這裡,有網友言外之意的問:有多少創業公司在剛剛5分鐘之內死掉了?

ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布

看聽說皆備,全新對話模式

 

更新後的ChatGPT行動APP裡,可以直接拍照上傳,並針對照片中的內容提出問題。 

像是「如何調整自行車座椅高度」,ChatGPT會給出詳細步驟。 

ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布

如果你完全不熟悉自行車結構也沒關係,還可以圈出照片的一部分問ChatGPT「說的是這個嗎?」。 

就像在現實世界中用手指東西給別人看一樣。 

ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布

 

不知道用什麼工具,甚至可以把工具箱打開拍給ChatGPT,它不光能指出需要的工具在左邊,連標籤上的文字也能看懂。 

ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布

先前得到使用資格的使用者也分享了一些測試結果。 

可以分析自動化工作流程圖。

但是沒有認出一張劇照具體出自哪部電影。

ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布

 

語音部分的展示還是上周DALL‧E 3演示的聯動彩蛋。 

讓ChatGPT把5歲小朋友幻想中的「超級向日葵刺蝟」講成一個完整的睡前故事。 

DALL‧E3展示

ChatGPT這次講的故事文字摘錄如下:

ChatGPT App重大進化!能看、能聽、還會說,多模態GPT-4V能力細節同時公布

多模態GPT-4V能力大揭秘

結合所有公布的影片展示與GPT-4V System Card中的內容,手快的網友已經總結出GPT-4V的視覺能力大揭秘。

  • 物體檢測:GPT-4V可以檢測和辨識圖像中的常見物體,如汽車、動物、家居用品等。其物體辨識能力在標準圖像資料集上進行了評估。
  • 文字辨識:該模型具有光學字元辨識 (OCR) 功能,可以檢測圖像中的列印或手寫文字並將其轉錄為機器可讀文字。這在文件、標誌、標題等圖像中進行了測試。
  • 人臉辨識:GPT-4V可以定位並辨識圖像中的人臉。它具有一定的能力,可以根據臉部特徵辨識性別、年齡和種族屬性。其臉部分析能力是在 FairFace 和 LFW 等資料集上進行測量的。
  • 驗證碼處理:在解決基於文字和圖像的驗證碼時,GPT-4V顯示出了視覺推理能力。這表明該模型具有進階解謎能力。
  • 地理定位:GPT-4V 具有辨識風景圖像中描繪的城市或地理位置的能力,這證明模型吸收了關於現實世界的知識,但也代表有洩露隱私的風險。
  • 複雜圖像:該模型難以準確解釋複雜的科學圖表、醫學掃描或具有多個重疊文字元件的圖像。它錯過了上下文細節。

同時也總結了GPT-4V目前的限制。 

  • 空間關係:模型可能很難理解圖像中物件的精確空間布局和位置。它可能無法正確傳達物件之間的相對位置。
  • 物件重疊:當圖像中的物件嚴重重疊時,GPT-4V 有時無法區分一個物件的結束位置和下一個物件的開始位置。它可以將不同的物件混合在一起。
  • 背景/前景:模型並不總是準確地感知圖像的前景和背景中的物件。它可能會錯誤地描述物件關係。
  • 遮擋:當圖像中某些物件被其他物件部分遮擋或遮擋時,GPT-4V 可能無法辨識被遮擋的物件或錯過它們與周圍物件的關係。
  • 細節:模型經常會錯過或誤解非常小的物體、文字或圖像中的複雜細節,進而導致錯誤的關係描述。
  • 上下文推理:GPT-4V缺乏強大的視覺推理能力來深入分析圖像的上下文並描述物件之間的隱式關係。
  • 置信度:模型可能會錯誤地描述物件關係,與圖像內容不符。

同時System Card中也重點聲明了「目前在科學研究和醫療用途中性能不可靠」。 

另外後續還要繼續研究,是否應該讓模型辨識公眾人物,是否應該允許模型從人物圖像中推斷性別、種族或情感等問題。 

有網友已經想好,等更新了要問的第一件事是Sam Altman照片的背包裡裝的是什麼。 

那麼,你第一件事要問什麼? 

資料來源:

新聞來源https://www.techbang.com/posts/109909-chatgpt-gpt-4v

 

=====

ETH挖礦結束怎麼辦?改挖ETC囉!真正挖礦就是趁現在!https://ezil.me/?p=ac24 

PROMO CODE好康碼ac24 享有10% cashback 回饋反現

礦池伺服器有台灣,低延遲

Free免費領取免費比特幣時時刻刻免費比特幣每1小時可領取一次

每小時可抽一次比特幣最大獎$200 Bitcoin every hour up to $200

每周抽比特幣樂透 weekly lottery draw and win big prizes!

每天抽輪盤最大獎$15,000 WHEEL OF FORTUNE win up to $15,000

=====

世界上第一個區塊鏈自動收益共享 (BARS) 技術。

The World's First Blockchain Automatic Revenue Sharing (BARS) Technology.

https://vulcanblockchain.com/

https://twitter.com/VulcanChain

原SAFUU自動抵押和自動複利協定大升級全新區塊鏈

=====

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 jodenh 的頭像
    jodenh

    j的謎之無聊日常jOrz |Freebitcoin免費比特幣樂透純愛戰士轉生異世界成為世界最強 館長最頂的柯粉館粉必看家長必看每天必看#流量密碼#流量怪物#超派

    jodenh 發表在 痞客邦 留言(0) 人氣()