<noframes id="bblxs"><output id="bblxs"><output id="bblxs"></output></output><dd id="bblxs"><font id="bblxs"><output id="bblxs"></output></font></dd>
<dd id="bblxs"></dd><font id="bblxs"></font>
<dd id="bblxs"></dd><font id="bblxs"></font><dd id="bblxs"></dd>
<output id="bblxs"><output id="bblxs"><dd id="bblxs"></dd></output></output>
<dd id="bblxs"></dd>
<dd id="bblxs"><output id="bblxs"><output id="bblxs"></output></output></dd><font id="bblxs"></font><font id="bblxs"><font id="bblxs"><output id="bblxs"></output></font></font><dd id="bblxs"></dd><dd id="bblxs"><font id="bblxs"><tr id="bblxs"></tr></font></dd><font id="bblxs"></font>
<dd id="bblxs"></dd>
<dd id="bblxs"><output id="bblxs"></output></dd><dd id="bblxs"><font id="bblxs"></font></dd>
<dd id="bblxs"></dd><font id="bblxs"><output id="bblxs"><tr id="bblxs"></tr></output></font><font id="bblxs"></font>
<font id="bblxs"><output id="bblxs"><noframes id="bblxs"><dd id="bblxs"><output id="bblxs"></output></dd><font id="bblxs"></font><dd id="bblxs"><output id="bblxs"><tr id="bblxs"></tr></output></dd><font id="bblxs"></font><dd id="bblxs"></dd> <dd id="bblxs"></dd><noframes id="bblxs"><font id="bblxs"></font><font id="bblxs"></font>
<font id="bblxs"></font>
<dd id="bblxs"><font id="bblxs"><tr id="bblxs"></tr></font></dd><font id="bblxs"><output id="bblxs"><tr id="bblxs"></tr></output></font>
<font id="bblxs"></font>
<dd id="bblxs"></dd>
<dd id="bblxs"></dd>
<dd id="bblxs"><output id="bblxs"></output></dd><dd id="bblxs"></dd>
您現在的位置: 通信界 >> 通信線纜 >> 技術正文  
 
使用Fastai構建食物圖像分類器
[ 通信界 / 磐創AI / www.findmyhalf.com / 2022/10/30 18:49:25 ]
 

背景

社交媒體平臺是分享有趣的圖像的常用方式。食物圖像,尤其是與不同的美食和文化相關的圖像,是一個似乎經常流行的話題。Instagram 等社交媒體平臺擁有大量屬于不同類別的圖像。我們都可能使用谷歌圖片或 Instagram 上的搜索選項來瀏覽看起來很美味的蛋糕圖片來尋找靈感。但是為了讓這些圖片可以通過搜索獲得,我們需要為每張圖片設置一些相關的標簽。

這使得搜索關鍵字并將其與標簽匹配成為可能。由于手動標記每張圖像極具挑戰性,因此公司使用 ML (機器學習)和 DL (深度學習)技術為圖像生成正確的標簽。這可以使用基于一些標記數據識別和標記圖像的圖像分類器來實現。

在本文中,讓我們使用 fastai 構建一個圖像分類器,并使用一個名為“ fastai”的庫來識別一些食物圖像。

Fastai 簡介

Fastai 是一個開源深度學習庫,它為從業者提供高級組件,可以快速輕松地在傳統深度學習領域產生最先進的結果。它使研究人員可以混合和組合低級組件以創建新技術。它旨在在不影響可用性、靈活性或性能的情況下實現這兩個目標。

由于 fastai 是用 Python 編寫的,并且基于 PyTorch,因此需要 Python 知識才能理解本文。我們將在 Google Colab 中運行此代碼。除了 fastai,我們將使用圖形處理單元 (GPU) 以盡可能快地獲得結果。

使用 Fastai 構建圖像分類器

讓我們從安裝 fastai 庫開始:

!pip install -Uqq fastai

如果你使用的是 Anaconda,請運行以下命令:

conda install -c fastchan fastai anaconda

讓我們導入分類任務所需的包。該庫分為模塊,其中最常見的是表格、文本和視覺。因為我們手頭的任務包括視覺,所以我們從vision庫中導入我們需要的所有功能。

from fastai.vision.all import *

通過 fastai 庫可以獲得許多學術數據集。其中之一是 FOOD,它是 URL 下的URLs. FOOD

第一步是獲取并提取我們需要的數據。我們將使用 untar_data 函數,它會自動下載數據集并解壓它。

foodPath = untar_data(URLs.FOOD)

該數據集包含 101,000 張圖像,分為 101 個食物類別,每個類別有 250 個測試圖像和 750 個訓練圖像。訓練中的圖像沒有被清理。所有圖像的大小都調整為每邊最大 512 像素。

下一個命令將告訴我們必須處理多少圖像。

len(get_image_files(foodPath))

此外,使用以下命令,我們將打印 Food 數據集的元目錄的內容。

print(os.listdir(foodPath))

meta文件夾包含八個文件,其中四個是文本文件:train.txt、test.txt、classes.txt和labels.txt。train.txt 和 test.txt 文件分別包含訓練集和測試集的圖像列表。classes.txt 文件包含所有食品類別和標簽的列表。txt 提供了所有食品圖像標簽的列表。該目錄還包含一個帶有預訓練模型的 .h5 文件和一個包含 101,000 張 JPG 格式圖像的圖像文件夾。最后,訓練集和測試集以 JSON 格式提供。

要查看所有圖像類別,我們將運行以下命令:

image_dir_path = foodPath/'images'

image_categories = os.listdir(image_dir_path)

print(image_categories)

然后,我們將執行以下命令以查看 101,000 張圖像集合中的示例圖像。

img = PILImage.create('/root/.fastai/data/food-101/images/frozen_yogurt/1942235.jpg')

img.show();

我們將使用 pandas 函數讀取 JSON 格式的訓練和測試文件。JSON 是一種以人類可讀的形式存儲信息的數據格式。

以下代碼從目錄中讀取 train.json 文件并將結果保存在 df_train 數據幀中。

df_train=pd.read_json('/root/.fastai/data/food-101/train.json')

然后可以使用 head() 函數打印數據幀的標題,如下所示。

df_train.head()

同樣,通過使用 pandas 函數,我們將讀取 test.json 文件并將其存儲在 df_test 數據幀中。

df_test=pd.read_json('/root/.fastai/data/food-101/test.json')

df_test.head()

我們正在創建三個帶有我們選擇的食物名稱的標簽來對食物圖像進行分類。

labelA = 'cheesecake'

labelB = 'donuts'

labelC= 'panna_cotta'

現在我們將創建一個 for 循環,它將遍歷我們下載的所有圖像。在此循環的幫助下,我們將刪除沒有標簽 A、B 或 C 的圖像。此外,我們使用以下函數重命名具有各自標簽的圖像。

for img in get_image_files(foodPath):

 if labelA in str(img):

  img.rename(f"{img.parent}/{labelA}-{img.name}")

 elif labelB in str(img):

   img.rename(f"{img.parent}/{labelB}-{img.name}")

 elif labelC in str(img):

   img.rename(f"{img.parent}/{labelC}-{img.name}")

 else: os.remove(img)

讓我們使用以下命令檢查運行循環后獲得的圖像數量:

len(get_image_files(foodPath))

讓我們在三個選擇的食物中嘗試一個示例標簽,看看重命名是否正確。

def GetLabel(fileName):

return fileName.split('-')[0]

GetLabel("cheesecake-1092082.jpg")

以下代碼生成一個 DataLoaders 對象,該對象表示訓練和驗證數據的混合。

dls = ImageDataLoaders.from_name_func(

   foodPath, get_image_files(foodPath), valid_pct=0.2, seed=42,

   label_func=GetLabel, item_tfms=Resize(224))

dls.train.show_batch()

在這種情況下,我們將:

· 使用路徑選項指定下載和提取數據的位置。

· 使用 get_image_ files 函數從指定位置收集所有文件名。

· 對數據集使用 80–20 拆分。

· 使用 GetLabel 函數從文件名中提取標簽。

· 將所有圖像調整為相同大小,即 224 像素。

· 使用 show_batch 函數生成一個輸出窗口,顯示帶有指定標簽的訓練圖像網格。

是時候將模型放置到位了。使用 ResNet34 架構,我們將通過專注于稱為 vision_learner () 的單個函數調用來構建卷積神經網絡。

vision_learner 函數(也稱為 cnn_learner)有利于訓練計算機視覺模型。它包括你的原始圖像數據集、預訓練模型 resnet34 和一個度量錯誤率,它決定了在驗證數據中錯誤識別的圖像的比例。resnet34 中的 34 指的是這種架構類型中的層數(其他選項有 18、50、101 和 152)。使用更多層的模型需要更長的訓練時間并且更容易過度擬合。

Fastai 提供了一個“fine_tune”函數,用于調整預訓練模型,以使用我們選擇的數據解決我們的特定問題。為了訓練模型,我們將 epoch 數設置為 10。

learn = vision_learner(dls, resnet34, metrics=error_rate, pretrained=True)

learn.fine_tune(epochs=10)

也可以通過將指標替換為“accuracy”來檢查相同模型的準確性。

從上面的結果,我們可以說,即使只有 10 個 epoch,預訓練的 ResNet34 模型在多標簽分類任務中表現出 > 85% 的良好準確率。如果我們增加 epoch 的數量,模型的準確性可能會提高。

現在,讓我們測試一些示例圖像來檢查我們的模型的性能。

示例圖片 #1

示例圖片 #2

示例圖片 #3

從上面的結果,我們可以說我們的模型能夠正確識別樣本圖像。

訓練模型后,我們可以將其部署為 Web 應用程序供其他人使用。盡管 fastai 主要用于模型訓練,但你可以使用“learn.export”函數快速導出 PyTorch 模型以用于生產。

結論

在本教程中,我們學習了如何使用基于 PyTorch 的 fastai 構建食物圖像分類器?梢允褂 Heroku 或 Netlify 等服務部署此模型,以使此模型可用作 Web 應用程序。

以下是本文的一些主要內容:

我們可以使用 fastai 以最少的代碼建立深度學習模型。因此,fastai 使得使用 PyTorch 進行深度學習任務變得更加容易。

食品分類對于計算機視覺應用來說是一項具有挑戰性的任務,因為根據裝飾和供應方式的不同,同一種食品在不同地方看起來可能會有很大差異。盡管如此,通過利用遷移學習的力量,我們可以使用預訓練模型來識別食品并對其進行正確分類。

我們為此分類器使用了預訓練模型 ResNet34。但是,你可以使用其他預訓練模型,如 VGG、Inception、DenseNet 等,來構建你自己的模型。

 

作者:磐創AI 合作媒體:通信界 編輯:顧北

 

 

 
 熱點新聞
普通新聞 聚智成勢 協同向新|中信科智聯精彩亮相2023世界智能網聯汽車大會
普通新聞 三星Galaxy Z Fold5再次拉高行業標準 超閉合精工鉸鏈可折疊70萬次
普通新聞 中國信通院敖立:新時期工業互聯網將對產業鏈組織帶來新價值
普通新聞 揭秘開幕式數字點火!中國技術打造亞運經典時刻
普通新聞 華為:凝心聚力,加速AI的生態繁榮
普通新聞 中國移動榮獲TM Forum2023年度市場創新卓越獎
普通新聞 工信部:杭州亞運會首創5G超密組網方案 推進5G-A超寬帶技術應用
普通新聞 英特爾發布超能云終端3.0,攜手生態伙伴共謀數字化未來
普通新聞 中國信科:連接數字化美好未來
普通新聞 上PICO,沉浸式觀看亞運直播,參與跨國界游戲競技
普通新聞 新紫光集團強化產業協同,新華三向“深”生長
普通新聞 新訊重磅發布5G隨身wifi,真5G 打游戲!
普通新聞 OpenAI推出新版圖像生成器DALL-E 3,10月份開發
普通新聞 華為全面智能化!孟晚舟:打造中國算力底座 為世界構建第二選擇
普通新聞 水木分子發布生物醫藥行業千億參數大模型,推出藥研助手ChatDD
普通新聞 歐盟:距離對中國電動汽車征收新關稅“還很遙遠”
普通新聞 數據顯示8月底ChatGPT流量開始回升,主要是因為開學了
普通新聞 這顆小行星可能在159年后撞上地球?
普通新聞 華為正式發文:余承東升任車業務董事長 靳玉志接任CEO
普通新聞 道歉都整不明白的臥龍鳳雛,不止花西子一個.....
  版權與免責聲明: ① 凡本網注明“合作媒體:通信界”的所有作品,版權均屬于通信界,未經本網授權不得轉載、摘編或利用其它方式使用。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:通信界”。違反上述聲明者,本網將追究其相關法律責任。 ② 凡本網注明“合作媒體:XXX(非通信界)”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。 ③ 如因作品內容、版權和其它問題需要同本網聯系的,請在一月內進行。
通信視界
吳春波:華為如何突破美國6次打壓的逆境?
劉烈宏:以數字化網絡化智能化助力數字經濟與
普通對話 高通中國區董事長孟樸:5G與AI結合,助力提
普通對話 雷軍發布小米年度演講:堅持做高端,擁抱大
普通對話 聞庫:算網融合正值挑戰與機遇并存的關鍵階
普通對話 工信部副部長張云明:我國算力總規模已居世
普通對話 鄔賀銓:我國互聯網平臺企業發展的新一輪機
普通對話 張志成:繼續加強海外知識產權保護工作 為助
普通對話 吳春波:華為如何突破美國6次打壓的逆境?
普通對話 劉烈宏:以數字化網絡化智能化助力數字經濟
普通對話 消息稱微軟將把OpenAI人工智能技術整合至Of
普通對話 中國電信董事長柯瑞文:數字科技引領新消費
普通對話 中國移動董事長楊杰出席GSMA創新論壇并作主
普通對話 中國信科何書平:“一體兩翼”大力支撐數字
普通對話 中興徐子陽:泛在協同,筑“算網”坦途
普通對話 中國移動陳國:智慧中臺對外輸出數百項高價
普通對話 中興通訊總裁徐子陽:數貫東西,融達天下,
通信前瞻
亨通光電實踐數字化工廠,“5G+光纖”助力新一
鄔賀銓院士解讀ChatGPT等數字技術熱點
普通對話 亨通光電實踐數字化工廠,“5G+光纖”助力新
普通對話 中科院錢德沛:計算與網絡基礎設施的全面部
普通對話 工信部趙志國:我國算力總規模居全球第二 保
普通對話 鄔賀銓院士解讀ChatGPT等數字技術熱點
普通對話 我國北方海區運用北斗三號短報文通信服務開
普通對話 華為云Stack智能進化,三大舉措賦能政企深度
普通對話 孟晚舟:“三大聚力”迎接數字化、智能化、
普通對話 物聯網設備在智能工作場所技術中的作用
普通對話 軟銀研發出以無人機探測災害被埋者手機信號
普通對話 AI材料可自我學習并形成“肌肉記憶”
普通對話 北斗三號衛星低能離子能譜儀載荷研制成功
普通對話 為什么Wi-Fi6將成為未來物聯網的關鍵?
普通對話 馬斯克出現在推特總部 收購應該沒有懸念了
普通對話 臺積電澄清:未強迫員工休假或有任何無薪假
普通對話 新一代載人運載火箭發動機研制獲重大突破
亚洲中文字幕色大焦视频_野狼av午夜福利在线_激情开心_俺也去噜噜噜噜色
<noframes id="bblxs"><output id="bblxs"><output id="bblxs"></output></output><dd id="bblxs"><font id="bblxs"><output id="bblxs"></output></font></dd>
<dd id="bblxs"></dd><font id="bblxs"></font>
<dd id="bblxs"></dd><font id="bblxs"></font><dd id="bblxs"></dd>
<output id="bblxs"><output id="bblxs"><dd id="bblxs"></dd></output></output>
<dd id="bblxs"></dd>
<dd id="bblxs"><output id="bblxs"><output id="bblxs"></output></output></dd><font id="bblxs"></font><font id="bblxs"><font id="bblxs"><output id="bblxs"></output></font></font><dd id="bblxs"></dd><dd id="bblxs"><font id="bblxs"><tr id="bblxs"></tr></font></dd><font id="bblxs"></font>
<dd id="bblxs"></dd>
<dd id="bblxs"><output id="bblxs"></output></dd><dd id="bblxs"><font id="bblxs"></font></dd>
<dd id="bblxs"></dd><font id="bblxs"><output id="bblxs"><tr id="bblxs"></tr></output></font><font id="bblxs"></font>
<font id="bblxs"><output id="bblxs"><noframes id="bblxs"><dd id="bblxs"><output id="bblxs"></output></dd><font id="bblxs"></font><dd id="bblxs"><output id="bblxs"><tr id="bblxs"></tr></output></dd><font id="bblxs"></font><dd id="bblxs"></dd> <dd id="bblxs"></dd><noframes id="bblxs"><font id="bblxs"></font><font id="bblxs"></font>
<font id="bblxs"></font>
<dd id="bblxs"><font id="bblxs"><tr id="bblxs"></tr></font></dd><font id="bblxs"><output id="bblxs"><tr id="bblxs"></tr></output></font>
<font id="bblxs"></font>
<dd id="bblxs"></dd>
<dd id="bblxs"></dd>
<dd id="bblxs"><output id="bblxs"></output></dd><dd id="bblxs"></dd>