無人載具於水產養殖之技術研發與應用(下)
- 發佈日期:
- 資料來源:農業部農業科技專案計畫服務網
無人載具研發案例
目前水面/水下無人載具用途主要涵蓋設備維護、水質監測及網箱檢測等,如希臘研究團隊研發測試一款混合型水下載具(Hybrid Remotely Operated Vehicle, HROV)- 「Kalypso」(圖1),兼具AUV與ROV雙重功能,設計採用模組化與3D列印結構,能降低生產成本並快速替換零件,整機重量約12公斤,供電系統由2顆鋰電池組成,並輔以 LED 照明以確保低光環境下之清晰影像,該機搭載8具推進器並可提供六自由度移動能力,具備防水艙體、雙前後攝影機、超音波感測器及滲水警示器,其控制核心組件包含Pixhawk導航控制板、Raspberry Pi 3樹梅派與搭載GPU之迷你電腦,用於即時數據處理與影像分析,並可搭載多種操作工具,包含異物移除器、魚體回收器及魚網修補工具等,以利執行養殖場常見之維護任務,適合地中海地區之鯛魚、鱸魚及鯉魚等養殖場使用。
該研究團隊透過計算流體力學(CFD)模擬分析Kalypso在不同運動軸向下之阻力與受力表現,顯示其橫向移動效率較佳,並具備良好穩定性。接續於實際魚場進行靜態與旋轉穩定性測試、自主巡航檢測及工具操作等測試(圖2、圖3),結果顯示,Kalypso於深度保持模式下能將偏移角度控制於±4°以內,並於自主巡航過程可完整識別並記錄設置於魚網內之標記物,檢測成功率達100%。在工具測試中,載具能有效完成魚體清除與網洞修補等操作,平均每次魚體回收約需30秒,網洞修補約70秒,展現出現場作業之實用性與操作穩定性。漁場回饋意見則包含透過此類無人載具作業,不僅可降低人員潛水需求與外包成本,更具備魚群健康監控、投餌行為追蹤及環境數據蒐集潛力,且可降低對魚群造成之壓力;經上述測試結果,該研究強調若以自主模式(無纜線)運作,載具之即時通訊與回饋功能較為受限,且感測器精度、操作者技術、能源續航及工具扭力等亦存在限制,未來則可朝向整合人工智慧與機器學習以增強自主決策,發展更精密且小型化之感測器、提升人機介面之操控性,以及改善能源管理與仿生推進技術等方向進行優化(Vasileiou and Vlontzos, 2025)。

▲圖1、HROV主要部件設計與系統運作示意:(a)自主模式掃描;(b)魚隻殘骸收集功能;(c)漁網修復功能。(Vasileiou and Vlontzos, 2025)

▲圖2、混合型ROV-Kalypso運作情形(Vasileiou and Vlontzos, 2025)

▲圖3、混合型ROV-Kalypso於方形箱網之移動軌跡(Vasileiou and Vlontzos, 2025)
而於亞洲、非洲及南美洲等開發中地區,小規模養殖場普遍存在資金不足、人力老化及勞動短缺等問題,且養殖環境多為河口、潟湖或淺水池塘,導致水質監測與管理難度較高。為此,英國工程師研究團隊研發測試一款專為淺水環境設計之低成本USV(圖4),以PLA 材料3D列印雙體船平臺為基礎,再以環氧樹脂與碳纖維桿強化結構,具備輕量與耐用特性,電力來源為鋰聚合物電池,整體設計成本僅約1,118美元(折合新臺幣約34,000元)。此機臺之控制系統採雙層架構,以Arduino Mega 2560控制器進行低層級感測與推進控制,而 Raspberry Pi 4樹梅派則搭載機器人作業系統(Robot Operating System, ROS)負責高階運算、導航及感測整合;定位系統結合全球導航衛星系統(GNSS)與慣性測量單元(IMU),並採用擴展卡爾曼濾波(EKF)技術進行多感測器融合,以提升淺水環境中之定位精度;通訊架構則分為控制通訊(CCP)與遙測通訊(TCP),前者支援遙控操作,後者透過無線網路將即時數據傳輸至地面站,並能儲存以利後續分析(Temilolorun and Singh, 2024)。
該USV在英國雪菲爾的 Redmires 水庫進行實測,模擬真實淺水養殖環境。實驗採用迴轉圓測試(Turning Circle Test),評估其機動性與穩定性。測試結果顯示,USV 能成功完成多次 540° 迴轉,並保持穩定航行,橫搖與縱搖偏差極小,驗證了其結構設計與控制系統的可靠性。然而,戰術直徑與前進距離等關鍵指標未能完全符合 IMO(國際海事組織)標準,主因在於低成本感測器精度有限,以及風浪與水流干擾影響數據表現。儘管如此,該 USV 展現了良好的導航與控制能力,證明低成本解決方案具備實際可行性。研究亦指出,未來改進方向包括整合更高精度之感測器、優化推進控制與演算法,以及擴展至多機協作應用,以提升整體效能並滿足國際標準。

▲圖4、3D列印USV雛型(Temilolorun and Singh, 2024;本研究翻譯)
此外,來自紐西蘭坎特伯雷大學工程師團隊歷經十年研究,開發一款AI驅動AUV-「Poseidon」,可近距離識別與檢測移動中之養殖設施,如常移動或位於強流區域之貽貝繩索或魚網,其搭載多角度攝影鏡頭,透過拍攝多視角照片進一步建構3D影像(圖5)。而Poseidon可於動盪水域中穩定航行並進行掃描,主要運用Doppler Velocity Log(DVL)技術結合GPS、加速度計及陀螺儀等慣性導航元件,透過都卜勒效應偵測聲波頻率變化,可計算載具空間移動與角度變化,並協助其定位與保持穩定性(Musgrove, 2025)。此設備可自主執行任務,於短時間內完成蒐集魚隻尺寸資訊、魚群數量及樣本回收等作業,如後續順利投入生產場域使用,期可降低養殖場之人力與設備需求。

▲圖5、無人載具Poseidon
大型海上箱網之網具檢測與維護主要仍依賴潛水人員進行,成本高且具安全風險。由於強流、惡劣天候及生物附著常造成魚網破損或結構崩解,若未及時發現將導致魚隻外逃與生態破壞。為降低人力作業負擔,ROV被視為替代人工檢查之關鍵技術。然而水下環境光線衰減與懸浮顆粒將造成影像模糊,使得即時檢測準確度受限。
考量網具表面隨時間累積藻類、貝類及微生物層,可能導致水流通性降低、溶氧減少、魚隻病害上升,甚至因結構受重而增加網繩斷裂風險。Fabijanić等人設計以ROV與水面無人載具(ASV Korkyra)協作之自主巡檢架構,由ROV執行水下拍攝任務,採用 Blueye Pro 機型,安裝 WaterLinked SBL聲學定位系統,可於無GPS環境下進行即時定位(圖6);ASV則負責定位與運算,可同時掛載空拍機與拖纜管理系統,形成空、水面及水下之三層協作系統(Fabijanić et al., 2024)。研究團隊分別於亞得里亞海與控制池收集逾5,000張箱網影像,並開發半自動標註工具,利用K-means演算法將畫面分群後再手動標示「海水」、「魚網」、「魚群」等類別,以建立訓練資料集。影像分割部分最初嘗試邏輯回歸模型,但因光照與模糊變化導致精度不穩,最終採用UNet卷積神經網路(CNN)架構進行語意分割。UNet可同時保留影像全域與細部特徵,有效分離網具結構與背景;在污染估算方面,團隊建立生物污垢(biofouling)估算模組化架構,包含影像分割、理想網具重建、差異量化及距離估測等節點。系統透過比較「理想乾淨網具」與「實際影像」之二值化差異面積,推算附著物覆蓋比例(圖7);距離估測則採幾何方式,透過辨識魚網格點中心並依相機焦距與像素間距計算實際距離,以避免深度學習耗時問題。
▲圖6、圖左為ROV(Blueye Pro)與改裝之水下GPS G2轉發器;圖右為網子之生物污損模擬補丁。(Fabijanić et al., 2024)
研究團隊於克羅埃西亞海水泳池中,以14 m ×3 m之網具安裝不同數量之25 cm方形棕黃斑塊,模擬22%、33%、44%、66%等四種污染程度。ROV 以「割草機式(lawnmower pattern)」路徑自主巡航,控制系統採閉迴路PID 演算法維持定距與平行姿態,單次任務約15分鐘可完成42 平方公尺面積掃描。結果顯示,系統於22-66%污染情境下之估測誤差僅2.5%,UNet模型之平均絕對誤差低於傳統回歸法15%以上。研究亦分析拍攝距離、角度、光照及水下顆粒對結果之影響,指出ROV與網具間格1 m為最適距離,過遠會造成邊緣模糊而高估污染,而結合輪廓濾波器後,誤差可再下降約1.7%。此外,團隊發現ROV於定速0.1-0.2 m/s時可兼顧影像清晰度與效率。整體系統運作以GPU運算時每張960×540影像處理僅需數毫秒,具即時應用潛力。
▲圖7、經過訓練之UNet神經網路分割模型預測結果;圖左為受控條件下拍攝影像,圖右為真實漁場拍攝影像。(Fabijanić et al., 2024)
另Akram等人以商用ROV為平臺,發展主動視覺控制(Active Vision)結合深度學習之即時魚網檢測系統(圖8),以影像梯度(mean gradient)作為影像清晰度指標(圖9),透過攝影機影像判別,結合卷積神經網路(CNN)進行距離分類,並以PID控制器校正ROV與魚網間之相對距離與角度,使載具能自動維持於最佳視野下進行巡檢。此外,該系統整合YOLO深度學習模型辨識網洞與纏繞塑膠等異物,以達到自動偵測與即時告警。試驗於室內泳池與克羅埃西亞Cromaris漁場進行驗證,使用Blueye Pro ROV(300 m潛深、Full HD 攝影機、四推進器)經ROS2平臺與上位伺服端無線連線進行即時控制與影像傳輸,該控制器可於波動與濁水環境中穩定維持理想距離並獲得高解析影像,可有效減少因姿態偏移造成之誤檢(Akram et al., 2025)。
▲圖8、ROV 外觀及網平面相對距離與偏航角協調系統(Akram et al., 2025)
研究結果顯示,為提升影像判讀效果,團隊訓練多種CNN(如MobileNetV2、VGG-16、EfficientNet等)進行距離分類,並整合YOLOv4–v8等模型比較缺陷辨識效能,最終YOLOv5於即時性與精度間取得最佳平衡,且缺陷辨識表現最佳(mAP 0.984、Precision 0.969、Recall 0.952),且於「良好距離」影像下偵測準確率高達0.71,明顯優於過遠或過近情形。整體系統延遲僅約68毫秒,運作速率達每秒30幀,符合海上即時巡檢需求。該系統透過整合「CNN距離估測+梯度控制+YOLO偵測」之閉迴路機制,兼顧視角最佳化與缺陷辨識,證實ROV可自主完成魚網巡檢任務,取代傳統人工潛檢。雖然整體仍遭遇光線變化、懸浮顆粒干擾及三維結構適應性等挑戰,但整體成果已展示高效、安全且具商業化潛力之智慧化水下監測方案。未來將推進深度學習推論於ROV端運算、結合聲納多模態感測、發展多ROV協作與路徑規劃,以應用於大規模智慧養殖與海洋資產維護。
▲圖9、不同檢測距離下所捕捉網格影像及其對應梯度圖之視覺比較(Akram et al., 2025)
(a)從遠距離捕捉之網格影像,細節較少,平均梯度值為36.83,表示邊緣響應較弱;(b)從更近、最佳距離捕捉之網格影像,網格結構更清晰,平均梯度值為132.98,表示邊緣更清晰銳利
(註:梯度圖可用於量化影像清晰度,並使用色標進行視覺化,較亮區域對應較強之梯度。)
另外,國內國立臺灣海洋大學通訊與導航工程學系研究團隊亦投入UAV結合影像辨識與深度學習技術研究,設計一套具影像辨識、自動導航及資料回傳能力之智慧型六軸無人機系統(圖10),其系統核心功能包含(1)透過影像辨識與深度學習演算法自動鎖定箱網位置、(2)使用機載電腦控制飛行器精準懸停並投放水質感測器及(3)完成測量後自動收回感測器並返航。硬體部分,研究團隊自製UAV,其搭載Pixhawk 4飛控系統、F9P-RTK GPS模組(定位誤差小於 1 m)、NVIDIA Jetson Xavier NX機載電腦,以及具雙馬達收放線裝置之感測器系統,影像辨識採用YOLOv4-tiny演算法,該研究針對UAV之運算效能進行改良,運用逾3200張多角度與不同光線條件之箱網影像資料進行YOLOv4-tiny模型訓練,所設計三種改良模型之平均準確率(mAP)均達 95%以上,其中一種改良方式可於運算效能與準確度間取得最佳平衡,達到每秒處理77影格(FPS),且耗電量降至2,958 mW/s,較原始模型節省約15%能耗(Liang and Juang, 2022)。
而UAV透過GPS 接收箱網位置後自動起飛,當接近目標區時啟動影像辨識模組修正定位。系統根據影像中心點偏差自動調整飛行姿態與雲臺角度,使鏡頭垂直對準箱網中心。完成定位後,感測器下降至約5公尺深度,進行溶氧、溫度及鹽度等數據測量,隨後自動收線並返航。任務全程由Jetson Xavier NX進行自主控制,無需人工干預。本研究成功實現基於影像識別與深度學習之UAV自主水質監測系統,能有效取代人工測量作業。改良後之YOLOv4-tiny模型不僅達到高辨識精度與即時處理速度(≥ 66 FPS),亦具備低功耗特性,適合長時間海上作業。未來可進一步引入YOLOv5與多光譜感測器,以提升模型準確度並擴展應用於大規模養殖監控與自動餵食管理。
▲圖10、UAV六軸無人機系統主體。(a)正面圖(b)後視圖(c)俯視圖。(Liang and Juang, 2022)
結語
整體而言,無人載具於水產養殖領域具備高度潛力,相關技術發展也已逐步投入實際場域應用(整理如表1),其核心價值為提升監控精度、降低人力風險及提高作業頻率等,然而,如欲全面投入商用,仍須克服魚類干擾、環境適應、成本效益、資料整合、專業技術門檻及養殖戶接受度等挑戰,未來可透過載具協作、AI模組化、再生能源應用、低成本設計及標準化監控管理模式,以提升即時環境預測與動物健康偵測能力,養殖業者若能透過試點計畫、人才培訓並與技術供應商合作,亦將有助於提升與整合現有管理體系。
此外,為持續鼓勵國內學研團隊與產業投入農業AI技術開發,透過農業科專計畫推動,近年亦設計如開發生成式AI技術(決策與產銷調節)、AI預警模型(降低災損風險)及智能機具(人機協作省工)等AI農業主軸之政策優先題目公告徵求,期可結合產、官、學、研之研發量能與場域實證,加速技術落實產業應用。養殖漁業之智慧化轉型仍須強化整合物聯網、大數據分析、機器學習、影像辨識等多元技術,且數據準確性、質量及代表性對AI系統運算至關重要,而在實際應用中,數據蒐集往往受到環境與設備限制,且技術開發或設備導入之高額成本,以及養殖業者之接受度亦是AI生產模式推廣將面臨之挑戰。綜上,藉由政府資源挹注,將持續鏈結產、官、學研之核心研發與服務能量,強化投入前瞻研究並逐步落實產業需求,期可接軌國際永續發展趨勢,加速帶動養殖漁業升級轉型。
表1、無人載具之技術應用

參考資料:
- Akram, W., Ud Din, M., Heshmat, M., Casavola, A., Seneviratne, L., & Hussain, I. (2025). Active vision-based real-time aquaculture net pens inspection using ROV. Scientific Reports, 15, 32690.
- Fabijanić, M., Kapetanović, N., & Mišković, N. (2024). Autonomous visual fish pen inspections for estimating the state of biofouling buildup using ROV. arXiv:2409.12813v2.
- Liang, W.-Y., & Juang, J.-G. (2022). Application of image identification to UAV control for cage culture. Science Progress, 105(4), 1–38.
- Musgrove, R. (2025, May 29). Kiwis launch Poseidon, the AI-augmented underwater drone. Cosmos. Retrieved from
- Temilolorun, A., & Singh, Y. (2024). Towards design and development of a low-cost unmanned surface vehicle for aquaculture water quality monitoring in shallow water environments. arXiv preprint arXiv:2410.09513.
- Vasileiou, M., & Vlontzos, G. (2025). A hybrid remotely operated underwater vehicle for maintenance operations in aquaculture: Practical insights from Greek fish farms. Computers and Electronics in Agriculture, 232, 110045.
