前言:中文期刊網精心挑選了計算機視覺綜述范文供你參考和學習,希望我們的參考范文能激發你的文章創作靈感,歡迎閱讀。
計算機視覺綜述范文1
關鍵詞:計算機角色動畫;可視媒體;融合技術
隨著計算機角色動畫制作的發展和應用規模的逐漸擴大,計算機角色動畫制作還涉及計算機視覺、計算機圖形學及機器學習等技術范疇,因此,其發展過程成為多種可視媒體融合的研究領域。
1可視媒體融合技術概述
在計算機角色動畫制作中會涉及圖像、三維模型、視頻以及運動捕捉等多種數據的綜合處理,這些數據通過計算機的采集、編輯和壓縮的形式被制作成多媒體數據源的形式展現出來,并經過相互之間的作用形成鮮明的動畫角色,這就是可視媒體融合技術。
多視點圖像中提取的角色通過對側影信息的變形來實現個性化角色的轉變,再通過對運動數據的捕捉來實現角色模型的驅動,以此建立具體的動畫角色。這個過程中主要運用了圖像、運動捕捉和三維模式。因此,不同的可視媒體所采用的融合技術是不相同的。
2可視媒體融合分類
計算機動畫角色在應用過程中呈現出跨度大和設計范圍廣等特點,各種動畫角色的設置都需要建立在可視媒體的基礎上,下面對可視媒體的融合進行分類研究。
2.1視頻融合
(1)多視點人體角合成三維角色動畫:對動畫角色進行攝像機的同步,根據拍攝角色的輪廓、深度信息等對每一幀中的角色進行重建,根據當前視覺的多視點紋理來合成角色紋理,這樣就能夠得到三維角色動畫而不是靜態的三維模型了。(2)角色動畫片段生成:主要采用渲染的方式,實現了片段的編輯,生成角色所需要的動畫。(3)視頻重組:分解和提取現有視頻組合相似的視頻片段,使其成為一個新的視頻,實現了有限視頻資源的利用,視頻重組技術在一些特殊動畫角色上也有應用,例如昆蟲等,通過對原有視頻的重新組合和制作進而形成新的視頻,保證各種片段之間的連續性,用戶通過對代價函數的運用,實現了對角色運動軌跡的控制,進而形成了嶄新的動畫角色。
2.2圖像融合
(1)IBM構建角色模型:以IBM科學技術為基礎,以定標的方式實現相機模型的產生,在多視點圖像中建立三維角色,并將事先做好的圖像貼到事先做好的模型當中,以便實現真實角色的還原。但是還有一點需要注意,就是定標的過程中可能產生一定的誤差,因此,角色模型與真實事物也會存在一定的差異。(2)卡通畫制作輔助系統:分層化處理輸入的關鍵幀,將其分解,對相鄰的2個關鍵幀筆畫可以建立對應關系,利用插值技術形成渡幀,進而促進動畫的形成。(3)角色重用技術:采用背景分割的方式實現角色的提取,算出任意2幀之間的差異,最終得到距離矩陣,最后根據每一幀數據投影來形成連通圖,經過畫師對連通圖起點終點計算最小路徑,從而構成卡通角色動畫,為了使動畫更加平滑、完整,可以用插值的方式來生成過渡幀。
2.3三維模型融合
(1)實時插值技術:此技術以樣例為基礎,其插值方式有2種,一種是徑向基插值,一種是組合線性插值,這樣就實現了動畫人物角色及人臉上的平滑過渡,在一些動畫游戲的交互設計方面也有著重要的應用。(2)人體模型變形技術:此技術也是以樣例為基礎,對人體表面的標記點進行掃面,能夠促進動畫角色骨架的形成,進而形成動畫樣本的參數,在參數空間內進插值就能夠得到動畫角色模型,人體樣本子空間的建立的主要方法是PCA法,能夠實現個性化人體角色的生成,樣本數據由多個人體模型來組成,這種模型的合成和變形技術主要生成的都是動畫角色人物的靜態模型。(3)關節運動生成:當前有許多研究指出可以利用逆向運動來生成關節運動,首先建立世界坐標系,得出角色角的具置,通過偽逆矩陣來實現動畫角色全身各項關節處的旋轉角度,進而促進關節運動的實現。
2.4運動捕獲數據融合
將已經存在的運動數據作為輸入,對這些已經存在的數據進行處理,形成新的數據,這個過程就是運動捕獲數據融合的過程:(1)設定副詞空間:在此空間的多條坐標軸都代表了不同的運動數據,可能是不同說話風格的數據,也可能是不同角色類型的數據。之后在每條坐標中用手工標注出預期相對應的運動數據樣本,最后對這些數據進行插值處理,就能夠得到新的運動數據。(2)將原始數據投影到低維空間中:對其進行參數化設置,這樣就可以在其中進行草圖的勾畫,或對三維人體姿態進行操作,最后對這些原始運動數據進行插值處理。(3)運動檢索:從運動數據庫中實現對數據的捕捉,對捕捉到的數據進行檢索,得到數據存在的邏輯關系,實現參數化的空間設置,之后進行差值處理,得到新的捕獲數據;(4)運動紋理:運動紋理有2層結構,其是一種統計的模型,運動元素在底層結構中設置,能夠表示出運動數據的相關片段,最后生成運動紋理的模型,從而實現具有真實感的人體三維數據。(5)多分辨率過濾:不同風格的運動有著不同的頻率信號,多分辨率過濾法能夠將高頻信號和中低頻信號分開。(6)獨立成分分析:通過此方法能夠生成真實感人體的運動數據,在原始高維人體運動數據中,對人體行為特點進行抽取,建立ICA子空間,并根據插值操作,形成人體運動新數據的產生。
2.5視頻與三位模型融合
對動畫角色和輸入的視頻動畫進行動畫角色的融合,這個過程就稱為視頻與三維模型的融合。上文中提到以多視點視頻變形中性模型得到動畫角色的方法,以此方法為基礎,對一段角色的運動進行多視點拍攝,以其中的不同角度的角色側影為約束條件,將角色模型進行投影,在各個視角顯示,利用能量函數對中性模型進行變形,這樣就能夠使側影和投影的重疊最大,最后運用時空的紋理技術進行紋理信息的提取工作,制定動畫角色。視頻的提取能夠實現角色側影的提取,對中性的模型實現變形的特征。還能夠通過重建角色人臉的三維結構從而得到個性化的人臉,重建的過程中主要重建的是人臉之間的距離。
通過濾波器預測將要跟蹤的特征的具置,之后完成特征的匹配,整個特征跟蹤的流程為:預測――修正――預測,人體模型中有多個部位,且每一個部位之間都存在一定的比例關系,以這些經驗知識為基礎就能夠恢復人體的三維運動。
通過對側影的方法的實施來計算人體運動情況,進而得出一定的數據。首先需要進行側影工作的提取,通過了解人體骨架結構,在人體內部做姿態搜索工作,得出最佳的姿態數據,用作恢復的結果,之后對角色進行驅動,從而獲得角色動畫。
此外,還可以通過對人臉特征的運動方式的追蹤,進而實現對人臉目標的驅動,得到動畫角色的人臉動畫。
在上述分析的可視媒體融合中,都是通過側影及運動的約束和對三維模型角色的驅動來完成的,因此成為視頻與三維模型的融合。
2.6運動捕獲與三維模型融合
首先介紹一種運動重定向技術,將一個角色產生的所有數據在相同的結構上重啟,保存運動動作,保存原有運動角色的在時空條件上的約束,在重定的過程中要以此時空約束條件為基礎。
分析一種異構角色之間的重定向技術,以運動樣例為基礎,提取關鍵字時,根據這個關鍵姿勢構建動畫角色的姿勢,最后對關鍵幀進行相應的插值就能夠得到所需要的目標角色動畫。
當前還有比較流行的一種通過規定時空約束條件實現運動重用的過程,其主要以相應的目標函數為基礎,對相對應的角色進行求解,建立目標角色動畫。三維網絡模型與骨架架構相互對應,利用一種自動識別技術對關節點位置、數量、結構等進行識別,實現對應,最后通過對運動數據的捕捉,實現目標動畫角色的有機形成。
2.7圖像、三維模型以及運動捕獲數據三者的融合
先前所提到的都是2種可視媒體的融合,而圖像、三維模型以及運動捕獲三者可以進行融合,最終生成目標角色動畫。首先,對人體角色進行拍攝,拍攝時需要注意,要從4個正交方向分別拍攝,之后要提取側影,奠定角色側影模型側影與模型側影之間的緊密聯系,對兩者之間的聯系進行深入的了解,實現對中性模型的約束。當進行文理映射時,會通過對運動中捕捉到的數據建立驅動模型,形成動畫角色。其中可以對變形中性模型進行細致劃分,這樣得到的角色模型會更加精確,也就能夠驅動模型來獲得效果更好的角色動畫。以上分析的角色動畫生成方法就融合了圖像、三維模型以及運動捕獲等3種可視媒體。
計算機視覺綜述范文2
關鍵詞 計算機圖形學 第三方演示 課程群 分組實踐
Abstract At present, computer graphics has become an important part of undergraduate computer education, and it is also plays an important role to cultivate innovative talents to adapt to the information age. Based on the teaching of computer graphics course by the author as an example, analyzes the existing problems in the teaching of computer graphics, and put forward improvement ideas from three aspects: according to the different needs of students utilizing the third party demonstration teaching and cross curriculum interpretation, introducing course group to replace single course, employing group practice examination instead of individual, and other forms to improve the quality of teaching.
Keywords computer graphics; third party demonstration; course group; group practic
計算機圖形學是一門介紹顯示、生成和處理計算機圖形的原理和方法的課程。它在計算機總體教學體系中屬內容綜合性較強且發展迅速的方向之一。該課程既有具體的圖形軟硬件實現,又有抽象的理論和算法,旨在為學生從事相關工作打下堅實基礎。學生須以高等數學和線性代數的基本理論和較熟練的程序設計能力作為本課程學習的基礎。課程的難點在于計算機圖形學研究范圍廣,與其他學科交叉性強,且知識不斷更新變化。在教學實施過程中,難點是理解和掌握相應的基礎理論和算法,以及利用計算機圖形學相關工具進行圖形學實際問題的解決。
本課程對學生的培養學生圍繞以下三個方面展開: (1)建立對計算機圖形學的基本認識,理解圖形的表示與數據結構、曲線曲面的基本概念。(2)理解并掌握基本圖形的生成算法,并能對現有的算法進行改進,理解圖形的變換和裁減算法。 (3)面向算機圖形的程序設計能力,以底層圖形生成算法為核心構建應用程序。相應的考查方式由理論授課、上機實習和課外作業三個單元構成。從近年的授課實踐和考試情況分析,該教學內容難度設置合理,深入淺出且相互承接成為體系,學生總體反饋良好。但也存在一些矛盾和問題。以下將對幾個問題進行重點闡述與思考,并提出課程改革思路。
1 計算機圖形學與計算機輔助設計銜接問題
筆者所在院校是具有航空航天背景的工科院校,“CAD計算機輔助設計”是飛行器設計、機械設計與制造等多學科的重要課程。相關學科學生期望通過對計算機圖形學知識的深入理解,促進CAD設計工具諸如Catia、Solidwork和Rhino等先進工具的運用能力。然而,目前的計算機圖形學課程的教學和考察環節倚重低層算法講解與基于OPENGL等的程序設計,除綜述外并未具體引入CAD相關內容。產生的問題是,一方面,飛行器設計及機械設計與制造等專業的學生由于程序設計能力不足,難以駕馭較復雜的程序設計任務,在學習過程中心理壓力較大;另一方面,由于授課均為教師為計算機相關專業背景,該課程的講授并未銜接CAD相關技術,學生難以構建二者之間的聯系。
解決方案:
本質上,該問題是由于選課學生的學習動機和基礎不同造成的。以單一的教學和考查方式難以兼顧這類面向具體應用的學習需求。在教學方法上,采用第三方案例教學法和交叉講解法相結合以解決此問題。具體的,將CAD等應用場合以具體案例形式講解,授課教師邀請飛行器、機械設計相關教研組研究生以4~6學時的講臺演示的形式呈現CAD工具完整設計過程。授課教師則以交叉講解方式為學生講解運用到的計算機圖形學知識點,同時與學生交互式的問答和探討。在考查形式上,考慮到不同的學習動機和基礎,采用多樣化實踐環節考查。計算機專業學生以OPENGL程序設計為考點,而外專業學生以CAD等面向應用的實踐工具為考點,以兼顧各專業的學習需求。
2 計算機圖形學與計算機視覺相結合的問題
當前,虛擬現實技術(VR)和人工智能技術(AI)兩個最重要最熱門的研究領域。虛擬現實的基礎理論支撐是計算機圖形學,例如三維場景的生成與顯示。而人工智能的一個重要應用場景是計算機視覺,例如基于圖像智能識別的自動駕駛技術和場景理解技術。很多學生對以計算機視覺為代表的人工智能技術懷有濃厚興趣,同時,學生又難以區分計算機圖形學和計算機視覺的關系。同時,二者在近年來的研究中呈現相互融合的趨勢。如基于三維立體視覺的機器人與場景實時定位與重建。如何在計算機圖形學課程中,很好地體現兩門課程的不同,避免學生的混淆,拓展學生的知識面,都是具有現實意義的課題。
解決方案:
實際上,計算機圖形學和計算機視覺可不失一般性的概括為互逆的關系:計算機圖形學是由概念設計到模型生成,最終繪制圖形圖像的過程;而計算機視覺則是從原始圖像中再加工并分析理解、以產生新圖像(如二維到三維)或輸出語義信息(如圖像自動標注與理解、目標檢測與識別)。將計算機圖形學納入“視覺處理課程群”框架,使學生首先掌握課程群中各課程的側重點,著重理解圖形學在課程群中的作用。精心選取2~3個計算機視覺和圖形學交叉的當前主流研究方向,展開概念層面的演示講解,不深究具體算法,著重闡述兩種技術的相互依賴關系并對比二者的區別。相關領域的演示還包括增強現實、人機交互、計算機輔助診斷等等。鼓勵學生自主學習,最終使學生在做中學、用中學,提高獨立分析新問題和綜合運用知識解決問題的能力。
3 如何平衡算法講解和程序應用技能
計算機圖形學涉及的算法多,核心算法是該課程的必講內容,在算法細節的講解過程中學生容易產生畏難厭學情緒,注意教學方法以調動學生的興趣尤為重要。另一方面,對學生的考察方式最終是通過編程實踐完成。學生在編程實踐中常常遇到大量調試問題,同時要閱讀大量文檔以了解OPENGL接口函數的調用方法,這個過程占用了很大工作量。
解決方案:
在理論教學部分,著重講清計算機圖形學原理和概念、全面解析經典算法思想。課程強調對理論核心思想的闡述,用通俗易懂的語言,條例清晰的邏輯,進行簡明透徹的闡述,附以直觀、形象的動態演示系統,力圖使學生在較短的時間內、有效地掌握基本理論。分析圖形學各種經典算法的原理、可行性及幾何復雜性,盡可能多地比較算法之間的思想差異,分別指出它們的優缺點和應用場合,并促進學生思考如何在保證算法的準確性、可靠性的前提下,提高算法的效率。同時注重接近國際前沿的研究內容,注重講授經典知識和最新進展相結合,以激發學生的學習興趣,提高課堂效率和活躍度,力爭以較少的課時闡述計算機圖形學的基本原理、基本方法,加大實踐環節比重。通過往年學生完成的優秀課程作業作品的展示,激發學生的創造熱情。改革實踐環節的考查方式,以項目小組形式取代對個體的考查。原則上每組3~5人,自由組合。在課程結束前,采用小組現場演示講解的方式,展示小組成員通過編程實踐環節完成的一個項目。學生在項目小M中鍛煉了團隊協作能力,降低了個人工作強度,同時互相學習和督促的氛圍使課程作業的質量得以大幅提高。以基礎實驗――目標性重建實驗――自主性訓練的層次化實踐框架模式,逐步培養學生自主研究,獨立解決問題、分析問題,確定解決方案的能力,樹立正確的科學研究習慣,培養學生的科學研究能力。
總之,合理設計實踐教學案例,進一步實現課程體系和實踐內容的統一,建立一個多層次、立體化的實踐教學體系,注重學生的參與性與實踐性,引導和鼓勵學生進行創新實踐和課外研學。改革考核方式和考試形式,加大實踐環節在成績中的比重,強化實踐能力培養,寓教于樂的同時引導學生追求卓越。此外,計算機圖形學技術是發展非常快的一個研究及應用領域,且對編程要求較高,應注重實驗室機房投入更新必要硬件,并保障軟件編程環境的正常運行。
L鼙疚氖苤泄┦亢蠡YBA15035,江蘇省教改項目JGLX13_008資助
參考文獻
[1] 孫家廣,胡事民.計算機圖形學基礎教程.北京:清華大學出版社,2005.2.
[2] 唐榮錫,汪嘉業,彭群生等.計算機圖形學教程(修訂版).北京:科學出版社,2000.
[3] LIU Hailan.On development and application of computer graphics[J].Computer Knowledge and Technology,2010(3):9551-9552.
[4] 婁鳳偉.創造性思維與計算機基礎教學[J].教育探索,2002.
計算機視覺綜述范文3
增強現實虛擬現實實現過程研究內容
1虛擬現實技術
虛擬現實技術(virtual reality,簡稱VR)是由美國VPL公司創始人加隆.拉尼爾在二十世紀八十年代提出的,它指的是綜合利用計算機圖形系統和各種顯示和控制等接口設備,在計算機上生成的、可交互的三維環境中提供沉浸感覺的技術,其中計算機生成的、可交互的三維環境被稱為虛擬環境(Virtual Environment,簡稱VE)。虛擬現實的三個基本特征是沉浸(Immersion)、交互(Interaction)和構想(Imagination)。與其它的計算機系統相比,虛擬現實系統能提供實時交互性操作、三維視覺空間和多通道的人機界面;目前虛擬現實主要限于視覺和聽覺,但觸覺和嗅覺方面的研究也取得了很大的進展。
2虛擬現實技術的具體形式之——增強現實技術
虛擬現實技術按照系統功能和實現方式的不同,又可以分成以下四種具體類型:沉浸式虛擬現實、桌面虛擬現實、分布式虛擬現實和增強現實。
增強現實(Augmented Reality,簡稱 AR)技術,是在二十世紀九十年代由波音公司的考德爾及其同事在設計一個輔助布線系統時提出的,它是一種實時地計算攝影機影像的位置及角度并加上相應圖像的技術,這種技術的目標是在屏幕上把虛擬世界套在現實世界并進行互動。隨著隨身移動電子設備運算能力的不斷提升,增強現實技術的用途將會越來越廣。
目前人們對于增強現實有兩種通用的定義。一是北卡羅來納大學的Ronald Azuma于1997年提出的,他認為增強現實包括三個方面的內容:Combines real and virtual(將虛擬物與現實結合);Interactive in real time(即時互動);Registered in 3-D(三維)。
另一種定義是1994年保羅·米爾格拉姆(Paul Milgram)和岸野文郎(Fumio Kishino)提出的現實-虛擬連續統(Milgram's Reality-Virtuality Continuum)。他們將真實環境和虛擬環境分別作為連續統的兩端,位于它們中間的被稱為“混合實境(Mixed Reality)”。其中靠近真實環境的是增強現實(Augmented Reality),靠近虛擬環境的則是擴增虛境(Augmented Virtuality)。
3增強現實系統的實現過程
雖然增強現實系統不需要顯示完整的場景,但由于需要通過分析大量的定位數據和場景信息來保證由計算機生成的虛擬物體可以精確地定位在真實場景中,增強現實系統中一般都包含以下幾個基本步驟:獲得真實場景的信息;對真實場景和攝影機的位置信息進行分析;生成虛擬的景物;合并視頻或直接顯示,即圖形系統首先根據攝影機的位置信息和真實場景中的定位標記來計算虛擬物體坐標到攝影機視平面的仿射變換,然后按照仿射變換矩陣在視平面上繪制虛擬物體,最后通過頭戴式可視設備(Head Mount Display)直接顯示或與真實場景的視頻合并后,一起顯示在顯示器上。成像設備、跟蹤與定位技術和交互技術是實現一個基本的增強現實系統的支撐技術。
4增強現實技術的具體研究內容
由于人們對增強現實技術的需求不斷增長,研究人員對基于視覺的增強現實技術進行了很多研究,這些研究內容包括——增強現實系統中虛擬物體與真實場景融合技術的研究包括:3D虛擬物體注冊技術、攝像機標定技術、攝像機的跟蹤技術和基于視頻的實景空間的建模技術,融合技術的研究主要包括:虛擬對象和真實場景的配準以及虛擬物體與真實場景之間的動態一致性、虛實物體之間的幾何一致性和光照一致性——使得增強現實技術獲得了飛速的發展。
5增強現實的應用
增強現實技術已經被逐步應用到了很多行業當中,逐漸進入到我們的生活當中,典型的案例包括:
醫療方面——北卡羅萊納大學的AR輔助B超檢查和胸部活組織切片;倫敦Guy’s醫院MAGI項目協助醫生從耳道中取出神經瘤;卡內基梅隆大學的“魔眼”工程;布朗大學的外科手術培訓系統。
教育方面——歐洲計算機工業研究中心的機械模型注解。
工業方面——SONY公司TransVision增強現實樣機系統。
商業方面——微軟推增強現實技術——新應用-記事帖;日本新宿高島屋百貨公司內的數字化妝鏡。
文化方面——希臘、土耳其的歷史古跡數字重建;“數字敦煌”工程。
6總結
增強現實(Augmented Reality,AR)技術是近年來的研究熱點,它是將計算機生成的虛擬物體或其它信息疊加到真實場景中,從而實現對現實的“增強”,它是虛擬現實技術(Virtual Reality,VR)的一個重要分支。增強現實綜合了計算機圖形、光電成像、融合顯示、多傳感器、圖像處理、計算機視覺等多門學科。
參考文獻:
[1]郭天太,王引童.虛擬現實技術與增強現實技術.機械制造,2003,41(6):7-9.
[2]維基百科.
[3]R. Azuma, A Survey of Augmented Reality.Presence: Teleoperators and Virtual Environments, pp. 355–385, August 1997.
[4]P. Milgram and A. F. Kishino, Taxonomy of Mixed Reality Visual Displays.IEICE Transactions on Information and Systems, E77-D(12), pp. 1321-1329, 1994.
計算機視覺綜述范文4
關鍵詞:表情識別;研究方法;創新;不足
中圖分類號:TP18文獻標識碼:A文章編號:1009-3044(2012)01-0106-03
A Survey of Facial Expression Recognition
SUN Wei1,2, WANG Bo1
(1.Information Science of Nanjing College for Population Program Management, Nanjing, 210042, China; 2.College of Automation Engineering, Nanjing University of Aeronautics and Astronautics, Nanjing 210016, China)
Abstract: Facial expression is a key to nonverbal communication, which has been confirmed by many different research projects. A change in intensity or magnitude of even one specific facial expression can cause different interpretations. In this paper, the background of facial expression recognition reaches and the study of the current situation at home and abroad are introduced Then those important international meetings and those novel reaches in this area are listed. At the end of this paper the limits in facial expression recognition are pointed out.
Key words: Facial expression recognition; Research methods; Innovation; Limits
人臉表情是人們鑒別情感的主要標志。人際交往中,面部表情為人們相互間的交流提供了一種非語言溝通的重要渠道,人們通過面部豐富細小的變化,能表達各種各樣的表情,并且表情有時甚至比語言更能顯示情感的真實性。
人臉表情識別是指通過計算機來計算分析人的臉部表情及變化,判定其內心情緒或思想活動,從而獲得更加智能化的人機交互環境。在模式識別領域中表情識別是一個非常具有挑戰性的課題,它在心理學、遠程教育、安全駕駛、公共監控、測謊技術、電腦游戲、臨床醫學、精神病理分析等方面都有著廣泛的應用。
1研究背景及現狀
早在20世紀70年代,有關于人臉表情識別的研究就已經展開,但是早期主要集中在心理學和生物學方面。隨著計算機技術的發展,人臉表情識別技術逐漸發展起來,到上個世紀90年代該領域的研究已經變得非?;钴S。大量的文獻資料顯示表情識別已經從原來的二維圖像走向了三維數據研究,從靜態圖像識別研究轉向實時視頻跟蹤。
國內開展該項目研究的單位主要有:清華大學、北京科技大學、中國科學院、南京理工大學、中國科學技術大學、浙江大學、東南大學、南京大學、北京航空航天大學、西南交通大學、大連理工大學、天津大學、湖南大學等。國外較為著名的研究機構有麻省理工學院、卡內基梅隆大學、匹茲堡大學、馬里蘭大學、加利福尼亞大學、代爾夫特理工大學等。
國際上關于人臉或表情識別方面的國際會議中影響比較大的有:
CVPR:計算機視覺與模式識別會議(International Conference on Computer Vision and Pattern Recognition)
FGR:人臉與姿態自動識別國際會議(International Conference Automatic Face and Gesture Recognition)
ICPR:模式識別國際會議(International Conference on Pattern Recognition)
ICCV:IEEE計算機視覺國際會議(IEEE International Conference on Computer Vision)
SIGGRAPH:計算機圖形和交互技術國際會議(International Conference on Computer Graphics and Interactive Techniques)
ECCV:歐洲計算機視覺會議(European Conference on Computer Vision)
ICMI:多模式接口國際會議(International Conference on Multimodal Interfaces)
ACCV:亞洲計算機視覺會議(Asian Conference on Computer Vision)。
VISAPP:計算機視覺理論與應用國際會議(International Conference on Computer Vision Theory and Applications)。
ACII:情感計算及智能交互國際會議(International Conference on Affective Computing and Intelligent Interaction)
ICBA:國際生物特征識別國際會議(International Conference on Biometric Authentication)
2研究內容
人臉表情識別(Facial Expression Recognition,FER)主要包括三個技術環節(如圖1所示):首先是人臉的檢測與定位,然后進行表情特征提取和識別,即從輸入的圖像中檢測和定位人臉,然后再提取出對表情識別有用的信息并進行分類識別。
圖1人臉表情識別系統
2.1人臉檢測與定位
近十年來人臉檢測得到了廣泛的關注,并且取得了長足的發展和一定的成果。國內外很多學者提出了不少方法,現有的人臉檢測技術方法,從不同的角度可以有多種分類方式。根據利用人臉知識的不同,現有的人臉檢測方法可以分為基于特征的方法(Fea? ture-based Method)和基于圖像的方法(Image-based Method)兩大類[2, 3]。目前基于特征方法比較成熟,常用的有基于膚色特征[4,5]、模板匹配[6]等方法;基于圖像的人臉檢測方法主要有主成分分析法(Principal Component Analysis,PCA)[7]、人工神經網絡(Artificial Neural Network Approach,ANNA)[8]方法、隱馬爾可夫模型(Hidden Markov Models,HMM)[9]方法、支持向量機(Support Vector Machines,SVM)[10]方法和AdaBoost方法。
2.2特征提取
表情特征的提取方法分為基于運動與基于形變的兩類[11]。其中運動是指表情發生時面部特征隨時間的變化,而形變則是指有表情的臉相對于中性表情臉的差異。運動特征提取方法代表性的包括光流法[12]、運動模型、特征點跟蹤方法等。面部特征的形變可以由形狀和紋理兩方面來描述,又可以分為基于模型的方法和基于圖像的方法兩類。其中基于模型的方法有活動外觀模型(AAM)
[13]、點分布模型(PDM)[14]等;基于圖像的方法有Gabor變換[15]、主成分分析(PCA)[16]等。
2.3表情分類
用于表情分類的方法可以分為時空域方法和空域方法兩類[17]。其中時空域方法包括隱馬爾可夫模型方法、回歸神經網絡方法、空時運動能量模板方法等;空域方法包括神經網絡方法、支持向量機方法、AdaBoost方法、基于規則推理的方法、主成分分析、獨立分量分析、Fisher線性判別分析等。
3存在問題
盡管在當前表情識別領域的研究中很多核心環節上已經取得了一定的成果如人臉檢測,特征提取,情感分類等,但是該領域仍然存在以下問題:
1)缺乏對于自發表情識別方面的研究
人為表情識別和自發表情識別之間存在巨大的差異度,而目前大多數人臉表情識別都是對來自于現有的表情數據庫(即人為表情)進行分析和識別,并非是對自然人的實時表情(即自發表情)?,F有表情庫里面的表情都是一些單一的比較夸張的表情,現實生活中人們的表情往往是混合的,強度也是深淺不一,因此需要加強對于混和表情以及表情強度方面的研究。
2)對于表情的標定還沒有一個精細的標準
人類的表情可以說是多姿多彩、千變萬化的,但是目前,包括FACS在內的現有人臉表情識別系統僅能做到簡單的基本表情識別,因為很多現有的表情庫中并沒有具體的標定每一個表情該有的尺度。因此,今后的一個研究重點應該是加強人臉表情的視覺認知加工等認知心理學的基礎研究,從而建立其更加精細的人臉表情描述標準,指導計算機進行人臉表情的精細識別。
3)需要提高表情識別的魯棒性
個體表情對象研究時很多外部因素如:光照、膚色、姿勢以及是否有遮擋物等都會對面部表情識別產生一定的影響,但是當前大多數的研究都是針對特定條件下的表情模式,實際上這些因素都影響到了表情識別的實用化,導致了表情識別的魯棒性不強。因此,只有綜合考慮人臉的表情、光照、噪聲、附屬物等影響并且使用恰當的判決模型才能較好地解決這個問題。
4)缺乏實用性的應用系統
人臉表情識別潛在應用十分廣泛,但是實用性系統卻很少,已知的有數碼相機自動捕捉笑臉系統、駕駛員疲勞監測系統、微表情識別系統等。我們在開展人臉表情識別的基礎理論研究同時,也應該結合工程應用需求,同時強化其在工程上的應用。
4總結
人的內心是豐富的,豐富的內心造就了人類豐富的表情,有些表情之間的差別本身也不是很明顯,縱使自然人尚且不能精確的判斷出每一個表情及其程度,更何況由人設計出的經驗識別算法。雖然一些經典的識別方法已經取得了不錯的識別率,但都是基于一定條件下的幾種方法的綜合,因此到目前為止仍然沒人能夠提出一種復雜如人腦的計算方法去讓機器識別人臉的表情。
基于二維圖像的人臉表情識別,由于維度的限制,不能提供識別對象的完整信息,而且它還受到環境和人臉表情圖像本身因素
的影響,因此識別精度很難進一步的提高。三維圖像在信息的完整度上避免了這樣的缺陷,而且減少了外部光照和姿態變化的影響。因此,利用三維信息進行表情識別將是一個具有挑戰性的研究課題。
參考文獻:
[1]金輝,高文.人臉面部混合表情識別系統[J].計算機學報,2000,23(6):602-608.
[2]梁路宏,艾海舟,徐光,等.人臉檢測研究綜述[J].計算機學報,2002,25(05):449-458
[3]文沁,汪增福.基于三維數據的人臉表情識別[J].計算機仿真,2005,22(7):99-103.
[4] Chen D S,Liu Z K.A Survey of Skin Color Detection[J].Chinese Journal of Computers,2006,29(2):194-207.
[5] Hsu R.L, Abdel-Mottaleb M, Jain A.K. Face detection in color images[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2002,24(5): 696-706.
[6] Yullie A, Hallinan P,Cohen D. Feature extraction from faces using deformable templates[J].International Journal of Computer Vision,1992, 8(2):99-111.
[7] Turk M, Pent land A. Eigen faces for Recognition[J].Cognitive Neuro-science, 1991, 3(1):71-86.
[8] Rowley H.A, Baluja S, Kanade T. Neural Network-Based Face Detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998:20(1):23-38.
[9] Nefian A, Hayes M. Hidden Markov Models for Face Recognition[A].IEEE International Conference on Acoustics, Speech and Signals Pro? cessing[C].Seattle, Washington, 1998:2721-2724.
[10]馬勇,丁曉青.基于層次型支撐向量機的人臉檢測[J].清華大學學報:自然科學版,2003,43(1):35-38.
[11] Hongcheng Wang, Ahuja N. Facial expression decomposition[A]. In: Proceedings of International Conference on Computer Vision[C], Nice,France,2003:958965.
[12] Yacoob Y, DavisL. Recognizing human facial expressions from long image sequences using optic flow [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1996,18(6): 636-642.
[13] Tang F Q, Deng B.Facial expression recognition using AAM and local facial features [A].In: Proceedings of the Third International Conference on Natural Computation [C], Haikou, China, 2007:632-635.
[14] Hammal Z, Couvreur L, Caplier A,et al. Facial expression classification: an approach based on the fusion of facial deformations using the transferable belief model[J].International Journal of Approximate Reasoning, 2007,46(3): 542-567.
[15] Yu JG, Bhanu B. Evolutionary feature synthesis for facial expression recognition [ J].Pattern Recognition Letters, 2006,27( 11 ): 1289-1298.
計算機視覺綜述范文5
【關鍵詞】人臉偵測;眨眼偵測;Adaboost算法;開源函式庫OPENCV
Abstract:The face detection system is more and more widely used in public because of its feature of high integration,high performance,high speed,low cast and stability.This paper presents how we compromise Face detection module with the blink detection function based on the OPENCV source.the camera is necessary which can be invoke by the OPENCV2.0.Each frame of camera will be send to the face module to test the possibility existence of a human face.After the detection of human face,the system will go further to detect the existence of the eye and locate the accurate position within the the algorithm of Adaboost.
KeyWords:face detection;blink detection;Adaboost algorithm;OPENCV
1.引言
生物特征識別技術辨識的是人身的固有特征,不需要身外的其他標識物,而人臉識別作為生物特征識別中的重要的手段,顯示出重要的學術價值[1]。人們開始對人臉辨識展開研究,包括早期的模板匹配、子空間方法[2,3],這些方法較為單調死板,無法辨別復雜背景中的人臉的位置;sirohey等人提出的canny邊緣檢測算法[4]先得到一個邊緣輪廓,然后用橢圓擬合人臉頭部區域;基于分類器的機器學習方法,例如在PCA學習模型[5-6]基礎上發展起來的boosting方法,對每個訓練樣本分配一個反映樣本權重的閥值,經過反復迭代修正樣本的權重,得到一個強分類器。Opencv(open source computer vision library)是intel釋出的一個基于(開源)發行的跨平臺計算機視覺庫[7],在處理圖像方面有卓越的優勢,因此本文子圖像處理方面引進了O pe nc V函式庫,Adaboost算法的高精度和快速人臉檢測是boosting方法中最具代表性的和現實意義的算法。因此本文在檢測人臉方面采用此方法的基礎。
2.系統模型
本文是基于opencv的人臉的檢測,按照順序,系統先檢測有無人臉,若有,則在人臉的基礎上定位人眼,人眼定位后,再檢測是否有眨眼的動作,流程圖如下:
本系統是實時的系統,基于opencv對攝像頭實時輸入的圖像進行采集,對采集圖像做前期處理:
capture = cvCaptureFromCAM(0);//抓webcam硬件
frame = cvQueryFrame(capture);//通過攝像頭獲取每一幀的圖像;
收集的每一幀圖像都將傳入后臺做人臉偵測。由于Adaboost在人臉偵測與人眼定位方面有較為突出的表現,能夠在復雜的背景下快速定位人臉以及人眼定位,且能夠克服一定的偏角,因此載入訓練好的文件來偵測人臉和定位人眼:
首先載入訓練好的人臉訓練庫:
cascade_f = (CvHaarClassifierCascade*) cvLoad(file1,0,0,0);
接著載入訓練好的眼睛訓練庫:
cascade_e = (CvHaarClassifierCascade*) cvLoad(file2,0,0,0);
偵測圖像中是否有人臉的物體:
CvSeq *faces = cvHaarDetectObjects (img,cascade_f,storage,1.1,3,0,cvSize(20,20 ) );
若偵測到人臉,畫出方框:
為提高偵測的速度,在定位人眼時,我們在已經找到的人臉上設置ROI區域,即根據常識,我們只在人臉的上半部分定位人眼:
cvSetImageROI(img,cvRect(deteface->x,deteface->y + (deteface->height/5.5),deteface->width,deteface->height/3.0));
在ROI區域中定位人眼:
CvSeq* eyes = cvHaarDetectObjects(img,cascade_e,storage,1.05,3,0,cvSize(10,6));
若定位到人眼位置,畫出方框:
在定位到人眼后,開始在眨眼偵測方面,定位了人眼的位置后,連通區域的由來,運用連通區域數量來確定是否眨眼,查找連通區域在get_connected_components函數實現: int get_connected_components(IplImage* img,IplImage* prev,CvRect window,CvSeq** comp),該函數主要實現一下功能:
通過對眨眼時連通區域變化的數目進行統計,然后以此經驗值來判斷眼睛區域連通區域數目的前後變化是否在眨眼的變化范圍內。
3.實驗結果與結論
在有偏角以及人臉偵測以及人眼定位方面:
眨眼偵測方面:系統能夠準確的偵測到眨眼的動作。在偵測到眨眼的動作后系統會打印出BLINK的字樣出來。
實驗結果表明,運用opencv強大的函數庫對圖像進行實時的處理,其功能強大,方法簡單快捷,有效提高了開發效率以及程序運行的可靠性,非常適合于快速開發。
本文在綜合對比上述方法之后,選擇用Opencv作為前期的圖像處理,在人臉定位以及人眼定位上,選用Adaboost算法。兩種手段的結合使系統具有識別效果好,實時性好,檢測速度較快的優點。此外,本文在人臉檢測的基礎上增加了眨眼偵測的功能,為人臉識別向活體識別的方向發展提供了基礎。
參考文獻
[1]梁路宏,艾海舟,徐光佑,等.人臉檢測研究綜述[J].計算機學報,2002,25(5):449-458.
[2]山世光.人臉識別中的若干關鍵問題的研究[D].中國科學院技術研究所,2004.
[3]李武光,王崇駿,等.人臉識別研究綜述[J].人臉識別與人工智能,2006,19(1):58-66.
[4]sirohey S A.human face segmentation and identification.Technical report CSTR-3176,university of Maryland,1993.
[5]Penland A et al.View-based Modular Eigenspaces for face recognition.Proc.IEEE Conf.on CVPR,1994,84-91
計算機視覺綜述范文6
關鍵詞:牛肉分級;邊緣檢測;二值化處理;自動分級
中圖分類號:TS251.52 文獻標志碼:A 文章編號:1001-8123(2013)04-0010-05
2003年10月我國農業行業標準《牛肉質量分級標準》開始實施,鑒于牛肉眼肌橫切面包含了大理石紋、肉色、脂肪色、背膘厚度和眼肌面積等評定指標,所以在牛肉質量的分級標準和體系中,進行牛肉等級評定時,通常都將眼肌面積橫切面作為主要的評定對象。但目前為止,國內外的牛肉分級體系采用的分級方法還是以主觀的視覺評定為主,評定過程受到人為因素的干擾,不僅效率低,而且還會產生較大的誤差。因此,計算機視覺、人工神經網絡和圖像處理技術,被認為是實現牛肉自動分級的最有效的方法。在國外,1989年Chen Shengwei等[1]首次針對美國牛肉大理石花紋標準圖版,應用圖像處理技術對美國牛肉的肌肉脂肪面積進行計算,用于牛肉質量分級,并將其作為判定牛肉質量等級的定量指標,在隨后的相關研究中,研究學者運用圖像處理方法等技術分別有效的預測大理石紋、顏色等級、脂肪面積比、脂肪顆粒分布均勻度等特征參數,探討了基于圖像處理的牛肉等級評定技術[2-5]。在國內,計算機技術在牛肉等級評定中的應用還處于初步研究階段,主要是通過眼肌切面圖像的紋理分割,通過計算脂肪面積比[6-7]的方式來計算牛肉等級[8-10],對脂肪在肌肉中分布所形成的特征分析不夠深入,對牛肉等級評定的準確性和實際應用等方面都有不足之處。本研究擬運用計算機視覺系統對牛肉眼肌的形狀特征值、脂肪含量和分布進行量化,在VC++6.0的環境下自行開發適用于牛肉眼肌自動分級軟件,提高分級的準確性和工作效率,為我國牛肉智能化分級技術的研究奠定理論依據[10]。
1 材料與方法
1.1 材料、軟件及基本原理
采用Visual Basic6.0作為實驗分析軟件,利用圖形處理中的二值化算法、邊緣檢測算法等對采集到的數字圖像進行處理和分析,提取出用于牛肉眼肌自動分級的眼肌面積、圓度、大理石紋密度等重要參數,再利用模糊數學理論利用計算出的參數數據,實現對牛肉眼肌的智能自動分級。
1.2 方法
1.2.1 邊緣檢測法
物體圖像的邊緣信息特征因為顏色、紋理結構和灰度值的變化是以不連續性的形式出現,是圖像最基本的特征之一。邊緣檢測法提取圖像特征是圖像識別中的一個重要屬性和重要環節[11]。圖像邊緣檢測中的經典算法SUSAN算法[12]選用放在不同5個位置上圓形模板,如圖1所示。
比較模板內像素的灰度與核心的灰度,其差值在閾值內時,認為灰度相同。與核的灰度相同的像素數目之和稱為模板的面積(USAN)。SUSAN算法根據USAN區的大小和矩陣特性來檢測圖像邊緣及角點等特征的位置及方向信息[13]。由圖1所示,平坦區域USAN區最大(d,e),邊緣處USAN區大小降為一半(a),角點附近USAN區變得更?。╟)。
1.2.2 二值化處理
圖像二值化是指對僅含黑白二值的圖像進行參數提取數據預處理的重要技術。采用直方圖均衡化,同態濾波對圖像進行預處理抑制外界因素提高圖像質量,或者將圖像劃分為若干區域,分別設定閾值Tn,則:
(1)
由于所提取的大理石紋圖像中,僅有肉色和脂肪色,即只有紅色和白色兩類顏色信息,因此在二值化處理過程中,采用第1種方法進行二值化處理。
圖像分割是基于邊緣檢測或基于區域的分割,將同一屬性但區域互不相交,均滿足特定區域一致性條件的不同區域分割開來[14]。本研究采用區域生長法實現對圖像的分割。
1.2.4 模糊綜合評判
對模糊事物實現較合理的評價可采用模糊數學中的模糊綜合評判法 [15]。設定因素集,集合中的某一元素Ui表示決定事物的第i個因素,評價集Vi表示對事物評價結果。
2 結果與分析
2.1 利用二值化算法提取大理石花紋
2.1.1 二值化算法
對大理石紋圖像的特征參數提取時,均需要先對圖像進行二值化處理,將彩色圖像處理成只包括黑色像素點和白色像素點的圖像。由于所提取的大理石紋圖像中,僅有肉色和脂肪色,即只有紅色和白色兩類顏色信息,因此在二值化處理過程中,采用第1種方法進行二值化處理。
假定彩色圖像的大小為M×N,fn其表示像素點的顏色值,f(I,j)表示像素點(I,j)的二值化結果,當f(I,j)=1時,像素點(I,j)被標記為黑色像素點,當f(I,j)=0時,像素點(I,j)被標記為白色像素點。對于某一像素點(I,j),如果該像素點的顏色值fn大于閾值T,則令f(I,j)=1,否則f(I,j)=0,實現對彩色圖像的二值化處理。二值化方法如式(2)所示在二值化算法中,閾值的選取是二值化處理的關鍵,如何選取合適的閾值t,準確提取出不同圖像中的大理石紋,是本算法的一個關鍵技術。本研究的所有實驗,都是基于VC++6.0編程完成。在所有圖像的二值化處理中,程序設計使用inputbox函數的數據輸入方式,由用戶根據個人經驗輸入某一個閾值T。
(2)
經過二值化處理后的圖像,白色點表示脂肪像素點,黑色點代表肌肉像素點。本算法進行大理石紋的面積計算、圓度測量、密度分析等算法都是在圖像二值化的基礎上進行的,因此,圖像二值化的結果將直接影響到后面參數的提取準確度問題。
2.1.2 二值化實驗結果分析
圖2是對原圖像1采用不同閾值t的檢測結果,圖3是對原圖像2采用不同閾值t的檢測結果。從圖2、3結果可以看出,對于不同亮度的圖像,采用相同的閾值,如t=90時,對原圖像1,可以很好的提取出二值化圖像;而對原圖像2,無法正常提取出所需要的區域信息。同樣,對于t=160時,從圖2D可以看出,對于原圖像1,由于閾值太大,造成一些有用的大理石紋信息丟失,而對于原圖像2,能更好的提取出需要的大理石紋信息,為后繼準確的提取大理石紋信息提供保證。
本算法中,閾值的選取采用人機對話的方式選擇閾值,希望后期工作中能研究出一種能自動根據圖像顏色亮度特征智能選取閾值的算法。
2.2 利用區域生長算法提取有效眼肌面積
由于眼肌面積圖像中僅含有白色和紅色兩種顏色區域,有效眼肌面積區域是一塊連通區域,因此,采用種子點生長算法,可以很好的提取出和所選種子點相連通的所有連通區像素點。
有效眼肌面積的提取步驟如下:以原圖像1(圖3A)中眼肌面積的提取為例,先采用二值化算法,選用閾值t=90,使得眼肌內的區域為大片黑色聯通區,再利用種子點生長算法,利用鼠標選取眼肌中黑色聯通區中的一點作為種子點,生成的眼肌面積內的聯通區,如圖3所示。由于生成的聯通區內存在大理石紋,所以眼肌面積是圖像總面積減去灰色聯通區的面積。
首先采用二值化算法,對原圖像進行二值化處理,然后對處理好的二值化圖像,用鼠標選取屬于要計算面積區域中的某一黑色像素點,采用種子點生長算法[16],將所選取的像素點作為種子點,進行生長,識別出面積輪廓。由于圖4中的面積區域,還存在白色大理石紋,不能直接計算出面積大小,因此,再對圖4進行二值化處理,選取背景色中的任意1點作為種子點進行生長,然后進行背景圖像區域的識別,再用總面積減去背景區域的面積,即可算出眼肌面積。對原圖像1,利用本實驗算法計算出的有效眼肌面積共14742個像素點。
2.3 肌肉和脂肪色度值
將圖像中所有肌肉像素點采用種子點生長的算法提取出來所有的紅色像素點區域,對提取出的肌肉連通區圖像,遍歷整個圖像,計算出連通區中所有像素點的Red、Green、Blue三個顏色分量的平均值,再使用顏色公式w(x,y)=Red+Green×256+Blue×65536,計算出所有肌肉像素點的顏色平均值。同樣的算法,可以提取出白色脂肪的色度值。對原圖像1(圖2A)進行肌肉色度和脂肪色度的計算,計算出了脂肪色度為11437206,肌肉色度為7428162,對原圖像2(圖3A)所示的圖像,計算出的脂肪色度為11718453,肌肉色度為127466071。該顏色值越大,說明圖像顏色亮度越大,色值越高。
2.4 眼肌圓度
有效眼肌面積的圓度可以采用計算其長軸的長度和短軸的長度,通過長短軸的比值來衡量眼肌面積的圓度。在一幅灰度圖像中,已知中兩個像素點的坐標(x1,y1)、(x2,y2),利用兩點間距離的計算公式:
(3)
可以計算出某一直徑,直徑的大小即為長軸的長度。因此,查找到有效眼肌面積的長軸的兩個像素端點是計算長軸的關鍵。
本算法采用種子點生長算法提取出有效眼肌面積的連通區,然后由用戶利用鼠標,選取出長軸的起點,如圖5B所示,設置出長軸的起點坐標(x1,y1)。然后在如圖5C所示的連通區中找到離該點最遠的像素點坐標值(x2,y2),利用兩點間距離公式,計算長軸的長度。短軸是在長軸垂直平分線上的離長軸中點((x1+x2)/2、(y1+y2)/2)最遠的點和中點間的距離。測量結果顯示,長軸215.94,短軸55.08,長短軸比率:55.08/215.94≈0.51,比值越接近于1,說明眼肌面積越趨向圓。
2.5 大理石紋密度
對大理石紋密度統計分析分為5個步驟進行:第1步,采用區域生長法或者邊緣檢測算法對原圖像進行圖像分割,將圖像分割成不同的很多連通區;第2步,對所有連通區進行著手標記,同一連通區著相同的顏色,不同的連通區采用不同的顏色;第3步,統計所有連通區各自的面積大小區域;第4步,統計圖像中連通區總數目;第5步,統計標記的連通區面積在0~5、5~10、10~15、15~20等范圍內的連通區個數。
2.5.1 不同連通區著色
采用眼肌面積算法中的種子點生長算法,對整個圖像進行遍歷,識別出所有的連通區,并用不同的顏色值標記出不同的連通區。
對照高標準的密度檢測結果圖7和低標準的密度檢測結果圖8檢測結果發現,相同像素點下連通區總數越多,說明大理石紋越豐富。像素點總數小于5的連通區的個數表明大理石紋的分散程度,值越大,說明越分散,密度越大。
2.6 基于模糊數學理論的牛肉大理石花紋自動分級系統
針對牛肉自動分級中大理石紋參數特征值的模糊性、相關性、多變量等特點,結合模糊數學理論,將所提取出來的所有眼肌面積、大理石紋密度,眼肌面積的圓度、色度等多個參數,采用模糊數學理論中的綜合評判技術建立了基于模糊綜合評判的牛肉大理石紋自動分級模型。例如:使用模糊綜合評判算法記U={眼肌面積,圓度,肌肉色度,脂肪色度,大理石紋密度},表示因素集,表示決定牛肉分級品質的所有因素。記?={a1,a2,a3,…,an}。取評價集V={低品質牛肉,中等品質牛肉,優質牛肉,特優級牛肉},表示牛肉的評價結果。
對牛肉品質等級的判定,需要綜合考慮各種因素,如牛肉的大理石紋分布的密度,有效眼肌面積的圓度、色度、面積大小等。結合本系統中采用數字圖像處理技術自動提取出的相關的參數信息,然后考慮所有因素對評價集V中各等級的隸屬度,可得綜合評判矩陣如。
3 結 論
利用了圖像處理中的邊緣檢測技術、二值化處理和圖像分割技術,先對原牛眼肌圖像進行二值化處理,然后對處理好的二值化圖像,采用種子點生長算法,識別出眼肌面積輪廓,進行背景圖像區域識別,計算眼肌面積,并采集連通區中所有像素點的Red、Green、Blue 3個顏色分量,計算出所有肌肉和脂肪像素點的顏色平均值,并對有效眼肌區域的圓度和大理石紋分布密度進行參數提取和檢測。結果證明,本實驗設計的算法能夠近似的估算出牛眼肌面積、脂肪比例、色度值、眼肌圓度和大理石花紋密度,是一種有效的估算方法,并通過大量實驗數據和人工測量數據進行比對,證明使用圖像處理技術自動估算上述5個特征參數是可行的,為基于計算機視覺的牛肉品質自動分級檢測奠定基礎。后期工作中希望能并結合大理石花紋的特點和特征描述以及具體牛肉圖像的特點,通過大量的數據,使用模糊聚類,模糊識別、模糊綜合評判等技術,給出接近現實的、準確的牛肉等級判定結果,為進一步研究基于計算機視覺的牛肉自動分級系統打下基礎。
參考文獻:
[1] CHEN Shengwei, SUN Xin, QIN Chunfang, et al. Color grading of beef fat by using computer vision and support vector machine[J]. Computers and Electronics in Agriculture, 2010, 70(1): 27-32.
[2] YOSHIKAWA F, TORAICHI K, WADA K, et al. On a grading system for beef marbling[J]. Pattern Recognition Letters, 2000, 21(12): 1037-1050.
[3] SHIRANITA K, HAYASHI K, OTUSBO A. Determination of meat quality using texture features[J]. The Institute of Electronics, Information and Communication Engineers Transactions on Information and Systems, 2000, 83(4): 1790-1796.
[4] AASS L, FRISTEDT C G, GRESHAM J D. Ultrasound prediction of intramuscular fat content in lean cattle[J]. Livestock Science, 2009, 125(2/3): 177-186.
[5] KAZUHIKO S, KENICHIRO H I, AKIFUMI O, et al. Grading meat quality by image processing[J]. Pattern Recognition, 2000, 33(1): 97-104.
[6] CHEN Kunjie, QIN Chunfang. Segmentation of beef marbling based on vision threshold[J]. Computers and Electronics in Agriculture, 2008, 62(2): 223- 230.
[7] 陳坤杰, 姬長英. 牛肉自動分級技術研究進展分析[J]. 農業機械學報, 2006(3): 159-162.
[8] 陳坤杰, 孫鑫, 陸秋琰. 基于計算機視覺和神經網絡的牛肉顏色自動分級[J]. 農業機械學報, 2009(4): 179-184.
[9] 陳坤杰, 秦春芳, 姬長英. 牛胴體眼肌切面圖像的分割方法[J]. 農業機械學報, 2006(6): 161-164.
[10] 任發政, 鄭麗敏, 王桂芹, 等. 應用MATLAB圖像處理技術評判牛肉大理石花紋[J]. 肉類研究, 2002(4): 14-15.
[11] 賈淵, 李振江, 彭增起. 結合LLE流形學習和支持向量機的豬肉顏色分級[J]. 農業工程學報, 2012(9): 154-159.
[12] 魏光杏, 吳錫生. 新型邊緣檢測法[J]. 計算機工程與設計, 2007(4): 144-145.
[13] GE X W, FU K T. Edge detection in image method research[J]. Digital Community & Smart Home, 2007, 3(16): 1144-1145.
[14] 王文淵, 王芳梅. 改進的最大熵算法在圖像分割中的應用[J]. 計算機仿真, 2011(8): 297-300.