TW201724022A - 對象辨識系統,對象辨識方法及電腦記憶媒體 - Google Patents
對象辨識系統,對象辨識方法及電腦記憶媒體 Download PDFInfo
- Publication number
- TW201724022A TW201724022A TW105134569A TW105134569A TW201724022A TW 201724022 A TW201724022 A TW 201724022A TW 105134569 A TW105134569 A TW 105134569A TW 105134569 A TW105134569 A TW 105134569A TW 201724022 A TW201724022 A TW 201724022A
- Authority
- TW
- Taiwan
- Prior art keywords
- person
- unit
- database
- project
- mesh model
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一種辨識預定區域的對象的對象辨識系統,具有:攝影前述預定區域的攝像部、測定從前述攝像部到前述預定區域的距離的測距部、根據在前述測距部所測定的距離,生成前述預定區域的網目模型的模型生成部、在前述模型生成部所生成的前述預定區域的網目模型中,抽出從前述預定區域的背景的網目模型突出的前述對象的網目模型的對象抽出部、將在前述對象抽出部所被抽出的前述對象的網目模型、與儲存於資料庫的對象的資訊作對照,來特定在該對象抽出部所抽出的前述對象的對象特定部。
Description
本發明係有關於一種在預定區域辨識物體或人物等對象的對象辨識系統,及利用該對象辨視系統的對象辨識方法及電腦記憶媒體。
因為識別影像內的物體或人物等的對象並辨識之,是掌握真實世界的重要線索,在各種不同的服務領域都有需求。現在為了比從前更提升對象的辨識率,開發多數用以辨識對象的裝置。
例如為了從影像識別各個物體,作為其前提處理,需要從背景將物體抽出。從前。例如使用彩色影像的RGB(R:Red、G:Green、B:Blue)等的色彩代碼,來進行物體的抽出。但是,將真實世界的所有物體作區別,並明確該色彩代碼的特徵量很困難,也就是說,僅用色彩代碼會難以將物體抽出。
因此,在專利文獻1所記載的物體識別裝置(對象辨識裝置)中,提案有將所攝影的彩色數位影像藉由Lab色空間的L軸成份變換成表示的L影像,根據L
影像作成Canny邊緣影像,以進行物體的輪廓抽出。接著,在相關的物體識別裝置中,進行物體區域的判別,將從背景區域擷取的遮罩影像輸出,根據所擷取的物體區域,藉由與預先登錄的特徵量之間的對比物體,來識別物體的種類等。此時,物體區域的判別,會根據在Lab色空間的色距離的大小、及色分散的大小為何來進行。
[專利文獻1]JP 2013-145441 A
不過,在專利文獻1所記載的物體識別裝置中,只從彩色數位影像抽出物體的輪廓,從色的變化率物體來正確地抽出物體存在有限界。此外,在該物體識別裝置中,無法正確地掌握物體的形狀或大小等。因此,物體的識別有改善的餘地。
本發明鑑於相關的點,目地為在預定區域中,當辨識物體或人物等對象時,能提升該對象的辨識率。
為了達成前述目的,本發明為一種辨識預定
區域的對象的對象辨識系統,具有:攝影前述預定區域的攝像部、測定從前述攝像部到前述預定區域的距離的測距部、根據在前述測距部所測定的距離,生成前述預定區域的網目模型的模型生成部、在前述模型生成部所生成的前述預定區域的網目模型中,抽出從前述預定區域的背景的網目模型突出的前述對象的網目模型的對象抽出部、將在前述對象抽出部所被抽出的前述對象的網目模型、與儲存於資料庫的對象的資訊作對照,來特定在該對象抽出部所抽出的前述對象的對象特定部。
根據本發明,在模型生成部所生成的預定區域的網目模型,包含從在測距部所測定的攝像部到各網目的距離資訊,也就是包含各網目的水平方向與高度方向的資訊(三維資訊)。這樣的話,在對象抽出部,能夠從預定區域的背景的網目模型適切地抽出對象的網目模型。此外,因為使對象的網目模型也包含三維資訊並能夠掌握該形狀或大小,在對象特定部,能夠適切地特定對象。因此,根據本發明,當辨識預定區域的對象時,能提升該對象的辨識率。
前述對象抽出部也可以更利用在前述攝像部所攝影的影像中的前述預定區域的色彩代碼,來抽出前述對象。
前述對象特定部也可以對在前述對象抽出部所抽出的前述對象的網目模型,補完該對象的網目模型中所無法掌握的部分,並作推定。
前述對象特定部也可以利用人工智慧來特定前述對象。
前述對象辨識系統,也可以更具備:附加屬性於前述對象抽出部所抽出的前述對象,並將該對象的屬性資訊儲存至前述資料庫的資料庫更新部。
前述前象為物體;前述對象辨識系統,也可以更具有測定前述預定區域的物體的材質的材質測定部。
前述對象為人物;前述對象辨識系統,更具有:將人物的動作與人物的行動模式作對應,並作成前述資料庫的資料庫作成部;前述對象抽出部,從所抽出的人物的網目模型來掌握該人物的動作;前述對象特定部,將在前述對象抽出部所掌握的人物的動作、與在前述資料庫作成部所作成的前述資料庫中的人物的動作與人物的行動模式的對應作對照,特定在該對象抽出部所抽出的人物的行動模式也可以。
前述資料庫作成部也可以利用人工智慧進行前述人物的動作與前述人物的行動模式的對應。
前述對象辨識系統,也可以更具備:將在前述資料庫作成部所作成的前述資料庫中的前述人物的動作與前述人物的行動模式的對應,根據預先儲存的人物的動作與人物的基礎行動模式的對應,來進行檢證的資料庫檢證部。
別的觀點的本發明為一種辨識預定區域的對象的對象辨識方法,具有:在攝像部攝影前述預定區域的
攝影工程;測定從前述攝像部到前述預定區域的距離的測距工程;根據在前述測距工程所測定的距離,生成前述預定區域的網目模型的模型生成工程;在前述模型生成工程所生成的前述預定區域的網目模型中,抽出從前述預定區域的背景的網目模型突出的前述對象的網目模型的對象抽出工程;將在前述對象抽出工程所被抽出的前述對象的網目模型、與儲存於資料庫的對象的資訊作對照,來特定該對象抽出工程所抽出的前述對象的對象特定工程。
在前述對象抽出工程中,也可以更利用在前述攝影工程所攝影的影像中的前述預定區域的色彩代碼,來抽出前述對象。
在前述對象特定工程中,也可以對前述對象抽出工程所抽出的前述對象的網目模型,補完該對象的網目模型中所無法掌握的部分,並作推定。
前述對象特定工程中,也可以利用人工智慧來特定前述對象。
前述對象辨識方法,也可以更具備:附加屬性於前述對象抽出工程所抽出的前述對象,並將該對象的屬性資訊儲存至前述資料庫的資料庫更新工程。
前述對象為物體;在前述對象抽出工程中,也可以測定前述預定區域的物體的材質,再利用該測定的材質,來抽出前述物體。
前述對象為物體;在前述對象特定工程中,也可以測定前述對象抽出工程所抽出的物體的材質,再利
用該測定的材質,來特定前述物體。
前述對象為人物;前述對象辨識方法,更具有:將人物的動作與人物的行動模式作對應,並作成前述資料庫的資料庫作成工程;在前述對象抽出工程中,從所抽出的人物的網目模型來掌握該人物的動作;在前述對象特定工程中,將在前述對象抽出工程所掌握的人物的動作、與在前述資料庫作成工程所作成的前述資料庫中的人物的動作與人物的行動模式的對應作對照,特定在該對象抽出工程中所抽出的人物的行動模式也可以。
在前述資料庫作成工程中,也可以利用人工智慧進行前述人物的動作與前述人物的行動模式的對應。
前述對象辨識方法,也可以更具備:將在前述資料庫作成工程所作成的前述資料庫中的前述人物的動作與前述人物的行動模式的對應,根據預先儲存的人物的動作與人物的基礎行動模式的對應,來進行檢證的資料庫檢證工程。
此外根據另一種觀點的本發明,提供一種儲存在電腦上運作的程式的可讀取的電腦記憶媒體,以使對象辨識方法藉由對象辨識系統來執行的方式,控制該對象辨識系統。
根據本發明,當辨識預定區域的對象時,能提升該對象的辨識率。
1‧‧‧對象辨識系統
10‧‧‧攝影裝置
11‧‧‧框體
12‧‧‧圓頂蓋
13‧‧‧測距感測器
13a‧‧‧照射源
13b‧‧‧受光元件
14‧‧‧攝影機
15‧‧‧支撐構件
16‧‧‧驅動機構
17‧‧‧通信部
20‧‧‧對象辨識裝置
21‧‧‧輸入部
22‧‧‧模型生成部
23‧‧‧對象抽出部
24‧‧‧對象特定部
25‧‧‧輸出部
26‧‧‧控制部
27‧‧‧記憶部
30‧‧‧預定區域
31‧‧‧桌子
32‧‧‧杯子
40‧‧‧資料庫更新部
50‧‧‧材質測定部
51‧‧‧超音波振盪器
52‧‧‧超音波檢出器
53‧‧‧超音波解析部
60‧‧‧資料庫形成部
61‧‧‧資料庫檢證部
[圖1]表示有關本實施形態之對象辨識系統的構成的概略的說明圖。
[圖2]表示有關本實施形態的對象辨識方法的流程圖。
[圖3]表示預定區域(桌子及杯子)的說明圖。
[圖4]表示生成預定區域的網目模型的樣子的說明圖。
[圖5]表示預定區域的網目模型的說明圖。
[圖6]表示有關其他實施形態之對象辨識系統的構成的概略的說明圖。
[圖7]表示有關其他實施形態之對象辨識系統的構成的概略的說明圖。
[圖8]表示有關其他實施形態之對象辨識系統的構成的概略的說明圖。
[圖9]表示有關其他實施形態之對象辨識系統的構成的概略的說明圖。
以下,參照圖式說明有關本發明的實施形態。此外,在本說明書及圖式中,有關具有實質上同一的機能構成的構成要素,會藉由附加同一符號來省略重複說
明。
圖1係表示有關本實施形態之對象辨識系統1的構成的概略。此外,在本實施形態中說明有關對象為物體的情形。也就是說,在對象辨識系統1中,在預定區域中識別對象物體並辨識之。
對象辨識系統1具有攝影裝置10及對象辨識裝置20。攝影裝置10及對象辨識裝置20通過網路(圖未示)連接。該網路若能夠進行攝影裝置10與對象辨識裝置20之間的通信的話,並沒有任何限定,但例如由網際網路或有線LAN、無線LAN等來構成。
攝影裝置10在攝影預定區域的同時也測定到預定區域為止的距離。此外,對象辨識裝置20生成有關在預定區域的三維網目模型,並抽出在預定區域中的對象的網目模型,特定該對象。此外,有關該等攝影裝置10及對象辨識裝置20的構成與動作,將在以下作詳細說明。
攝影裝置10具有在框體11的下部設置透明或半透明的圓頂蓋12的構成。在圓頂蓋12的內部設有:作為測距部的測距感測器13、作為攝像部的攝影機14、支撐攝影機14的支撐構件15。此外,在框體11的內部設有:通
過支撐構件15控制攝影機14的回動動作的驅動機構16、用來將由攝影裝置10所取得的資料發送至對象辨識裝置20的通信部17。但是,攝影裝置10的形狀並不限於此,可以任意作設計。
測距感測器13具有:例如照射紅外光的照射源13a、接收紅外光的反射波的受光元件13b。照射源13a例如使用LED。受光元件13b例如使用PSD或CMOS等。在照射源13a與受光元件13b的預定區域30側,分別設有使光集束的透鏡(圖未示)。此外,照射源13a與受光元件13b可以分別設有複數個。
在測距感測器13中,藉由從照射源13a照射紅外光至預定區域,在受光元件13b接收在預定區域所反射的紅外光的反射波,來測定到該預定區域為止的距離。作為基於該紅外光的反射波來測定到預定區域為止的距離的方法,例如,具有:從照射紅外光後該反射波返回的時間或相位差、從接收紅外光的反射波的受光元件上的位置、從紅外光的反射波的強度等來算出的方法,該技術領域的通常知識者可以從公知的方法中任意地作選擇。接著,在測距感測器13所測定的距離資料被輸出至通信部17。
測距感測器13以接近攝影機14的方式固定設置。因此,在測距感測器13所測定的距離,可以視為從攝影機14到預定區域為止的距離。
此外,本實施形態的測距感測器13為了測定
到測定對象為止的距離而使用紅外光,但並不限於此,可以任意地選擇例如超音波或雷射等。
攝影機14例如使用CCD攝影機或CMOS攝影機等的任意攝影機。攝影機14被支撐於支撐構件15。此外攝影機14能藉由驅動機構16在水平方向(X軸方向及Y軸方向左右方向)高度方向(Z軸方向,上下方向)旋轉,而且以可作變焦動作的方式來構成。驅動機構16例如使用步進馬達或直接驅動馬達。接著,攝影機14通過成為攝影窗的圓頂蓋12來攝影預定區域,能取得該預定區域的彩色影像。此外,在攝影機14所攝影的影像資料被輸出至通信部17。
通信部17為將與網路之間通信作為媒介的通信介面,進行與後述的對象辨識裝置20的輸入部21之間的資料通信。具體來說,通信部17將在測距感測器13所測定的距離資料、在攝影機14所攝影的影像資料輸出至對象辨識裝置20。
對象辨識裝置20例如藉由電腦所構成,由例如電路(硬體)或CPU等的中央演算處理裝置、及使該等作用的程式(軟體)來構成。對象辨識裝置20具有:輸入部21、模型生成部22、對象抽出部23、對象特定部24、輸出部25、控制部26、及記憶部27。
輸入部21為將與網路之間通信作為媒介的通
信介面,進行與攝影裝置10的通信部17之間的資料通信。具體來說,在輸入部21,在上述測距感測器13所測定的距離資料、在攝影機14所攝影的影像資料被輸入。
模型生成部22根據輸入部21的距離資料,生成預定區域的網目模型。此外,對象抽出部23在模型生成部22所生成的預定區域的網目模型中,抽出從預定區域的背景的網目模型突出的對象的網目模型。再來,對象特定部24,將在對象抽出部23所抽出的對象的網目模型、與儲存至記憶部27的資料庫的物體的資訊作對照,特定該對象。有關該等模型生成部22、對象抽出部23、對象特定部24的具體動作將於後述。
輸出部25將對象特定部24的對象辨識結果輸出。對象辨識結果的輸出方法並沒有特別的限定,例如在顯示器顯示等,可選擇任意的方法。
控制部26控制在攝影裝置10的各動作。也就是說,控制部26例如控制測距感測器13所測定距離的時機與位置、也控制攝影機14所攝影的時機與位置。
在記憶部27儲存有藉由對象辨識系統1監視預定區域30所需的程式。此外,上述程式可以用這種方式收納於記憶部27,或者是儲存於電腦可讀取硬碟(HD)、可撓性磁碟(FD)、光碟(CD)、磁光碟(MO)、各種記憶體等的電腦可讀取式記憶媒體。此外,上述程式也可以藉由通過網際網路等的通信回線網下載,儲存於上述記憶媒體等中。
該記憶部27記憶有儲存物體資訊的資料庫。儲存於資料庫的物體以真實世界的所有物體為對象。此外,作為物體的資訊,除了該物體的屬性以外,也包含形狀或大小的三維資訊等。
接著,說明有關在如以上方式構成的對象辨識系統1所進行的預定區域的對象(物體)的識別方法。圖2為表示相關的對象辨識方法的主要工程例的流程圖。
在以下中,圖3所示的預定區域30裡,說明從背景(即桌子31)來識別對象(即杯子32)時的例子。在這裡的背景中,除了在預定區域的地板、牆壁、天花板之外,也包含有支撐對象的支撐材(在本實施形態為桌子31)、或在預定區域中常設的常設物等。此外,對象為在預定區域中,背景以外的物體,除了在該預定區域的靜止物體以外,也包含動的物體。此外,背景與對象並不限於本實施形態的桌子31與杯子32。
首先,利用攝影裝置10的攝影機14攝影預定區域30的同時,也利用測距感測器13來測定攝影機14與預定區域30之間的距離(圖2的步驟S1)。在攝影機14所攝影的影像資料,通過通信部17與輸入部21,被輸出至對象辨識裝置20的對象抽出部23。在測距感測器13所測定的距離資料,通過通信部17與輸入部21,被輸出至對象辨識裝置20的模型生成部22。
在模型生成部22中,根據測距感測器13所測定的距離資料,生成預定區域30的網目模型(圖2的步驟S2)。具體來說,如圖4所示,在預定區域30中從攝影裝置10側開始堆積網目。網目的大小可任意作設定。各網目的水平方向(X軸方向及Y軸方向)的位置可以藉由堆積的網目數來算出。此外,各網目的高度方向(Z軸方向)的位置,可以從測距感測器13所測定的距離資料來算出。
堆積這種具備水平方向與高度方向的三維位置資訊的網目後,如圖5所示,有關預定區域30,生成反應桌子31及杯子32的三維網目模型。換言之,在步驟S2中,根據測距感測器13所測定的距離資料,預定區域30以複數的網目被畫分成三維,生成網目模型。
在對象抽出部23中,在模型生成部22所生成的預定區域30的網目模型中,抽出從桌子31的網目模型突出的杯子32的網目模型(圖2的步驟S3)。如上述的方式,因為桌子31的網目模型與杯子32的網目模型分別由具備水平方向與高度方向的三維資訊的網目所構成,因此能夠區別該等桌子31的網目模型與杯子32的網目模型。
此外,在步驟S3抽出杯子32的網目模型時,也可以使用輸入至對象抽出部23的攝影機14的影像資料的色彩代碼。作為色彩代碼,例如RGB或HSV等,可以使用各種的表色系統。相關的情形,藉由區別桌子
31的色彩代碼與杯子32的色彩代碼,可以從桌子31的網目模型抽出杯子32的網目模型。也就是說,影像資料的色彩代碼係用來補完杯子32的網目模型的抽出,藉此能更適切地抽出杯子32的網目模型。
在對象特定部24中,將在對象抽出部23所被抽出的杯子32的網目模型、與儲存至記憶部27的資料庫的物體的資訊作對照,來特定杯子32(圖2的步驟S4)。在上述的這種資料庫中,除了該物體的屬性以外,也包含形狀或大小的三維資訊等。在對象特定部24中,從杯子32的網目模型掌握該杯子32的形狀或大小的三維資訊。接著,在儲存至資料庫的複數物體的三維資訊中,選擇適合杯子32的網目模型的三維資訊者,對該杯子32的網目模型附加屬性,來特定杯子。
在這裡,因為攝影裝置10配置於杯子32的一方向,從杯子32的網目模型會有例如無法掌握的杯子32的底面等、形狀或大小的部分。但是,在對象特定部24中,根據在杯子32的網目模型所能掌握的部分,能夠補完無法掌握的部分的形狀或大小,並且作推定。這樣,就能夠推定杯子32全體的形狀或大小。如從前的方式僅利用RGB等的色彩代碼來特定物體的情形,雖然需要在資料庫儲存物體的所有角度的色彩代碼,但本實施形態因為如同上述能夠推定杯子32的形狀或大小,在資料庫儲存杯子32的一部分的形狀或大小就可以了。
此外,對象特定部24也可以具備人工智慧。
相關的情形,在步驟S4中,例如在儲存至資料庫的複數物體的三維資訊中,即便沒有完全適合杯子32的網目模型的三維資訊的資訊,也可以利用人工智慧從資料庫選擇接近該三維資訊的資訊。因此,能夠對該杯子32的網目模型附加屬性,來特定杯子。
這樣,就能夠在預定區域30中識別杯子32並辨識。此外,將對象特定部24的對象辨識結果被輸出至輸出部25。
根據本實施形態,在步驟S2中,在模型生成部22所生成的預定區域30的網目模型中,包含各網目的水平方向與高度方向的資訊(三維資訊)。這樣在步驟S3中,在對象抽出部23能夠從桌子31的網目模型適切地抽出杯子32的網目模型,再來在步驟S4中,能夠在對象特定部24適切地特定杯子32。因此,相較於從前的方式僅使用色彩代碼來識別物體的情形,能夠提升對象的辨識率。此外,除了網目模型的三維資訊以外,藉由併用影像資料的色彩代碼,能夠更加提升對象的辨識率。
接著,說明有關對象為物體時的本發明的其他實施形態。在以下的說明中,省略與上述實施形態重複位置的說明。
如圖6所示的對象辨識裝置20也可以更具有更新記憶部27的資料庫的資料庫更新部40。資料庫更新
部40,在有關例如在對象抽出部23所抽出的對象的網目模型中,當該網目模型的三維資訊,不適合於儲存在資料庫的物體的三維資訊時,對該對象附加屬性,將該對象的屬性資訊儲存至資料庫。向對象附加屬性可以是任意方法,但例如資料庫更新部40通過輸出部25查詢對象的屬性,操作者將屬性附加於對象,通過輸入部21對資料庫更新部40輸入該屬性也可以。
藉由用這種方式使對象辨識裝置20學習,並更新記憶部27的資料庫,能夠提升對象的辨識率。
此外,在以上的實施形態中,設置複數對象辨識系統1時,儲存物體資訊的資料庫,可以是在複數對象辨識系統1的共通的主要資料庫。相關的情形,利用複數對象辨識系統1,藉由以上述的方式在資料庫更新部40更新主要資料庫,儲存於該主要資料庫的物體資訊能急速增加,並更能構築更精緻的主要資料庫。因此,藉由使用該主要資料庫,對象辨識率能更加地提升。
此外,如圖7所示的對象辨識系統1也可以更具有測定預定區域30的對象(物體)的材質的材質測定部50。材質測定部50例如具有:超音波振盪器51、超音波檢出器52、及超音波解析部53。超音波振盪器51與超音波檢出器52例如分別設於攝影裝置10的圓頂蓋12內部。超音波解析部53例如設於對象辨識裝置20。但是,材質測定部50的構成並不限於此,可以任意作設計。
超音波振盪器51向對象照射雷射光(脈衝狀的雷射光),使該對象發生超音波振動。超音波振盪器52在向對象照射雷射光(連續波的雷射光)的同時,藉由接收從對象反射而來的光,來檢出發生於對象的超音波振動的變位。在超音波檢出器52所檢出的超音波振動的檢出信號,通過通信部17與輸入部21,被輸出至超音波解析部53。此外,該等超音波振盪器51與超音波檢出器52的構成並沒有特別的限定,可以使用一般的裝置。
在超音波解析部53中,解析超音波檢出器52所檢出的超音波振動的檢出信號,算出對象的組織的粒徑或強度等的材質特性值。接著,根據該材質特性值,測定對象的材質。此外,在記憶部27的資料庫更儲存有作為物體資訊的物體材質。
具有以上構成的材質測定部50可以用在上述步驟S3中,也可以用在上述步驟S4中。
在步驟S3中使用材質測定部50時,藉由該材質測定部50,分別測定存在於預定區域30的桌子31及杯子32的材質。相關的情形,藉由利用桌子31的材質與杯子32的材質差異,可以從桌子31的網目模型抽出杯子32的網目模型。也就是說,桌子31的材質與杯子32的材質,係用來補完杯子32的網目模型的抽出,藉此能更適切地抽出杯子32的網目模型。
此外,在步驟S4中使用材質測定部50時,在步驟S3中抽出杯子32的網目模型後,藉由材質測定部
50測定杯子32的材質。接著,在步驟S4中,由對象特定部24來特定杯子32。在該步驟S4中,雖將在對象抽出部23所被抽出的杯子32的網目模型、與儲存至記憶部27的資料庫的物體的資訊(三維資訊)作對照,但除此之外,也將在材質測定部50所測定的杯子32的材質、與儲存至記憶部27的資料庫的物體的資訊(材質)作對照。因此,能更確實地進行杯子32的特定。
接著,說明有關對象為人物時的實施形態。在以下的說明中,省略與上述實施形態重複位置的說明。
即便是對象從物體變成人物的情形也一樣,利用上述對象辨識系統1,能夠識別預定區域的對象(人物),並辨識之。相關的情形,在儲存於記憶部27的資料庫中,除了人物的屬性(例如性別、年齡等),也包含人物的體格等的三維資訊等。
接著,辨識預定區域的人物時,進行上述步驟S1~S4。步驟S1、S2分別與上述實施形態中的步驟S1、S2一樣。
在步驟S3,對象抽出部23中,在模型生成部22所生成的預定區域30的網目模型中,抽出從背景的網目模型突出的人物的網目模型。該具體的抽出方法,與上述實施形態中的步驟S3一樣。
在步驟S4,將在對象抽出部23所被抽出的人
物的網目模型、與儲存至記憶部27的資料庫的人物的資訊作對照,特定成對象為人物。該具體的特定方法,與上述實施形態中的步驟S4一樣。
在本實施形態中也可以享有與上述實施形態一樣的效果。也就是說,能提升對象(人物)的辨識率。
此外,對象為人物的情形也一樣,利用上述對象辨識系統1,能夠辨識在預定區域的人物的行動模式。相關的情形,在儲存於記憶部27的資料庫中,包含將人物的動作與人物的行動模式作對應的相關資訊。人物的動作,例如包含頭(臉)、手、腳、身體等各部位的動作。人物的行動模式,例如包含吃、說、走、坐等所有人物的行動模式。
相關的情形,在步驟S3,如上所述在對象抽出部23中,將人物的網目模型抽出,再從該抽出的人物的網目模型掌握人物的動作。具體來說,例如藉由當握在網目模型中網目的變位,來掌握人物的各部位的動作。
之後,在步驟S4,將在對象抽出部23所被掌握的人物的動作(人物的各部位的動作)、與儲存至記憶部27的資料庫的將人物的動作與人物的行動模式的對應作對照,在對象抽出部23特定適合所掌握的人物的動作的人物的行動模式。具體來說,例如作為人物的動作,當掌握手向嘴巴移動的動作時,將該人物的行動模式辨識成「吃」。
根據本實施形態,利用上述對象辨識系統1,
能夠辨識人物的行動模式,例如可以掌握人物倒下等的異常狀態或危險事態的發生。再來,例如預先掌握特定人物的通常行動模式的話,利用對象辨識系統1來辨識特定人物的行動模式,甚至能夠掌握該特定人物的健康狀態。
在這裡,說明有關包含將人物的動作與人物的行動模式作對應的相關資料庫的作成方法。如圖8所示的對象辨識裝置20更具有作成記憶部27的資料庫的資料庫形成部60。資料庫形成部60,作成將人物的動作、人物的行動模式作對應的資料庫。
將人物的動作與人物的行動模式作對應的方法為任意。例如操作者可以將人物的動作與人物的行動模式作對應,通過輸入部21將該對應輸入至資料庫形成部60。此外,當操作者作對應時,例如對在對象抽出部23所掌握的人物的動作,按押按鍵的同時並教示行動模式也可以。具體來說,例如在當人物的手向嘴巴移動的動作時,操作者在按押按鍵的同時,教示該人物的行動模式「吃」。
此外,也可以利用具備資料庫形成部60的人工智慧,來將人物的動作與人物的行動模式作對應。例如,對於在預定的時間、預定的場所人物所引起的行動,人工智慧預測行動模式並教示。具體來說,例如早上,人物坐在食堂,當人物的手向嘴巴移動的動作時,人工智慧將人物的行動模式預測為「吃」並教示。
接著,在該利用人工智慧的資料庫形成中,
藉由深度學習(deep learning),來學習相對人物的動作的人物的行動模式,而將人物的動作與人物的行動模式作對應也可以。
在這種人物的行動模式的教示中,有操作者的手冊教示或利用人工智慧的教示等各種方法,但不論是何種情形,都可以在資料庫形成部60中,將人物的動作與人物的行動模式作對應。
此外,關於在上述資料庫形成部60所作成的資料庫中的人物的動作與人物的行動模式之間的對應,也可以再進行該對應的錯誤檢證。如圖9所示的對象辨識裝置20更具有進行上述對應的檢證的資料庫檢證部61。在資料庫檢證部61中,預先儲存人物的動作與人物的基礎行動模式的對應。此外,基礎行動模式為對人物的動作,正確地對應的行動模式。
相關的情形,在資料庫檢證部61中,因為檢證在資料庫形成部60所作成的資料庫中的人物的動作與人物的行動模式的對應的正誤,故僅將正確的對應儲存至記憶部27的資料庫。這樣的話,記憶部27的資料庫能被更新,並能夠更加提升人物的行動模式的辨識率。
此外,在本實施形態中,雖然當辨識在預定區域人物的行動模式時,形成人物的網目模型並掌握該人物的動作,掌握在預定區域的人物的動作的方法並不限定於此。例如測定到人物的各部位(頭、手、腳、身體等)的距離,掌握該人物的動作也可以。此外,作為人物的動
作,例如掌握人物的眼的動作或表情也可以。
此外,在以上的實施形態中,雖分別說明了對象為物體的情形及人物的情形,但對象為物體及人物的組合也可以。例如人物的手拿著筷子,當筷子向嘴巴移動時,對象辨識系統1將筷子作為物體辨識的同時,可以掌握人物的動作,並將人物的行動模式辨識為「吃」。藉由這種方式將物體與人物的兩者作組合,能更高精度的辨識人物的行動模式。
以上實施形態的對象辨識系統1能適用於各種的服務領域。例如對象辨識系統1能在監視預定區域時使用。相關的情形,在預定區域中,藉由適當地識別物體或人物的對象並辨識之,能夠更適切地監視該預定區域。
以上,雖參照附加的圖式詳細說明有關本發明適合的實施形態,但與本發明相關的例子並不以此為限。若是該技術領域中的知識者,在申請專利範圍所記載的技術思想範圍內,能夠想到各種變更例或修正例,有關於該等情形,當然也屬於本揭示的技術範圍。
本發明能夠使用於在預定區域中,辨識物體或人物等對象時。
1‧‧‧對象辨識系統
10‧‧‧攝影裝置
11‧‧‧框體
12‧‧‧圓頂蓋
13‧‧‧測距感測器
13a‧‧‧照射源
13b‧‧‧受光元件
14‧‧‧攝影機
15‧‧‧支撐構件
16‧‧‧驅動機構
17‧‧‧通信部
20‧‧‧對象辨識裝置
21‧‧‧輸入部
22‧‧‧模型生成部
23‧‧‧對象抽出部
24‧‧‧對象特定部
25‧‧‧輸出部
26‧‧‧控制部
27‧‧‧記憶部
Claims (20)
- 一種辨識預定區域的對象的對象辨識系統,具有:攝影前述預定區域的攝像部、測定從前述攝像部到前述預定區域的距離的測距部、根據在前述測距部所測定的距離,生成前述預定區域的網目模型的模型生成部、在前述模型生成部所生成的前述預定區域的網目模型中,抽出從前述預定區域的背景的網目模型突出的前述對象的網目模型的對象抽出部、將在前述對象抽出部所被抽出的前述對象的網目模型、與儲存於資料庫的對象的資訊作對照,來特定在該對象抽出部所抽出的前述對象的對象特定部。
- 如請求項1所記載的對象辨識系統,其中,前述對象抽出部更利用在前述攝像部所攝影的影像中的前述預定區域的色彩代碼,來抽出前述對象。
- 如請求項1所記載的對象辨識系統,其中,前述對象特定部係對在前述對象抽出部所抽出的前述對象的網目模型,補完該對象的網目模型中所無法掌握的部分,並作推定。
- 如請求項1所記載的對象辨識系統,其中,前述對象特定部利用人工智慧來特定前述對象。
- 如請求項1所記載的對象辨識系統,更具備:附加屬性於前述對象抽出部所抽出的前述對象,並將該對象 的屬性資訊儲存至前述資料庫的資料庫更新部。
- 如請求項1所記載的對象辨識系統,其中,前述對象為物體;前述對象辨識系統更具備:測定前述預定區域的物體的材質的材質測定部。
- 如請求項1所記載的對象辨識系統,其中,前述對象為人物;前述對象辨識系統更具備:將人物的動作與人物的行動模式作對應,作成前述資料庫的資料庫作成部;前述對象抽出部,從該抽出的人物的網目模型來掌握該人物的動作;前述對象特定部,將在前述對象抽出部所掌握的人物的動作、與在前述資料庫作成部所作成的前述資料庫中的人物的動作與人物的行動模式的對應作對照,特定在該對象抽出部所抽出的人物的行動模式。
- 如請求項7所記載的對象辨識系統,其中,前述資料庫作成部係利用人工智慧進行前述人物的動作與前述人物的行動模式的對應。
- 如請求項7所記載的對象辨識系統,更具備:將在前述資料庫作成部所作成的前述資料庫中的前述人物的動作與前述人物的行動模式的對應,根據預先儲存的人物的動作與人物的基礎行動模式的對應,來進行檢證的資料庫檢證部。
- 一種辨識預定區域的對象的對象辨識方法,具 有:在攝像部攝影前述預定區域的攝影工程;測定從前述攝像部到前述預定區域的距離的測距工程;根據在前述測距工程所測定的距離,生成前述預定區域的網目模型的模型生成工程;在前述模型生成工程所生成的前述預定區域的網目模型中,抽出從前述預定區域的背景的網目模型突出的前述對象的網目模型的對象抽出工程;將在前述對象抽出工程所被抽出的前述對象的網目模型、與儲存於資料庫的對象的資訊作對照,來特定該對象抽出工程所抽出的前述對象的對象特定工程。
- 如請求項10所記載的對象辨識方法,其中,在前述對象抽出工程中,更利用前述攝影工程所攝影的影像中的前述預定區域的色彩代碼,來抽出前述對象。
- 如請求項10所記載的對象辨識方法,其中,在前述對象特定工程中,係對前述對象抽出工程所抽出的前述對象的網目模型,補完該對象的網目模型中所無法掌握的部分,並作推定。
- 如請求項10所記載的對象辨識方法,其中,在前述對象特定工程中,係利用人工智慧來特定前述對象。
- 如請求項10所記載的對象辨識方法,更具備:附加屬性於前述對象抽出工程所抽出的前述對象,並將該對象的屬性資訊儲存至前述資料庫的資料庫更新工程。
- 如請求項10所記載的對象辨識方法,其中,前述對象為物體;在前述對象抽出工程中,測定前述預定區域的物體的材質,再利用該測定的材質,來抽出前述物體。
- 如請求項10所記載的對象辨識方法,其中,前述對象為物體;在前述對象抽出工程中,測定前述對象抽出工程所抽出的物體的材質,再利用該測定的材質,來特定前述物體。
- 如請求項10所記載的對象辨識方法,其中,前述對象為人物;前述對象辨識方法更具備:將人物的動作與人物的行動模式作對應,作成前述資料庫的資料庫作成工程;在前述對象抽出工程中,從抽出的人物的網目模型來掌握該人物的動作;在前述對象特定工程中,將在前述對象抽出工程所掌握的人物的動作、與前述資料庫作成工程所作成的前述資料庫中的人物的動作與人物的行動模式的對應作對照,來特定在該對象抽出工程所抽出的人物的行動模式。
- 如請求項17所記載的對象辨識方法,其中,在前述資料庫作成工程中,利用人工智慧進行前述人物的動作與前述人物的行動模式的對應。
- 如請求項17所記載的對象辨識方法,更具備:將在前述資料庫作成工程所作成的前述資料庫中的前述人 物的動作與前述人物的行動模式的對應,根據預先儲存的人物的動作與人物的基礎行動模式的對應,進行檢證的資料庫檢證工程。
- 一種儲存在電腦上運作的程式的可讀取之電腦記憶媒體,以使如請求項10~19中任1項所記載的對象辨識方法藉由對象辨識系統來執行的方式,控制該對象辨識系統。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015209731A JP2019008337A (ja) | 2015-10-26 | 2015-10-26 | 物体識別システム、物体識別方法、プログラム及びコンピュータ記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201724022A true TW201724022A (zh) | 2017-07-01 |
Family
ID=58630474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW105134569A TW201724022A (zh) | 2015-10-26 | 2016-10-26 | 對象辨識系統,對象辨識方法及電腦記憶媒體 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2019008337A (zh) |
TW (1) | TW201724022A (zh) |
WO (1) | WO2017073520A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10650557B2 (en) | 2017-11-10 | 2020-05-12 | Taihao Medical Inc. | Focus detection apparatus and method thereof |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019096006A (ja) | 2017-11-21 | 2019-06-20 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
EP3896838B8 (en) | 2019-01-22 | 2023-08-30 | The University of Tokyo | Vibration-driven energy harvesting element |
CN110096807B (zh) * | 2019-04-30 | 2022-12-02 | 中国美术学院 | 高脚杯意象映射造型的生成方法及系统 |
KR102522100B1 (ko) * | 2021-02-26 | 2023-04-14 | 최상수 | 데이터 변환 방법 및 데이터 변환 장치 |
JP7190147B1 (ja) * | 2022-02-02 | 2022-12-15 | 株式会社アストライアーソフトウエア | 3次元形状記述子抽出器の製造方法、3次元形状検索方法及び3次元形状検索システム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001143072A (ja) * | 1999-11-10 | 2001-05-25 | Nippon Telegr & Teleph Corp <Ntt> | 物体形状識別装置 |
JP2008242571A (ja) * | 2007-03-26 | 2008-10-09 | Honda Motor Co Ltd | 物体検出装置 |
JP5664161B2 (ja) * | 2010-11-16 | 2015-02-04 | 住友電気工業株式会社 | 監視システム及び監視装置 |
JP5921271B2 (ja) * | 2012-03-19 | 2016-05-24 | 株式会社東芝 | 物体測定装置、及び物体測定方法 |
JP6091407B2 (ja) * | 2013-12-18 | 2017-03-08 | 三菱電機株式会社 | ジェスチャ登録装置 |
-
2015
- 2015-10-26 JP JP2015209731A patent/JP2019008337A/ja active Pending
-
2016
- 2016-10-24 WO PCT/JP2016/081458 patent/WO2017073520A1/ja active Application Filing
- 2016-10-26 TW TW105134569A patent/TW201724022A/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10650557B2 (en) | 2017-11-10 | 2020-05-12 | Taihao Medical Inc. | Focus detection apparatus and method thereof |
Also Published As
Publication number | Publication date |
---|---|
WO2017073520A1 (ja) | 2017-05-04 |
JP2019008337A (ja) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW201724022A (zh) | 對象辨識系統,對象辨識方法及電腦記憶媒體 | |
JP6534499B1 (ja) | 監視装置、監視システム、及び、監視方法 | |
US10095930B2 (en) | System and method for home health care monitoring | |
US10586385B2 (en) | Structure modelling | |
US7680295B2 (en) | Hand-gesture based interface apparatus | |
JP4035610B2 (ja) | インタフェース装置 | |
US20180158244A1 (en) | Virtual sensor configuration | |
CN106062862A (zh) | 用于沉浸式和交互式多媒体生成的系统和方法 | |
WO2019240208A1 (ja) | ロボットおよびその制御方法、ならびにプログラム | |
CN107408146A (zh) | 监控 | |
US9268408B2 (en) | Operating area determination method and system | |
JP2010123019A (ja) | 動作認識装置及び方法 | |
JP2010262527A (ja) | 通行者計数装置、通行者計数方法および通行者計数プログラム | |
JP2015011404A (ja) | 動作認識処理装置 | |
Arai et al. | Autonomous control of eye based electric wheel chair with obstacle avoidance and shortest path finding based on Dijkstra algorithm | |
JP7304235B2 (ja) | 学習済みモデル、学習装置、学習方法、及び学習プログラム | |
CN112906610A (zh) | 用于活体检测的方法、电子电路、电子设备和介质 | |
JP7113375B2 (ja) | 表示装置、画像処理装置及び制御方法 | |
JP6374812B2 (ja) | 三次元モデル処理装置およびカメラ校正システム | |
TW202040426A (zh) | 資訊處理裝置、資訊處理系統、資訊處理方法以及非暫時性儲存媒體 | |
JP5408348B2 (ja) | ポインタ情報処理装置、ポインタ情報処理プログラムおよび会議システム | |
KR101355206B1 (ko) | 영상분석을 이용한 출입 계수시스템 및 그 방법 | |
JP6075982B2 (ja) | 顔しかめ検出システム及び顔しかめ検出方法 | |
JP7349288B2 (ja) | 対象物認識装置、対象物認識方法、及び対象物認識プログラム | |
US20160260353A1 (en) | Object recognition for the visually impaired |