JP2015507271A - オブジェクト認識方法及びオブジェクト認識装置 - Google Patents

オブジェクト認識方法及びオブジェクト認識装置 Download PDF

Info

Publication number
JP2015507271A
JP2015507271A JP2014551513A JP2014551513A JP2015507271A JP 2015507271 A JP2015507271 A JP 2015507271A JP 2014551513 A JP2014551513 A JP 2014551513A JP 2014551513 A JP2014551513 A JP 2014551513A JP 2015507271 A JP2015507271 A JP 2015507271A
Authority
JP
Japan
Prior art keywords
contour
specific
pixel
color
object recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014551513A
Other languages
English (en)
Other versions
JP5958557B2 (ja
Inventor
ファヌ・ウエイ
明洋 皆川
明洋 皆川
スヌ・ジュヌ
堀田 悦伸
悦伸 堀田
直井 聡
聡 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2015507271A publication Critical patent/JP2015507271A/ja
Application granted granted Critical
Publication of JP5958557B2 publication Critical patent/JP5958557B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、オブジェクト認識方法及びオブジェクト認識装置を開示する。本発明に従うオブジェクト認識方法は、特定の色分布特性及び特定の輪郭特性を有するオブジェクトを認識するために使用される。方法は、入力画像における輪郭をその色分布特性に従って抽出するステップと、輪郭特性及び色分布特性に従って抽出された輪郭を用いて走査窓を決定するステップと、決定された走査窓に対応する画像の部分を分類し、画像のその部分がオブジェクトを含むかどうかを決定するステップとを含む。

Description

本発明は、概して、画像処理及びパターン認識に関する。特に、本発明は、画像においてオブジェクトを認識することができる方法及び装置と、そのような装置が配置されるモバイル端末とに関する。
ヒューマン−マシン・インタラクション技術は、近年劇的に発展してきた。特に、非接触式のヒューマン−マシン・インタラクションの決定的な技術は、画像又は映像に基づくジェスチャの自動認識である。手検出は、ジェスチャ認識システムのフロントエンドのモジュールである。高速且つ効率的な手検出の方法は、計算能力が限られている携帯電話機、タブレット型コンピュータ、及び他のモバイル機器にとって特に重要である。
先行技術における手検出方法によれば、処理されるべき画像窓は、訓練された二分法分類器によって手又は手以外のカテゴリに分類される。正確な手のポジショニングは、分類器の出力応答が最大である位置についてサイズ可変のスライディング(走査)窓において画像全体を走査することで実行される。画像には多数の候補窓が存在するので、窓毎に判断するこの検索手法は、計算負担の著しい増加を生じることがある。例えば、320×240ピクセルのQVGA画像は、100万を超える候補窓を含む。n×nの画像に関し、候補窓の数は、nの4乗(n)倍で増大する。様々なサイズ及び位置を有する多数の候補窓から生じる途方もない計算量は、計算能力が限られているモバイル機器には明らかに耐え難いものである。手検出の実時間特性の悪さは、ユーザの経験を低下させる。
本発明の幾つかの態様の基本的な理解を提供するよう、本発明の概要が以下で与えられる。概要は、本発明の網羅的な記載でないことが留意される。本発明のキーポイントになる又は重要な部分を定義することは意図されず、また、本発明の適用範囲を定義することも意図されない。それは、単に、以下の詳細な説明に対する序文として、簡約された形で幾つかの概念を与えることを狙っている。
先行技術における上記の問題を鑑み、本発明の目的は、画像においてオブジェクトを認識することができる方法及び装置を提案することである。この解決法は、特定の色分布特性及び特定の輪郭特性を有するオブジェクトを画像において高速に且つ正確に認識することができる。
上記の目的を達成するために、本発明の態様に従って、特定の色分布特性及び特定の輪郭特性を有するオブジェクトを認識するオブジェクト認識方法であって、入力画像における輪郭をその前記色分布特性に従って抽出し、前記輪郭特性及び前記色分布特性に従って前記抽出された輪郭を用いて走査窓を決定し、前記決定された走査窓に対応する前記画像の部分を分類し、前記画像の前記部分が前記オブジェクトを含むかどうかを決定するオブジェクト認識方法が提供される。
本発明の特定の実施形態に従って、前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、前記輪郭を抽出することは、ピクセルXの色応答値vを該ピクセルXの色値(r,g,b)の線形結合によって計算し、候補となるオブジェクト輪郭を前記色応答値vに基づき抽出することを含む。
本発明の特定の実施形態に従って、前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、前記輪郭を抽出することは、色値(r,g,b)を有するピクセルXについてRGB空間における軸ベクトルDRへのベクトルOXの投影を計算し、候補となるオブジェクト輪郭を投影値vに基づき抽出することを含み、前記ベクトルOXは、前記RGB空間の原点(0,0,0)で始まり、前記ピクセルXに対応する点(r,g,b)で終わり、前記軸ベクトルDRは、オブジェクトピクセル及び非オブジェクトピクセルが前記投影値vに基づき最大限に区別され得る投影軸を表す。
本発明の特定の実施形態に従って、前記走査窓を決定することは、様々なサイズ及び位置を有する候補走査窓の夫々に対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすかどうかを決定し、対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすところの候補走査窓を前記決定された走査窓としてリザーブすることを含む。
本発明の特定の実施形態に従って、前記特定の輪郭特性は、前記抽出された輪郭と前記走査窓との特定の位置関係が存在することを含み、前記特定の色分布特性は、前記走査窓における特定の領域が特定の色を有するか否かを含む。
本発明の特定の実施形態に従って、前記オブジェクトは、開いた手を含み、前記特定の位置関係は、前記走査窓の中心点との特定の位置関係を有する点が前記抽出された輪郭内にあることを含み、前記色分布特性は、前記中心点に対応するピクセルが肌色を有することを含む。
本発明の他の態様に従って、特定の色分布特性及び特定の輪郭特性を有するオブジェクトを認識するオブジェクト認識装置であって、入力画像における輪郭をその前記色分布特性に従って抽出するよう構成される輪郭抽出手段と、前記輪郭特性及び前記色分布特性に従って前記抽出された輪郭を用いて走査窓を決定するよう構成される走査窓決定手段と、前記決定された走査窓に対応する前記画像の部分を分類し、前記画像の前記部分が前記オブジェクトを含むかどうかを決定するよう構成されるオブジェクト決定手段とを有するオブジェクト認識装置が提供される。
本発明の特定の実施形態に従って、前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、前記輪郭抽出手段は、ピクセルXの色応答値vを該ピクセルXの色値(r,g,b)の線形結合によって計算し、候補となるオブジェクト輪郭を前記色応答値vに基づき抽出するよう構成される。
本発明の特定の実施形態に従って、前記走査窓決定手段は、様々なサイズ及び位置を有する候補走査窓の夫々に対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすかどうかを決定し、対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすところの候補走査窓を前記決定された走査窓としてリザーブするよう構成される。
本発明の更なる他の態様に従って、本発明に従うオブジェクト認識装置を含むモバイル端末が更に提供される。
更に、本発明の更なる態様に従って、情報処理装置での実行時に該情報処理装置に本発明に従う上記の方法を実行させる機械可読プログラムコードを含む記憶媒体が更に提供される。
加えて、本発明のまた更なる態様に従って、情報処理装置での実行時に該情報処理装置に本発明に従う上記の方法を実行させる機械実行可能命令を含むプログラムプロダクトが更に提供される。
本発明の上記及び他の目的、特徴及び利点は、図面を参照して本発明の実施形態の下記の説明からより容易に理解されるようになるであろう。図面における構成要素は、単に、本発明の原理を説明するよう意図される。図面において、同じ又は類似する技術的特徴又は構成要素は、同じ又は類似する参照符号を用いて表される。
本発明の実施形態に従うオブジェクト認識方法の夫々のステップと、それらの処理結果の例とを表す。
カラー画像の肌色応答値の射影計算の例を表す。
走査窓を決定するための基準において考慮されるシナリオの説明図を表す。
走査窓を決定するための基準において考慮されるシナリオの説明図を表す。
手分類器を訓練するフローチャートを表す。
本発明の実施形態に従うオブジェクト認識方法の詳細なフローチャートを表す。
図6におけるステップS601の詳細なフローチャートを表す。
本発明の実施形態に従うオブジェクト認識装置の構造ブロック図を表す。
本発明の実施形態に従う方法及び装置が具現され得るコンピュータの略ブロック図を表す。
本発明の実例となる実施形態は、添付の図面とともに以下で記載される。明りょうさ及び簡潔さのために、実際の実施の全ての特徴が明細書において記載されているわけではない。しかし、当然ながら、如何なるそのような実際の実施の開発の間にも、多数の実施に特有の決定が、開発者の具体的な目標を達成するよう、例えば、実施ごとに様々であるそれらのシステム及びビジネスに関連した制約条件に従うよう、なされるべきである。加えて、やはり当然ながら、そのような開発業務は複雑であり且つ時間がかかるが、本開示から恩恵を受ける当業者にとっては単に日常的業務であり得る。
更に、本発明の解決法に関わりが深いそれらの装置構造及び/又は処理ステップしか図面において表されず、一方、本発明にほとんど無関係の他の詳細は、それらの不必要な詳細により本発明を不明瞭にしないように省略される点が、留意されるべきである。その上、1つの図面又は本発明の1つの実施において記載される要素及び特徴は、1以上の他の図面又は実施において説明される要素及び特徴と組み合わされ得る点が、更に留意されるべきである。
本発明の実施形態に従うオブジェクト認識方法のフローは、図6を参照して以下で記載される。
図6は、本発明の実施形態に従うオブジェクト認識方法の詳細なフローチャートを表す。図6に表されるように、本発明の実施形態に従うオブジェクト認識方法は、特定の色分布特性及び特定の輪郭特性を有するオブジェクトを認識するために使用され、この方法は、入力画像における輪郭をその色分布特性に従って抽出するステップ(ステップS601)と、輪郭特性及び色分布特性に従って前記抽出された輪郭を用いて走査窓を決定するステップ(ステップS602)と、前記決定された走査窓に対応する画像の部分を分類し、画像のその部分がオブジェクトを含むかどうかを決定するステップ(ステップS603)とを含む。任意に、方法は、分類の結果に従ってオブジェクトの位置を出力するステップ(ステップS604)を更に含む。
本発明において認識されるべきオブジェクトは、特定の色分布特性及び特定の輪郭特性を有するべきであり、すなわち、オブジェクトが存在するかどうかは、そのオブジェクトの色分布特性及び輪郭特性に従って画像又はビデオにおいて一意に決定され得る。例えば、中国人の開いた手の色は黄色人種の肌色であり、この肌色は比較的安定している色分布範囲を有する。そして、開いた手自体は特定の輪郭特性を有し、例えば、5本の指及びそれらの指の間の継ぎ目は、手の領域の上に位置する凸凹部位を有する平坦でない輪郭を見せる。他の例では、白色人種の人によってなされるV形ジェスチャの色は白色人種の肌色であり、この肌色は比較的安定している色分布範囲を有する。そして、V形ジェスチャは特定の輪郭特性を有する。当業者には当然ながら、本発明は、オブジェクトが特定の色分布特性及び特定の輪郭特性を有し、それらの両方が認識のために使用され得るという条件で、他のオブジェクトにも適用可能であり得る。例えば、握り拳の色は肌色であり、その輪郭特性は、手の領域の上に位置し且つ低い起伏を有する凸凹部位にある。他の例では、人の顔の色は肌色であり、その輪郭特性は、顔の領域の上端に対して中間に位置する肌色を除いた2つの穴(両目に対応)、顔の領域の上端に対して中間で両側の端に位置する夫々の突起部(両耳に対応)、等にある。更なる例では、工場内の作業場という状況で運搬ベルトにある製品は、通常、不変の色、形状、等を有する。当業者は、オブジェクトを認識するのに十分な色分布特性及び輪郭特性のための対応する認識規則を策定することによって、簡単にオブジェクトを認識することができる。下記の詳細な説明から明らかなように、本発明は、認識されるべき具体的なオブジェクトに制限されず、オブジェクトの輪郭に沿った走査を通じて特定の色分布特性及び輪郭特性を有するオブジェクトを認識する速度を改善することができる。
図6におけるステップS601は、図1、図2及び図7を参照して以下で詳細に記載される。
図1は、本発明の実施形態に従うオブジェクト認識方法の夫々のステップと、それらの処理結果の例とを表す。
図2は、カラー画像の肌色応答値の射影計算の例を表す。
図7は、図6におけるステップS601の詳細なフローチャートを表す。
最初に、入力画像が肌色応答画像に変換される(ステップS701)。
例えば、入力画像は、図1における(a)である。
肌色応答画像において、非肌色領域におけるピクセルの肌色応答値は0であり、肌色領域におけるピクセルの肌色応答値は、そのピクセルが肌色カテゴリに属するとの確かさを反映する。肌色応答値が大きければ大きいほど、そのピクセルが肌色カテゴリに属する可能性はますます高い。
一例としてカラー画像である入力画像によれば、入力画像の各ピクセルXは(r,g,b)と表され得る。本発明者は、大規模な実験及び調査を通じて、オブジェクトピクセル及び非オブジェクトピクセルが投影値に基づき最大限に区別され得るところの投影軸が、比較的安定している色分布範囲を有するオブジェクトについて見つけられ得ることを発見した。例として、肌色ピクセル及び非肌色ピクセルが投影値に基づき最大限に区別され得るところの投影軸は、夫々の特定の肌色について見つけられ得る。具体的に、黄色い肌の肌色ピクセルは、図2に表されるRGB空間における軸
(外1)
(以降、「ベクトルDR」と称する。)上の投影値に基づき、非肌色ピクセルから最大限に区別され得る。よって、軸ベクトルDR上へのベクトル
(外2)
(以降、「ベクトルOX」と称する。)の投影は、ピクセルXが黄色い肌の肌色カテゴリに属するとの確かさを反映することができ、このとき、ピクセルXのピクセル値は、(r,g,b)であり、軸ベクトルDRは、点D(0,−k/k,−k/k)及び点R(r,0,0)並びにDからRまでの点を通る。ベクトルOXは、RGB空間の原点(0,0,0)で始まり、ピクセルXに対応する点(r,g,b)で終わり、このとき、係数k、k及びkは、0.8≦k≦1.2、−0.4≦k≦−0.6、及び−0.4≦k≦−0.6を満足する。望ましくは、k=1、k=−0.5及びk=−0.5である。
軸ベクトルDR上へのベクトルOXの投影を計算するための相当の計算量を鑑み、下記の式1における簡単化されたアルゴリズムが、改善された計算速度のために使用され得る。
v=k×r+k×g+k×b (1)
上記の式1において、vは、ピクセル値(r,g,b)を有するピクセルXの肌色応答値を表し、係数k、k及びkは、0.8≦k≦1.2、−0.4≦k≦−0.6、及び−0.4≦k≦−0.6を満足する。望ましくは、k=1、k=−0.5及びk=−0.5である。すなわち、ピクセルXの色応答値vは、ピクセルXの色値(r,g,b)の線形結合によって計算され得る。
本発明者は、調査を通じて、式1で計算される肌色応答値(又は軸ベクトルDR上へのベクトルOXの投影)が、赤色セグメントに偏っている値及び負の値(赤色セグメントからあまりに懸け隔たっている)を除去するよう後処理されるべきであり、それにより、肌色応答値は、ピクセルXが黄色い肌の肌色カテゴリに属するとの確かさをより正確に反映することができることを発見した。
後処理は、下記の式2において表され得る。
上記の式2において、vは、式1で計算される肌色応答値、又は軸ベクトルDR上へのベクトルOXの投影を表し、sは、後処理後の肌色応答値を表す。
上記の式2において、閾値Tは、肌色の多数の収集されたトレーニングサンプルの統計分析から導出され得る。
他の肌色について、肌色の多数の収集された肌色トレーニングサンプルの統計分析は、その肌色について、肌色ピクセルが非肌色ピクセルから最大限に区別され得る軸(すなわち、統計分析から導出される係数k、k及びk)と、閾値T’とを導出するために行われ得る点が、留意されるべきである。その肌色についてのピクセルXの肌色応答値は、軸上へのベクトルOXの投影を計算し且つ同様に(閾値T’に対して)後処理することを通じて、計算され得る。
同様に、他の肌色の投影値が計算される簡単化された計算式1’は、式1においてr、g及びbの係数(k、k及びk)を調整することによって、求められ得る。
肌色応答を計算する上記の方法は、好ましい計算方法及びその簡単化されたアルゴリズムであり、それらの両方が本発明者の調査のおかげで提案される点が、留意されるべきである。当該技術において肌色応答値を計算する如何なる他の方法も、計算される肌色応答値が、ピクセルXが特定の肌色カテゴリに属するとの確かさを反映することができる限りは、ここで適用可能であり得る。
グレースケール画像に関し、例えば、グレースケール値の特定の範囲に属するピクセルは、肌色ピクセルと判断され得る。カラー画像に関し、特定の区間に夫々属する色空間の3つのピクセル値r、g及びbを有するピクセル(r,g,b)は、肌色ピクセルと判断され得る。
入力画像に対応する、肌色応答値から成る肌色応答画像、例えば、図1の(b)は、ステップS701を通じて取得される。
次に、ステップS702で、肌色応答画像は2値化される。2値化は、画像処理の分野における何らかの2値化アルゴリズム、例えば、大津の大域的な2値化アルゴリズムを用いることによって、実行され得る。
肌色マスク、例えば、図1の(c)は、ステップS702における処理を通じて取得され得る。例えば、肌色マスクにおける1の値を有するピクセルは、肌色ピクセルである画像ピクセルに対応し、肌色マスクにおける0の値を有するピクセルは、肌色ピクセルでない画像ピクセルに対応する。
次に、ステップS703で、ステップS702で取得された2値化画像内のより小さな面積を有するノイジーな肌色ブロックが除去され、肌色ブロックにおける穴が埋められる。
当該技術で知られているノイズ除去及び穴埋めの方法は、ステップS703で適用され得る。
被加工肌色マスク、例えば、図1の(d)は、ステップS703における処理を通じて取得され得る。
ここまで、入力画像に対応する肌色応答画像及び被加工肌色マスクは、ステップS701〜S703における処理を通じて取得される。
次に、ステップS704で、肌色領域の輪郭が、ステップS703で取得された被加工肌色マスクに基づき抽出され得る。大きな結合範囲が被加工肌色マスクにおいて形成されているので、結合範囲の輪郭は、当該技術における何らかの抽出方法を用いて肌色領域の輪郭として抽出され得る。
肌色領域の輪郭は、結合範囲の縁部の周囲の複数のピクセルを含み、すなわち、ピクセルの閉じられた線の代わりに、閉じられたピクセルストリップを形成する点が、留意されるべきである。これは、特定の位置にあるピクセルが輪郭内にあるかどうかに関する後のステップにおける判断で特定の可変閾範囲を伴う輪郭を有することを目的とし、すなわち、結合範囲の縁部上又はその上にある全てのピクセルが輪郭の部分と見なされる。
例えば、図1の(e)に表されるような、肌色領域の輪郭は、ステップS704を通じて取得され得る。
ここまで、入力画像における輪郭は、ステップS701〜S704を通じて抽出される。
ステップS601の具体的な実施は、上記のステップS701〜S704の導入において記載されてきたが、先に与えられているステップは、単に実例となる好ましいステップである点が、留意されるべきである。当業者は、代替的に、先行技術における他の方法を用いて入力画像において輪郭を抽出することができる。例えば、入力画像の縁部が検出可能であり、検出された縁部は輪郭へと結合され得る。
図6におけるステップS602は、図1、図3及び図4を参照して以下で詳細に記載される。
図3は、走査窓を決定するための基準において考慮されるシナリオの説明図を表す。
図4は、走査窓を決定するための基準において考慮されるシナリオの説明図を表す。
上述されたように、様々なサイズ及び位置を有する走査窓を使い尽くし、次いで、それらの走査窓を先行技術における走査のために使用することは、典型的である。計算の量は、画像を走査するための走査窓の選択的使用の欠如により、途方もないことがある。
本発明者は、有効に計算量を減らすよう候補走査窓が選択され得ることを発見した。よって、走査窓は、ステップS602において輪郭特性及び色分布特性に従って決定される。
下記の説明は、なお依然として中国人の開いた手を例として与えられる。しかし、当業者には当然ながら、走査窓は、認識されるべきオブジェクトが色分布特性及び色輪郭特性を有し、それらの両方がオブジェクトを認識するのに十分である限り、特定の色分布特性及び特定の輪郭特性を用いて決定され得る。
開いた手について、走査窓は、次の規則1又は規則2の下で決定され得る。
規則1の下で、w×hピクセルのサイズを有する各候補窓について、ステップS602で、中心点Cからの距離d=(3/8)hで候補走査窓の中心点Cの上に位置するピクセルPと、中心点Cからの距離d=(1/8)hで候補走査窓の中心点Cの上に位置するピクセルPとが、抽出された輪郭内にあるかどうかが決定される。Pは、開いた手の中指の先端点に対応し、Pは、開いた手の人差し指及び中指の継ぎ目に対応する。例えば、w及びhの最小値は24であり、それらの最大値は入力画像の幅及び高さにおけるピクセルの個数である。
ピクセルP及びPのうちの少なくとも1つが輪郭内にある場合は、候補走査窓は、決定された走査窓としてリザーブされ、そうでない場合は、候補走査窓は無視される。
図3に表されるように、dは、指がまとめられている場合を検出する目的のために設定され、dは、指が分けられている場合を検出する目的のために設定される。すなわち、開いた手は図3に表される特定の輪郭特性を有するので、その特性を特性化するための基準が特定され得、検出は基準の通りに実行され得る。
指がまとめられている場合及び指が分けられている場合を認識するためにピクセルP及びPの両方が定義されるが、ピクセルP及びPの両方を検出する必要はない点が、留意されるべきである。開いた手はまた、ピクセルP1及びP2のうちのいずれか一方を検出すること、例えば、開いた手の検出比低下にかかわらず、指がまとめられている手のみを検出することによっても検出され得る。
規則1の下で、輪郭が含まれない対応するピクセル領域を有する走査窓、開いた手とは異なる輪郭特性を有する輪郭が含まれる対応するピクセル領域を有する走査窓、等は、除外される。
図4に表されるシナリオを鑑み、規則1に対する改善として規則2は、不必要な走査窓の数を更に減らすように提案されている。
w×hピクセルのサイズを有する各候補窓について、ステップS602で、中心点Cからの距離d=(3/8)hで候補走査窓の中心点Cの上に位置するピクセルPと、中心点Cからの距離d=(1/8)hで候補走査窓の中心点Cの上に位置するピクセルPとが、抽出された輪郭内にあるかどうかが決定され、更に、中心点Cが肌色ピクセルであるかどうかが決定される。
ピクセルP及びPのうちの少なくとも1つが輪郭内にあり且つ中心点Cが肌色ピクセルである場合は、候補走査窓は、決定された走査窓としてリザーブされ、そうでない場合は、候補走査窓は無視される。
処理された肌色マスクにより、中心点Cが肌色ピクセルであるかどうかは決定される。例えば、処理された肌色マスクにおいて1の値を有するピクセルは、肌色ピクセルである画像ピクセルに対応する。
手以外の他の領域の部分は、更に高速にスキップされ得、輪郭特性が部分的には検出されたオブジェクトに従うが色分布特性が検出されたオブジェクトに従わないピクセル領域に対応する走査窓は、その窓の中心点Cが肌色の結合範囲内になければならないことを求めることで除外され得る。
すなわち、様々なサイズ及び位置を有する候補走査窓について、それに対応するピクセル領域が認識されるべきオブジェクトの特定の色分布特性及び特定の輪郭特性を満足するかどうかが決定され、対応するピクセル領域が特定の色分布特性及び特定の輪郭特性を満足するところの候補走査窓が、決定された走査窓としてリザーブされる。
輪郭特性は、抽出された輪郭と走査窓との特定の位置関係が存在することを含む。色分布特性は、走査窓における特定の領域が特定の色を有するか否かを含む。
候補走査窓は輪郭特性及び色分布特性によって選択されるので、決定された走査窓は全て、認識されるべき対象(例えば、中国人の開いた手)の輪郭に沿って分布する。よって、オブジェクトは、輪郭によって検索され、それにより、認識結果の品質を犠牲にすることなしに計算の量を大いに減らすことができる。
上述されたように、対応する規則は、オブジェクトがそのオブジェクトを認識するのに十分な色分布特性及び輪郭特性を有する限り、オブジェクトを認識するよう設計され得る。例えば、握り拳の色は肌色であり、その輪郭特性は開いた手の分けられた指のそれと類似しており、対応する規則は、dの適切な値が統計的に選択される限り、ピクセルP(w×hのサイズを有する候補走査窓について、中心点Cからの距離dで候補走査窓の中心点Cの上に位置するピクセル点)のために設計され得る。
人の顔、工場の作業場における運搬ベルト上の製品若しくは半製品、交通カメラ、交通信号ランプ、車両のライセンスプレート及び他のオブジェクトに関し、対応する規則は、オブジェクトの比較的安定している色分布範囲及び輪郭特性により設計され、それによりオブジェクトを認識することができる。
図6におけるステップS602は、図5を参照して以下で詳細に記載される。
図5は、手分類器を訓練するフローチャートを表す。
ステップS603で、決定された走査窓に対応する画像の部分が分類され、画像のその部分がオブジェクトを含むかどうかが決定される。ステップS603は、訓練された分類器を用いることによって実行され得る。
分類器への入力は、走査窓に対応するピクセル領域であり、それは、訓練されている場合に分類器によって受信され且つ使用されている場合に訓練された分類器によって受信される入力が同じタイプの画像である限り、原入力画像又は図1の(b)に表されるような肌色応答画像であることができる。肌色応答画像は、認識されるべきオブジェクトの色分布特性を反映するので、分類器の分類結果は、それへの入力である肌色応答画像により、より正確であり得る。
分類器の出力は、オブジェクト(例えば、中国人の開いた手)が走査窓に対応するピクセル領域に含まれるとの確かさを含む。
分類器は、次のステップにおいて予めオフラインで訓練され得る。
最初に、多数の訓練画像が収集され、分類され、ポジティブ・サンプル(positive sample)及びネガティブ・サンプル(negative sample)としてマークされる。オブジェクトが中国人の開いた手である場合に、ポジティブ・サンプルは、中国人の開いた手を含む様々なサンプルであり、ネガティブ・サンプルは、中国人の開いた手を含まないあらゆる背景画像である。
次に、望ましくは、色訓練画像は、肌色応答画像へ変換される。
その場合に、分類器は、何らかの既知の訓練アルゴリズムにおいて構成される。分類器を訓練するためのアルゴリズムは、例えば、AdaBoost、SVM等を含む。AdaBoostは、Viola,P.(2002).Robust real−time detection.IJCVから利用可能であり得る。SVMは、P.H.Chen,C.J.Lin,及びB.Scholkopf,A tutorial on ν−suppurt vector machines,Appl.Stoch.Models.Bus.Ind.2005,21,111−136から利用可能であり得る。
訓練された分類器は、ステップS603において、決定された走査窓に対応する画像の部分を分類し、画像のその部分がオブジェクトを含むかどうかを決定するために使用され得る。
走査窓に対応する画像の部分がステップS603で分類された後、オブジェクトの位置がステップS604で分類の結果に従って出力される。
分類器の最も高い出力応答を有する走査窓は、オブジェクトが位置する領域と考えられ得、あるいは、オブジェクトを含むとして分類された走査窓に対応するピクセル領域は、オブジェクトが位置する領域として結合され得る。
図8は、本発明の実施形態に従うオブジェクト認識装置の構造ブロック図を表す。図8に表されるように、この実施形態に従うオブジェクト認識装置800は、特定の色分布特性及び特定の輪郭特性を有するオブジェクトを認識するために使用され、オブジェクト認識装置800は、入力画像における輪郭をその色分布特性に従って抽出するよう構成される輪郭抽出手段801と、輪郭特性及び色分布特性に従って前記抽出された輪郭を用いて走査窓を決定するよう構成される走査窓決定手段802と、前記決定された走査窓に対応する画像の部分を分類し、画像のその部分がオブジェクトを含むかどうかを決定するよう構成されるオブジェクト決定手段803とを含む。
任意に、オブジェクト認識装置800は、分類の結果に従ってオブジェクトの位置を出力するよう構成されるオブジェクト位置出力手段804を更に含む。
輪郭抽出手段801は、ピクセルXの色応答値vを該ピクセルXの色値(r,g,b)の線形結合によって計算し、候補となるオブジェクト輪郭を色応答値vに基づき抽出するよう構成される。
あるいは、輪郭抽出手段801は、色値(r,g,b)を有するピクセルXについてRGB空間における軸ベクトルDRへのベクトルOXの投影を計算し、候補となるオブジェクト輪郭を投影値vに基づき抽出するよう構成され、このとき、ベクトルOXは、RGB空間の原点(0,0,0)で始まり、ピクセルXに対応する点(r,g,b)で終わり、軸ベクトルDRは、オブジェクトピクセル及び非オブジェクトピクセルが投影値vに基づき最大限に区別され得る投影軸を表す。
輪郭抽出手段801は更に、次の式:
に従って投影値又は色応答値vを後処理し、該後処理された投影値又は色応答値sに基づき前記候補となるオブジェクト輪郭を抽出するよう構成される。なお、Tは所定の閾値を表す。
走査窓決定手段802は、様々なサイズ及び位置を有する候補走査窓の夫々に対応するピクセル領域が特定の色分布特性及び特定の輪郭特性を満たすかどうかを決定し、且つ、対応するピクセル領域が特定の色分布特性及び特定の輪郭特性を満たすところの候補走査窓を前記決定された走査窓としてリザーブするよう構成される。
本発明に従うオブジェクト認識装置800に含まれる輪郭抽出手段801、走査窓決定手段802、オブジェクト決定手段803及びオブジェクト位置出力手段804における処理は、上記のオブジェクト認識方法のステップS601〜S604における処理と夫々同様であるから、それらの手段の詳細な説明は、便宜上ここでは省略される。
本発明に従うモバイル端末は、上記のオブジェクト認識装置を含む。
加えて、上記の装置における夫々の構成モジュール及びユニットは、ソフトウェア、ファームウェア、ハードウェア又はそれらのあらゆる組み合わせにおいて構成され得る点が、留意されるべきである。利用可能な具体的な構成手段又はアプローチは、当業者によく知られており、それらの繰り返される説明は、ここでは省略される。ソフトウェア又はファームウェアにおいて具現される場合に、ソフトウェア又はファームウェアを構成するプログラムは、記憶媒体又はネットワークから、様々なプログラム片がインストールされる場合に様々な機能を実行することができる専用のハードウェア構造を備えたコンピュータ(例えば、図9に表される汎用コンピュータ900)へインストールされ得る。
図9は、本発明の実施形態に従う方法及び装置が具現され得るコンピュータの略ブロック図を表す。
図9において、中央演算処理装置(CPU;Central Processing Unit)901は、読み出し専用メモリ(ROM;Read Only Memory)902に記憶されているプログラム、又は記憶部908から、CPU901が様々な処理を実行する場合等に必要とされるデータが必要に応じて更に記憶され得るランダムアクセスメモリ(RAM;Random Access Memory)903にロードされるプログラムに従って、様々な処理を実行する。CPU901、ROM902及びRAM903は、入出力インターフェース905が更に接続されているバス904を介して互いに接続されている。
次の構成要素が入出力インターフェース905へ接続されている。すなわち、入力部906(キーボード、マウス等を含む。)出力部907(ディスプレイ、例えば、陰極線管(CRT;Cathode Ray Tube)、液晶ディスプレイ(LCD;Liquid Crystal Display)等、スピーカ等を含む。)、記憶部908(ハードディスク等を含む。)、及び通信部909(ネットワークインターフェースカード、例えば、LANカード、モデム等を含む。)である。通信部909は、ネットワーク、例えば、インターネット上で通信処理を実行する。ドライブ910がまた、必要に応じて入出力インターフェース905へ接続され得る。取り外し可能な(removable)媒体911、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等は、それらからフェッチされるコンピュータプログラムが必要に応じて記憶部908にインストールされ得るように、必要に応じてドライブ910にインストールされ得る。
上記の一連の処理がソフトウェアにおいて具現される場合に、そのソフトウェアを構成するプログラムは、ネットワーク、例えば、インターネット等、又は記憶媒体、例えば、取り外し可能な媒体911等からインストールされ得る。
当業者には当然ながら、そのような記憶媒体は、プログラムが記憶されており且つユーザにプログラムを提供するよう装置とは別に配布される、図9に表される取り外し可能な媒体911に制限されない。取り外し可能な媒体911の例は、磁気ディスク(フロッピー(登録商標)ディスクを含む。)、光ディスク(コンパクトディスク読み出し専用メモリ(CD−ROM)及びデジタルバーサタイルディスク(DVD)を含む。)、及び半導体メモリを含む。代替的に、記憶媒体は、プログラムが記憶されており且つその記憶媒体を含む装置とともにユーザに配布されるROM902、記憶部908に含まれるハードディスク等であることができる。
加えて、本発明は、機械により読み出し可能な命令コードが記憶されるプロダクトプログラムを更に提案する。命令コードは、機械によって読み出されて実行されると、本発明の実施形態に従う方法を実行することができる。
これに対して、機械により読み出し可能な命令コードが記憶されるプロダクトプログラムを担持する記憶媒体も本発明の開示に包含される。記憶媒体は、フロッピー(登録商標)ディスク、光ディスク、光磁気ディスク、メモリカード、メモリスティック等を含むが、それらに限られない。
本発明の特定の実施形態の上記の説明において、一実施に関して説明及び/又は図解される特徴は、他の実施における特徴と組み合わせて又はそれに代えて、1以上の他の実施において全く同じように又は同様に使用され得る。
本文脈において使用される語「含む/有する」は、特徴、要素、ステップ又はコンポーネントの存在を示すが、1以上の他の特徴、要素、ステップ又はコンポーネントの存在又は追加を除外しない点が、強調されるべきである。
加えて、本発明に従う方法は、必ずしも、明細書において記載される順次的な順序において実行されず、代替的に、他の順次的な順序において同時に又は別々に実行され得る。従って、本発明の技術的範囲は、方法が明細書において記載されるように実行される順序に制限されない。
本発明は、本発明の特定の実施形態の説明において先に開示されてきたが、当然ながら、上記の全ての実施形態及び例は実例であり制限でない。当業者は、添付の特許請求の範囲の精神及び適用範囲から逸脱することなしに本発明に対する様々な変更、改善又は均等を構成することができる。それらの変更、改善又は均等はまた、本発明の請求される範囲内にあると解釈されるべきである。
(付記1)
特定の色分布特性及び特定の輪郭特性を有するオブジェクトを認識するオブジェクト認識方法であって、
入力画像における輪郭をその前記色分布特性に従って抽出し、
前記輪郭特性及び前記色分布特性に従って前記抽出された輪郭を用いて走査窓を決定し、
前記決定された走査窓に対応する前記画像の部分を分類し、前記画像の前記部分が前記オブジェクトを含むかどうかを決定する
オブジェクト認識方法。
(付記2)
前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、
前記輪郭を抽出することは、ピクセルXの色応答値vを該ピクセルXの色値(r,g,b)の線形結合によって計算し、候補となるオブジェクト輪郭を前記色応答値vに基づき抽出することを含む、
付記1に記載のオブジェクト認識方法。
(付記3)
前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、
前記輪郭を抽出することは、色値(r,g,b)を有するピクセルXについてRGB空間における軸ベクトルDRへのベクトルOXの投影を計算し、候補となるオブジェクト輪郭を投影値vに基づき抽出することを含み、
前記ベクトルOXは、前記RGB空間の原点(0,0,0)で始まり、前記ピクセルXに対応する点(r,g,b)で終わり、
前記軸ベクトルDRは、オブジェクトピクセル及び非オブジェクトピクセルが前記投影値vに基づき最大限に区別され得る投影軸を表す、
付記1に記載のオブジェクト認識方法。
(付記4)
Tは所定の閾値を表すとして、次の式:
に従って前記投影値又は色応答値vを後処理し、該後処理された投影値又は色応答値sに基づき前記候補となるオブジェクト輪郭を抽出する、
付記2又は3に記載のオブジェクト認識方法。
(付記5)
前記走査窓を決定することは、
様々なサイズ及び位置を有する候補走査窓の夫々に対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすかどうかを決定し、
対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすところの候補走査窓を前記決定された走査窓としてリザーブする
ことを含む、付記1に記載のオブジェクト認識方法。
(付記6)
前記特定の輪郭特性は、前記抽出された輪郭と前記走査窓との特定の位置関係が存在することを含み、
前記特定の色分布特性は、前記走査窓における特定の領域が特定の色を有するか否かを含む、
付記5に記載のオブジェクト認識方法。
(付記7)
前記オブジェクトは、開いた手を有し、
前記特定の位置関係は、前記走査窓の中心点との特定の位置関係を有する点が前記抽出された輪郭内にあることを含み、
前記色分布特性は、前記中心点に対応するピクセルが肌色を有することを含む、
付記6に記載のオブジェクト認識方法。
(付記8)
が前記開いた点の中指の先端点に対応するとして、w×hピクセルのサイズを有する夫々の候補走査窓について、前記走査窓の前記中心点との前記特定の位置関係を有する点は、前記中心点Cからの距離d=(3/8)hで前記走査窓の前記中心点Cの上に位置するピクセルPを有する、
付記7に記載のオブジェクト認識方法。
(付記9)
が前記開いた手の人差し指及び中指の結合点に対応するとして、w×hピクセルのサイズを有する夫々の候補走査窓について、前記走査窓の前記中心点との前記特定の位置関係を有する点は、前記中心点Cからの距離d=(1/8)hで前記走査窓の前記中心点Cの上に位置するピクセルPを有する、
付記7に記載のオブジェクト認識方法。
(付記10)
前記オブジェクトは、握り拳、人の顔、工場における製品若しくは半製品、交通カメラ、交通信号ランプ、又は車両のライセンスプレートを有する、
付記5又は6に記載のオブジェクト認識方法。
(付記11)
前記分類の結果に従って前記オブジェクトの位置を出力する、
付記1に記載のオブジェクト認識方法。
(付記12)
特定の色分布特性及び特定の輪郭特性を有するオブジェクトを認識するオブジェクト認識装置であって、
入力画像における輪郭をその前記色分布特性に従って抽出するよう構成される輪郭抽出手段と、
前記輪郭特性及び前記色分布特性に従って前記抽出された輪郭を用いて走査窓を決定するよう構成される走査窓決定手段と、
前記決定された走査窓に対応する前記画像の部分を分類し、前記画像の前記部分が前記オブジェクトを含むかどうかを決定するよう構成されるオブジェクト決定手段と
を有するオブジェクト認識装置。
(付記13)
前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、
前記輪郭抽出手段は、ピクセルXの色応答値vを該ピクセルXの色値(r,g,b)の線形結合によって計算し、候補となるオブジェクト輪郭を前記色応答値vに基づき抽出するよう構成される、
付記12に記載のオブジェクト認識装置。
(付記14)
前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、
前記輪郭抽出手段は、色値(r,g,b)を有するピクセルXについてRGB空間における軸ベクトルDRへのベクトルOXの投影を計算し、候補となるオブジェクト輪郭を投影値vに基づき抽出するよう構成され、
前記ベクトルOXは、前記RGB空間の原点(0,0,0)で始まり、前記ピクセルXに対応する点(r,g,b)で終わり、
前記軸ベクトルDRは、オブジェクトピクセル及び非オブジェクトピクセルが前記投影値vに基づき最大限に区別され得る投影軸を表す、
付記12に記載のオブジェクト認識装置。
(付記15)
前記走査窓決定手段は、
様々なサイズ及び位置を有する候補走査窓の夫々に対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすかどうかを決定し、
対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすところの候補走査窓を前記決定された走査窓としてリザーブする
よう構成される、付記12に記載のオブジェクト認識装置。
(付記16)
前記分類の結果に従って前記オブジェクトの位置を出力するよう構成されるオブジェクト位置出力手段
を更に有する、付記12に記載のオブジェクト認識装置。
(付記17)
付記12乃至16のうちいずれか一項に記載のオブジェクト認識装置を有するモバイル端末。

Claims (17)

  1. 特定の色分布特性及び特定の輪郭特性を有するオブジェクトを認識するオブジェクト認識方法であって、
    入力画像における輪郭をその前記色分布特性に従って抽出し、
    前記輪郭特性及び前記色分布特性に従って前記抽出された輪郭を用いて走査窓を決定し、
    前記決定された走査窓に対応する前記画像の部分を分類し、前記画像の前記部分が前記オブジェクトを含むかどうかを決定する
    オブジェクト認識方法。
  2. 前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、
    前記輪郭を抽出することは、ピクセルXの色応答値vを該ピクセルXの色値(r,g,b)の線形結合によって計算し、候補となるオブジェクト輪郭を前記色応答値vに基づき抽出することを含む、
    請求項1に記載のオブジェクト認識方法。
  3. 前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、
    前記輪郭を抽出することは、色値(r,g,b)を有するピクセルXについてRGB空間における軸ベクトルDRへのベクトルOXの投影を計算し、候補となるオブジェクト輪郭を投影値vに基づき抽出することを含み、
    前記ベクトルOXは、前記RGB空間の原点(0,0,0)で始まり、前記ピクセルXに対応する点(r,g,b)で終わり、
    前記軸ベクトルDRは、オブジェクトピクセル及び非オブジェクトピクセルが前記投影値vに基づき最大限に区別され得る投影軸を表す、
    請求項1に記載のオブジェクト認識方法。
  4. Tは所定の閾値を表すとして、次の式:
    に従って前記投影値又は色応答値vを後処理し、該後処理された投影値又は色応答値sに基づき前記候補となるオブジェクト輪郭を抽出する、
    請求項2又は3に記載のオブジェクト認識方法。
  5. 前記走査窓を決定することは、
    様々なサイズ及び位置を有する候補走査窓の夫々に対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすかどうかを決定し、
    対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすところの候補走査窓を前記決定された走査窓としてリザーブする
    ことを含む、請求項1に記載のオブジェクト認識方法。
  6. 前記特定の輪郭特性は、前記抽出された輪郭と前記走査窓との特定の位置関係が存在することを含み、
    前記特定の色分布特性は、前記走査窓における特定の領域が特定の色を有するか否かを含む、
    請求項5に記載のオブジェクト認識方法。
  7. 前記オブジェクトは、開いた手を有し、
    前記特定の位置関係は、前記走査窓の中心点との特定の位置関係を有する点が前記抽出された輪郭内にあることを含み、
    前記色分布特性は、前記中心点に対応するピクセルが肌色を有することを含む、
    請求項6に記載のオブジェクト認識方法。
  8. が前記開いた点の中指の先端点に対応するとして、w×hピクセルのサイズを有する夫々の候補走査窓について、前記走査窓の前記中心点との前記特定の位置関係を有する点は、前記中心点Cからの距離dで前記走査窓の前記中心点Cの上に位置するピクセルPを有する、
    請求項7に記載のオブジェクト認識方法。
  9. が前記開いた手の人差し指及び中指の結合点に対応するとして、w×hピクセルのサイズを有する夫々の候補走査窓について、前記走査窓の前記中心点との前記特定の位置関係を有する点は、前記中心点Cからの距離dで前記走査窓の前記中心点Cの上に位置するピクセルPを有する、
    請求項7に記載のオブジェクト認識方法。
  10. 前記オブジェクトは、握り拳、人の顔、工場における製品若しくは半製品、交通カメラ、交通信号ランプ、又は車両のライセンスプレートを有する、
    請求項5又は6に記載のオブジェクト認識方法。
  11. 前記分類の結果に従って前記オブジェクトの位置を出力する、
    請求項1に記載のオブジェクト認識方法。
  12. 特定の色分布特性及び特定の輪郭特性を有するオブジェクトを認識するオブジェクト認識装置であって、
    入力画像における輪郭をその前記色分布特性に従って抽出するよう構成される輪郭抽出手段と、
    前記輪郭特性及び前記色分布特性に従って前記抽出された輪郭を用いて走査窓を決定するよう構成される走査窓決定手段と、
    前記決定された走査窓に対応する前記画像の部分を分類し、前記画像の前記部分が前記オブジェクトを含むかどうかを決定するよう構成されるオブジェクト決定手段と
    を有するオブジェクト認識装置。
  13. 前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、
    前記輪郭抽出手段は、ピクセルXの色応答値vを該ピクセルXの色値(r,g,b)の線形結合によって計算し、候補となるオブジェクト輪郭を前記色応答値vに基づき抽出するよう構成される、
    請求項12に記載のオブジェクト認識装置。
  14. 前記オブジェクトは、比較的安定している色分布範囲を伴うオブジェクトであり、
    前記輪郭抽出手段は、色値(r,g,b)を有するピクセルXについてRGB空間における軸ベクトルDRへのベクトルOXの投影を計算し、候補となるオブジェクト輪郭を投影値vに基づき抽出するよう構成され、
    前記ベクトルOXは、前記RGB空間の原点(0,0,0)で始まり、前記ピクセルXに対応する点(r,g,b)で終わり、
    前記軸ベクトルDRは、オブジェクトピクセル及び非オブジェクトピクセルが前記投影値vに基づき最大限に区別され得る投影軸を表す、
    請求項12に記載のオブジェクト認識装置。
  15. 前記走査窓決定手段は、
    様々なサイズ及び位置を有する候補走査窓の夫々に対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすかどうかを決定し、
    対応するピクセル領域が前記特定の色分布特性及び前記特定の輪郭特性を満たすところの候補走査窓を前記決定された走査窓としてリザーブする
    よう構成される、請求項12に記載のオブジェクト認識装置。
  16. 前記分類の結果に従って前記オブジェクトの位置を出力するよう構成されるオブジェクト位置出力手段
    を更に有する、請求項12に記載のオブジェクト認識装置。
  17. 請求項12乃至16のうちいずれか一項に記載のオブジェクト認識装置を有するモバイル端末。
JP2014551513A 2012-01-13 2013-01-10 オブジェクト認識方法及びオブジェクト認識装置 Expired - Fee Related JP5958557B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201210011347.7 2012-01-13
CN2012100113477A CN103208005A (zh) 2012-01-13 2012-01-13 对象识别方法和对象识别设备
PCT/CN2013/070312 WO2013104322A1 (en) 2012-01-13 2013-01-10 Object recognizing method and object recognizing device

Publications (2)

Publication Number Publication Date
JP2015507271A true JP2015507271A (ja) 2015-03-05
JP5958557B2 JP5958557B2 (ja) 2016-08-02

Family

ID=48755222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014551513A Expired - Fee Related JP5958557B2 (ja) 2012-01-13 2013-01-10 オブジェクト認識方法及びオブジェクト認識装置

Country Status (3)

Country Link
JP (1) JP5958557B2 (ja)
CN (1) CN103208005A (ja)
WO (1) WO2013104322A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846419B (zh) * 2015-12-03 2020-06-05 阿里巴巴集团控股有限公司 一种图像中人像轮廓的确定方法和装置
WO2018058593A1 (zh) * 2016-09-30 2018-04-05 富士通株式会社 目标颜色识别方法、装置以及计算机系统
CN114581418A (zh) * 2021-12-31 2022-06-03 深圳科亚医疗科技有限公司 对医学图像进行对象分析的方法、装置和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935058A (ja) * 1995-07-17 1997-02-07 Nec Corp 画像認識方法
JP2001309225A (ja) * 2000-02-28 2001-11-02 Eastman Kodak Co 顔を検出するためのカメラ及び方法
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2005228042A (ja) * 2004-02-13 2005-08-25 Honda Motor Co Ltd 顔識別装置、顔識別方法及び顔識別プログラム
JP2008117391A (ja) * 2006-11-02 2008-05-22 Seiko Epson Corp デジタル画像における顔を検出する方法、およびデジタル画像における顔を検出する装置
JP2010117981A (ja) * 2008-11-14 2010-05-27 Mitsubishi Electric Corp 顔検出装置
JP2011044044A (ja) * 2009-08-21 2011-03-03 Sony Ericsson Mobile Communications Ab 情報端末、情報端末の情報制御方法及び情報制御プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010056672A (ja) * 2008-08-26 2010-03-11 Oki Data Corp 画像処理装置
CN101493892B (zh) * 2009-02-27 2012-03-28 中国农业大学 图像特征提取方法及装置
CN101593022B (zh) * 2009-06-30 2011-04-27 华南理工大学 一种基于指端跟踪的快速人机交互方法
CN101996307A (zh) * 2009-08-10 2011-03-30 上海理视微电子有限公司 智能视频人体识别方法
CN102043950B (zh) * 2010-12-30 2012-11-28 南京信息工程大学 基于canny算子和边缘点统计的车辆轮廓识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935058A (ja) * 1995-07-17 1997-02-07 Nec Corp 画像認識方法
JP2001309225A (ja) * 2000-02-28 2001-11-02 Eastman Kodak Co 顔を検出するためのカメラ及び方法
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2005228042A (ja) * 2004-02-13 2005-08-25 Honda Motor Co Ltd 顔識別装置、顔識別方法及び顔識別プログラム
JP2008117391A (ja) * 2006-11-02 2008-05-22 Seiko Epson Corp デジタル画像における顔を検出する方法、およびデジタル画像における顔を検出する装置
JP2010117981A (ja) * 2008-11-14 2010-05-27 Mitsubishi Electric Corp 顔検出装置
JP2011044044A (ja) * 2009-08-21 2011-03-03 Sony Ericsson Mobile Communications Ab 情報端末、情報端末の情報制御方法及び情報制御プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016007788; 木下 晶雄、外3名: '"カラー濃淡画像からの手領域の抽出と指先位置の特定方法"' 電子情報通信学会技術研究報告 Vol.96, No.492, 19970124, pp.99-104, 社団法人電子情報通信学会 *

Also Published As

Publication number Publication date
WO2013104322A1 (en) 2013-07-18
CN103208005A (zh) 2013-07-17
JP5958557B2 (ja) 2016-08-02

Similar Documents

Publication Publication Date Title
US20230117712A1 (en) Feature density object classification, systems and methods
US9367766B2 (en) Text line detection in images
US9978003B2 (en) Utilizing deep learning for automatic digital image segmentation and stylization
Radman et al. Automated segmentation of iris images acquired in an unconstrained environment using HOG-SVM and GrowCut
WO2018103608A1 (zh) 一种文字检测方法、装置及存储介质
Tan et al. Efficient and robust segmentation of noisy iris images for non-cooperative iris recognition
US8792722B2 (en) Hand gesture detection
US9576210B1 (en) Sharpness-based frame selection for OCR
CN106960181B (zh) 一种基于rgbd数据的行人属性识别方法
CN105144239A (zh) 图像处理装置、程序及图像处理方法
US9418316B1 (en) Sharpness-based frame selection for OCR
JP2003030667A (ja) イメージ内で目を自動的に位置決めする方法
Ye et al. Scene text detection via integrated discrimination of component appearance and consensus
CN109271848B (zh) 一种人脸检测方法及人脸检测装置、存储介质
US20160170492A1 (en) Technologies for robust two-dimensional gesture recognition
CN103824090A (zh) 一种自适应的人脸低层特征选择方法及人脸属性识别方法
US20210012503A1 (en) Apparatus and method for generating image
Tsai et al. Robust in-plane and out-of-plane face detection algorithm using frontal face detector and symmetry extension
Lahiani et al. Hand pose estimation system based on Viola-Jones algorithm for android devices
JP2019220014A (ja) 画像解析装置、画像解析方法及びプログラム
JP5958557B2 (ja) オブジェクト認識方法及びオブジェクト認識装置
US20170300514A1 (en) Method and terminal for implementing image sequencing
WO2016192213A1 (zh) 一种图像特征提取方法和装置、存储介质
Kedia et al. MAVI: An embedded device to assist mobility of visually impaired
Zhang et al. A multi-view camera-based anti-fraud system and its applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160606

R150 Certificate of patent or registration of utility model

Ref document number: 5958557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees