JP2018036901A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP2018036901A
JP2018036901A JP2016170090A JP2016170090A JP2018036901A JP 2018036901 A JP2018036901 A JP 2018036901A JP 2016170090 A JP2016170090 A JP 2016170090A JP 2016170090 A JP2016170090 A JP 2016170090A JP 2018036901 A JP2018036901 A JP 2018036901A
Authority
JP
Japan
Prior art keywords
image
recognition
feature points
feature
map information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016170090A
Other languages
English (en)
Inventor
山口 伸康
Nobuyasu Yamaguchi
伸康 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016170090A priority Critical patent/JP2018036901A/ja
Priority to US15/657,280 priority patent/US10354409B2/en
Priority to EP17183486.4A priority patent/EP3291179B1/en
Publication of JP2018036901A publication Critical patent/JP2018036901A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】認識用画像を用いたトラッキングを継続的に安定して行う。【解決手段】画像処理装置100は、認識用画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように認識用画像の特徴点を選択し、選択した認識用画像の特徴点の情報を記憶部に登録する。画像処理装置100は、記憶部に登録された認識用画像と、カメラに撮影された撮影画像とを基にして、カメラの位置姿勢を推定する。【選択図】図1

Description

本発明は、画像処理装置等に関する。
PC(Personal Computer)および携帯端末等に取り付けられたカメラの撮影画像を基にして、撮影画像に対するカメラの位置姿勢を求める技術がある。また、カメラの位置姿勢を用いて、PCおよび携帯端末等の画面に表示された撮影画像にコンピュータグラフィックス(CG)等の付加情報を重畳表示させ、ユーザの作業支援を実現するAR(Augmented Reality)技術がある。
図11は、AR技術の一例を示す図である。図11に示すように、例えば、利用者が携帯端末10に内蔵されたカメラを用いて、マーカ11および点検対象12を撮影すると、携帯端末10の表示画面10aに、マーカ11に対するオブジェクト情報13が表示される。
カメラの位置姿勢を求める方法として、例えば、撮影画像に含まれる特徴点を用いてカメラの位置姿勢を算出する従来技術1がある。従来技術1は、着目点の近くで濃淡変動が大きく、濃淡変動によって着目点の画像上の位置が一意に規定されることを基準にして特徴点を検出する。従来技術1は、予め生成しておいた特徴点の3次元座標の集合を用いる。以下では適宜、予め生成しておいた特徴点の3次元座標をマップ点と表記し、マップ点の集合を3次元マップと表記する。従来技術1は、現在の撮影画像中に存在する特徴点と撮影画像上の投影したマップ点を対応付けることにより、カメラの位置姿勢を算出する。
図12は、カメラの位置姿勢を求める従来技術1を説明するための図である。図12に示す例では、マップ点S〜Sが存在するものとする。あるマップ点Sは、世界座標系で、式(1)によって示される。撮影画像20上には、特徴点x〜xが存在するものとする。ある特徴点xは、カメラ座標系で、式(2)によって示される。撮影画像20上に投影したマップ点を、投影点x’〜x’とする。ある投影点x’は、カメラ座標系で、式(3)によって示される。
=(x,y,z)・・・(1)
=(u,v)・・・(2)
’=(u’,v’)・・・(3)
例えば、従来技術1では、式(4)によって算出される二乗和Eが最小となるようなカメラ位置姿勢行列RTを算出することで、カメラの位置姿勢を求める。一連の撮影画像毎に、カメラの位置姿勢を推定していくことを「トラッキング」と呼ぶ。
Figure 2018036901
続いて、3次元マップを生成する従来技術1について説明する。図13は、3次元マップを生成する従来技術1を説明するための図である。例えば、従来技術1では、ステレオ撮影の原理を用いる。従来技術1は、撮影位置を変えた2枚の撮影画像中の特徴点で同じものを対応付けしていく。従来技術1は、対応付けした複数の対応点の各撮影画像中の位置関係から対応点をマップ点とした3次元マップを生成する。
図13に示す例では、復元されるマップ点をSとし、初期のカメラの撮影位置Caおよびマップ点Sを結ぶ線分と、1枚目の撮影画像20aとが交差する点を、特徴点xaiとする。2番目のカメラの撮影位置Cbおよびマップ点Sを結ぶ線分と、2枚目の撮影画像20bとが交差する点を、特徴点xbiとする。そうすると対応点は、特徴点xaiおよび特徴点xbiとなる。従来技術1は、ステレオ撮影の原理により、特徴点xai,xbi、マップ点Sの関係から、マップ点Sの3次元座標を算出する。
3次元マップの3次元座標の原点には、1枚目の撮影画像のカメラ位置・撮影方向を用いることが一般的である。図14は、カメラの撮影方向の定義の一例を示す図である。図14に示すように、例えば、カメラ50の位置(T、T、T)、姿勢(R、R、R)を基準にして、3次元マップの3次元座標の原点を定義する。
従来技術1と似ていて、同様に撮影画像中の特徴点を使用する技術として、従来技術2がある。図15は、従来技術2を説明するための図である。従来技術2では、予め用意した認識用画像が、撮影画像中に含まれているか否かを判定する。認識用画像として、写真、イラスト、アイコン等の画像が用いられる。認識用画像には特徴点の座標位置と、特徴点の特徴量との情報が対応付けられている。特徴量は、他の特徴点との違いを区別するために使用する数値ベクトルであり、特徴点近傍の複数画素の濃度分布を示すものとなる。
従来技術2は、撮影画像中の特徴点の特徴量と、各認識用画像の特徴点の特徴量とを比較して、特徴量の一致する割合が最も多い認識用画像が、撮影画像中に含まれていると判定する。従来技術2は、撮影画像中に含まれる認識用画像を判定すると、判定した認識用画像に対応付けられた各座標位置を、3次元マップとして使用することで、従来技術1と同様にして、カメラの位置姿勢を算出する。
図15に示す例では、データベースに、認識用画像1〜5が格納されているものとする。認識用画像1には、特徴点1a〜1dが含まれ、各特徴点の特徴量を70,110,70,110とする。認識用画像2には、特徴点2a〜2dが含まれ、各特徴点の特徴量を70,70,110,110とする。認識用画像3には、特徴点3a〜3eが含まれ、各特徴点の特徴量を108,108,108,108,108とする。認識用画像4には、特徴点4a〜4dが含まれ、各特徴点の特徴量を90,90,90,90とする。認識用画像5には、特徴点5a〜5cが含まれ、各特徴点の特徴量を60,60,60とする。
従来技術2は、撮影画像6から、特徴点6a〜6dを検出し、各特徴点の特徴量を90,90,90,90とする。従来技術2は、撮影画像6の特徴点6a〜6dの特徴量と、認識用画像1〜5の各特徴点の特徴量とを比較する。従来技術2は、特徴点6a〜6dの特徴量と一致する特徴量を有する、認識用画像4を検出する。従来技術2は、撮影画像6の領域7に認識用画像4が含まれていると判定し、認識用画像4の特徴点4a〜4dに対応付けた座標位置を、マップ点として使用することで、カメラの位置姿勢を算出する。
特開2013−141049号公報 特開2014−164483号公報
しかしながら、上述した従来技術では、認識用画像を用いたトラッキングを継続的に安定して行うことができないという問題がある。
一般に、カメラの位置姿勢を算出する場合において、原理上、特徴点と精度との間に以下のような関係がある。すなわち、マップ点が撮影画像中の広範囲に分布しているほど、カメラの位置姿勢の算出精度が高くなる。また、マップ点が撮影画像中に数多く存在するほど、位置姿勢の算出精度が高くなる。
認識用画像の図案によっては、検出される特徴点の位置的な分布が偏る場合が発生する。図16および図17は、従来技術の問題点を説明する図である。図16において、認識用画像30Aは、特徴点の分布が一様であるが、認識用画像30Bは、特徴点の分布が偏っている。認識用画像30A,30Bを用いて、撮影画像に含まれている認識用画像を判定する処理については、分布が一様であるか否かにより、判定精度は低下しない。しかし、認識用画像30Bが撮影画像に含まれており、認識用画像30Bを用いて、トラッキングを試みると、マップ点が認識画像中に広範囲に分布しておらず、カメラの位置姿勢の算出精度が低下する。
上記の問題を解消するべく、特徴点の検出条件を緩和して、単純に認識用画像の特徴点の数を増やすことが考えられる。しかし、単純に特徴点の数を増やすと、トラッキング時の処理時間が増大するなどの新たな問題が発生する。
図17に示す例では、撮影画像に存在する認識用画像の種別は同じであるが、認識用画像が検出された領域が異なるものを示している。撮影画像中の中央領域35Aに認識用画像が存在していれば、マップ点の分布が一様となり、カメラの位置姿勢の算出精度が低下することはない。しかし、撮影画像中の端となる領域35Bに認識用画像が存在している場合には、撮影画像全体として、マップ点が偏ってしまい、カメラの位置姿勢の算出精度が低下する。
1つの側面では、本発明は、認識用画像を用いたトラッキングを継続的に安定して行うことができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
第1の案では、画像処理装置は、登録部と、位置姿勢推定部とを有する。登録部は、認識用画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように認識用画像の特徴点を選択し、選択した認識用画像の特徴点の情報を記憶部に登録する。位置姿勢推定部は、記憶部に登録された認識用画像と、カメラに撮影された撮影画像とを基にして、前記カメラの位置姿勢を推定する。
認識用画像を用いたトラッキングを継続的に安定して行うことができる。
図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。 図2は、認識用画像テーブルのデータ構造の一例を示す図である。 図3は、特徴点マップ情報のデータ構造の一例を示す図である。 図4は、登録部の処理を説明するための図である。 図5は、内部領域および外部領域の一例を示す図である。 図6は、特徴点マップ情報に対する更新処理を説明するための図である。 図7は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。 図8は、画像追跡処理の処理手順を示すフローチャートである。 図9は、登録部の処理手順を示すフローチャートである。 図10は、画像処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図11は、AR技術の一例を示す図である。 図12は、カメラの位置姿勢を求める従来技術1を説明するための図である。 図13は、3次元マップを生成する従来技術1を説明するための図である。 図14は、カメラの撮影方向の定義の一例を示す図である。 図15は、従来技術2を説明するための図である。 図16は、従来技術の問題点を説明する図(1)である。 図17は、従来技術の問題点を説明する図(2)である。
以下に、本願の開示する画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。図1に示すように、画像処理装置100は、カメラ50に接続される。画像処理装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
カメラ50は、撮影範囲の画像を撮影し、撮影した画像の情報を、画像処理装置100に出力する装置である。カメラ50は、有線により、画像処理装置100に直接接続されていても良いし、ネットワークを介して、画像処理装置100に接続されていても良い。以下の説明では、カメラ50が撮影した画像の情報を、撮影画像データと表記する。
通信部110は、ネットワークを介して図示しない外部装置等に接続し、外部装置とデータ通信を実行する処理部である。通信部110は、NIC(Network Interface Card)等の通信装置に対応する。
入力部120は、各種の情報を画像処理装置100に入力するための入力装置である。入力部120は、キーボードやマウス、タッチパネル等に対応する。
表示部130は、制御部150から出力される情報を表示する表示装置である。表示部130は、液晶ディスプレイやタッチパネル等に対応する。
記憶部140は、撮影画像テーブル141と、認識用画像テーブル142と、特徴点マップ情報143と、位置姿勢情報144とを有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
撮影画像テーブル141は、カメラ50により撮影された撮影画像データを格納するテーブルである。
認識用画像テーブル142は、認識用画像データに関する各種の情報を格納するテーブルである。認識用画像は、後述する認識処理に用いられる画像であり、写真、イラスト、アイコン等の画像に対応する。
図2は、認識用画像テーブルのデータ構造の一例を示す図である。図2に示すように、この認識用画像テーブル142は、識別情報と、認識用画像と、特徴点座標と、特徴量とを対応付ける。識別情報は、認識用画像を一意に識別する情報である。認識用画像は、認識用画像のデータである。特徴点座標は、認識用画像上に含まれる各特徴点の3次元座標である。特徴量は、各特徴点の特徴量を示すものである。例えば、特徴量は、特徴点近傍の複数画素の濃淡分布を表すものである。
認識用画像テーブル142において、識別情報と認識用画像との組は、予め、認識用画像テーブル142に格納されている。認識用画像データに対応する特徴点座標および特徴量の情報は、後述する登録部152によって設定される。
特徴点マップ情報143は、カメラ50の位置姿勢を推定する場合に用いるマップ点に関する情報を保持する。図3は、特徴点マップ情報のデータ構造の一例を示す図である。図3に示すように、この特徴点マップ情報143は、番号と、マップ点座標と、特徴量と、分類とを対応付ける。番号は、マップ点を一意に識別する番号である。マップ点座標は、マップ点の3次元座標であり、x座標、y座標、z座標を含む。特徴量は、マップ点の特徴量を示すものである。例えば、特徴量は、マップ点に対応する特徴点近傍の複数画素の濃淡分布を表すものである。分類は、該当するマップ点が、認識用画像内部の特徴点に対応するものか、認識用画像外部の特徴点に対応するものかを識別する情報である。マップ点が、認識用画像内部の特徴点に対応する場合には、分類を「内部点」と表記する。マップ点が、認識用画像外部の特徴点に対応する場合には、分類を「外部点」と表記する。
位置姿勢情報144は、現在のカメラ50の位置姿勢の情報である。例えば、位置姿勢情報144は、世界座標系の原点に対する並進行列Tおよび回転行列Rに対応する。位置姿勢情報は、後述する位置姿勢推定部155により更新される。
制御部150は、取得部151と、登録部152と、画像認識部153と、マップ情報生成部154と、位置姿勢推定部155と、コンテンツ生成部156とを有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
取得部151は、カメラ50から撮影画像データを取得する処理部である。取得部151は、取得した撮影画像データを、撮影画像テーブル141に登録する。
登録部152は、認識用画像データを複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように、認識用画像データの特徴点を選択する。登録部152は、認識用画像データに対応付けて、選択した特徴点の特徴点座標と、特徴量とを、認識用画像テーブル142に登録する。
ここで、認識用画像データで使用する特徴点の個数は、処理時間の増大を防ぐために、上限の個数が決められている。本実施例では一例として、上限の個数を「n個」とする。従来技術では、認識用画像データ全体から検出された特徴点について、特性の強いものから、優先的に選択していく。特徴点近傍の画素の濃淡差が大きいものほど、特性の強い特徴点となる。このため、従来技術では、認識用画像データの内容によっては、画像の特定領域に特徴点が集中してしまう場合がある。
登録部152は、認識用画像データの特定領域に特徴点が集中することを防ぐため、下記の1〜3処理を順に実行する。図4は、登録部の処理を説明するための図である。
第1処理について説明する。登録部152は、認識用画像データから「m個」の特徴点を抽出する。ただし、m個>n個とする。mおよびnの値は、予め設定されているものとする。図4に示す説明では、n個=400個とし、m個=800個とする。図4のステップS10に示すように、登録部152は、認識用画像データ40から、800個の特徴点を検出する。
第2処理について説明する。登録部152は、認識用画像データ内での特徴点の分布を確認する。登録部152は、認識用画像データを「k個」の領域に分割し、各領域に含まれる特徴点の数をカウントする。図4のステップS11に示す例では、登録部152は、認識用画像データ40を、4つの領域40a,40b,40c,40dに分割する。登録部152は、各領域40a〜40dの特徴点の数をカウントする。例えば、領域40aの特徴点の個数を100個、領域40bの特徴点の個数を320個、領域40cの特徴点の個数を60個、領域40dの特徴点の個数を320個とする。
第3処理について説明する。登録部152は、個々の領域中の特徴点の個数が「n/k」個に近づくように、各領域の特徴点を選別する。登録部152は、領域中の特徴点の個数が「n/k」個に満たない領域が発生する場合には、他の領域に含まれる特徴点の数を増やすことで、全体として[n個]の特徴点が選別されるようにする。
図4のステップS12に示す例では、n=100、k=4となるため、登録部152は、各領域40a〜40dから検出する特徴点の個数が「400/4=100」に近づくように、特徴点を選別する。例えば、登録部152は、領域40bに含まれる特徴点「320個」から、特徴点「120個」を選別する。登録部152は、領域40dに含まれる特徴点「320個」から、特徴点「120個」を選別する。例えば、登録部152は、領域に含まれる特徴点を、特徴点近傍の画素の濃淡差が大きいものから順にソートし、上位120個を、選択する。
なお、登録部152は、領域40aについて、特徴点がもともと「100個」であるため、特徴点の選別を行わない。登録部152は、領域40cについて、特徴点が「60個」しか存在しないため、特徴点の選別を行わない。選別後の領域40a〜40dの特徴点の数の合計は、「400個」となる。
登録部152は、各認識用画像データについて、上記の処理を繰り返し実行し、各領域に含まれる特徴点の数の偏りが少なくなるように、特徴点を選択する。登録部152は、認識用画像データに対応付けて、選択した特徴点の特徴点座標と、特徴量とを、認識用画像テーブル142に登録する。なお、認識用画像データは、平面であることが前提であるため、z軸の座標は0となる。
図1の説明に戻る。画像認識部153は、撮影画像テーブル141に格納された最新の撮影画像データと、認識用画像テーブル142に格納された各認識用画像データとを比較する。画像認識部153は、比較結果に基づいて、撮影画像データに含まれる認識用画像データを判定する。
例えば、画像認識部153は、図15で説明したように、撮影画像データ中の特徴点の特徴量と、各認識用画像データの特徴点の特徴量とを比較して、特徴量の一致する割合が最も多い認識用画像データが、撮影画像中に含まれていると判定する。なお、画像認識部153は、特徴量の一致する割合が最も多い認識用画像データにおいて、一致する割合が閾値未満である場合には、撮影画像データ中に認識用画像データが存在しないと判定する。
画像認識部153が、撮影画像データ中に認識用画像データが含まれていると判定した場合には、画像認識部153による認識が成功したことになる。画像認識部153は、認識に成功した場合に、撮影画像データと、撮影画像データに含まれる認識用画像データの情報と、マップ情報生成部154に出力する。例えば、認識用画像データの情報には、認識用画像データの特徴点座標と、認識用画像データが存在する撮影画像データの領域情報が含まれる。
また、画像認識部153は、認識に成功した場合に、撮影画像データと、認識用画像データの情報を、位置姿勢推定部155に出力する。位置姿勢推定部155は、画像認識部153から取得した情報を用いて、カメラ50の位置姿勢の初期値を算出する。
マップ情報生成部154は、画像認識部153による認識が成功した場合に、撮影画像データに含まれる認識用画像データの特徴点座標を利用して、特徴点マップ情報143を生成する処理部である。マップ情報生成部154が、特徴点マップ情報143の初期値を算出する処理と、特徴点マップ情報143を更新する処理について説明する。
まず、マップ情報生成部154が、特徴点マップ情報143の初期値を算出する処理について説明する。マップ情報生成部154は、トラッキングを開始してから、画像認識部153による認識が初めて成功した場合には、特徴点マップ情報143の初期値を算出する。マップ情報生成部154は、撮影画像データの領域を、内部領域と外部領域に分類する。内部領域は、撮影画像データの領域の内、認識用画像データの存在する領域である。外部領域は、撮影画像データの領域のうち、認識用画像データの存在しない領域である。
図5は、内部領域および外部領域の一例を示す図である。図5に示すように、マップ情報生成部154は、撮影画像データ45の領域を、内部領域45Aと、外部領域45Bとに分類する。内部領域45Aには、認識用画像データ46が存在している。内部領域45Aの各円印は、特徴点を示し、認識用画像データ46の各特徴点に対応する。外部領域45Bの三角印は、特徴点に対応する。
マップ情報生成部154は、内部領域45Aのマップ点座標を、認識用画像データ46の特徴点座標を用いて特定する。例えば、マップ情報生成部154は、撮影画像データ45の原点47から、内部領域45Aまでの距離に応じて、認識用画像データ46上の特徴点座標を補正することで、内部領域45Aのマップ点座標を特定する。また、マップ情報生成部154は、内部領域45Aのマップ点座標に対応する特徴点の特徴量を、該当する認識用画像データ46の特徴点の特徴量とする。
別の方法として、マップ情報生成部154は、認識用画像データ46の特徴点座標をそのまま用いるのではなく、認識用画像データ46に含まれる各特徴点とのマッチングにより、内部領域45Aから特徴点を抽出しても良い。例えば、マップ情報生成部154は、内部領域45Aの特徴点と、認識用画像データ46の特徴点とのマッチングを行い、内部領域45Aの各特徴点のうち、認識用画像データ46の特徴点と一致する特徴点を、内部領域45Aの特徴点として抽出する。マップ情報生成部154が係る処理を実行することで、撮影画像データ45の特徴点の数を極力増やすことができる。
マップ情報生成部154は、内部領域45Aのマップ点座標と、特徴量とを特徴点マップ情報143に登録する。また、マップ情報生成部154は、内部領域45Aのマップ点座標を登録する場合に、該当するレコードの分類を「内部点」に設定する。
マップ情報生成部154は、外部領域45Bのマップ点座標については、外部領域45Bから特徴点を抽出することで、マップ点座標を特定する。マップ情報生成部154は、外部領域45Bのマップ点座標と、特徴量とを特徴点マップ情報143に登録する。また、マップ情報生成部154は、外部領域45Bのマップ点座標を登録する場合に、該当するレコードの分類を「外部点」に設定する。
なお、マップ情報生成部154は、外部領域45Bから特徴点を抽出する場合に、上述した登録部152が特徴点を抽出する場合と同様にして、外部領域45Bを複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように、外部領域45Bの特徴点を選択しても良い。
なお、特徴点マップ情報143のマップ点座標は、ステレオ画像の原理により算出するため、初期値の段階では未確定となる。ただし、内部領域45Aに含まれる特徴点は、認識画像が平面であることが前提であるため、3次元座標系でも同一平面上に配置されていることが保証されている。このため、かかる特徴を用いて、マップ点座標のz軸の値を0とし、x軸、y軸の値については、各種画像処理により、暫定的な座標値を設定しても良い。
続いて、マップ情報生成部154が、特徴点マップ情報143を更新する処理について説明する。マップ情報生成部154は、上記処理により、特徴点マップ情報143の初期値を生成した後に、画像認識部153による認識が成功すると、撮影画像データ上の認識用画像データが移動したか否かを判定する。例えば、現撮影画像データ上に存在する認識用画像データのマップ点座標と、特徴点マップ情報143の分類「内部点」に対応するマップ点座標とを比較して、マップ点座標が異なる場合に、認識用画像データが移動したと判定する。マップ情報生成部154は、認識用画像データが移動していない場合には、特徴点マップ情報143を更新する処理をスキップする。
マップ情報生成部154は、認識用画像データが移動したと判定した場合には、特徴点マップ情報143を更新する。図6は、特徴点マップ情報に対する更新処理を説明するための図である。図6に示す例では、撮影画像データ45上の内部領域(認識用画像データの領域)45Aが、内部領域(認識用画像データの領域)45Cに移動している。また、外部領域45Bのマップ点座標に関する変化はない。この場合には、マップ情報生成部154は、特徴点マップ情報143のマップ点座標のうち、分類が「内部点」となるマップ点座標のみを更新する。例えば、マップ情報生成部154は、認識用画像データの移動量分だけ、マップ点座標を移動させることで、マップ点座標の更新を行う。
図6で説明した例では、認識用画像データが移動し、外部領域のマップ点座標が変化しない場合について説明した。これに対して、外部領域45Bの特徴点が変化している場合には、マップ情報生成部154は、再度、外部領域45Bから特徴点を抽出し、抽出した特徴点に対応するマップ点座標によって、特徴点マップ情報143のマップ点座標の内、分類が「外部点」となるマップ点座標を更新する。なお、マップ情報生成部154は、撮影画像データから特定した特徴点の分布に偏りがある場合に、処理失敗として、特徴点マップ情報143の情報を更新前に戻し、新たな撮影画像データを取得して、更新処理をやり直す。
マップ情報生成部143は、どのように特徴点の分布に偏りがあるか否かを判定しても良い。例えば、マップ情報生成部143は、撮影画像データを複数の領域に分割する。マップ情報生成部143は、各領域に含まれる特徴点の数の平均値と、各領域の特徴点数とを比較し、数の差分値が閾値以上となる領域が存在する場合に、特徴点の分布に偏りがあると判定する。
また、マップ情報生成部143は、前回の撮影画像データの特徴点の位置と、今回の撮影画像データの特徴点の位置との対応付けを行い、ステレオ撮影の原理に基づき、特徴点に対応するマップ点座標を算出する。
位置姿勢推定部155は、撮影画像データと、特徴点マップ情報143とを基にして、カメラ50の位置姿勢を推定する処理部である。位置姿勢推定部155は、特徴点マップ情報143のマップ点を、撮影画像データ上に投影する。位置姿勢推定部155は、撮影画像データ上の特徴点と、投影点とのペアを特定する。位置姿勢推定部155は、式(4)で説明したように、ペアとなった特徴点xと、マップ点の投影点x’との差分の和が最小となるようなカメラの並進成分T、回転成分Rを探索し、カメラの位置姿勢を算出する。ここでは説明を省略するが、位置姿勢推定部155は、キーフレームとなる撮影画像データ毎に、カメラ50の位置姿勢を対応付けておく。位置姿勢推定部155は、カメラ50の位置姿勢情報144を生成し、記憶部140に登録する。
なお、位置姿勢推定部155は、画像認識部153による認識が成功し、撮影画像データに含まれる認識用画像データの領域が特定された段階で、内部領域に含まれる特徴点を用いて、カメラの位置姿勢の初期値を算出する。例えば、認識用画像データの特徴点座標をマップ点として使用し、内部領域の特徴点とのマッチングを行うことでペアを特定する。位置姿勢推定部155は、ペアの差分の和が最小となるようなカメラの並進成分T、回転成分Rを探索することで、カメラの位置姿勢の初期値を算出する。
コンテンツ生成部156は、位置姿勢情報144を基にして、予め用意されたコンテンツを、撮影画像データ上に配置し、コンテンツを配置した撮影画像データを、表示部130に表示させる処理部である。コンテンツ生成部156は、コンテンツを配置した撮影画像データを、ネットワークを介して接続された外部装置に通知して表示させても良い。
次に、本実施例に係る画像処理装置100の処理手順について説明する。図7は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。画像処理装置100は、新たな撮影画像データを取得する度に、図7に示す処理を繰り返し実行する。
図7に示すように、画像処理装置100の取得部151は、撮影画像データを取得する(ステップS101)。画像処理装置100は、特徴点マップ情報143の初期値を生成済みである場合には(ステップS102,Yes)、ステップS107に移行する。画像処理装置100は、特徴点マップ情報143の初期値が生成済みでない場合には(ステップS102,No)、ステップS103に移行する。
画像処理装置100の画像認識部153は、撮影画像データと、認識用画像データとを基にして画像認識を実行する(ステップS103)。画像認識部153は、認識に成功していない場合には(ステップS104,No)、ステップS101に移行する。画像認識部153は、認識に成功した場合には(ステップS104,Yes)、ステップS105に移行する。
画像処理装置100の位置姿勢推定部155は、カメラ50の位置姿勢の初期値を算出する(ステップS105)。画像処理装置100のマップ情報生成部154は、特徴点マップ情報143の初期値を算出する(ステップS106)。マップ情報生成部154および位置姿勢推定部155は、画像追跡処理を実行する(ステップS107)。
位置姿勢推定部155は、カメラ50の位置姿勢の算出に成功していない場合には(ステップS108,No)、ステップS101に移行する。位置姿勢推定部155は、カメラ50の位置姿勢の算出に成功した場合には(ステップS108,Yes)、ステップS109に移行する。画像処理装置100のコンテンツ生成部156は、コンテンツを表示する(ステップS109)。
次に、図7のステップS107に示した画像追跡処理の処理手順について説明する。図8は、画像追跡処理の処理手順を示すフローチャートである。図8に示すように、画像処理装置100の位置姿勢推定部155は、特徴点マップ情報143を基にして、撮影画像データ上の特徴点と、投影点とのマッチングを実行する(ステップS201)。
位置姿勢推定部155は、マッチング結果を基にして、カメラ50の位置姿勢を算出する(ステップS202)。位置姿勢推定部155は、カメラ50の位置姿勢の算出に成功していない場合には(ステップS203,No)、画像追跡処理を終了する。位置姿勢推定部155は、カメラ50の位置姿勢の算出に成功した場合には(ステップS203,Yes)、ステップS204に移行する。
画像処理装置100のマップ情報生成部154は、マッチングに成功した特徴点を、内部点と外部点に分類する(ステップS204)。マップ情報生成部154は、認識用画像データが移動したか否かを判定する(ステップS205)。マップ情報生成部154は、認識用画像データが移動していない場合には(ステップS206,No)、画像追跡処理を終了する。
一方、マップ情報生成部154は、認識用画像データが移動した場合には(ステップS206,Yes)、特徴点マップ情報143を更新し(ステップS207)、画像追跡処理を終了する。
次に、認識用画像データの情報を登録する登録部の処理手順について説明する。図9は、登録部の処理手順を示すフローチャートである。図9に示すように、画像処理装置100の登録部152は、認識用画像データを取得する(ステップS301)。登録部152は、認識用画像データから特徴点をm個抽出する(ステップS302)。
登録部152は、認識用画像データをk個の領域に分割し、領域毎の特徴量の数をカウントする(ステップS303)。登録部152は、各領域に含まれる特徴点の数がn/kに近くなるように特徴点を選別する(ステップS304)。
登録部152は、特徴点および特徴量を抽出する(ステップS305)。登録部152は、認識用画像テーブル142に、認識用画像データに関する情報を登録する(ステップS306)。
次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、認識用画像データを複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように、特徴点を選択し、選択した特徴点を用いて、トラッキングを行う。これにより、認識用画像データ上の特徴点の一様に分布するため、認識用画像を用いたトラッキングを継続的に安定して行うことができる。
画像処理装置100は、特徴点マップ情報143に、内部領域に含まれる特徴点と、外部領域に含まれる特徴点とを分類して、特徴点の情報を登録する。例えば、内部領域のみ移動している場合には、認識用画像の特徴点を用いて、内部領域のみを更新することで、特徴点マップ情報143を最新の状態に保てるため、処理負荷を軽減できると共に、トラッキング精度を向上することができる。
画像処理装置100は、撮影画像データに含まれる認識用画像データが移動した場合に、特徴点マップ情報143を更新する。このため、環境変化に応じて、適切にトラッキングを行うことができる。
画像処理装置100は、外部領域についても、複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように、特徴点を選択し、選択した特徴点を用いて、トラッキングを行う。これにより、特徴点マップ情報143のマップ点が一様に分布するため、特徴点マップ情報143を用いたトラッキングを継続的に安定して行うことができる。
次に、上記実施例に示した画像処理装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図10は、画像処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図10に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置205とを有する。コンピュータ200は、カメラ206を有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208とを有する。そして、各装置201〜208は、バス209に接続される。
ハードディスク装置208は、取得プログラム208a、登録プログラム208b、画像認識プログラム208c、マップ情報生成プログラム208d、位置姿勢推定プログラム208e、コンテンツ生成プログラム208fを有する。CPU201は、取得プログラム208a、登録プログラム208b、画像認識プログラム208c、マップ情報生成プログラム208d、位置姿勢推定プログラム208e、コンテンツ生成プログラム208fを読み出してRAM207に展開する。
取得プログラム208aは、取得プロセス207aとして機能する。登録プログラム208bは、登録プロセス207bとして機能する。画像認識プログラム208cは、画像認識プロセス207cとして機能する。マップ情報生成プログラム208dは、マップ情報生成プロセス207dとして機能する。位置姿勢推定プログラム208eは、位置姿勢推定プロセス207eとして機能する。コンテンツ生成プログラム208fは、コンテンツ生成プロセス207fとして機能する。
取得プロセス207aの処理は、取得部151の処理に対応する。登録プロセス207bの処理は、登録部152の処理に対応する。画像認識プロセス207cの処理は、画像認識部153の処理に対応する。マップ情報生成プロセス207dの処理は、マップ情報生成部154の処理に対応する。位置姿勢推定プロセス207eの処理は、位置姿勢推定部155の処理に対応する。コンテンツ生成プロセス207fの処理は、コンテンツ生成部156の処理に対応する。
なお、各プログラム208a〜208fについては、必ずしも最初からハードディスク装置208に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム208a〜208fを読み出して実行するようにしても良い。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)認識用画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記認識用画像の特徴点を選択し、選択した前記認識用画像の特徴点の情報を記憶部に登録する登録部と、
前記記憶部に登録された認識用画像と、カメラに撮影された撮影画像とを基にして、前記カメラの位置姿勢を推定する位置姿勢推定部と、
を有することを特徴とする画像処理装置。
(付記2)前記撮影画像の特徴点と、前記認識用画像の特徴点とを基にして、前記撮影画像に含まれる前記認識用画像を認識した場合に、前記認識用画像の特徴点の情報と、前記認識用画像外で前記撮影画像内の周辺画像の特徴点の情報とをそれぞれマップ情報に登録するマップ情報生成部をさらに有し、前記位置姿勢推定部は、前記マップ情報を基にして、前記カメラの位置姿勢を推定することを特徴とする付記1に記載の画像処理装置。
(付記3)前記マップ情報生成部は、前記撮影画像に含まれる前記認識用画像の位置が変化したことを検出した場合に、前記マップ情報を更新することを特徴とする付記2に記載の画像処理装置。
(付記4)前記マップ情報生成部は、前記周辺画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記周辺画像の特徴点を選択し、選択した特徴点の情報を前記マップ情報に登録することを特徴とする付記2または3に記載の画像処理装置。
(付記5)コンピュータが実行する画像処理方法であって、
認識用画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記認識用画像の特徴点を選択し、選択した前記認識用画像の特徴点の情報を記憶装置に登録し、
前記記憶装置に登録された認識用画像と、カメラに撮影された撮影画像とを基にして、前記カメラの位置姿勢を推定する
処理を実行することを特徴とする画像処理方法。
(付記6)前記撮影画像の特徴点と、前記認識用画像の特徴点とを基にして、前記撮影画像に含まれる前記認識用画像を認識した場合に、前記認識用画像の特徴点の情報と、前記認識用画像外で前記撮影画像内の周辺画像の特徴点の情報とをそれぞれマップ情報に登録する処理を更に実行し、前記位置姿勢を推定する処理は、前記マップ情報を基にして、前記カメラの位置姿勢を推定することを特徴とする付記5に記載の画像処理方法。
(付記7)前記マップ情報を生成する処理は、前記撮影画像に含まれる前記認識用画像の位置が変化したことを検出した場合に、前記マップ情報を更新することを特徴とする付記6に記載の画像処理方法。
(付記8)前記マップ情報を生成する処理は、前記周辺画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記周辺画像の特徴点を選択し、選択した特徴点の情報を前記マップ情報に登録することを特徴とする付記6または7に記載の画像処理方法。
(付記9)コンピュータに、
認識用画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記認識用画像の特徴点を選択し、選択した前記認識用画像の特徴点の情報を記憶装置に登録し、
前記記憶装置に登録された認識用画像と、カメラに撮影された撮影画像とを基にして、前記カメラの位置姿勢を推定する
処理を実行させることを特徴とする画像処理プログラム。
(付記10)前記撮影画像の特徴点と、前記認識用画像の特徴点とを基にして、前記撮影画像に含まれる前記認識用画像を認識した場合に、前記認識用画像の特徴点の情報と、前記認識用画像外で前記撮影画像内の周辺画像の特徴点の情報とをそれぞれマップ情報に登録する処理を更に実行させ、前記位置姿勢を推定する処理は、前記マップ情報を基にして、前記カメラの位置姿勢を推定することを特徴とする付記9に記載の画像処理プログラム。
(付記11)前記マップ情報を生成する処理は、前記撮影画像に含まれる前記認識用画像の位置が変化したことを検出した場合に、前記マップ情報を更新することを特徴とする付記10に記載の画像処理プログラム。
(付記12)前記マップ情報を生成する処理は、前記周辺画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記周辺画像の特徴点を選択し、選択した特徴点の情報を前記マップ情報に登録することを特徴とする付記10または11に記載の画像処理プログラム。
50 カメラ
100 画像処理装置
110 通信部
120 入力部
130 表示部
140 記憶部
150 制御部

Claims (6)

  1. 認識用画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記認識用画像の特徴点を選択し、選択した前記認識用画像の特徴点の情報を記憶部に登録する登録部と、
    前記記憶部に登録された認識用画像と、カメラに撮影された撮影画像とを基にして、前記カメラの位置姿勢を推定する位置姿勢推定部と、
    を有することを特徴とする画像処理装置。
  2. 前記撮影画像の特徴点と、前記認識用画像の特徴点とを基にして、前記撮影画像に含まれる前記認識用画像を認識した場合に、前記認識用画像の特徴点の情報と、前記認識用画像外で前記撮影画像内の周辺画像の特徴点の情報とをそれぞれマップ情報に登録するマップ情報生成部をさらに有し、前記位置姿勢推定部は、前記マップ情報を基にして、前記カメラの位置姿勢を推定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記マップ情報生成部は、前記撮影画像に含まれる前記認識用画像の位置が変化したことを検出した場合に、前記マップ情報を更新することを特徴とする請求項2に記載の画像処理装置。
  4. 前記マップ情報生成部は、前記周辺画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記周辺画像の特徴点を選択し、選択した特徴点の情報を前記マップ情報に登録することを特徴とする請求項2または3に記載の画像処理装置。
  5. コンピュータが実行する画像処理方法であって、
    認識用画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記認識用画像の特徴点を選択し、選択した前記認識用画像の特徴点の情報を記憶装置に登録し、
    前記記憶装置に登録された認識用画像と、カメラに撮影された撮影画像とを基にして、前記カメラの位置姿勢を推定する
    処理を実行することを特徴とする画像処理方法。
  6. コンピュータに、
    認識用画像を複数の領域に分割し、各領域に含まれる特徴点の数の偏りが少なくなるように前記認識用画像の特徴点を選択し、選択した前記認識用画像の特徴点の情報を記憶装置に登録し、
    前記記憶装置に登録された認識用画像と、カメラに撮影された撮影画像とを基にして、前記カメラの位置姿勢を推定する
    処理を実行させることを特徴とする画像処理プログラム。
JP2016170090A 2016-08-31 2016-08-31 画像処理装置、画像処理方法および画像処理プログラム Pending JP2018036901A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016170090A JP2018036901A (ja) 2016-08-31 2016-08-31 画像処理装置、画像処理方法および画像処理プログラム
US15/657,280 US10354409B2 (en) 2016-08-31 2017-07-24 Image processing device, image processing method, and non-transitory computer-readable recording medium
EP17183486.4A EP3291179B1 (en) 2016-08-31 2017-07-27 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016170090A JP2018036901A (ja) 2016-08-31 2016-08-31 画像処理装置、画像処理方法および画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2018036901A true JP2018036901A (ja) 2018-03-08

Family

ID=59655851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016170090A Pending JP2018036901A (ja) 2016-08-31 2016-08-31 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US10354409B2 (ja)
EP (1) EP3291179B1 (ja)
JP (1) JP2018036901A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024009377A1 (ja) * 2022-07-05 2024-01-11 日本電気株式会社 情報処理装置、自己位置推定方法、及び非一時的なコンピュータ可読媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019210978A1 (en) * 2018-05-04 2019-11-07 Huawei Technologies Co., Ltd. Image processing apparatus and method for an advanced driver assistance system
JP2024076757A (ja) * 2022-11-25 2024-06-06 富士通株式会社 位置測位プログラム、情報処理装置及び位置測位方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199605A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 画像処理装置および方法、並びにプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2446197A (en) * 2007-02-05 2008-08-06 Nec Corp Frequency-hopping method and mobile communication system
JP2013141049A (ja) 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末
JP2014123230A (ja) 2012-12-20 2014-07-03 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
JP6017343B2 (ja) 2013-02-25 2016-10-26 Kddi株式会社 データベース生成装置、カメラ姿勢推定装置、データベース生成方法、カメラ姿勢推定方法、およびプログラム
US9406137B2 (en) 2013-06-14 2016-08-02 Qualcomm Incorporated Robust tracking using point and line features
US20160019665A1 (en) * 2014-07-15 2016-01-21 Scribo Legal Technologies, LLC Methods and systems for automated drafting of complaints for initiation of civil legal action
JP6557973B2 (ja) * 2015-01-07 2019-08-14 株式会社リコー 地図生成装置、地図生成方法およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199605A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 画像処理装置および方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024009377A1 (ja) * 2022-07-05 2024-01-11 日本電気株式会社 情報処理装置、自己位置推定方法、及び非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
EP3291179B1 (en) 2019-06-19
US10354409B2 (en) 2019-07-16
EP3291179A1 (en) 2018-03-07
US20180061078A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
CN107633526B (zh) 一种图像跟踪点获取方法及设备、存储介质
WO2021012484A1 (zh) 基于深度学习的目标跟踪方法、装置及计算机可读存储介质
US11037325B2 (en) Information processing apparatus and method of controlling the same
WO2019041519A1 (zh) 目标跟踪装置、方法及计算机可读存储介质
US10636165B2 (en) Information processing apparatus, method and non-transitory computer-readable storage medium
WO2019042426A1 (zh) 增强现实场景的处理方法、设备及计算机存储介质
US20080199044A1 (en) Image Processing Apparatus, Image Processing Method, and Program
US8135172B2 (en) Image processing apparatus and method thereof
WO2017022033A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10223804B2 (en) Estimation device and method
WO2007105768A1 (ja) 顔画像登録装置、顔画像登録方法、顔画像登録プログラム、および記録媒体
JP2016091108A (ja) 人体部位検出システムおよび人体部位検出方法
JP2007072620A (ja) 画像認識装置及びその方法
JP2013065103A (ja) 追跡装置、追跡方法およびプログラム
JP2013215549A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
JP2018036901A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5371685B2 (ja) 情報処理装置及び制御方法、プログラム
JP2010117981A (ja) 顔検出装置
JP2018025988A (ja) 画像処理プログラム、画像処理方法および画像処理装置
JP6244886B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2013037539A (ja) 画像特徴量抽出装置およびそのプログラム
JP2020095757A (ja) 情報処理装置、情報処理方法及びプログラム
JP2007140729A (ja) 物品の位置及び姿勢を検出する方法および装置
Song et al. ConcatNet: A deep architecture of concatenation-assisted network for dense facial landmark alignment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201104