JPWO2013001941A1 - 物体検知装置、物体検知方法および物体検知プログラム - Google Patents

物体検知装置、物体検知方法および物体検知プログラム Download PDF

Info

Publication number
JPWO2013001941A1
JPWO2013001941A1 JP2013522528A JP2013522528A JPWO2013001941A1 JP WO2013001941 A1 JPWO2013001941 A1 JP WO2013001941A1 JP 2013522528 A JP2013522528 A JP 2013522528A JP 2013522528 A JP2013522528 A JP 2013522528A JP WO2013001941 A1 JPWO2013001941 A1 JP WO2013001941A1
Authority
JP
Japan
Prior art keywords
candidate area
object detection
image
candidate
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013522528A
Other languages
English (en)
Inventor
亮磨 大網
亮磨 大網
康史 平川
康史 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013522528A priority Critical patent/JPWO2013001941A1/ja
Publication of JPWO2013001941A1 publication Critical patent/JPWO2013001941A1/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

広い視野をカバーするために画像に大きな歪みが生じ得る映像から物体を精度良く検知する。撮影視野が広く、画像中の位置に応じて歪みが変化するカメラで撮影したカメラ映像から物体を検知する物体検知装置1であって、カメラ映像から物体を検知するための候補領域を選定するとともに、候補領域を特定する候補領域情報およびカメラ映像の中心から候補領域までの距離を示す位置パラメータ情報を生成する候補領域選定部10と、候補領域に対応する位置パラメータ情報に基づいて、候補領域から物体を検知する際に用いる物体検知方式を選択するとともに、候補領域からカメラ映像の中心への向きを同じ方向に統一するために、カメラ映像の中心を基準にして候補領域を回転させ、向きを統一させた各候補領域に物体が存在するかどうかを検知する物体検知部20と、を備える。

Description

本発明は、物体検知装置、物体検知方法および物体検知プログラムに関する。
近年、魚眼レンズを装着したカメラ(以下、「魚眼レンズカメラ」という。)や全方位カメラで撮影した映像から人物を検知する技術が開発されている。下記特許文献1には、全方位カメラで撮影した画像から人物を検知する技術が開示されている。この特許文献1に記載されている技術について、図10に示す概略構成図を参照しながら簡単に説明する。
図10の領域判定部51は、全方位カメラで撮影した画像から、動きのある矩形領域を検出する。領域判定部51は、検出した矩形領域が、予め設定したオブジェクトサイズに一致するかどうかを判定し、一致している場合には、その矩形領域を画像透視変換部52に通知する。画像透視変換部52は、通知された矩形領域に対して、透視変換を行い、変換後の透視投影画像をオブジェクト検出部53に出力する。オブジェクト検出部53は、受信した透視投影画像に対してオブジェクト検出を行う。この際、同じパターンを用いてオブジェクト検出を行う。
下記特許文献2には、魚眼レンズカメラで撮影した画像から人物を検知する技術が開示されている。この特許文献2に記載されている技術について、図11に示す概略構成図を参照しながら簡単に説明する。
図11の重み付けフレーム間差分検出部61は、魚眼レンズカメラで撮影した画像に基づいて、レンズの中心からの距離に応じて重み付けをしたフレーム間差分値を算出する。ラスタースキャン処理部62は、重み付けフレーム間差分検出部61で算出したフレーム間差分値を予め設定した閾値と比較し、人物である可能性が高い領域を抽出する。この処理を全画像について行い、人物である可能性が高い領域を台形エリア探索部63に通知する。台形エリア探索部63は、通知された領域から台形形状の領域を探索する。見つかった場合には、その領域を切り出し、人物検出部64に通知する。人物検出部64は、切り出された領域に対し、正規化した台形形状の人物形状モデルを用いて大きさおよび形状を照合することで人物領域を検出する。
下記特許文献3には、魚眼レンズカメラで撮影した画像中の物体の位置が中心付近にあるのか周辺付近にあるのかによって、物体を検知する際の辞書やアルゴリズムを切り替える技術が開示されている。
特開2010−199713号公報 特開平11−261868号公報 特開2007−25767号公報
特許文献1に記載の技術では、画像内の人物の有無にかかわらず透視変換を行ってからオブジェクトを検出しているため、画素数が少なく情報が乏しい領域も透視変換によって引き伸ばされる(拡大される)ことになる。つまり、情報量の多少にかかわらずオブジェクトを検出することになるため、透視変換を行う領域の大部分が情報の乏しい領域である場合には、オブジェクトの検出精度が低下してしまう。
特許文献2に記載の技術では、魚眼レンズカメラで撮影される人物は映る位置によって見え方が異なるにもかかわらず、人物の映っている位置を考慮することなく、同じ人物形状モデルを用いて人物を検出している。したがって、人物の映り方が、人物形状モデルと乖離している領域では、人物の検出精度が低下してしまう。
特許文献3に記載の技術では、魚眼レンズカメラで撮影される物体は撮影された位置に応じて向きや姿勢等が変化するにもかかわらず、向きや姿勢等の変化については何ら考慮されていない。したがって、撮影した物体の向きや姿勢等が基準に比べて大きく変化している場合には物体の検出精度が低下してしまう。
本発明は、上述した課題を解決するためになされたものであり、例えば魚眼レンズカメラや全方位カメラで撮影した映像のように、広い視野をカバーするために画像に大きな歪みが生じ得る映像から物体を精度良く検知することができる物体検知装置、物体検知方法および物体検知プログラムを提供することを目的の一つとする。なお、物体には人物も含むこととする。
本発明の物体検知装置は、撮影視野が広く、画像中の位置に応じて歪みが変化するカメラで撮影したカメラ映像から物体を検知する物体検知装置であって、前記カメラ映像から物体を検知するための候補領域を選定するとともに、前記候補領域を特定する候補領域情報および前記カメラ映像の中心から前記候補領域までの距離を示す位置パラメータ情報を生成する候補領域選定部と、前記候補領域に対応する前記位置パラメータ情報に基づいて、前記候補領域から物体を検知する際に用いる物体検知方式を選択するとともに、前記候補領域から前記カメラ映像の中心への向きを同じ方向に統一するために、前記カメラ映像の中心を基準にして前記候補領域を回転させ、前記向きを統一させた各前記候補領域に物体が存在するかどうかを検知する物体検知部と、を備える。
本発明の物体検知方法は、撮影視野が広く、画像中の位置に応じて歪みが変化するカメラで撮影したカメラ映像から物体を検知する物体検知方法であって、前記カメラ映像から物体を検知するための候補領域を選定するとともに、前記候補領域を特定する候補領域情報および前記カメラ映像の中心から前記候補領域までの距離を示す位置パラメータ情報を生成する候補領域選定ステップと、前記候補領域に対応する前記位置パラメータ情報に基づいて、前記候補領域から物体を検知する際に用いる物体検知方式を選択するとともに、前記候補領域から前記カメラ映像の中心への向きを同じ方向に統一するために、前記カメラ映像の中心を基準にして前記候補領域を回転させ、前記向きを統一させた各前記候補領域に物体が存在するかどうかを検知する物体検知ステップと、を含む。
本発明の物体検知プログラムは、上記物体検知方法に含まれる各ステップをコンピュータに実行させる。
本発明によれば、例えば魚眼レンズカメラや全方位カメラで撮影した映像のように、広い視野をカバーするために画像に大きな歪みが生じ得る映像から物体を精度良く検知することができる。
実施形態における物体検知装置の構成を例示する図である。 魚眼レンズカメラで撮影した映像と候補領域との関係を例示する図である。 全方位カメラで撮影した映像と候補領域との関係を例示する図である。 図1の候補領域選定部の構成を例示する図である。 物体検知処理の手順を説明するためのフローチャートである。 図1の物体検知部の構成を例示する図である。 回転補正前の候補領域を例示する図である。 回転補正後の候補領域を例示する図である。 変形例における候補領域選定部の構成を例示する図である。 従来方式(特許文献1)の概略構成を説明するための図である。 従来方式(特許文献2)の概略構成を説明するための図である。
以下、添付図面を参照して、本発明に係る物体検知装置、物体検知方法および物体検知プログラムの好適な実施形態について説明する。
まず、図1を参照して、実施形態における物体検知装置の構成について説明する。物体検知装置1は、機能的には、候補領域選定部10と、物体検知部20とを有する。
ここで、物体検知装置1は、物理的には、例えば、CPU(Central Processing Unit)と、記憶装置と、入出力インターフェースとを含んで構成される。記憶装置には、例えば、CPUで処理されるプログラムおよびデータを記憶するROM(Read Only Memory)やHDD(Hard Disk Drive)、主として制御処理のための各種作業領域として使用されるRAM(Random Access Memory)等の要素が含まれる。これらの要素は、互いにバスを介して接続されている。CPUが、ROMに記憶されたプログラムを実行し、入出力インターフェースを介して受信されるデータや、RAMに展開されるデータ等を処理することで、物体検知装置1における各部の機能を実現することができる。
図1の候補領域選定部10は、外部から入力されるカメラ映像を受信し、候補領域情報および位置パラメータ情報を物体検知部20に出力する。物体検知部20は、候補領域選定部10により出力された候補領域情報および位置パラメータ情報を受信し、物体検知結果を外部に出力する。
候補領域選定部10が受信するカメラ映像は、例えば魚眼レンズカメラや全方位カメラ等のように、広い視野を一枚の画像に収め得るカメラで撮影した映像である。このようなカメラ映像には、広い視野をカバーするために幾何的な歪みが含まれ、画像中の位置に応じて物体の見え方が異なるという特徴がある。なお、入力される映像が圧縮されている場合には、最初に、その映像を復号し、フレーム画像を生成する。
候補領域選定部10は、フレーム画像中から、物体の存在する可能性が高い領域を候補領域として選択する。
ここで、候補領域とは、後段の物体検知部20で物体の検知を試みる画像領域のことであり、画像中の一部を切り出した領域である。画像中のどの領域においても物体が存在し得る可能性がある場合には、画像中の領域を均等に分割して、候補領域としてもよい。一方、例えば障害物等が置かれていたり、柱等があったりして、物体の存在し得る位置が画像全体ではなく、画像の一部に限定されている場合には、存在し得る部分のみを均等に分割して候補領域としてもよい。また、物体の色や形に特徴がある場合には、それらの特徴を手がかりとして候補領域を選択してもよい。この詳細については、後述する。
候補領域選定部10は、検出対象の物体の見え方と画像中の位置とを対応付ける位置パラメータを、各候補領域に対して算出する。位置パラメータについて、以下に説明する。
物体の見え方(映り方)は、上述したように広い視野をカバーするために画像中の位置に応じて変化する。例えば、魚眼レンズカメラを天井から下方に向けて設置して撮影した場合には、レンズの中心に近い画像の中央部分は、物体を真上から撮影した画像となる。一方、レンズの中心から離れた画像の周辺部分は、鉛直方向が画像の中心を向くように撮影された画像となる。物体の像は、画像の周辺部分にいく程、幾何的な歪みが大きくなる。
このように、物体の見え方は中心からの距離に応じて変化する。そこで、候補領域選定部10は、中心から候補領域までの距離を算出し、これを位置パラメータとして用いる。
図2および図3を参照して、位置パラメータについて具体的に説明する。図2は魚眼レンズカメラで撮影した画像であり、図3は反射鏡タイプの全方位カメラで撮影した画像である。図2の場合、候補領域選定部10は、候補領域R1に対して、魚眼レンズカメラのレンズ中心からの距離r1を位置パラメータとして算出する。図3の場合、候補領域選定部10は、候補領域R2に対して、全方位カメラの視野の中心位置からの距離r2を位置パラメータとして算出する。以下では、距離r1および距離r2と同様に算出された距離を、「中心からの距離」と記載する。
なお、各候補領域の大きさや形状は、レンズ歪みによる物体の大きさの変化を考慮して、中心からの距離に応じて変えるようにしてもよい。例えば、中心付近では物体が大きく映り、周辺では小さくなるため、中心付近では候補領域を大きくし、中心からの距離が大きくなるほど、候補領域の大きさを小さくするようにしてもよい。
また、各候補領域の大きさや形状は、後段の物体検知部20により選択される物体検知方式に応じて変えるようにしてもよい。例えば、選択された物体検知方式ごとに、検知に適した物体の部位が選定されるため、物体検知方式で選定される物体の部位に応じて候補領域の大きさや形状を変更してもよい。
候補領域選定部10は、選定した各候補領域を特定するための候補領域情報と、候補領域ごとに算出した位置パラメータ情報と、を物体検知部20に出力する。
候補領域情報には、候補領域の位置や形状等を記述する情報が含まれる。この記述方式は、候補領域を一意に特定することができれば、どのような記述方式でもよい。例えば、候補領域が正方形である場合には、その中心の座標と一辺の長さとを組み合わせて候補領域情報としてもよい。また、候補領域が多角形である場合には、その頂点の情報を候補領域情報としてもよい。また、候補領域内の一点の座標と、その点の周囲で切り出す領域の情報とを組み合わせて候補領域情報としてもよい。点の周囲で切り出す領域の形状や大きさが予め定められている場合には、座標情報のみを候補領域情報としてもよい。
上記予め定める領域の形状や大きさは、指定する点の座標に応じて変化させてもよい。例えば、点の周囲で切り出す領域の形状や大きさを、中心からその点までの距離に応じて予め設定しておき、指定された点の座標を用いて領域の形状や大きさを決定することとしてもよい。
位置パラメータ情報には、中心からの距離を示す情報が含まれる。なお、例えば中心からの距離を量子化し、その量子化した値に応じて領域の形状や大きさを設定する場合には、中心からの距離に替えて、量子化のインデックス値を位置パラメータ情報に含めることとしてもよい。
上述した候補領域選定部10は、図4に示すように、例えば、視覚特徴類似領域選定部11と、大きさベース領域絞込部12とを含む構成としてもよい。
視覚特徴類似領域選定部11は、外部から入力されるカメラ映像を受信し、このカメラ映像に基づいて物体視覚特徴量情報DB13に記憶されている物体視覚特徴量情報を参照し、視覚特徴ベース候補領域情報を大きさベース領域絞込部12に出力する。大きさベース領域絞込部12は、視覚特徴類似領域選定部11により出力された視覚特徴ベース候補領域情報を受信し、この視覚特徴ベース候補領域情報に基づいてカメラキャリブレーション情報DB14に記憶されているカメラキャリブレーション情報を参照し、候補領域情報および位置パラメータ情報を物体検知部20に出力する。
物体視覚特徴量情報DB13は、検知対象となる物体の視覚特徴量に関する情報を、物体視覚特徴量情報として記憶する。
視覚特徴量として、例えば、物体の色や、模様、形状等の特徴量を用いることができる。例えば、物体が特有の色を有する場合には、その色の特徴量を算出し、視覚特徴量として用いる。また、物体が特有の模様を有する場合には、その模様の特徴量を算出し、視覚特徴量として用いる。また、物体が特有の形状を有する場合には、その形状の特徴量を算出し、視覚特徴量として用いる。
以下においては、視覚特徴量として、色の特徴量を用いた場合について説明する。なお、視覚特徴量として、模様や形状の特徴量を用いた場合についても色の特徴量を用いた場合と同様に適用することができる。
物体視覚特徴量情報DB13は、検知対象物体の色の特徴量に関する情報を物体視覚特徴量情報として記憶する。色の特徴量としては、例えば、検知対象物体が帽子やヘルメットを被った人間である場合には、帽子やヘルメットの色成分のとり得る上限や下限の値が該当する。具体的には、帽子やヘルメットのR(Red)、G(Green)、B(Blue)値を分析し、それぞれの値の取り得る上限および下限の値を色の特徴量として用いる。この際、物体の色が物体面の状態や光の条件等によって変化し得ることを考慮し、RGB値の上限や下限の値にある程度余裕を持たせることが好ましい。なお、色成分を分析する際の色空間は、RGB色空間であることには限定されず、例えば、HSV(Hue Saturation Value)色空間やL*a*b色空間であってもよい。
視覚特徴類似領域選定部11は、物体視覚特徴量情報DB13を参照し、物体視覚特徴量情報として記憶されている各種値の範囲内に収まる色を有する画素を、カメラ画像から抽出し、候補領域を構築する。
なお、物体視覚特徴量情報として記憶するのは、色成分の上限および下限の値に限定されない。例えば、物体の色の分布をモデル化し、このモデル化した色の分布に関する情報を物体視覚特徴量情報として記憶してもよい。この場合、視覚特徴類似領域選定部11は、物体視覚特徴量情報として記憶されている色の分布に基づいてカメラ画像の各画素が物体色となり得る尤度を算出し、この尤度が一定以上となる画素をカメラ画像から抽出して候補領域を構築する。色の分布を正規分布と見なして用いる場合には、モデル化した色の分布の平均および標準偏差を、物体視覚特徴量情報として記憶し、カメラ画像の各画素が物体色となり得る尤度を、物体視覚特徴量情報に含まれる平均および標準偏差を用いて算出する。
また、物体視覚特徴量情報として、物体の代表的な色を示す典型色を記憶してもよい。この場合に、視覚特徴類似領域選定部11は、カメラ画像の各画素の色と典型色との間の類似度を算出し、この類似度が一定値以上となる画素をカメラ画像から抽出して候補領域を構築する。類似度の尺度としては、例えば、色成分間の内積を用いることができる。一方、類似度の尺度として、色成分間の距離を用いることもできる。この場合には、算出した類似度が一定値以下となる画素をカメラ画像から抽出して候補領域を構築する。
ここで、魚眼レンズカメラや全方位カメラで撮影した場合には、中心から離れるにしたがって見え方が変化することが多い。例えば、視覚特徴量が色の特徴量である場合には、中心付近に比べ、周囲の方が映る物体の色の分布が広くなることがある。また、視覚特徴量が模様の特徴量である場合には、中心付近に比べ、周囲の方が細かい模様を抽出できなくなることがある。
このように、中心からの距離に応じて特徴量が変化する場合には、例えば、物体の視覚特徴量の情報を中心からの距離に応じて物体視覚特徴量情報DB13に記録しておき、視覚特徴類似領域選定部11は、画素の座標に応じて、候補領域の抽出に用いる視覚特徴量情報を切り替えるようにしてもよい。
また、例えば、物体の基準となる視覚特徴量情報と、中心からの距離に応じて視覚特徴量を調整するための情報とを物体視覚特徴量情報DB13に記録しておき、視覚特徴類似領域選定部11は、画素の位置に応じて、基準となる視覚特徴量情報を調整し、調整後の視覚特徴量情報を候補領域の抽出に用いることとしてもよい。
視覚特徴類似領域選定部11は、候補領域を特定するための位置や大きさの情報を生成し、この生成した情報を視覚特徴ベース候補領域情報として大きさベース領域絞込部12に出力する。
なお、視覚特徴類似領域選定部11によって抽出される候補領域や画素は、照明条件やノイズ等の影響によって、例えば小さい領域に分割されて抽出される等のように、必ずしもまとまって抽出されるとは限らない。したがって、近傍で視覚特徴量が類似する画素や小領域同士を統合する処理を行い、統合した領域を候補領域として選定してもよい。例えば、視覚特徴量の差が一定値以内の画素同士をラベリング処理やモルフォロジカル処理を用いて統合し、より粒度の大きな領域にまとめてから候補領域として選定してもよい。
大きさベース領域絞込部12は、視覚特徴類似領域選定部11から受信した視覚特徴ベース候補領域情報に含まれる各候補領域の大きさと、カメラキャリブレーション情報DB14に記憶されているカメラのキャリブレーション情報と、を用いて物体の見かけの大きさを算出する。大きさベース領域絞込部12は、算出した物体の見かけの大きさに基づいて、物体の候補になり得るかどうかを判定し、物体としてふさわしい大きさの候補領域のみを選定する。
具体的には、以下のようにして選定する。まず、物体の実際の大きさに関する情報とキャリブレーション情報とに基づいて、画像中の各位置における物体の見かけの大きさとして取り得る上限および下限の値を予め算出しておく。大きさベース領域絞込部12は、各候補領域の大きさが、予め算出した上限と下限との範囲内に収まるかどうかを判定し、範囲内に収まる候補領域のみを選定する。
なお、この選定方法には限定されず、例えば、大きさベース領域絞込部12は、各候補領域の大きさと物体の見かけの大きさとの差に応じて物体の尤度を算出し、この尤度が一定値以上となる候補領域を選定することとしてもよい。
大きさベース領域絞込部12は、選定した候補領域に関する情報を候補領域情報として物体検知部20に出力する。また、大きさベース領域絞込部12は、選定した候補領域ごとに中心からの距離を算出し、この中心からの距離を位置パラメータ情報とし、候補領域情報と共に物体検知部20に出力する。
図1に示す物体検知部20は、候補領域選定部10から受信した候補領域情報に含まれる候補領域に対して物体検知処理を実行する。物体検知処理は、位置パラメータの値である中心からの距離に応じて物体検知方式を切り替えて実行される。つまり、物体検知部20は、複数の物体検知方式を装備しており、中心からの距離に応じて一つの物体検知方式を選択し、物体検知処理を実行する。
物体検知方式には、物体の見え方が中心からの距離に応じて異なることを考慮し、中心からの距離に応じて検知に適した物体の部位を選択する際の取り決めが含まれる。物体検知部20が中心からの距離に応じて選択する物体検知方式について、以下に、具体的に説明する。
例えば、検知対象が人物である場合には、中心からの距離が0に近いところでは、頭頂部のみが撮影され、足下は撮影されないことが多い。特に、人物が物を持っている場合には、この傾向が顕著になる。したがって、中心からの距離が0に近いときには、頭頂部を検知するための物体検知方式を選択する。人物が作業帽やヘルメットを被っている場合には、作業帽やヘルメットを検知するための物体検知方式を選択する。
一方、中心からの距離が大きくなるにつれ、頭部領域の大きさが小さくなり、頭頂部を検知するだけでは人物を検知することが難しくなる。したがって、中心からの距離が大きいときには、頭頂部に加え、体の上半身部分も含めて検知するための物体検知方式を選択する。
具体的に、人物が普通に立っている状態で、顔までが映る距離になったときには、頭部から肩位までを含む領域を検知するための物体検知方式を選択する。さらに中心から離れ、顔の領域が小さくなり、全身が十分に映る距離になったときには、頭部から胸や腹の辺りまでを含む領域を検知する物体検知方式を選択する。
人物が物を持っている場合には、その物をできる限り含まない上半身部分を含めて検知するための物体検知方式を選択する。ただし、人物が大きな物を持つことは稀であるため、足下まで十分に映る状況であれば、全身が十分に映る距離になったところで、足を含む全身の領域を検知するための物体検知方式を選択してもよい。
図5を参照して、物体検知処理の手順について説明する。
最初に、物体検知部20は、候補領域選定部10から受信した候補領域情報に含まれる候補領域から一つの候補領域を選択する(ステップS101)。
続いて、物体検知部20は、選択された候補領域に対応する位置パラメータ情報に基づいて、物体検知方式を選択する(ステップS102)。
続いて、物体検知部20は、選択された物体検知方式を用いて、カメラ映像中の候補領域に対して物体検知を実行し(ステップS103)、候補領域に物体が存在するか否かを示す物体検知結果を算出する。
続いて、物体検知部20は、全ての候補領域を選択したか否かを判定する(ステップS104)。この判定がNOである場合(ステップS104;NO)には、処理を上記ステップS101に移行し、この判定がYESである場合(ステップS104;YES)には、物体検知処理を終了する。
上述した物体検知部20は、図6に示すように、例えば、回転補正部21と、回転補正物体検知部22とを含む構成としてもよい。
回転補正部21は、外部から入力されるカメラ映像と、候補領域選定部10により出力された候補領域情報および位置パラメータ情報と、を受信し、回転補正領域情報を回転補正物体検知部22に出力する。回転補正物体検知部22は、回転補正部21により出力された回転補正領域情報と、候補領域選定部10により出力された位置パラメータ情報と、を受信し、物体検知結果を外部に出力する。
回転補正部21は、受信した候補領域情報に含まれる候補領域を回転して、物体の向きを同じ方向に統一する。統一する向きとして、例えば鉛直方向や水平方向を用いることができるが、回転後の物体の向きを同じ方向に統一できれば他の向きであってもよい。
図7および図8を参照して、物体の向きを鉛直方向に統一する場合について具体的に説明する。候補領域情報に含まれる候補領域が、図7に示す人物を含む候補領域Rである場合に、回転補正部21は、図8に示すように、候補領域R内の人物の頭側が上に位置し、脚側が下に位置するように、候補領域Rの向きを回転する。候補領域Rの向きを回転する際には、レンズ中心を回転軸(基準)にして回転する。
候補領域Rを回転する際の回転角度は、例えば、以下のように算出することができる。
回転補正部21は、図7に示す候補領域Rの方位角θを算出し、基準となる方位角θ0との差を求め、差の分だけ候補領域Rを回転させる。物体の向きを鉛直方向に統一する場合を例にして、具体的に説明する。この場合、基準方位角θ0は90度となる。したがって、回転補正部21は、図7の候補領域Rの方位角θと90度との差を算出し、この差の分だけ候補領域Rを反時計回りに回転させる。これにより、候補領域Rの向きが鉛直方向に補正(回転補正)される(図8参照)。
回転補正部21による上記回転補正処理と並行して、物体検知部20は、位置パラメータ情報(中心からの距離r)に応じて選択される物体検知方式に適合させるために、候補領域Rの大きさを正規化する正規化処理を行う。この正規化処理は、例えば、以下のように行うことができる。
物体検知部20は、選択した物体検知方式で処理する領域の大きさを基準にして候補領域内の画素をサンプリングし、回転補正後の候補領域内の画素値を算出する。
具体的に、物体検知方式がM×Nの矩形画像に対して物体検知を行う処理である場合に実行する正規化処理の手順について以下に説明する。
最初に、物体検知部20は、回転補正後の候補領域の大きさがM×Nとなるように、回転補正後の各画素の位置座標を算出する。続いて、物体検知部20は、算出した回転補正後の各画素の位置座標に対応する回転補正前の位置座標をそれぞれ算出する。続いて、物体検知部20は、算出した回転補正前の各位置座標における画素値をそれぞれ算出する。続いて、物体検知部20は、算出した各画素値を、それぞれに対応する回転補正後の位置座標における画素値とする。
ここで、回転補正後の画素の位置座標に基づいて算出した回転補正前の位置座標に画素が存在しない場合には、例えば、その回転補正前の位置座標周辺の画素値を内挿補間して画素値を算出すればよい。
回転補正部21は、回転補正後の候補領域に関する情報を含む回転補正領域情報を回転補正物体検知部22に出力する。
回転補正物体検知部22は、回転補正部21から受信した回転補正領域情報に含まれる回転補正後の候補領域に対して物体検知処理を行う。
物体検知処理の手法としては、様々な手法を用いることができる。例えば、事前に学習させたニューラルネットワークに回転補正後の候補領域の画素値をそのまま入力し、物体の有無を判定する手法を用いることができる。また、回転補正後の候補領域の画素値から特徴量を抽出し、事前に学習させたSVM(Support Vector Machine)やLVQ(Learning Vector Quantization)等の識別器に特徴量を入力し、物体の有無を判定する手法を用いてもよい。
中心からの距離に応じて、異なる手法を用いても良いし、同一の手法を用いて辞書情報のみを切り替えるようにしてもよい。辞書情報のみを切り替える場合には、識別器を複数用意しなくてもよいため、回転補正物体検知部22をコンパクトに実装することが可能となる。
また、回転補正後の候補領域として用いる画素数や次元数等の特徴量のパラメータを同じものに統一しておくと、回転補正後の候補領域のデータを格納するデータ構造を、中心からの距離にかかわらず共通化できるため、よりコンパクトに実装することが可能となる。
回転補正物体検知部22は、各回転補正後の候補領域に対して行った物体検知処理の結果を、物体検知結果として外部に出力する。
本実施形態における物体検知部20によれば、検知対象となる物体の向きを同じ向きに統一することができるため、画像上の全ての位置に対する辞書情報や学習データを備えることなく、中心からの距離に応じたデータを格納する辞書情報や学習データを用いることができる。これにより、物体検出時に用いる辞書情報や学習データのサイズを小さくすることが可能となる。
上述したように、本実施形態における物体検知装置1によれば、画像に映っている物体の像を、映っている位置に応じて物体の見え方が異なることを考慮しつつ、その位置において最適な物体検知方式を選択して物体検知を行うことができる。
これにより、幾何的歪みが大きく画素数が少ない領域については、画素数が少ない領域をそのまま用いる物体検知方式を採用することができるため、情報に乏しい領域を引き伸ばすことで生じる検出精度の低下を防止することができる。
また、物体の見え方に応じて、物体検知に用いる部位を変更することができるため、物体が映っている位置にかかわらず同じモデルを用いることによって生じる検出精度の低下を防止することができる。
さらに、候補領域の角度が基準角度と一致するように候補領域の向きを回転補正して候補領域の向きを同じ方向に統一させることができるため、撮影した物体の向きや姿勢等が基準に比べて大きく変化していることによって生じる検出精度の低下を防止することができる。
それゆえに、本実施形態における物体検知装置1によれば、魚眼レンズカメラや全方位カメラで撮影した映像のように、広い視野をカバーするために画像に大きな歪みを生じ得る映像であっても、そのような映像から物体を精度良く検知することが可能となる。
[変形例]
なお、上述した実施形態は、単なる例示に過ぎず、実施形態に明示していない種々の変形や技術の適用を排除するものではない。すなわち、本発明は、その趣旨を逸脱しない範囲で様々な形態に変形して実施することができる。
例えば、上述した実施形態の候補領域選定部は、図4に示す構成には限定されない。例えば、図9に示すように、視覚特徴・大きさベース候補領域選定部15を含む構成としてもよい。
図9に示す視覚特徴・大きさベース候補領域選定部15は、外部から入力されるカメラ画像を受信する。視覚特徴・大きさベース候補領域選定部15は、受信したカメラ画像に基づいて物体視覚特徴量情報DB13に記憶されている物体視覚特徴量情報を参照する。視覚特徴・大きさベース候補領域選定部15は、物体視覚特徴量情報と、カメラキャリブレーション情報DB14に記憶されているカメラキャリブレーション情報とを用いて、画像中の各画素または小領域に対する尤度を算出し、この尤度が一定値以上となる画素または小領域を抽出し、候補領域を構築する。
物体視覚特徴量情報DB13やカメラキャリブレーション情報DB14を参照する際の手順については、上述した実施形態における候補領域選定部と同様である。上述した実施形態における候補領域選定部と異なる点は、物体視覚特徴量と大きさとの両方を同時に用いて物体の尤度を算出し、候補領域を選定する点である。
視覚特徴・大きさベース候補領域選定部15は、選定した候補領域に関する情報を候補領域情報として物体検知部20に出力する。また、視覚特徴・大きさベース候補領域選定部15は、選定した候補領域の中心からの距離を算出し、この中心からの距離を位置パラメータ情報とし、候補領域情報と共に物体検知部20に出力する。
また、上述した実施形態の一部または全部は、以下の付記のようにも記載され得る。ただし、本発明を以下のように限定するものではない。
(付記1) 撮影視野が広く、画像中の位置に応じて歪みが変化するカメラで撮影したカメラ映像から物体を検知する物体検知装置であって、前記カメラ映像から物体を検知するための候補領域を選定するとともに、前記候補領域を特定する候補領域情報および前記カメラ映像の中心から前記候補領域までの距離を示す位置パラメータ情報を生成する候補領域選定部と、前記候補領域に対応する前記位置パラメータ情報に基づいて、前記候補領域から物体を検知する際に用いる物体検知方式を選択するとともに、前記候補領域から前記カメラ映像の中心への向きを同じ方向に統一するために、前記カメラ映像の中心を基準にして前記候補領域を回転させ、前記向きを統一させた各前記候補領域に物体が存在するかどうかを検知する物体検知部と、を備えることを特徴とする物体検知装置。
(付記2) 前記候補領域選定部は、予め登録されている物体の視覚特徴量に類似する視覚特徴を有する画像領域を視覚特徴ベース候補領域として選定するとともに、予め登録されている前記カメラのキャリブレーション情報を用いて、前記視覚特徴ベース候補領域の位置における物体の画像上での大きさを算出し、当該算出した大きさに基づいて前記視覚特徴ベース候補領域のうち物体が含まれている可能性が高い領域を前記候補領域として選定する、ことを特徴とする付記1記載の物体検知装置。
(付記3) 前記候補領域選定部は、予め登録されている物体の視覚特徴量および予め登録されている前記カメラのキャリブレーション情報に基づいて、画像領域に物体が存在する尤度を算出し、当該尤度が一定値以上となる画像領域を前記候補領域として選定する、ことを特徴とする付記1記載の物体検知装置。
(付記4) 前記候補領域選定部は、前記物体検知部により選択される前記物体検知方式または画像領域の中心からの距離に基づいて、前記候補領域の大きさおよび形状を変更する、ことを特徴とする付記1〜3のいずれかに記載の物体検知装置。
(付記5) 前記候補領域選定部は、画像領域の視覚特徴量および大きさに基づいて前記候補領域を選定する、ことを特徴とする付記1〜4のいずれかに記載の物体検知装置。
(付記6) 前記候補領域選定部は、画像領域の中心からの距離に応じて前記候補領域を選定する際の選定基準を変化させる、ことを特徴とする付記1〜5のいずれかに記載の物体検知装置。
(付記7) 前記物体検知部は、物体を検知する手法を前記カメラ映像の中心からの距離に応じて変更せずに、物体を検知する際に用いる辞書情報を前記カメラ映像の中心からの距離に応じて切り替える、ことを特徴とする付記1〜6のいずれかに記載の物体検知装置。
(付記8) 前記物体検知部は、同種の前記手法で用いる特徴量のパラメータが前記カメラ映像の中心からの距離にかかわらず同じである、ことを特徴とする付記7記載の物体検知装置。
(付記9) 撮影視野が広く、画像中の位置に応じて歪みが変化するカメラで撮影したカメラ映像から物体を検知する物体検知方法であって、前記カメラ映像から物体を検知するための候補領域を選定するとともに、前記候補領域を特定する候補領域情報および前記カメラ映像の中心から前記候補領域までの距離を示す位置パラメータ情報を生成する候補領域選定ステップと、前記候補領域に対応する前記位置パラメータ情報に基づいて、前記候補領域から物体を検知する際に用いる物体検知方式を選択するとともに、前記候補領域から前記カメラ映像の中心への向きを同じ方向に統一するために、前記カメラ映像の中心を基準にして前記候補領域を回転させ、前記向きを統一させた各前記候補領域に物体が存在するかどうかを検知する物体検知ステップと、を含むことを特徴とする物体検知方法。
(付記10) 付記9に記載の各ステップをコンピュータに実行させるための物体検知プログラム。
この出願は、2011年6月27日に出願された日本出願特願2011−141508を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明に係る物体検知装置、物体検知方法および物体検知プログラムは、例えば魚眼レンズカメラや全方位カメラで撮影した映像のように、広い視野をカバーするために画像に大きな歪みが生じ得る映像から物体を精度良く検知することに適している。
1…物体検知装置
10…候補領域選定部
11…視覚特徴類似領域選定部
12…大きさベース領域絞込部
13…物体視覚特徴量情報DB
14…カメラキャリブレーション情報DB
15…視覚特徴・大きさベース候補領域選定部
20…物体検知部
21…回転補正部
22…回転補正物体検知部

Claims (10)

  1. 撮影視野が広く、画像中の位置に応じて歪みが変化するカメラで撮影したカメラ映像から物体を検知する物体検知装置であって、
    前記カメラ映像から物体を検知するための候補領域を選定するとともに、前記候補領域を特定する候補領域情報および前記カメラ映像の中心から前記候補領域までの距離を示す位置パラメータ情報を生成する候補領域選定部と、
    前記候補領域に対応する前記位置パラメータ情報に基づいて、前記候補領域から物体を検知する際に用いる物体検知方式を選択するとともに、前記候補領域から前記カメラ映像の中心への向きを同じ方向に統一するために、前記カメラ映像の中心を基準にして前記候補領域を回転させ、前記向きを統一させた各前記候補領域に物体が存在するかどうかを検知する物体検知部と、
    を備えることを特徴とする物体検知装置。
  2. 前記候補領域選定部は、予め登録されている物体の視覚特徴量に類似する視覚特徴を有する画像領域を視覚特徴ベース候補領域として選定するとともに、予め登録されている前記カメラのキャリブレーション情報を用いて、前記視覚特徴ベース候補領域の位置における物体の画像上での大きさを算出し、当該算出した大きさに基づいて前記視覚特徴ベース候補領域のうち物体が含まれている可能性が高い領域を前記候補領域として選定する、ことを特徴とする請求項1記載の物体検知装置。
  3. 前記候補領域選定部は、予め登録されている物体の視覚特徴量および予め登録されている前記カメラのキャリブレーション情報に基づいて、画像領域に物体が存在する尤度を算出し、当該尤度が一定値以上となる画像領域を前記候補領域として選定する、ことを特徴とする請求項1記載の物体検知装置。
  4. 前記候補領域選定部は、前記物体検知部により選択される前記物体検知方式または画像領域の中心からの距離に基づいて、前記候補領域の大きさおよび形状を変更する、ことを特徴とする請求項1〜3のいずれか1項に記載の物体検知装置。
  5. 前記候補領域選定部は、画像領域の視覚特徴量および大きさに基づいて前記候補領域を選定する、ことを特徴とする請求項1〜4のいずれか1項に記載の物体検知装置。
  6. 前記候補領域選定部は、画像領域の中心からの距離に応じて前記候補領域を選定する際の選定基準を変化させる、ことを特徴とする請求項1〜5のいずれか1項に記載の物体検知装置。
  7. 前記物体検知部は、物体を検知する手法を前記カメラ映像の中心からの距離に応じて変更せずに、物体を検知する際に用いる辞書情報を前記カメラ映像の中心からの距離に応じて切り替える、ことを特徴とする請求項1〜6のいずれか1項に記載の物体検知装置。
  8. 前記物体検知部は、同種の前記手法で用いる特徴量のパラメータが前記カメラ映像の中心からの距離にかかわらず同じである、ことを特徴とする請求項7記載の物体検知装置。
  9. 撮影視野が広く、画像中の位置に応じて歪みが変化するカメラで撮影したカメラ映像から物体を検知する物体検知方法であって、
    前記カメラ映像から物体を検知するための候補領域を選定するとともに、前記候補領域を特定する候補領域情報および前記カメラ映像の中心から前記候補領域までの距離を示す位置パラメータ情報を生成する候補領域選定ステップと、
    前記候補領域に対応する前記位置パラメータ情報に基づいて、前記候補領域から物体を検知する際に用いる物体検知方式を選択するとともに、前記候補領域から前記カメラ映像の中心への向きを同じ方向に統一するために、前記カメラ映像の中心を基準にして前記候補領域を回転させ、前記向きを統一させた各前記候補領域に物体が存在するかどうかを検知する物体検知ステップと、
    を含むことを特徴とする物体検知方法。
  10. 請求項9に記載の各ステップをコンピュータに実行させるための物体検知プログラム。
JP2013522528A 2011-06-27 2012-05-21 物体検知装置、物体検知方法および物体検知プログラム Pending JPWO2013001941A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013522528A JPWO2013001941A1 (ja) 2011-06-27 2012-05-21 物体検知装置、物体検知方法および物体検知プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011141508 2011-06-27
JP2011141508 2011-06-27
JP2013522528A JPWO2013001941A1 (ja) 2011-06-27 2012-05-21 物体検知装置、物体検知方法および物体検知プログラム

Publications (1)

Publication Number Publication Date
JPWO2013001941A1 true JPWO2013001941A1 (ja) 2015-02-23

Family

ID=47423844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013522528A Pending JPWO2013001941A1 (ja) 2011-06-27 2012-05-21 物体検知装置、物体検知方法および物体検知プログラム

Country Status (3)

Country Link
US (1) US20140193034A1 (ja)
JP (1) JPWO2013001941A1 (ja)
WO (1) WO2013001941A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9754161B2 (en) * 2012-05-10 2017-09-05 Pointgrab Ltd. System and method for computer vision based tracking of an object
KR102282470B1 (ko) * 2014-05-14 2021-07-28 한화테크윈 주식회사 카메라 장치 및 이를 이용한 객체 추적 방법
US10334150B2 (en) * 2014-05-14 2019-06-25 Hanwha Aerospace Co., Ltd. Camera system and method of tracking object using the same
JP6335701B2 (ja) * 2014-07-22 2018-05-30 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP6381353B2 (ja) * 2014-08-08 2018-08-29 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
EP2988248B1 (en) * 2014-07-22 2019-09-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
EP3380368B1 (en) 2015-11-23 2019-09-25 Robert Bosch GmbH Object detection system and method thereof
JP2017106751A (ja) * 2015-12-07 2017-06-15 株式会社デンソー 物体検知装置、物体検知システム
CN105608456B (zh) * 2015-12-22 2017-07-18 华中科技大学 一种基于全卷积网络的多方向文本检测方法
JP6587253B2 (ja) * 2016-03-02 2019-10-09 シャープ株式会社 画像処理装置、及び画像処理方法
IL247101B (en) * 2016-08-03 2018-10-31 Pointgrab Ltd Method and system for determining present in the image
US10771791B2 (en) * 2016-08-08 2020-09-08 Mediatek Inc. View-independent decoding for omnidirectional video
TWI602154B (zh) * 2017-04-26 2017-10-11 偉詮電子股份有限公司 環景影像的拼接方法及其系統
JP6907774B2 (ja) * 2017-07-14 2021-07-21 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
JP7030451B2 (ja) * 2017-08-18 2022-03-07 セコム株式会社 画像処理装置
KR102468729B1 (ko) * 2017-09-29 2022-11-21 삼성전자주식회사 전자 장치 및 전자 장치의 객체 센싱 방법
WO2019144263A1 (zh) * 2018-01-23 2019-08-01 深圳市大疆创新科技有限公司 可移动平台的控制方法、设备、计算机可读存储介质
JP7059054B2 (ja) * 2018-03-13 2022-04-25 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7028729B2 (ja) * 2018-06-22 2022-03-02 株式会社 日立産業制御ソリューションズ 物体追跡装置、物体追跡システム、および物体追跡方法
JP7255173B2 (ja) * 2018-12-26 2023-04-11 オムロン株式会社 人検出装置および人検出方法
JP7192582B2 (ja) * 2019-03-11 2022-12-20 オムロン株式会社 物体追跡装置および物体追跡方法
JP7005546B2 (ja) 2019-03-15 2022-01-21 株式会社東芝 画像認識装置、画像認識方法および画像認識プログラム
JP7188240B2 (ja) * 2019-04-01 2022-12-13 オムロン株式会社 人検出装置および人検出方法
US11640701B2 (en) * 2020-07-31 2023-05-02 Analog Devices International Unlimited Company People detection and tracking with multiple features augmented with orientation and size based classifiers
US12077419B2 (en) * 2020-12-18 2024-09-03 Industrial Technology Research Institute Method and system for controlling a handling machine and non-volatile computer readable recording medium
JP2024093294A (ja) * 2022-12-27 2024-07-09 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法及びコンピュータ読み取り可能な非一時的記憶媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261868A (ja) * 1998-03-13 1999-09-24 Fujitsu Ltd 魚眼レンズカメラ装置及びその画像歪み補正方法及び画像抽出方法
JP2007025767A (ja) * 2005-07-12 2007-02-01 Nikon Corp 画像認識システムと画像認識方法、および画像認識プログラム
US20130258047A1 (en) * 2011-03-08 2013-10-03 Mitsubishi Electric Corporation Moving object periphery image correction apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7613357B2 (en) * 2005-09-20 2009-11-03 Gm Global Technology Operations, Inc. Method for warped image object recognition
US8723959B2 (en) * 2011-03-31 2014-05-13 DigitalOptics Corporation Europe Limited Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
US8493459B2 (en) * 2011-09-15 2013-07-23 DigitalOptics Corporation Europe Limited Registration of distorted images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261868A (ja) * 1998-03-13 1999-09-24 Fujitsu Ltd 魚眼レンズカメラ装置及びその画像歪み補正方法及び画像抽出方法
JP2007025767A (ja) * 2005-07-12 2007-02-01 Nikon Corp 画像認識システムと画像認識方法、および画像認識プログラム
US20130258047A1 (en) * 2011-03-08 2013-10-03 Mitsubishi Electric Corporation Moving object periphery image correction apparatus

Also Published As

Publication number Publication date
WO2013001941A1 (ja) 2013-01-03
US20140193034A1 (en) 2014-07-10

Similar Documents

Publication Publication Date Title
WO2013001941A1 (ja) 物体検知装置、物体検知方法および物体検知プログラム
US10803351B2 (en) Image processing apparatus and image processing method
JP4505362B2 (ja) 赤目検出装置および方法並びにプログラム
CA2395886C (en) Method for video-based nose location tracking and hands-free computer input devices based thereon
JP5935308B2 (ja) 利用者検知装置、方法及びプログラム
US8718324B2 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
CN107491755B (zh) 用于手势识别的方法及装置
JP5074322B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
JP6036824B2 (ja) 画角変動検知装置、画角変動検知方法および画角変動検知プログラム
JP4868530B2 (ja) 画像認識装置
WO2019042419A1 (zh) 图像跟踪点获取方法、设备及存储介质
JP5851261B2 (ja) 画像センサシステム、情報処理装置、情報処理方法及びプログラム
JP7334432B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
JP6579950B2 (ja) カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法
US20110199505A1 (en) Image processing apparatus and image processing method
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP4537143B2 (ja) 画像処理装置及びその方法、撮像装置、プログラム
US20100150442A1 (en) Method and apparatus for skin color correction and digital photographing apparatus using both
JP7188067B2 (ja) 人検出装置および人検出方法
JP5051671B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2020071627A (ja) 画像処理装置および画像処理方法
JP2015170205A (ja) 特徴量生成装置、特徴量生成方法、およびプログラム
JP4315025B2 (ja) 撮影装置、画像取得方法及びプログラム
KR101454988B1 (ko) 아이 컬러 결함을 보상하기 위한 방법, 장치 및 컴퓨터 프로그램 제품
JP2011124955A (ja) 画像処理方法及び画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161021