JP2021140561A - 検出装置、追跡装置、検出プログラム、及び追跡プログラム - Google Patents

検出装置、追跡装置、検出プログラム、及び追跡プログラム Download PDF

Info

Publication number
JP2021140561A
JP2021140561A JP2020038880A JP2020038880A JP2021140561A JP 2021140561 A JP2021140561 A JP 2021140561A JP 2020038880 A JP2020038880 A JP 2020038880A JP 2020038880 A JP2020038880 A JP 2020038880A JP 2021140561 A JP2021140561 A JP 2021140561A
Authority
JP
Japan
Prior art keywords
camera
image
particles
tracking
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020038880A
Other languages
English (en)
Other versions
JP7422361B2 (ja
JP2021140561A5 (ja
Inventor
英夫 山田
Hideo Yamada
英夫 山田
雅聡 柴田
Masaaki Shibata
雅聡 柴田
修一 榎田
Shuichi Enokida
修一 榎田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Equos Research Co Ltd
Original Assignee
Kyushu Institute of Technology NUC
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC, Equos Research Co Ltd filed Critical Kyushu Institute of Technology NUC
Priority to JP2020038880A priority Critical patent/JP7422361B2/ja
Priority to DE112021001445.5T priority patent/DE112021001445T5/de
Priority to CN202180011637.9A priority patent/CN115023733A/zh
Priority to PCT/JP2021/008995 priority patent/WO2021177471A1/ja
Priority to US17/801,867 priority patent/US20230077398A1/en
Publication of JP2021140561A publication Critical patent/JP2021140561A/ja
Publication of JP2021140561A5 publication Critical patent/JP2021140561A5/ja
Application granted granted Critical
Publication of JP7422361B2 publication Critical patent/JP7422361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象を頑健に追跡する。【解決手段】追跡装置1は、左右に配設された追跡全天球カメラ9a、9bを備えている。跡装置1は、全天球カメラ9aで撮影した左全天球カメラ画像を球体オブジェクト30aに張り付け、球体オブジェクト30aの内部に仮想カメラ31aを設ける。仮想カメラ31aは、球体オブジェクト30aの内部に形成された仮想的な撮影空間で自在に回転し、外界の左カメラ画像を取得することができる。追跡装置1は、同様にして右カメラ画像を取得する仮想カメラ31bも設け、仮想カメラ31a、31bによって輻輳ステレオカメラを構成する。追跡装置1は、このように構成した輻輳ステレオカメラを用いて、対象者8の位置を粒子フィルタによって追跡する。第2の実施の形態では、全天球カメラ9a、9bを上下方向に配設し、仮想カメラ31a、31bを上下方向に設置する。【選択図】図2

Description

本発明は、検出装置、追跡装置、検出プログラム、及び追跡プログラムに関し、例えば、歩行者を追跡するものに関する。
近年、ホテルの案内ロボットや掃除ロボットなど、生活環境で活用するロボットの開発が盛んに行われている。これらのロボットは、将来の人口減少に伴う人手不足の解消や、生活支援など、例えば、商業施設、工場、介護事業などでの活躍が特に期待されている。
人の生活環境内で動作するためには、追跡対象である人や避けるべき障害物といった周辺環境を把握する必要がある。
このような技術に特許文献1の「自律移動ロボット、自律移動ロボットの制御方法および制御プログラム」がある。
この技術は、追跡対象である人の移動先を予測するとともに、人を撮影するカメラの視界を遮る障害物の移動先を予測し、障害物が人を遮蔽する場合に撮影される人の面積が大きくなるようにカメラの視界を変更するものである。
ところで、このように歩行する人をロボットで認識して追跡する場合、人はロボットの近距離で頻繁に方向転換や速度変更を気まぐれに行うため、これを如何に見失わずに頑健に追跡するかが課題となっていた。
特開2018−147337号公報
本発明は、対象を確実に検出することを第1の目的とする。
また、対象を頑健に追跡することを第2の目的とする。
(1)本発明は、走行体や建造物などに設置されて、所定の対象を検出する検出装置であって、所定の水平面よりも上側に配設した上カメラと、前記水平面よりも下側に配設した下カメラによって、前記対象を広角で撮影する撮影手段と、前記撮影した対象を、前記上カメラの上カメラ画像と前記下カメラの下カメラ画像でそれぞれ画像認識することで検出する検出手段と、を具備したことを特徴とする検出装置を提供する。
(2)また本発明では、対象が存在する位置の確率分布に基づいて粒子フィルタに用いる粒子を3次元空間内に発生する粒子発生手段と、前記請求項1に記載した検出装置と、尤度取得手段と、追跡手段と、を備えた追跡装置であって、前記検出装置の前記撮像手段は、所定の水平面よりも上側に配設した上カメラと、下側に配設した下カメラを用いた輻輳ステレオカメラによって前記対象を撮影し、前記検出装置の前記検出手段は、前記前記上カメラと前記下カメラでそれぞれ撮影した上カメラ画像と下カメラ画像に前記発生させた粒子を対応づけて写像する写像手段と、前記写像した粒子の前記上カメラ画像と前記下カメラ画像でのそれぞれの位置に基づいて前記上カメラ画像と前記下カメラ画像に検出領域を設定して、前記撮影した対象を前記上カメラ画像と下カメラ画像でそれぞれ画像認識する画像認識手段と、を備え、前記尤度取得手段は、前記上カメラ画像の画像認識に基づく第1の尤度と、前記下カメラ画像の画像認識に基づく第2の尤度の少なくとも一方を用いて前記発生させた粒子の尤度を取得し、前記追跡手段は、前記取得した尤度に基づいて前記確率分布を更新することにより前記対象の存在する位置を追跡し、前記粒子発生手段は、逐次、前記更新した確率分布に基づいて粒子を発生させる、ことを特徴とする追跡装置を提供する。
(3)また、本発明では、走行体や建造物などに設置されて、所定の対象を検出する検出装置としてコンピュータを機能させる検出プログラムであって、所定の水平面よりも上側に配設した上カメラと、前記水平面よりも下側に配設した下カメラによって、前記対象を広角で撮影する撮影機能と、前記撮影した対象を、前記上カメラの上カメラ画像と前記下カメラの下カメラ画像でそれぞれ画像認識することで検出する検出機能と、コンピュータに実現させることを特徴とする検出プログラムを提供する。
(4)また本発明では、対象が存在する位置の確率分布に基づいて粒子フィルタに用いる粒子を3次元空間内に発生する粒子発生機能と、所定の水平面よりも上側に配設した上カメラと、下側に配設した下カメラを用いた輻輳ステレオカメラによって前記対象を撮影する撮影機能と、前記上カメラと前記下カメラでそれぞれ撮影した上カメラ画像と下カメラ画像に前記発生させた粒子を対応づけて写像する写像機能と、前記写像した粒子の前記上カメラ画像と前記下カメラ画像でのそれぞれの位置に基づいて前記上カメラ画像と前記下カメラ画像に検出領域を設定して、前記撮影した対象を前記上カメラ画像と前記下カメラ画像でそれぞれ画像認識する画像認識機能と、前記上カメラ画像の画像認識に基づく第1の尤度と、前記下カメラ画像の画像認識に基づく第2の尤度の少なくとも一方を用いて前記発生させた粒子の尤度を取得する尤度取得機能と、前記取得した尤度に基づいて前記確率分布を更新することにより前記対象の存在する位置を追跡する追跡機能と、をコンピュータで実現し、前記粒子発生機能は、逐次、前記更新した確率分布に基づいて粒子を発生させる、追跡プログラムを提供する。
請求項1に記載の検出装置によれば、所定の水平面よりも上側に配設した上カメラと、水平面よりも下側に配設した下カメラによって、撮影した対象をそれぞれ画像認識することで検出するので、対象を確実に検出することができる。
請求項2に記載の追跡装置によれば、対象が存在する3次元空間で粒子を発生させて、追跡対象の位置の確率分布を更新することにより、追跡対象を頑健に追跡することができる。
第1実施形態に係る追跡ロボットの外見例を表した図である。 追跡装置のハードウェア的な構成を表した図である。 ステレオ画像を撮影する仮想カメラを説明するための図である。 対象までの距離と方位の計測方法を説明するための図である。 輻輳ステレオ方式の優位性を説明するための図である。 粒子の発生方法を説明するための図である。 粒子のカメラ画像への写像を説明するための図である。 対象者の位置を仮想カメラで追跡する方法を説明するための図である。 尤度の計算方法を説明するための図である。 追跡処理を説明するためのフローチャートである。 第2実施形態に係る追跡ロボットの外見例を表した図である。 第2実施形態での測量方法を説明するための図である。
(1)実施形態の概要
追跡装置1(図2)は、追跡ロボットの左右に配設された全天球カメラ9a、9bを備えている。
追跡装置1は、全天球カメラ9aで撮影した左全天球カメラ画像を球体オブジェクト30a(図3(a))に張り付け、球体オブジェクト30a(図3(a))の内部に仮想カメラ31aを設ける。
仮想カメラ31aは、球体オブジェクト30aの内部に形成された仮想的な撮影空間で自在に回転し、外界の左カメラ画像を取得することができる。
追跡装置1は、同様にして全天球カメラ9bで撮影した右全天球カメラ画像から右カメラ画像を取得する仮想カメラ31bも設け、仮想カメラ31a、31bによって輻輳ステレオカメラを構成する。
追跡装置1は、このように構成した輻輳ステレオカメラを用いて、対象者8の位置を粒子フィルタによって追跡する。
追跡装置1は、対象者8の存在する空間に3次元的に粒子を発生させるが、対象者8は、歩行者を想定しており、歩行面に平行に移動するため、対象者8の胴体程度の高さの歩行面に平行な平面で、対象者8を中心とする円形領域32あたりに粒子を多数発生させる。
そして、追跡装置1は、仮想カメラ31a、31bで左カメラ画像と右カメラ画像を取得し、対象者8が歩行する実空間で発生させた粒子を、それぞれ左右のカメラ画像に対応づけて写像する。
即ち、発生させた粒子を、それぞれ左右のカメラ画像に投影し、左カメラ画像と右カメラ画像に写像された粒子を対応づけて、これらが3次元空間で同一の粒子であることを識別できるようにする。
次いで、追跡装置1は、写像した対応する粒子に基づいて左カメラ画像と右カメラ画像のそれぞれに検出領域を設定し、左カメラ画像と右カメラ画像のそれぞれで対象者8を画像認識する。
追跡装置1は、画像認識の結果から左カメラ画像での尤度と右カメラ画像での尤度を基に、対象者8の存在する実空間に発生させた粒子の尤度とする。例えば、追跡装置1は、左カメラ画像での尤度と右カメラ画像での尤度を平均して、対象者8の存在する実空間に発生させた粒子の尤度とする。
このように、追跡装置1は、実空間で対象者8の周囲に発生させた個々の粒子の尤度を計算して、尤度に基づいて各粒子の重み付けをする。この重み付けの分布により、対象者8の存在する位置の確率分布を得ることができる。
この確率分布によって、3次元実空間で、対象者8がどのあたりの空間(ここでは、胴体の高さ程度に粒子を散布するため、胴体の存在する空間)に、どの程度の確率で存在するかを推定することができる。
これによって、対象者8の位置(確率密度の高い場所)を得ることができる。
そして、追跡装置1は、重みの大きい粒子に対しては、リサンプリングの対象にし、重みの小さい粒子は削除することにより、対象者8をリサンプリングして確率分布を更新する。
即ち、重みの大きい粒子の周りでは、多く粒子を乱数的に発生させ、重みの小さい粒子に対しては、粒子を発生させない(あるいは、少なく発生させる)。
これによって、現在の対象者8の確率分布に対応する粒子の密度(濃淡)の分布が得られる。
追跡装置1は、新たに左右の画像を取得して、これら新たに発生させた粒子の尤度を計算して、重みを更新する。これによって確率分布が更新される。
この追跡装置1は、この処理を繰り返すことにより、対象者8の現在の位置(即ち、最新の確率分布)を追跡することができる。
このように、追跡装置1は、粒子の発生、尤度の観測、粒子の重み付け、リサンプリングを繰り返す粒子フィルタによって、対象者8の存在する確率の高い位置を追跡する。
そして、追跡装置1は、仮想カメラ31a、31bで対象者8の存在する確率の高い場所を輻輳視して測量することにより、対象者8までの距離dと、対象者8の存在する角度θを計算し、これに基づいて追跡ロボットの移動を制御する。
なお、対象者8の位置は、(d、θ、高さz)の円筒座標系で表されるが、歩行者の高さzは、一定と考えられるため、(d、θ)によって対象者8の位置を表した。
第2実施形態では、全天球カメラ9a、9bを上下方向に配設し、仮想カメラ31a、31bを上下方向に設置した。
仮想カメラ31a、31bを上下に設けることにより、対象者8の歩行環境を360度死角無く撮影・測量することができる。
(2)実施形態の詳細
(第1実施形態)
図1の各図は、第1実施形態に係る追跡ロボット12の外見例を表した図である。
追跡ロボット12は、追跡対象を認識してこれを後方から追跡する自律移動型の追跡ロボットである。
以下では、追跡対象を主に歩行者とする。これは、一例であって、追跡対象を、車両やドローンといった飛行体など、その他の移動体とすることができる。
図1(a)は、追跡自体を主目的とし、追跡ロボット12aを三輪車でコンパクトに構成した例を示している。
例えば、散歩する児童や高齢者を見守ったり、担当者に追随して作業現場や災害現場などに入って情報収集したり、家畜などの動物を追跡して監視・観察したり、対象者が制限エリアに侵入しないように追跡・監視したりなどすることができる。
追跡ロボット12aは、駆動輪を構成する一対の後輪16と、方向転換を行って、追跡方向を案内する一つの前輪17を具備した円柱状の筐体15を備えている。
なお、これら車輪は、ブルドーザーなどで利用されている無限軌道や、昆虫の節足部のような脚構造としても良い。
筐体15の上面の中央付近には、高さがおよそ歩行者の胴体の高さ程度である柱状部材が鉛直上方に立てられており、その先端には、撮影部11が設けられている。
撮影部11は、水平方向に30cm程度離れて設置された2つの全天球カメラ9a、9bを有している。以下、これらを特に区別しない場合は単に全天球カメラ9と略記し、他の構成要素も同様とする。
全天球カメラ9a、9bは、それぞれ、魚眼レンズを組み合わせて構成されており、360度の視界を得ることができる。追跡ロボット12aが搭載する追跡装置1(図2)は、全天球カメラ9a、9bの撮影したそれぞれの全天球カメラ画像から平面画像を切り出す仮想的な仮想カメラ31a、31bによって追跡対象をステレオ視し、追跡対象の距離と方位(角度、方角)を三角測量で測量する。
追跡ロボット12aは、当該測量結果に基づいて追跡対象の後方で移動し、これを追尾する。
筐体15の内部には、追跡装置1を構成するコンピュータ、サーバや携帯端末などと通信するための通信装置、電力を供給するバッテリ、及び、車輪を駆動する駆動装置などが収納されている。
図1(b)は、追跡ロボット12bに積載機能を備えた例を示している。
追跡ロボット12bは、進行方向を長手方向とする筐体20を備えている。筐体20は、コンピュータ、通信装置、バッテリ、駆動装置などを収納する他、例えば、荷台、収納ボックス、鞍型の着座部を装備することが可能である。
筐体20の上面先端部分には、追跡ロボット12aと同様の撮影部11が設けられている。
更に、追跡ロボット12bは、駆動輪を構成する一対の後輪21と、方向転換を行って、追跡方向を案内する一対の前輪22を具備している。これら車輪は、無限軌道や脚構造としても良い。
追跡ロボット12bは、例えば、荷物の運搬補助を行ったり、着座部に人を乗せて運んだりすることができる。また、複数の追跡ロボット12bに対して、先頭の追跡ロボット12bは、追跡対象を追跡し、他の追跡ロボット12bは、直前の追跡ロボット12bを追尾するよう設定し、これによって複数の追跡ロボット12bをソフトウェアによって連結して縦列走行するように構成することもできる。これにより、一人の案内者が多くの荷物を運搬することができる。
図1(c)は、追跡ロボット12cをドローンに搭載した例を示している。
筐体25の上面には追跡装置1を浮揚する複数のプロペラ26が設けられており、底面の下に撮影部11が懸架されている。追跡ロボット12cは、空中を浮揚・飛行しながら目標を追跡する。
例えば、風邪が流行しているときに、マスクをしていない人を追跡して、搭載した拡声器から「マスクをしましょう」などと、注意を促すことができる。
図2は、追跡装置1のハードウェア的な構成を表した図である。
追跡装置1は、CPU(Central Processing Unit)2、ROM(Read Only Memory)3、RAM(Random Access Memory)4、GPU(Graphics Processing Unit)5、撮影部11、記憶部10、制御部6、駆動装置7などがバスラインで接続されて構成されている。
追跡装置1は、対象者8の位置をステレオカメラ画像を用いた画像認識によって3次元的に追跡する。ここでは、対象者8として歩行者を想定する。
CPU2は、記憶部10が記憶している追跡プログラムに従って対象者8を画像認識し、その位置を測量したり、制御プログラムに従って制御部6に追跡ロボット12が移動するための指令を発したりする。
ROM3は、CPU2が追跡装置1を動作させるための基本的なプログラムやパラメータなどを記憶した読み取り専用のメモリである。
RAM4は、CPU2が上記処理を行うためのワーキングメモリを提供する読み書きが可能なメモリである。
撮影部11が撮影した画像は、RAM4に展開されてCPU2により利用される。
GPU5は、複数の計算を同時に並行して行う機能を有する演算装置であり、本実施形態では、多数発生させた粒子に基づく粒子ごとの画像処理を、高速に並列処理するのに用いる。
撮影部11は、周囲360度のカラー画像を一度に取得できる全天球カメラ9a、9bを用いて構成されている。
全天球カメラ9a、9bは、所定の距離(ここでは30cm程度)を水平方向に離れて設置されており、対象者8をステレオ視した画像を取得する。
対象者8が追跡装置1の正面にいる場合、全天球カメラ9aが対象者8の左側に位置し、全天球カメラ9bが右側に位置する。対象者8が追跡装置1の背後に回った場合は、左右が逆転する。
全天球カメラ9a、9bは、視界が360度の広角カメラであるため、このように、追跡装置1は、左広角カメラと右広角カメラから、それぞれ、左広角画像と右広角画像を取得する広角画像取得手段を備えており、これら左広角カメラと右広角カメラは、それぞれ左全天球カメラ(対象者8が追跡ロボット12の正面に位置する場合は全天球カメラ9a)と右全天球カメラ(全天球カメラ9b)で構成されている。なお、これら広角カメラの視界は、360度以下であっても追跡範囲が制限されるものの追跡装置1の構成は可能である。
以下で、対象者8が追跡装置1の正面にいる場合について説明し、全天球カメラ9aが対象者8を左側から撮影し、全天球カメラ9bが対象者8を右側から撮影するものとする。
対象者8が追跡装置1の背面側に位置する場合は、説明の左右を読み替えれば良い。
駆動装置7は、車輪を駆動するモータなどで構成されており、制御部6は、CPU2からの信号に基づいて駆動装置7を制御して走行速度や旋回方向などを調節する。
図3の各図は、対象者8のステレオ画像を撮影する仮想カメラを説明するための図である。
全天球カメラ9aは、2枚の魚眼レンズを組み合わせて構成されており、これらで撮影した左全天球カメラ画像を、図3(a)に示した球体オブジェクト30aの表面に張り付けることにより、2つの魚眼カメラ画像を1つの球体で構築する。
これにより、表面が全天球カメラ9aの周囲360度の景色となった地球儀のようなオブジェクトができる。
そして、球体オブジェクト30aの内側に仮想のピンホールカメラで構成した仮想カメラ31aを設置して、これをソフトウェアで仮想的に回転させることにより、仮想カメラ31aの撮影方向に見た周囲の景色を、単眼のカメラで撮影したのと同様の歪みの小さい左カメラ画像を取得することができる。
仮想カメラ31aは、球体オブジェクト30aの中で自在に連続的に、あるいは離散的に回転して撮影方向を選択することができる。
これにより、矢線で示したように、球体オブジェクト30a内で仮想カメラ31aを任意の方向に任意の量だけパンしたりチルトしたりすることができる。
このように、球体オブジェクト30aの内部が、仮想カメラ31aの仮想的な撮影空間となっている。
仮想カメラ31aは、ソフトウェアによって形成されているため、慣性の法則の影響を受けず、また、機械機構を介さずに撮影方向を制御することができる。そのため、瞬時に撮影方向を連続的・離散的に切り替えることができる。
なお、球体オブジェクト30aの中に複数の仮想カメラ31aを設けて、これらを独立に回転させて複数の撮影方向の左カメラ画像を同時に取得することも可能である。
例えば、以下では、単数の対象者8を追跡する場合について説明するが、対象者8の人数だけ仮想カメラ31a、31a、…を形成し、複数人を同時に独立して追跡することも可能である。
以上、全天球カメラ9aについて説明したが、全天球カメラ9bについても同様である。
図示しないが、全天球カメラ9bで右全天球カメラ画像を取得して球体オブジェクト30bに張り付け、仮想カメラ31bにより、仮想的な撮影空間で周囲の景色を撮影することができる。
左全天球カメラ画像は、魚眼レンズ画像によって構成されており、図3(b)の例で示した机の画像では、机の直線部分が湾曲している。例えば、左全天球カメラ画像は、画面の中心からの距離と角度が比例する等距離射影方式等の魚眼レンズ画像によって構成されいる。
これを仮想カメラ31aで撮影すると、図3(c)に示したように、歪みの少ない机の左カメラ画像が得られる。このように、仮想カメラ31aを用いると、一般の画像認識で用いられている2次元のカメラ画像が得られるため、通常の画像認識技術を適用することができる。
右全天球カメラ画像についても同様であり、仮想カメラ31bを用いると、通常の画像認識に用いる2次元のカメラ画像を取得することができる。
本実施形態では、仮想カメラ31a、31bを仮想的なピンホールカメラで構成したが、これは一例であって、魚眼レンズ画像を平面画像に変換する他の方法を用いても良い。
ここで、仮想カメラ31a、31bは、対象を撮影する撮影手段として機能している。
図4の各図は、カメラを用いた対象までの距離と方位の計測方法を説明するための図である。
追跡装置1は、対象者8を追跡するため、カメラを用いて対象者8の3次元空間(歩行空間)における位置を計測する必要がある。
このような計測方法には、主に次の3手法がある。
図4(a)は、幾何補正による計測方法を表した図である。
単眼方式による幾何補正では、単眼のカメラの設置位置とカメラ画像における対象33の幾何学的な状態(対象の写り方)によって距離を求める。
例えば、カメラ画像の底辺に対する対象33の立ち位置によって対象33までの距離が分かり、図の例では、対象33までの距離が1m、2m、3mの場合の立ち位置を横線にて示している。
また、カメラ画像の上記横線上での左右位置により、対象33が存在する方位を得ることができる。
図4(b)は、視差ステレオ(複眼)による計測方法を表した図である。
視差ステレオ方式では、正面に向けた一対のカメラ35a(左カメラ)とカメラ35b(右カメラ)を左右の所定距離に固定し、対象33に対するカメラ35a、35bからの視差によって、対象33を立体視・三角測量する。
図に示したように、視差ステレオ方式では、対象33と基線が構成する太線で示した大きな方の三角形と、撮像面に形成された視差による底辺とレンズの中心が構成する太線で示した小さい方の三角形の相似関係から対象33の距離と方位を求めることができる。
例えば、対象までの距離をZ、基線長をB、焦点距離をF、視差長をDとすると、Zは、式(1)で表される。方位も相似関係から求めることができる。
図4(c)は、輻輳ステレオ方式による計測方法を表した図である。
輻輳とは、いわゆる寄り目を行う動作を意味し、左右の所定距離に配置した一対のカメラ36a(左カメラ)、カメラ36b(右カメラ)で対象33を輻輳視することにより、対象33を立体視・測量する。
図に示したように、輻輳ステレオ方式では、右カメラと左カメラの撮影方向をそれぞれ対象33に向け、基線長をB、左カメラから対象33までの距離をdL、左カメラレンズの光軸と前方との角度をθL、右カメラレンズの光軸と前方との角度をθR、輻輳ステレオカメラに対する対象33の方位をθ、輻輳ステレオカメラから対象33までの距離をdとすると、幾何学的な関係からdLは、式(2)で表され、これによってdは式(3)で求めることができる。方位に相当する角度θも同様に幾何学的な関係から求めることができる。
なお、文字コードの誤変換(いわゆる文字化け)を防止するため、図で表した下付文字や上付文字を通常の文字で表記する。以下で説明する他の数式も同様とする。
以上、3種類の何れの計測方法も利用可能であるが、次に述べるように、これらの計測方法のうちで輻輳ステレオ方式が歩行者追跡で優位であり、卓越した能力を発揮するため、本実施形態では、輻輳ステレオ方式を採用した。
図5は、輻輳ステレオ方式の優位性を説明するための図である。
視差ステレオ方式と輻輳ステレオ方式が単眼方式に比べて優れていることは明らかであるので、単眼方式については説明を省略する。
図5(a)に示したように、視差ステレオ方式では、カメラ35a、35bの撮影方向が前方に固定されている。そのため、カメラ35aによる撮影領域37aと、カメラ35bによる撮影領域37bも固定され、その共通の撮影領域37cが測量可能な領域となる。
一方、輻輳ステレオ方式では、カメラ36a、36bを独立して回転させることにより自在に左右カメラの撮影方向を個別に設定できるため、共通の撮影領域37c以外の広い領域についても立体視・測量可能である。
例えば、図5(b)に示したように、対象33がカメラ正面の近距離にあり、撮影領域37cの外に存在する場合であっても、矢線で示したように左右の仮想カメラ31で対象33を輻輳視することにより位置と方位を測量することができる。
また、図5(c)に示したように、対象33が左側に寄った場所に位置し、撮影領域37aに含まれているものの、撮影領域37bに含まれていない場合であっても、矢線で示したように、輻輳視によって測量することができる。対象33が右側に位置する場合も同様である。
図5(d)に示したように、対象33が更に左に寄った場所に位置し、撮影領域37aにも含まれない場合であっても、矢線で示したように、輻輳視によって測量することができる。対象33が右側に位置する場合も同様である。
このように、輻輳ステレオ方式は、視差ステレオ方式に比べて測量できる領域が広く、自由に動き回って歩行状態が頻繁に変化する歩行者を近距離から追跡するのに適している。
そこで、本実施形態では、全天球カメラ9a、9bに仮想カメラ31a、31bを形成し、これによって対象者8を輻輳視することとした。
このように、追跡装置1が備える撮影手段は、左カメラと右カメラを用いた輻輳ステレオカメラによって対象を撮影する。
そして、当該撮影手段は、左広角画像(左全天球カメラ画像)から任意の方向の左カメラ画像を取得する仮想的なカメラ(仮想カメラ31a)で左カメラを構成するとともに、右広角画像(右全天球カメラ画像)から任意の方向の右カメラ画像を取得する仮想的なカメラ(仮想カメラ31b)で右カメラを構成している。
更に、追跡装置1は、左カメラと右カメラが、左広角画像と右広角画像からそれぞれ左カメラ画像と右カメラ画像を取得する仮想的な撮影空間(球体オブジェクト30a、30bによる撮影空間)で撮影方向を移動することができる。
追跡装置1は、粒子(パーティクル)フィルタを用いて対象者8の存在する場所を追跡するが、ここで、一般的な粒子フィルタリングの概要について説明する。
まず、粒子フィルタリングでは、観測対象の存在する可能性のある場所に多数の粒子を発生させる。
そして、各粒子について何らかの手法で尤度を観測し、観測した尤度に従って各粒子を重み付けする。尤度は、その粒子に基づいて観測した場合、その観測したものが、どの程度の観測対象であるかという確からしさに相当する。
そして、各粒子について尤度を観測した後、各粒子を尤度の大きいものほど重みが大きくなるように重み付けする。これによって、観測対象が存在する程度が高い場所ほど粒子の重み付けが大きくなるため、重み付けした粒子の分布が、観測対象の存在を表す確率分布に対応する。
更に、追跡対象の移動に伴う確率分布の時系列的な変化を追うため、リサンプリングを行う。
リサンプリングでは、例えば、重み付けの小さかった粒子を間引いて重み付けの大きかった粒子を残し、残った粒子の付近で新たな粒子を発生させて、発生させた各粒子について、現時点での尤度を観測して重み付けする。これにより、確率分布が更新されて、確率密度の大きい場所、即ち、観測対象が存在する可能性の高い場所を更新することができる。
以降、リサンプリングを繰り返し、観測対象の位置の時系列的な変化を追跡することができる。
図6の各図は、粒子の発生方法を説明するための図である。
追跡装置1は、粒子フィルタを用いて対象者8の存在する位置の確率分布を推測する。
一般に行われている粒子フィルタを用いた画像認識では、2次元のカメラ画像において粒子を発生させるが、それに対し、追跡装置1は、対象者8が存在する3次元空間内で粒子を発生させて、これら3次元的な粒子を左右のカメラ画像に写像して投影することにより、立体情報を含めて対象者8を画像認識する。
立体情報を含まずに画像認識する場合、右カメラ画像と左カメラ画像で独立して粒子を発生させる必要があり、この場合、左右のカメラで違う位置を観測してしまい、これが測量精度に影響して誤追跡が発生する可能性がある。
一方、追跡装置1は、3次元空間の同じ粒子に左右のカメラを向けて撮影した左カメラ画像と右カメラ画像による画像認識を行うため、左右のカメラで同一の領域を観測することができ、これによって効果的に対象者8の探索を行うことができる。
このように、追跡装置1は、対象者8の周囲に粒子を発生させるが、本実施形態では、追跡対象が追跡装置1の前方を歩行する歩行者であって、床面と平行に2次元的に動くため、歩行面と平行な平面で粒子を散布することとした。
なお、ドローンや鳥類など、追跡対象が高さ方向にも移動し、3次元的な動きをする場合は、3次元的に粒子を散布すれば、これを追跡することができる。
図6(a)は、追跡装置1を原点に設定したxyz空間で対象者8が歩行している様子を表している。
対象者8が歩行する平面(歩行面)にxy座標系を設定し、高さ方向をz軸とする。撮影部11は、対象者8の胴体あたりの高さ(1m程度)に位置している。
追跡装置1は、図に示したように、概ね胴体付近の高さでxy平面に平行な円形領域32に粒子が散布されるように、対象者8を中心にノイズを発生させ、これによって対象者8を中心とする粒子を所定の個数発生させる。
本実施形態では、粒子を500個発生させた。実験によると、粒子の個数が50程度から追跡可能である。
なお、ここでは、円形領域32を含む平面上で粒子を発生させたが、高さ方向(z軸方向)に幅をもたせた厚みのある空間に分布するように構成することもできる。
胴体の位置は、対象者8が存在する確率密度の大きい場所であり、また、粒子の重み付け後には重みに従って(確率分布に従って)リサンプリングするため、追跡装置1は、対象が存在する位置の確率分布に基づいて粒子フィルタに用いる粒子を3次元空間内に発生する粒子発生手段を備えている。
また、当該粒子発生手段は、対象が移動する平面に平行な平面に沿って粒子を発生させている。
更に、リサンプリングによって、対象者8の移動に伴う確率分布の時系列的な変化を追うため、粒子発生手段は、逐次、前回の更新した確率分布に基づいて今回の粒子を発生させている。
ここで、発生させたノイズは、対象者8を中心にガウス分布に従うホワイトノイズ(正規性白色雑音)であり、当該ノイズに従うことにより、対象者8の周囲に粒子を正規分布に従って発生させることができる。図の円形領域32は、発生した粒子の例えば3σ程度の範囲となっている。
なお、円形領域32において粒子を一様に発生させるなど、他の発生方法を採用しても良い。
また、後述するように、追跡装置1は、追跡開始時に、通常の画像認識で対象者8の位置を測量し、これに基づいて対象者8を中心とする粒子を発生させるが、対象者8の位置が不明な場合は、対象者8が存在する確率分布が空間で一様となるため、円形領域32を含むxy平面で一様に粒子を発生させれば良い。
対象者8が存在する場所の粒子の尤度が高くなるため、これをリサンプリングすることにより、対象者8の位置に応じた確率分布を得ることができる。
追跡装置1は、以上のようにして発生させた粒子をリサンプリングすることにより、対象者8を追跡する。
図6(b)は、円形領域32を上から見たところを模式的に表した図である。
図の黒点で示したように、対象者8を中心とする円形領域32に粒子を発生させるが、これらのz座標値は一定であるため、追跡装置1は、利便性のために、これら粒子や対象者8の位置を(d、θ)座標による極座標で表すことにした。なお、xy座標で表しても良い。
また、対象者8の歩行している方向が分かる場合は、図6(c)に示したように、粒子の分布が歩行方向を長手方向とする円形領域32aとなるように発生させることもできる。歩行方向に沿って粒子を発生させることにより、対象者8の存在する確率の低いところに粒子を発生させて無駄な計算を行うことを抑制することができる。
更に、撮影方向であるカメラ画像の奥行き方向にも粒子を散布するため、例えば、追跡装置1が建物内の廊下を移動している場合、建築物内部の平面図から間取りのレイアウトを取得し、これを参照して壁の中や立ち入り禁止の部屋などの対象者8が存在する可能性の無いところに粒子を発生しないようにすることができる。
このように、追跡装置1は、対象者8が移動する3次元空間で撮影の奥行き方向にも粒子を発生させるため、追跡対象の運動状態や周囲の環境を考慮した任意の分布で粒子を発生させることが可能である。
図7は、粒子のカメラ画像への写像を説明するための図である。
追跡装置1は、上のように発生させた粒子を、図7(a)に示したように、関数g(d、θ)、f(d、θ)を用いて、カメラ画像71a(左カメラ画像)とカメラ画像71b(右カメラ画像)のカメラ画像座標系に写像する。
カメラ画像座標系は、例えば、画像の上左隅を原点とし、水平右方向をx軸、鉛直下方向をy軸とする2次元座標系である。
このように、追跡装置1は、撮影した画像に対象者8の存在する実空間で発生させた粒子を写像する写像手段を備えている。
そして、当該写像手段は、発生させた粒子の左カメラ画像、及び右カメラ画像での位置を所定の写像関数で計算して取得している。
これにより、例えば、空間に散布された粒子41は、関数g(d、θ)によってカメラ画像71a上の粒子51aに写像され、関数f(d、θ)によってカメラ画像71b上の粒子51bに写像される。
なお、これら写像関数は、輻輳ステレオ視の関係式と、仮想カメラ31で取得したカメラ画像の1ピクセルごとの角度を算出することにより導くことができる。
このように、写像手段は、左カメラと右カメラでそれぞれ撮影した左カメラ画像と右カメラ画像に実空間で発生させた粒子を対応づけて写像している。
ところで、粒子41には、画像認識を行うための検出領域の位置、検出領域のサイズなど、カメラ画像に検出領域を設定するためのパラメータである状態パラメータが付随しており、追跡装置1は、これに基づいて、カメラ画像71aとカメラ画像71bのそれぞれに、検出領域61aと検出領域61bを設定する。
このように、粒子41、42、43、…は、状態パラメータを成分にもつ状態ベクトルによって表される。
検出領域61a、61bは、矩形形状を有しており、検出領域61a、61b内の画像が画像認識を行う対象の部分領域画像となる。追跡装置1は、検出領域61a、61bで区画されたそれぞれの部分領域画像で対象者8の画像認識を行う。
ここでは、検出領域61a、61bを、写像後の粒子51a、51bが矩形の重心となるように設定する。これは一例であって、検出領域61の位置を固定値や関数によって粒子51の位置からオフセットするように構成することもできる。
このように、追跡装置1は、写像した粒子のカメラ画像内での位置に基づいて検出領域を設定して、撮影した対象を画像認識する画像認識手段を備えている。
また、追跡装置1は、歩行者を所定距離にて追跡するため、検出領域61a、61bの大きさが大きく変化することは少ない。
そのため、追跡装置1では、追跡前に対象者8の身長に合わせて検出領域61のサイズを設定し、固定したサイズの検出領域61a、61bを使用することとした。
なお、これは一例であって、検出領域61のサイズをパラメータとして、粒子フィルタリングの対象とすることもできる。
この場合は、(x座標値、y座標値、サイズ)という状態ベクトル空間で粒子を発生させることになる。
即ち、xy座標値が同じでもサイズが異なれば異なる粒子となり、それぞれに対して尤度を観測する。これによって、サイズが画像認識に適した粒子の尤度が大きくなり、これによって検出領域61の最適なサイズも決定することができる。
このように、実空間に限定せずに、粒子41を規定する状態ベクトル空間で粒子を発生させると、より拡張した運用が可能となる。パラメータがn個ある場合、n次元の空間で粒子を発生させることになる。
例えば、尤度を第1の方法によって計算する尤度1と、第2の方法によって計算する尤度2があり、前者をα、後者を(α−1)の割合で組み合わせて(例えば、0<α<1とする)両者を合成した尤度を計算したい場合は、状態ベクトルを(x座標値、y座標値、サイズ、α)とする。
このような状態ベクトル空間で粒子41を発生させると、粒子フィルタリングによって異なるαに対しても尤度を計算することができ、対象者8を画像認識するのに最適な(x座標値、y座標値、サイズ、α)と、その場合の尤度を求めることができる。
αを用いた尤度の合成については、HOG特徴量による尤度と色分布特徴による尤度を組み合わせる例について後に触れる。
追跡装置1は、このような手順に従って粒子を発生させ、図7(b)に示したように、図示しない粒子41、42、…を、カメラ画像71aの粒子51a、52a、…に写像し、これに基づいて検出領域61a、62a、…を設定する。
カメラ画像71bに対しても、粒子41、42、…を、粒子51b、52b、…に写像し、これに基づいて検出領域61b、62b、…を設定する。
そして、追跡装置1は、カメラ画像71aの検出領域61aで対象者8を画像認識することにより粒子51aの尤度(写像した粒子の左カメラ画像における尤度であり、以下、左尤度と記す)を計算し、カメラ画像71bの検出領域61bで対象者8を画像認識することにより粒子51bの尤度(写像した粒子の右カメラ画像における尤度であり、以下、右尤度と記す)を計算し、左尤度と右尤度を平均することにより、写像元の粒子41の尤度を計算する。
追跡装置1は、同様にして、3次元空間に発生させた粒子42、43、…の尤度を計算する。
このように、追跡装置1は、対象者8が歩行している立体的な空間に発生させた粒子を左右一対のステレオカメラ画像に写像し、2次元のカメラ画像に写像した粒子の左尤度と右尤度を介して、写像元の粒子の尤度を計算する。
追跡装置1は、左尤度と右尤度を平均することにより統合して3次元空間における写像元の粒子の尤度を観測したが、これは一例であって、他の計算方法によって統合しても良い。
また、右尤度と左尤度のうち、尤度が高いものを写像元の尤度とするなど、左尤度と右尤度の少なくとも一方を用いて統合した尤度を求めれば良い。
このように、追跡装置1が有する画像認識手段は、左カメラ画像と右カメラ画像でそれぞれ画像認識する。
そして、追跡装置1は、画像認識の結果に基づいて発生させた粒子の尤度を取得する尤度取得手段を備えており、当該尤度取得手段は、左カメラ画像の画像認識に基づく第1の尤度(左尤度)と、右カメラ画像の画像認識に基づく第2の尤度(右尤度)の少なくとも一方を用いて尤度を取得している。
以上の例では、関数g(d、θ)、f(d、θ)で演算することにより、左右の一組のステレオカメラ画像に粒子41、42、43、…を写像したが、仮想カメラ31a、31bの仮想性を駆使し、発生させた粒子41、42、…の各々に対して、仮想カメラ31aと仮想カメラ31bを向けて粒子ごとの左右カメラ画像を取得することにより、左右カメラ画像のセットごとに、粒子41、42、…を画像の中心に写像することも可能である。
この変形例の場合、粒子41に仮想カメラ31a、31bの撮影方向を向けて、図7(c)に示したような、カメラ画像81a(左カメラ画像)とカメラ画像81b(右カメラ画像)を取得し、次に、粒子42に仮想カメラ31a、31bの撮影方向を向けてカメラ画像82a(左カメラ画像)とカメラ画像82b(右カメラ画像)を取得し…、といったように、粒子ごとに、これに撮影方向を向けたステレオカメラ画像を取得していく。ただし、図では左カメラ画像だけ示し、右カメラ画像は、省略した。
仮想カメラ31を構成するピンホールカメラは単焦点であり、球体オブジェクト30内で仮想カメラ31を粒子41、42、…に向けて撮影しても、対象者8の画像は、ピントが合った状態で取得することができる。
また、仮想カメラ31は、ソフトウェアによって形成されているため、機械的な駆動が必要なく、高速に撮影方向を切り替えて粒子41、42、…を撮影することができる。
あるいは、複数の仮想カメラ31、31、…を設定し、これらを並列的に駆動して、一度に複数のステレオカメラ画像を取得するように構成することもできる。
図7(c)に示したように、仮想カメラ31aを粒子41に向けて撮影すると、粒子41が画像の中心の粒子51aに写像されたカメラ画像81aが得られる。
図示しないが、同様に、仮想カメラ31bを粒子41に向けて撮影すると、粒子41が画像の中心の粒子51bに写像されたカメラ画像81bが得られる。
追跡装置1は、カメラ画像81a、81bで画像認識して粒子51a、51bによる左尤度と右尤度を求めて、これを平均して粒子41の尤度を求める。
以下、同様にして、仮想カメラ31a、31bを粒子42に向けて撮影して、カメラ画像82a、82bを取得し(カメラ画像82bは図示せず)、これによって画像中心に写像された粒子52a、52bの左尤度、右尤度から粒子42の尤度を計算する。
追跡装置1は、この処理を繰り返して、粒子41、42、43、…の尤度を計算する。
このように、この例の撮影手段は、発生させた粒子ごとに左カメラと右カメラを向けて撮影し、写像手段は、左カメラ画像と右カメラ画像の撮影方向に対応する位置(例えば、画像の中心)を粒子の位置として取得している。
以上、対象者8が歩行する3次元空間に発生させた粒子を左右のカメラ画像に写像する2つの方法について説明したが、以下では、前者の方法で写像する場合について説明する。なお、後者の方法を用いて写像しても良い。
図8の各図は、対象者8の位置を仮想カメラ31で追跡する方法を説明するための図である。
上で説明したように、追跡装置1は、図8(a)に示したように、カメラ画像71aにおいて、検出領域61aによる画像認識を行い、これによって、粒子51aの左尤度を計算する。そして、図示しないカメラ画像71bにおいて、検出領域61bによる画像認識を行い、これによって、粒子51bの右尤度を計算する。
更に、追跡装置1は、当該左尤度と右尤度の平均により、粒子51a、51bの写像元である粒子41の尤度を計算する。
追跡装置1は、この計算を繰り返し、対象者8の周囲に3次元的に散布した粒子42、43、…の尤度を計算する。
そして、追跡装置1は、計算した尤度に従って、尤度が大きいほど重みが大きくなるように3次元空間に発生させた各粒子を重み付けする。
図8(b)は、重み付けを行った後の粒子41、42、43、…を示しており、重み付けが大きいほど黒点の大きさが大きくなるように表している。
図の例では、粒子41の重みが最も大きく、その周辺の粒子の重みも大きくなっている。
このように、実空間での重み付けされた粒子の分布が得られるが、この重みの分布が対象者8の存在する位置の確率分布に対応している。このため、図の例では、対象者8は、粒子41付近にいると推測できる。
重みのピークの位置に追跡対象がいると推測したり、あるいは、重みが上位5%の範囲に追跡対象が存在すると推測したりなど、推定の仕方は、各種のものが可能である。
このような確率分布の更新をリサンプリングによって更新していくことにより、対象者8の存在する位置を追跡することができる。
このように、追跡装置1は、取得した尤度に基づいて確率分布を更新することにより対象の存在する位置を追跡する追跡手段を備えている。
そして、追跡装置1は、確率分布の大きい場所に(即ち、対象者8がいる可能性が高い場所に)仮想カメラ31a、31bを向けることにより、仮想カメラ31a、31bの撮影方向を対象者8に向けることができる。
図8(c)の例では、最も尤度が大きかった粒子41に仮想カメラ31a、31bを向けている。
このように、追跡装置1は、更新した確率分布に基づいて左カメラと右カメラの撮影方向を対象の方向に移動する撮影方向移動手段を備えている。
ここでは、最も尤度の高い粒子に仮想カメラ31を向けたが、これは一例であって、何らかのアルゴリズムに従って確率分布の高い場所に仮想カメラ31を向ければ良い。
このように、確率密度の高い場所に仮想カメラ31a、31bを向けることにより、対象者8をカメラの正面に捉えることができる。
更に、仮想カメラ31a、31bが輻輳視する角度から対象者8の位置(d、θ)を測量できるため、位置(d、θ)の出力値に基づいて、制御部6に指令を発し、追跡装置1を対象者8の後方の所定位置に移動するように制御することができる。
このように、追跡装置1は、確率分布に基づいて移動した左カメラと右カメラの撮影方向に基づいて対象の存在する位置を測量する測量手段と、当該測量した測量結果を出力する出力手段を備えており、更に、当該出力した測量結果に基づいて駆動装置7を駆動し、これによって対象と共に移動する移動手段を備えている。
ところで、図8(b)のように粒子を重み付けした後、確率分布を対象者8の移動に合わせて更新するようにリサンプリングを行うが、これは、粒子41などの尤度の高い粒子については、その付近で次の粒子をホワイトノイズに従って発生させ(あるいは多く発生させ)、尤度の低い粒子については、その付近での次の粒子を発生させず(あるいは少なく発生させ)、このようにして発生させた新たな粒子について、新たな左右カメラ画像を用いた尤度を計算、及び、重み付けを行うことにより実行する。
このように、尤度の高いものはリサンプリングし、尤度の低いものは削減する処理を逐次的に繰り返し行うことにより確率分布を更新して、対象者8の存在する確率の高い場所を逐次的に追跡することができる。
本実施形態では、一例として、対象者8の速度情報を考慮した、図8(d)の式(4)に基づいて状態を遷移させた(リサンプリングのための粒子を発生させた)。
ここで、xtは、時刻tにおける粒子の位置を表し、xt−1は、時刻t−1における粒子の位置を表している。
vt−1は、対象者8の速度情報であり、式(6)に示したように、時刻tでの位置から時刻t−1での位置を減算したものである。
N(0、σ2)は、ノイズの項であって、粒子の位置での分散σ2の正規分布を表している。
σ2は、式(5)で表したように、速度が大きいほど対象者8の移動量が大きくなるため、これに応じて分散が大きくなるように設定した。
図9は、尤度の計算方法を説明するための図である。
尤度の計算には、任意の手法を用いることが可能であるが、ここでは、一例としてHOG特徴量を用いる例について説明する。この計算方法を右尤度と左尤度の計算に利用することができる。
HOG特徴量は、輝度勾配分布を用いた画像特徴量であって、対象のエッジを検出する技術である。例えて言えば、対象をエッジによるシルエットで認識するものである。
HOG特徴量は、次の手順により画像から抽出される。
図9(a)左図に示した画像101は、検出領域によってカメラ画像から抽出した画像を示している。
まず、画像101を矩形のセル102a、102b、…に分割する。
次に、図9(a)右図に示したように、セル102ごとに各画素(ピクセル)の輝度勾配方向(低輝度から高輝度に向かう方向)を例えば8方向に量子化する。
次に、図9(b)に示したように、量子化した輝度勾配の方向を階級とし、出現回数を度数とするヒストグラムを生成することにより、セル102に含まれる輝度勾配のヒストグラム106をセル102ごとに作成する。
そして、セル102をいくつか集めたブロック単位でヒストグラム106の合計度数が1となるように正規化する。
図9(a)左図の例では、セル102a、102b、102c、102dから1ブロックが形成されている。
このようにして正規化したヒストグラム106a、106b、…(図示しない)を図9(c)のように一列に並べたヒストグラム107が画像101のHOG特徴量である。
HOG特徴量を用いた画像の類似程度の判断は、次のようにして行う。
まず、HOG特徴量の度数(M個あるとする)を成分とするベクトルφ(x)を考える。ここで、xは、画像101を表すベクトルであり、x=(第1番目の画素の輝度、第2番目の画素の輝度、…)である。
なお、ベクトルは太字などで表すが、文字コードの誤変換防止のため、以下では、通常の文字で表す。
図9(d)は、HOG特徴量空間を表しており、画像101のHOG特徴量は、M次元空間のベクトルφ(x)に写像される。
なお、図では簡単化のためHOG特徴量空間を2次元空間で表してある。
一方、Fは、人物画像の学習によって得た重みベクトルであり、多数の人物画像のHOG特徴量を平均化したベクトルである。
画像101が学習した画像に類似する場合、φ(x)は、ベクトル109のようにFの周辺に分布し、類似しない場合は、ベクトル110、111のようにFとは異なる方向に分布する。
Fとφ(x)は、規格化されており、Fとφ(x)の内積で定義される相関係数は、画像101が学習画像に類似するほど1に近づき、類似程度が低いほど−1に近づく。
このように、類似判断の対象となる画像をHOG特徴量空間に写像することにより、学習画像に類似している画像と類似していない画像を輝度勾配分布により分離することができる。
この相関係数を尤度として用いることができる。
この他に、色分布特徴を用いた尤度の評価も可能である。
例えば、画像101は、色々な色成分(色1、色2、…)を有する画素から構成されている。
これら色成分の出現頻度からヒストグラムを作成すると、その度数を成分とするベクトルqが得られる。
一方、対象者8を用いて予め用意した追跡対象モデルについても同様のヒストグラムを作成し、その度数を成分とするベクトルpを作成する。
画像101の画像が追跡対象モデルに類似する場合、qは、pの周辺に分布し、類似しない場合は、pとは異なる方向に分布する。
qとpは、規格化されており、qとpの内積で定義される相関係数は、画像101が追跡対象モデルに類似するほど1に近づき、類似程度が低いほど−1に近づく。
このように、類似判断の対象となる画像を色特徴量空間に写像することにより、追跡対象モデルに類似している画像と類似していない画像を色特徴量分布により分離することができる。
この相関係数を尤度して用いることもできる。
また、例えば、HOG特徴量による類似度と色分布特徴による類似を組み合わせることも可能である。
HOG特徴量と色分布特徴は、認識が得意なシーン(場面)と不得意なシーンがあり、これらを組み合わせることにより、画像認識の頑健性を向上させることができる。
この場合、先に説明したパラメータαを用いて(実験により0.25<α<0.75とした)、α×(HOG特徴量による類似度)+(1−α)×(色分布特徴による類似度)で尤度を定義し、αを含む状態ベクトル空間で粒子を発生させることにより、尤度を最大化するαも求めることができる。
この式によると、αが大きいほどHOG特徴量の寄与が大きくなり、αが小さくなるほど色分布特徴量の寄与が大きくなる。
そのため、αを適当に選択することにより、シーンに適した値を得ることができ、頑健性が向上する。
図10は、追跡装置1が行う追跡処理を説明するためのフローチャートである。
以下の処理は、記憶部10が記憶する追跡プログラムに従ってCPU2が行うものである。
まず、CPU2は、ユーザに対象者8の身長などを入力してもらい、これに基づいて左右の検出領域のサイズを設定し、これをRAM4に記憶する。
次に、対象者8に追跡装置1の前の所定位置に立ってもらい、CPU2は、これを仮想カメラ31a、31bで撮影して、左カメラ画像と右カメラ画像を取得してRAM4に記憶する(ステップ5)。
より詳細には、CPU2は、全天球カメラ9a、9bが撮影した左全天球カメラ画像と右全天球カメラ画像をRAM4に記憶し、計算によって、これらをそれぞれ球体オブジェクト30a、30bに張り付ける。
そして、これをそれぞれ仮想カメラ31a、31bで内側から撮影した左カメラ画像と右カメラ画像を計算によって取得してRAM4に記憶する。
次に、CPU2は、左右のカメラ画像で対象者8を画像認識する(ステップ10)。
この画像認識は、例えば、RAM4に記憶したサイズの検出領域を左右のカメラ画像でそれぞれスキャンして対象者8を探索するなど、一般に行われている方法を用いる。
そして、CPU2は、仮想カメラ31a、31bをそれぞれ画像認識した対象者8の方向に向ける。
次に、CPU2は、仮想カメラ31a、31bの角度から対象者8の位置を測量することにより対象者8の存在する場所を、対象者8までの距離dと角度θにて取得してRAM4に記憶する。
そして、CPU2は、取得した対象者8の位置(d、θ)と、追跡ロボット12の正面方向と仮想カメラ31a、31bに対する角度から、追跡ロボット12に対する対象者8の位置と方向を計算し、対象者8が追跡ロボット12の正面の所定位置に位置するように、制御部6に指令を出して、追跡ロボット12を移動させる。このときCPU2は、仮想カメラ31a、31bの角度を調節して、対象者8をカメラの正面に捉えるようにする。
次に、CPU2は、対象者8の存在する場所の所定高さ(胴体あたり)の水平面上でホワイトノイズを発生させ、これに従って所定の数の粒子を発生させる(ステップ15)。そして、CPU2は、各粒子の位置(d、θ)をRAM4に記憶する。
以下のステップ20、25で各粒子に対する処理は、GPU5にて並列処理するが、ここでは、説明を簡単にするためCPU2が行うものとする。
次に、CPU2は、発生させた粒子の一つを選択し、これを左カメラ画像と右カメラ画像に、それぞれ関数g(d、θ)、f(d、θ)によって、左カメラ画像と右カメラ画像に写像し、これら写像した粒子の画像座標値をRAM4に記憶する(ステップ20)。
次に、CPU2は、左カメラ画像と右カメラ画像のそれぞれについて、写像した粒子に基づく左カメラ画像尤度と右カメラ画像尤度を計算し、これらの平均によって写像元の粒子の尤度を計算してRAM4に記憶する(ステップ25)。
次に、CPU2は、発生させた写像元の全ての粒子について尤度を計算したか否かを判断する(ステップ30)。
まだ、計算していない粒子がある場合(ステップ30;N)、ステップ20に戻って次の粒子の尤度を計算する。
一方、全ての粒子の尤度を計算した場合(ステップ30;Y)、CPU2は、粒子の尤度に基づいて各粒子を重み付けして、粒子ごとの重みをRAM4に記憶する。
次に、CPU2は、粒子の重みの分布に基づいて撮影部11に対する対象者8の位置を推定し、推定される対象者8の位置に仮想カメラ31a、31bを向ける。
そして、CPU2は、仮想カメラ31a、31bの角度から対象者8の位置を測量計算し、計算した対象者8の座標(d、θ)をRAM4に記憶する(ステップ35)。
更に、CPU2は、ステップ35でRAM4に記憶した対象者8の座標(d、θ)、及び追跡ロボット12の正面方向と仮想カメラ31a、31bの撮影方向の成す角度から、追跡ロボット12に対する対象者8の位置の座標を計算し、これを用いて、追跡ロボット12が対象者8の後方の所定の追跡位置に移動するように制御部6に指令を発して移動制御する(ステップ40)。
これに応じて制御部6は、駆動装置7を駆動して、追跡ロボット12を移動させることにより、対象者8の後について対象者8を追尾する。
次に、CPU2は、追跡処理を終了するか否かを判断する(ステップ45)。処理を継続すると判断した場合(ステップ45;N)、CPU2は、ステップ15に戻って、次の粒子を発生させ、処理を終了すると判断した場合(ステップ45;Y)は、処理を終了する。
この判断は、例えば、対象者8が目的地に到達した場合に、「到着しました」などと発話してもらい、これを音声認識することにより行ったり、あるいは、特定のジェスチャーをしてもらったりして行う。
以上、本実施形態の追跡装置1について説明したが、各種の変形が可能である。
例えば、追跡ロボット12に撮影部11、制御部6、及び駆動装置7を搭載し、他の構成要素を追跡装置1をサーバに備えて、追跡ロボット12とサーバを通信回線で結ぶことにより、追跡ロボット12を遠隔操作することもできる。
また仮想カメラ31a、31bに加えて、撮影部11に外部観察用の仮想カメラを備え、当該カメラで撮影した画像をサーバに送信するように構成することもできる。
更に、追跡装置1にマイクロフォンとスピーカを備え、第三者が携帯端末などを介して、外部観察用の仮想カメラの画像を観察しつつ、追跡対象者と会話することも可能である。
この場合、例えば、高齢者の散歩に追跡ロボット12を同行させ、介助者が携帯端末から追跡ロボット12の周囲を観察しつつ、「車が来るので気をつけてください」などと、高齢者に声をかけることが可能となる。
(第2実施形態)
第1実施形態の追跡装置1が備える撮影部11では、全天球カメラ9a、9bを左右方向に配設したが、第2実施形態の追跡装置1bが備える撮影部11bでは、これらを上下方向に配設する。
図示しないが、追跡装置1bの構成は、全天球カメラ9a、9bを上下方向に配設する他は、図2に示した追跡装置1と同様である。
図11は、第2実施形態に係る追跡ロボット12の外見例を表した図である。
図11(a)に示した追跡ロボット12dは、追跡ロボット12a(図1(a))で、全天球カメラ9a、9bを上下方向に設置したものである。
撮影部11bは、柱状部材の先端に配置されており、全天球カメラ9aが鉛直方向上側、全天球カメラ9bが鉛直方向下側に配設されている。
このように、第1実施形態では、撮影部11の長手方向が水平方向となるように設置したが、第2実施形態では、撮影部11bの長手方向が鉛直方向となるように設置した。
なお、全天球カメラ9aが全天球カメラ9bの斜め上方向に位置するように配設することも可能であり、全天球カメラ9aがある水平面の上側に位置し、全天球カメラ9bが下側に位置するように配設すればよい。
このように、追跡装置1bは、所定の水平面よりも上側に配設した上カメラと、下側に配設した下カメラを用いた輻輳ステレオカメラによって対象を撮影する撮影手段を備えている。
撮影部11の場合、全天球カメラ9a、9bが水平方向(横方向)に設置されているため、当該横方向が死角となるが、撮影部11bでは、全天球カメラ9a、9bを鉛直方向(縦方向)に設置しているため、360度の全周に渡って死角がなく、対象者8が追跡ロボット12の周りの何れの位置に存在しても対象者8の画像を取得することができる。
図11(b)、(c)の追跡ロボット12e、12fは、それぞれ図1(b)、(c)の追跡ロボット12b、12cに対応しており、それぞれ撮影部11bによって全天球カメラ9a、9bを上下に配設したものである。
図11(d)は、路面に柱を立てて、その先端に撮影部11bを取り付けた例である。路上を歩行する通行者を追跡することができる。
図11(e)は、路面に高低差のある2本の柱を立てて、低い方の柱の先端に全天球カメラ9bを取り付け、高い方の柱の先端に全天球カメラ9aを取り付けて撮影部11bを構成した例である。
このように、全天球カメラ9a、9bを、別の支持部材に取り付けたり、更に、斜め上下方向に設置しても良い。
図11(f)は、家屋やビルなどの建築物の軒下に下げる形態で撮影部11bを設置した例である。
図11(g)は、団体旅行の引率者が掲げる旗の先端に撮影部11bを設けた例である。団体客の顔を顔認証することにより、個々の参加者の位置を追跡することができる。
図11(h)は、車両の屋根に撮影部11bを設置した例である。前方車両の位置など、周囲の環境物の位置を取得することができる。
図11(i)は、三脚の上に撮影部11bを設置した例である。土木分野などで利用可能である。
図12は、第2実施形態での測量方法を説明するための図である。
粒子の発生方法は、第1実施形態と同じである。
図12(a)に示したように、追跡装置1bは、全天球カメラ9a、9bに設けた図示しない仮想カメラ31a、31bをz軸と対象者8を含む平面内で輻輳視すると共に、z軸の周りに回転して(回転角度をφとする)、撮影方向を対象者8に向ける。
図12(b)に示したように、追跡装置1bは、対象者8の位置を、対象者8の距離dと、仮想カメラ31a、31bのz軸の周りの回転角度φによる座標(d、φ)によって測量することができる。
撮影手段以外の追跡装置1bの有する各手段については、粒子を発生させる粒子発生手段、対象の存在する位置を追跡する追跡手段、測量結果を出力する出力手段、及び測量結果に基づいて移動する移動手段は、追跡装置1と同じである。
また、追跡装置1bが有する、粒子を写像する写像手段、画像認識する画像認識手段、粒子の尤度を取得する尤度取得手段、撮影方向を移動する撮影方向移動手段、対象の存在する位置を測量する測量手段、及び広角画像を取得する広角画像取得手段については、左右を上下に対応させて、左カメラ、右カメラ、左カメラ画像、右カメラ画像、左広角カメラ、右広角カメラ、左広角画像、右広角画像、左全天球カメラ、右全天球カメラを、それぞれ、上カメラ、下カメラ、上カメラ画像、下カメラ画像、上広角カメラ、下広角カメラ、上広角画像、下広角画像、上全天球カメラ、及び、下全天球カメラに対応させる構成とすることができる。
以上により、第1実施形態及び第2実施形態では、次の構成を得ることができる。
(1)第1実施形態の構成
(第101構成) 対象が存在する位置の確率分布に基づいて粒子フィルタに用いる粒子を3次元空間内に発生する粒子発生手段と、前記対象を撮影する撮影手段と、前記撮影した画像に前記発生させた粒子を写像する写像手段と、前記写像した粒子の前記画像内での位置に基づいて検出領域を設定して、前記撮影した対象を画像認識する画像認識手段と、前記画像認識の結果に基づいて前記発生させた粒子の尤度を取得する尤度取得手段と、前記取得した尤度に基づいて前記確率分布を更新することにより前記対象の存在する位置を追跡する追跡手段と、を具備し、前記粒子発生手段は、逐次、前記更新した確率分布に基づいて粒子を発生させることを特徴とする追跡装置。
(第102構成) 前記粒子発生手段は、前記対象が移動する平面に平行な平面に沿って前記粒子を発生させることを特徴とする第101構成に記載の追跡装置。
(第103構成) 前記撮影手段は、左カメラと右カメラを用いた輻輳ステレオカメラによって前記対象を撮影し、前記写像手段は、前記左カメラと前記右カメラでそれぞれ撮影した左カメラ画像と右カメラ画像に前記発生させた粒子を対応づけて写像し、前記画像認識手段は、前記左カメラ画像と前記右カメラ画像でそれぞれ画像認識し、前記尤度取得手段は、前記左カメラ画像の画像認識に基づく第1の尤度と、前記右カメラ画像の画像認識に基づく第2の尤度の少なくとも一方を用いて前記尤度を取得し、更に、前記更新した確率分布に基づいて前記左カメラと前記右カメラの撮影方向を前記対象の方向に移動する撮影方向移動手段と、を具備したことを特徴とする第101構成又は第102構成に記載の追跡装置。
(第104構成) 前記移動した左カメラと右カメラの撮影方向に基づいて前記対象の存在する位置を測量する測量手段と、前記測量した測量結果を出力する出力手段と、を具備したことを特徴とする第103構成に記載の追跡装置。
(第105構成) 左広角カメラと右広角カメラから、それぞれ、左広角画像と右広角画像を取得する広角画像取得手段を具備し、前記撮影手段は、前記取得した左広角画像から任意の方向の左カメラ画像を取得する仮想的なカメラで前記左カメラを構成するとともに、前記取得した右広角画像から任意の方向の右カメラ画像を取得する仮想的なカメラで前記右カメラを構成し、前記撮影方向移動手段は、前記左広角カメラと前記右広角カメラが、前記左広角画像と前記右広角画像からそれぞれ左カメラ画像と右カメラ画像を取得する仮想的な撮影空間で前記撮影方向を移動する、ことを特徴とする第104構成に記載の追跡装置。
(第106構成) 前記左広角カメラと前記右広角カメラは、それぞれ左全天球カメラと右全天球カメラであることを特徴とする第105構成に記載の追跡装置。
(第107構成) 前記写像手段は、前記発生させた粒子の前記左カメラ画像、及び前記右カメラ画像での位置を所定の写像関数で計算して取得することを特徴とする第103構成から第106構成までのうちの何れか1の構成に記載の追跡装置。
(第108構成) 前記撮影手段は、前記発生させた粒子ごとに前記左カメラと前記右カメラを向けて撮影し、前記写像手段は、前記左カメラ画像と前記右カメラ画像の前記撮影方向に対応する位置を前記粒子の位置として取得することを特徴とする第103構成から第106構成までのうちの何れか1の構成に記載の追跡装置。
(第109構成) 前記出力した測量結果に基づいて前記対象と共に移動する移動手段を、具備したことを特徴とする第104構成に記載の追跡装置。
(第110構成) 対象が存在する位置の確率分布に基づいて粒子フィルタに用いる粒子を3次元空間内に発生する粒子発生機能と、前記対象を撮影する撮影機能と、前記撮影した画像に前記発生させた粒子を写像する写像機能と、前記写像した粒子の前記画像内での位置に基づいて検出領域を設定して、前記撮影した対象を画像認識する画像認識機能と、前記画像認識の結果に基づいて前記発生させた粒子の尤度を取得する尤度取得機能と、前記取得した尤度に基づいて前記確率分布を更新することにより前記対象の存在する位置を追跡する追跡機能と、をコンピュータで実現し、前記粒子発生機能は、逐次、前記更新した確率分布に基づいて粒子を発生させる追跡プログラム。
(2)第2実施形態の構成
(第201構成) 走行体や建造物などに設置されて、所定の対象を検出する検出装置であって、所定の水平面よりも上側に配設した上カメラと、前記水平面よりも下側に配設した下カメラによって、前記対象を広角で撮影する撮影手段と、前記撮影した対象を、前記上カメラの上カメラ画像と前記下カメラの下カメラ画像でそれぞれ画像認識することで検出する検出手段と、を具備したことを特徴とする検出装置。
(第202構成) 対象が存在する位置の確率分布に基づいて粒子フィルタに用いる粒子を3次元空間内に発生する粒子発生手段と、前記請求項1に記載した検出装置と、尤度取得手段と、追跡手段と、を備えた追跡装置であって、前記検出装置の前記撮像手段は、所定の水平面よりも上側に配設した上カメラと、下側に配設した下カメラを用いた輻輳ステレオカメラによって前記対象を撮影し、前記検出装置の前記検出手段は、前記前記上カメラと前記下カメラでそれぞれ撮影した上カメラ画像と下カメラ画像に前記発生させた粒子を対応づけて写像する写像手段と、前記写像した粒子の前記上カメラ画像と前記下カメラ画像でのそれぞれの位置に基づいて前記上カメラ画像と前記下カメラ画像に検出領域を設定して、前記撮影した対象を前記上カメラ画像と下カメラ画像でそれぞれ画像認識する画像認識手段と、を備え、前記尤度取得手段は、前記上カメラ画像の画像認識に基づく第1の尤度と、前記下カメラ画像の画像認識に基づく第2の尤度の少なくとも一方を用いて前記発生させた粒子の尤度を取得し、前記追跡手段は、前記取得した尤度に基づいて前記確率分布を更新することにより前記対象の存在する位置を追跡し、前記粒子発生手段は、逐次、前記更新した確率分布に基づいて粒子を発生させる、ことを特徴とする追跡装置。
(第203構成) 前記粒子発生手段は、前記対象が移動する平面に平行な平面に沿って前記粒子を発生させることを特徴とする請求項2に記載の追跡装置。
(第204構成) 前記更新した確率分布に基づいて前記上カメラと前記下カメラの撮影方向を前記対象の方向に移動する撮影方向移動手段と、を具備したことを特徴とする請求項2又は請求項3に記載の追跡装置。
(第205構成) 前記移動した上カメラと下カメラの撮影方向に基づいて前記対象の存在する位置を測量する測量手段と、前記測量した測量結果を出力する出力手段と、を具備したことを特徴とする請求項4に記載の追跡装置。
(第206構成) 所定の水平面よりも上側に配設した上広角カメラと、下側に配設した下広角カメラから、それぞれ、上広角画像と下広角画像を取得する広角画像取得手段を具備し、前記撮影手段は、前記取得した上広角画像から任意の方向の上カメラ画像を取得する仮想的なカメラで前記上カメラを構成するとともに、前記取得した下広角画像から任意の方向の下カメラ画像を取得する仮想的なカメラで前記下カメラを構成し、前記撮影方向移動手段は、前記上カメラと前記下カメラが、前記上広角画像と前記下広角画像からそれぞれ上カメラ画像と下カメラ画像を取得する仮想的な撮影空間で前記撮影方向を移動する、ことを特徴とする請求項2から請求項5までのうちの何れか1の請求項に記載の追跡装置。
(第207構成) 前記上広角カメラと前記下広角カメラは、それぞれ上全天球カメラと下全天球カメラであることを特徴とする請求項6に記載の追跡装置。
(第208構成) 前記写像手段は、前記発生させた粒子の前記上カメラ画像、及び前記下カメラ画像での位置を所定の写像関数で計算して取得することを特徴とする請求項2から請求項7までのうちの何れか1の請求項に記載の追跡装置。
(第209構成) 前記撮影手段は、前記発生させた粒子ごとに前記上カメラと前記下カメラを向けて撮影し、前記写像手段は、前記上カメラ画像と前記下カメラ画像の前記撮影方向に対応する位置を前記粒子の位置として取得することを特徴とする請求項2から請求項7までのうちの何れか1の請求項に記載の追跡装置。
(第210構成) 前記出力した測量結果に基づいて前記対象と共に移動する移動手段を、具備したことを特徴とする請求項2から請求項9までのうちの何れか1の請求項に記載の追跡装置。
(第211構成) 前記上カメラと前記下カメラは鉛直線上に配設されていることを特徴とする請求項2から請求項10までのうちの何れか1の請求項に記載の追跡装置。
(第212構成) 走行体や建造物などに設置されて、所定の対象を検出する検出装置としてコンピュータを機能させる検出プログラムであって、所定の水平面よりも上側に配設した上カメラと、前記水平面よりも下側に配設した下カメラによって、前記対象を広角で撮影する撮影機能と、前記撮影した対象を、前記上カメラの上カメラ画像と前記下カメラの下カメラ画像でそれぞれ画像認識することで検出する検出機能と、コンピュータに実現させることを特徴とする検出プログラム。
(第213構成) 対象が存在する位置の確率分布に基づいて粒子フィルタに用いる粒子を3次元空間内に発生する粒子発生機能と、所定の水平面よりも上側に配設した上カメラと、下側に配設した下カメラを用いた輻輳ステレオカメラによって前記対象を撮影する撮影機能と、前記上カメラと前記下カメラでそれぞれ撮影した上カメラ画像と下カメラ画像に前記発生させた粒子を対応づけて写像する写像機能と、前記写像した粒子の前記上カメラ画像と前記下カメラ画像でのそれぞれの位置に基づいて前記上カメラ画像と前記下カメラ画像に検出領域を設定して、前記撮影した対象を前記上カメラ画像と前記下カメラ画像でそれぞれ画像認識する画像認識機能と、前記上カメラ画像の画像認識に基づく第1の尤度と、前記下カメラ画像の画像認識に基づく第2の尤度の少なくとも一方を用いて前記発生させた粒子の尤度を取得する尤度取得機能と、前記取得した尤度に基づいて前記確率分布を更新することにより前記対象の存在する位置を追跡する追跡機能と、をコンピュータで実現し、前記粒子発生機能は、逐次、前記更新した確率分布に基づいて粒子を発生させる、追跡プログラム。
1 追跡装置
2 CPU
3 ROM
4 RAM
5 GPU
6 制御部
7 駆動装置
8 対象者
9 全天球カメラ
10 記憶部
11 撮影部
12 追跡ロボット
15 筐体
16 後輪
17 前輪
20 筐体
21 後輪
22 前輪
25 筐体
26 プロペラ
30 球体オブジェクト
31 仮想カメラ
32 円形領域
33 対象
35、36 カメラ
37 撮影領域
41、42、43 粒子
51、52 粒子
61、62 検出領域
71、81、82 カメラ画像
101 画像
102 セル
106、107 ヒストグラム
109、110、111 ベクトル

Claims (13)

  1. 走行体や建造物などに設置されて、所定の対象を検出する検出装置であって、
    所定の水平面よりも上側に配設した上カメラと、前記水平面よりも下側に配設した下カメラによって、前記対象を広角で撮影する撮影手段と、
    前記撮影した対象を、前記上カメラの上カメラ画像と前記下カメラの下カメラ画像でそれぞれ画像認識することで検出する検出手段と、
    を具備したことを特徴とする検出装置。
  2. 対象が存在する位置の確率分布に基づいて粒子フィルタに用いる粒子を3次元空間内に発生する粒子発生手段と、前記請求項1に記載した検出装置と、尤度取得手段と、追跡手段と、を備えた追跡装置であって、
    前記検出装置の前記撮像手段は、所定の水平面よりも上側に配設した上カメラと、下側に配設した下カメラを用いた輻輳ステレオカメラによって前記対象を撮影し、
    前記検出装置の前記検出手段は、前記前記上カメラと前記下カメラでそれぞれ撮影した上カメラ画像と下カメラ画像に前記発生させた粒子を対応づけて写像する写像手段と、前記写像した粒子の前記上カメラ画像と前記下カメラ画像でのそれぞれの位置に基づいて前記上カメラ画像と前記下カメラ画像に検出領域を設定して、前記撮影した対象を前記上カメラ画像と下カメラ画像でそれぞれ画像認識する画像認識手段と、を備え、
    前記尤度取得手段は、前記上カメラ画像の画像認識に基づく第1の尤度と、前記下カメラ画像の画像認識に基づく第2の尤度の少なくとも一方を用いて前記発生させた粒子の尤度を取得し、
    前記追跡手段は、前記取得した尤度に基づいて前記確率分布を更新することにより前記対象の存在する位置を追跡し、
    前記粒子発生手段は、逐次、前記更新した確率分布に基づいて粒子を発生させる、
    ことを特徴とする追跡装置。
  3. 前記粒子発生手段は、前記対象が移動する平面に平行な平面に沿って前記粒子を発生させることを特徴とする請求項2に記載の追跡装置。
  4. 前記更新した確率分布に基づいて前記上カメラと前記下カメラの撮影方向を前記対象の方向に移動する撮影方向移動手段と、
    を具備したことを特徴とする請求項2又は請求項3に記載の追跡装置。
  5. 前記移動した上カメラと下カメラの撮影方向に基づいて前記対象の存在する位置を測量する測量手段と、
    前記測量した測量結果を出力する出力手段と、
    を具備したことを特徴とする請求項4に記載の追跡装置。
  6. 所定の水平面よりも上側に配設した上広角カメラと、下側に配設した下広角カメラから、それぞれ、上広角画像と下広角画像を取得する広角画像取得手段を具備し、
    前記撮影手段は、前記取得した上広角画像から任意の方向の上カメラ画像を取得する仮想的なカメラで前記上カメラを構成するとともに、前記取得した下広角画像から任意の方向の下カメラ画像を取得する仮想的なカメラで前記下カメラを構成し、
    前記撮影方向移動手段は、前記上カメラと前記下カメラが、前記上広角画像と前記下広角画像からそれぞれ上カメラ画像と下カメラ画像を取得する仮想的な撮影空間で前記撮影方向を移動する、
    ことを特徴とする請求項2から請求項5までのうちの何れか1の請求項に記載の追跡装置。
  7. 前記上広角カメラと前記下広角カメラは、それぞれ上全天球カメラと下全天球カメラであることを特徴とする請求項6に記載の追跡装置。
  8. 前記写像手段は、前記発生させた粒子の前記上カメラ画像、及び前記下カメラ画像での位置を所定の写像関数で計算して取得することを特徴とする請求項2から請求項7までのうちの何れか1の請求項に記載の追跡装置。
  9. 前記撮影手段は、前記発生させた粒子ごとに前記上カメラと前記下カメラを向けて撮影し、
    前記写像手段は、前記上カメラ画像と前記下カメラ画像の前記撮影方向に対応する位置を前記粒子の位置として取得することを特徴とする請求項2から請求項7までのうちの何れか1の請求項に記載の追跡装置。
  10. 前記出力した測量結果に基づいて前記対象と共に移動する移動手段を、
    具備したことを特徴とする請求項2から請求項9までのうちの何れか1の請求項に記載の追跡装置。
  11. 前記上カメラと前記下カメラは鉛直線上に配設されていることを特徴とする請求項2から請求項10までのうちの何れか1の請求項に記載の追跡装置。
  12. 走行体や建造物などに設置されて、所定の対象を検出する検出装置としてコンピュータを機能させる検出プログラムであって、
    所定の水平面よりも上側に配設した上カメラと、前記水平面よりも下側に配設した下カメラによって、前記対象を広角で撮影する撮影機能と、
    前記撮影した対象を、前記上カメラの上カメラ画像と前記下カメラの下カメラ画像でそれぞれ画像認識することで検出する検出機能と、
    コンピュータに実現させることを特徴とする検出プログラム。
  13. 対象が存在する位置の確率分布に基づいて粒子フィルタに用いる粒子を3次元空間内に発生する粒子発生機能と、
    所定の水平面よりも上側に配設した上カメラと、下側に配設した下カメラを用いた輻輳ステレオカメラによって前記対象を撮影する撮影機能と、
    前記上カメラと前記下カメラでそれぞれ撮影した上カメラ画像と下カメラ画像に前記発生させた粒子を対応づけて写像する写像機能と、
    前記写像した粒子の前記上カメラ画像と前記下カメラ画像でのそれぞれの位置に基づいて前記上カメラ画像と前記下カメラ画像に検出領域を設定して、前記撮影した対象を前記上カメラ画像と前記下カメラ画像でそれぞれ画像認識する画像認識機能と、
    前記上カメラ画像の画像認識に基づく第1の尤度と、前記下カメラ画像の画像認識に基づく第2の尤度の少なくとも一方を用いて前記発生させた粒子の尤度を取得する尤度取得機能と、
    前記取得した尤度に基づいて前記確率分布を更新することにより前記対象の存在する位置を追跡する追跡機能と、
    をコンピュータで実現し、
    前記粒子発生機能は、逐次、前記更新した確率分布に基づいて粒子を発生させる、追跡プログラム。
JP2020038880A 2020-03-06 2020-03-06 追跡装置、及び追跡プログラム Active JP7422361B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020038880A JP7422361B2 (ja) 2020-03-06 2020-03-06 追跡装置、及び追跡プログラム
DE112021001445.5T DE112021001445T5 (de) 2020-03-06 2021-03-08 Detektionsvorrichtung, Verfolgungsvorrichtung, Detektionsprogramm und Verfolgungsprogramm
CN202180011637.9A CN115023733A (zh) 2020-03-06 2021-03-08 检测装置、追踪装置、检测程序以及追踪程序
PCT/JP2021/008995 WO2021177471A1 (ja) 2020-03-06 2021-03-08 検出装置、追跡装置、検出プログラム、及び追跡プログラム
US17/801,867 US20230077398A1 (en) 2020-03-06 2021-03-08 Detection device, tracking device, detection program, and tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020038880A JP7422361B2 (ja) 2020-03-06 2020-03-06 追跡装置、及び追跡プログラム

Publications (3)

Publication Number Publication Date
JP2021140561A true JP2021140561A (ja) 2021-09-16
JP2021140561A5 JP2021140561A5 (ja) 2022-09-06
JP7422361B2 JP7422361B2 (ja) 2024-01-26

Family

ID=77614074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020038880A Active JP7422361B2 (ja) 2020-03-06 2020-03-06 追跡装置、及び追跡プログラム

Country Status (5)

Country Link
US (1) US20230077398A1 (ja)
JP (1) JP7422361B2 (ja)
CN (1) CN115023733A (ja)
DE (1) DE112021001445T5 (ja)
WO (1) WO2021177471A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11804038B1 (en) * 2021-06-22 2023-10-31 Amazon Technologies, Inc. Aerial array surveying of surfaces and subsurfaces

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124339A (ja) * 1991-09-09 1994-05-06 Nippon Telegr & Teleph Corp <Ntt> 街並追跡マップ作成方式
JP2017102708A (ja) * 2015-12-02 2017-06-08 日本放送協会 オブジェクト追跡装置及びそのプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5145664B2 (ja) * 2006-07-18 2013-02-20 富士ゼロックス株式会社 遠隔指示システム
US20130229519A1 (en) * 2012-03-01 2013-09-05 Madhav Kavuru Automatic rear view display in vehicles with entertainment systems
JP6727971B2 (ja) * 2016-07-19 2020-07-22 株式会社クボタ 作業車
JP7017025B2 (ja) 2017-03-08 2022-02-08 日本電気株式会社 自律移動ロボット、自律移動ロボットの制御方法および制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124339A (ja) * 1991-09-09 1994-05-06 Nippon Telegr & Teleph Corp <Ntt> 街並追跡マップ作成方式
JP2017102708A (ja) * 2015-12-02 2017-06-08 日本放送協会 オブジェクト追跡装置及びそのプログラム

Also Published As

Publication number Publication date
WO2021177471A1 (ja) 2021-09-10
JP7422361B2 (ja) 2024-01-26
CN115023733A (zh) 2022-09-06
DE112021001445T5 (de) 2023-01-12
US20230077398A1 (en) 2023-03-16

Similar Documents

Publication Publication Date Title
CN110582798B (zh) 用于虚拟增强视觉同时定位和地图构建的系统和方法
US11328158B2 (en) Visual-inertial positional awareness for autonomous and non-autonomous tracking
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
US10390003B1 (en) Visual-inertial positional awareness for autonomous and non-autonomous device
US10366508B1 (en) Visual-inertial positional awareness for autonomous and non-autonomous device
US10802509B2 (en) Selective processing of sensor data
US10410328B1 (en) Visual-inertial positional awareness for autonomous and non-autonomous device
US10599149B2 (en) Salient feature based vehicle positioning
EP2571660B1 (en) Mobile human interface robot
US7598976B2 (en) Method and apparatus for a multisensor imaging and scene interpretation system to aid the visually impaired
KR102597216B1 (ko) 공항용 안내 로봇 및 그의 동작 방법
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023056544A1 (en) Object and camera localization system and localization method for mapping of the real world
US10838515B1 (en) Tracking using controller cameras
JP6919882B2 (ja) 人推定システムおよび推定プログラム
WO2021177471A1 (ja) 検出装置、追跡装置、検出プログラム、及び追跡プログラム
JP2021193538A (ja) 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
CN111489392A (zh) 多人环境下单个目标人体运动姿态捕捉方法及系统
WO2022062442A1 (zh) Ar场景下的引导方法、装置、计算机设备及存储介质
CN116416291A (zh) 电子围栏自动生成方法、实时检测方法及装置
EP4147163A1 (en) Method and system of detecting obstacle elements with a visual aid device
JP7456590B2 (ja) 追跡装置、及び追跡プログラム
Williams et al. Scalable distributed collaborative tracking and mapping with micro aerial vehicles
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
CN113589813A (zh) 机器人构建房间户型图的控制方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220829

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240105

R150 Certificate of patent or registration of utility model

Ref document number: 7422361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150