JP2010118851A - 移動体、移動体システム、及び画像管理方法 - Google Patents

移動体、移動体システム、及び画像管理方法 Download PDF

Info

Publication number
JP2010118851A
JP2010118851A JP2008290035A JP2008290035A JP2010118851A JP 2010118851 A JP2010118851 A JP 2010118851A JP 2008290035 A JP2008290035 A JP 2008290035A JP 2008290035 A JP2008290035 A JP 2008290035A JP 2010118851 A JP2010118851 A JP 2010118851A
Authority
JP
Japan
Prior art keywords
image
gripping
camera
acquired
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008290035A
Other languages
English (en)
Other versions
JP4869319B2 (ja
Inventor
Tetsuya Taira
哲也 平
Kiyoshi Matsumoto
松本  潔
Akihito Nakai
亮仁 中井
Yoshiyuki Omura
吉幸 大村
Nobuyasu Tomokuni
伸保 友國
Kohei Okabe
康平 岡部
Ott Christian
クリスティアン オット
智之 ▲高▼畑
Tomoyuki Takahata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Toyota Motor Corp
Original Assignee
University of Tokyo NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Toyota Motor Corp filed Critical University of Tokyo NUC
Priority to JP2008290035A priority Critical patent/JP4869319B2/ja
Publication of JP2010118851A publication Critical patent/JP2010118851A/ja
Application granted granted Critical
Publication of JP4869319B2 publication Critical patent/JP4869319B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

【課題】人の体験に応じた画像を適切かつ簡便に取得することができる移動体、移動体システム、及び画像管理方法を提供する。
【解決手段】本発明にかかる移動体は、搭乗者の体験に応じた画像を取得する画像取得装置70を有する移動体であって、搭乗者が搭乗する搭乗席11と、搭乗者が把持した把持対象のステレオ画像を撮像するよう、撮像範囲が重複するように設置された2以上の把持対象用カメラ47と、ステレオ画像を撮像するステレオ画像撮像エリアの一部において、把持対象の情報を抽出するための画像処理を行う画像処理部51と、把持対象の情報に対応付けて把持対象用カメラ47で取得した画像を記憶するライフログデータベース55と、を備えるものである。
【選択図】図5

Description

本発明は、移動体、移動体システム、及び画像管理方法に関し、特に詳しくは人の体験に応じた画像を取得するための移動体、移動体システム、及び画像管理方法に関する。
ところで、近年、人の体験を記憶、利用する体験メディアを構築する技術が開発されている(非特許文献1)。例えば、人の体験をデジタル化するため、体験に応じた画像を取得している。このようにすることによって、体験を通じた知識を共有化することができる。
このような体験の記録(ログ)は、ライフログと呼ばれている(非特許文献2)。ライフログとは、体験の記録、共有をコンセプトに、映像情報に音声情報、位置情報、生体情報などを関連付けて、体験をデジタル化し、記録・共有することを目指す新しいメディアである。非特許文献2では、例えば、ウェアラブルシステム、車載カメラを用いて、ライフログが取得されている。
しかしながら、特許文献1のようなウェアラブルカメラを用いる場合、使用者がカメラなどを装着する必要となる。このため、使用者が煩わしさを感じて、ストレスとなってしまう。また、特許文献1では、ゴーグルを装着する必要があるため、眼鏡をかけた人には不向きである。特許文献2のような車載カメラを用いる場合、一定の方向の景色しか撮像することができない。
特開2004−356970号公報 特開2006−237714号公報 角康之、河村竜幸、"体験メディアの構築に向けて:体験の記録・利用の技術動向"、2006年6月9日、The 20th Annual Conderence of JSAI,2006、[ONLINE]、平成20年4月15日検索、インターネット〈URL:http://www.jaist.ac.jp/jsai2006/program/pdf/100151.pdf〉 相澤清晴"ライフログの取得と処理 −ウエアラブル,ユビキタス,車−"、2005年6月17日 The 19th Annual Conderence of JSAI,2005、[ONLINE]、平成20年4月15日検索、インターネット〈URL:hthttp://www-kasm.nii.ac.jp/jsai2005/schedule/pdf/000141.pdf〉
移動体に搭乗した搭乗者のライフログを取得することを考えた場合、上記の文献では、適切なライフログを取得することができないという問題点がある。例えば、オフィスや室内を移動する移動ロボットに搭乗者が搭乗している場合を考える。このような移動ロボットに搭乗している搭乗者は、使用環境中で、様々な物体を持ったり、放したりすることがある。すなわち、移動ロボットに乗りながら、机や棚に置いてある物体を把持したり、把持している物体を机や棚に置くことがある。このような、物体を把持したり、放したりするイベント時における画像を取得することができれば、様々な用途に応用することができる。
しかしながら、上記の文献では、このような把持物体に着目していないため、適切なライフログを取得することができない。換言すると、このような把持物体に着目してライフログを蓄積することができれば、より応用範囲を拡大することができる。しかし、上記の文献では、把持している物体に関する画像を取得することについて何ら記載していないため、人の体験に応じた画像を適切かつ簡便に取得することができないという問題点がある。
本発明は、人の体験に応じた画像を適切かつ簡便に取得することができる移動体、移動体システム、及び画像管理方法を提供することを目的とする。
本発明の第1の態様にかかる移動体は、搭乗者の体験に応じた体験画像を取得する画像取得装置を有する移動体であって、前記搭乗者が搭乗する搭乗席と、前記搭乗者が把持した把持対象のステレオ画像を撮像するよう、撮像範囲が重複するように設置された2以上の把持対象用カメラと、前記ステレオ画像を撮像するステレオ画像撮像エリアの一部において、前記把持対象の情報を抽出するための画像処理を行う画像処理部と、前記把持対象用カメラで取得した取得画像を、前記把持対象の情報に対応付けて記憶する画像記憶部と、を備えるものである。これにより、搭乗者が把持した把持対象に関する画像とその情報を記憶することができる。よって、人の体験に応じた画像を適切かつ簡便に取得することができる。
本発明の第2の態様にかかる移動体は、上記の移動体であって、前記搭乗席と連動して、前記撮像対象用カメラの撮像方向が変化することを特徴とするものである。これにより、画像処理に負荷増加を防ぐことができる。
本発明の第3の態様にかかる移動体は、上記の移動体であって、前記搭乗席の前方方向を撮像する前方用カメラをさらに備え、前記前方用カメラにおいて、前記把持物体とその周辺を撮像することを特徴とするものである。これにより、より適切な画像を取得することができる。
本発明の第4の態様にかかる移動体は、上記の移動体であって、前記画像処理部が、予め設定されたテンプレート画像に対するパターンマッチングによって前記把持対象の情報を抽出し、前記移動体の移動速度に応じて、パターンマッチングのしきい値を変化させることを特徴とするものである。これにより、より適切な画像を取得することができる。
本発明の第5の態様にかかる移動体は、上記の移動体であって、前記把持対象用カメラのステレオ画像に基づいて、前記把持対象の距離を算出し、前記把持対象の距離に応じて、前記画像処理部による画像処理を行うか否かを判定しているものである。これにより、不要な画像処理が行われるのを防ぐことができるため、処理時間を短縮することができる。
本発明の第6の態様にかかる移動体システムは、上記の移動体と、前記移動体の移動環境中に設けられたカメラと、を備えるものである。これにより、より適切な画像を取得することができる。
本発明の第7の態様にかかる画像管理方法は、移動体の搭乗席に搭乗した搭乗者の体験に応じた体験画像を管理する画像管理方法であって、撮像範囲が重複するように移動体に設置された2以上の把持対象用カメラによって、前記搭乗者が把持した把持対象のステレオ画像を撮像するステップと、前記ステレオ画像を撮像するステレオ画像撮像エリアの一部において、前記把持対象の情報を抽出するための画像処理を行うステップと、前記把持対象用カメラで取得した取得画像を、前記把持対象の情報に対応付けて記憶するステップと、を備えるものである。これにより、搭乗者が把持した把持対象に関する画像とその情報を記憶することができる。よって、人の体験に応じた画像を適切かつ簡便に取得することができる。
本発明の第8の態様にかかる画像管理方法は、上記の画像管理方法であって、前記画像処理を行うステップにおいて、予め設定されたテンプレート画像に対するパターンマッチングによって前記把持対象の情報を抽出するステップを、さらに備え、前記判定するステップにおけるしきい値を前記移動体の移動速度に応じて変化させているものである。
本発明の第9の態様にかかる画像管理方法は、上記の画像管理方法であって、前記取得画像の中にテンプレート画像に含まれる比較対象が存在する存在確率を算出するステップと、前記存在確率に応じて、前記取得画像の中に前記比較対象が存在しているか否かを判定するステップと、をさらに備え、前記比較対象が存在する場合に、前記比較対象の情報を前記把持対象の情報として抽出するものである。これにより、適切な処理を行うことができる。
本発明の第10の態様にかかる画像管理方法は、上記の画像管理方法であって、検索情報を入力するステップと、前記画像を取得した時間と前記検索情報を入力した時間との間の経過時間に基づいて、前記把持対象の存在確率を減衰させるステップと、前記減衰された存在確率に応じて検索結果を提示するステップと、をさらに備えるものである。これにより、適切な検索結果を提示することができる。
本発明の第11の態様にかかる画像管理方法は、上記の画像管理方法であって、前記把持対象用カメラのステレオ画像に基づいて、前記把持対象の距離を算出し、前記把持対象の距離に応じて、前記画像処理を行うステップにおける画像処理を行うか否かを判定しているものである。これにより、不要な画像処理が行われるのを防ぐことができるため、処理時間を短縮することができる。
本発明によれば、人の体験に応じた画像を適切かつ簡便に取得することができる移動体、移動体システム、及び画像管理方法を提供することができる。
実施の形態1.
本実施の形態にかかる移動体について、図1、及び図2を用いて説明する。図1は、移動領域である床部上を、搭乗者を載置した状態で、該搭乗者の操作により移動制御可能な椅子型移動ロボット(以下、単に移動体1という)を模式的に示す図であり、図2は、図1に示す移動体1を側方から見た様子を示す図である。図2では、左側が移動体1の前方になっている。
図1に示すように、移動体1は、搭乗者60を載置する搭乗席11と第1駆動輪31と第2駆動輪32と制御ボックス20とを備え、これらが移動体本体10を構成する。後述するように、移動体本体10には、ライフログ用の画像を取得するための画像取得装置が取り付けられている。移動体1の画像取得装置を除いた構成を移動体本体10とする。搭乗席11は座席の形状を有している。そして、この搭乗席11の上に、搭乗者60が座る。
第1駆動輪31、及び第2駆動輪32は、同軸上に配置された1対の対向する回転体である。第1駆動輪31が右輪となり、第2駆動輪32が左輪となる。第1駆動輪31、及び第2駆動輪32は制御ボックス20に対して回転可能に保持されている。第1駆動輪31、及び第2駆動輪32は制御ボックス20内に設けられている駆動モータ21によって、回転する。駆動モータ21はサーボモータなどである。第1駆動輪31、及び第2駆動輪32が回転することによって、第1駆動輪31、及び第2駆動輪32が回転する。これにより、移動体1が前進、又は後退する。また、制御ボックス20には、第1駆動輪31、及び第2駆動輪32に対してそれぞれ、駆動モータ21が設けられている。第1駆動輪31、及び第2駆動輪32は独立に回転する。第1駆動輪31、及び第2駆動輪32を独立して制御することで、左折、右折、その場旋回などを行うことができる。なお、第1駆動輪31、第2駆動輪32の前又は後に、補助輪が設けられていてもよい。
搭乗席11は搭乗者が搭乗する搭乗部となる。また、制御ボックス20が、搭乗部を支持する本体部となる。搭乗席11の上面が座面11aとなる。すなわち、座面11aの上に、搭乗者が乗った状態で移動体1が移動する。搭乗席11には背もたれが設けられている。座面11aは平面でもよいし、臀部の形に合わせた形状となっていてもよい。乗り心地を向上するために、搭乗席11にクッション性を持たせてもよい。移動体1が水平面上にある場合、座面11aが水平になっている。搭乗席11の座面11aには力センサ9が設けられている。力センサ9は、搭乗者の体重移動を検知する。すなわち、力センサ9は、搭乗席11の座面11aに加わる力を検出する。そして、力センサ9は、座面11aに加わる力に応じた計測信号を出力する。力センサ9は、搭乗席11の座面8aの下側に配置されていてもよい。また、搭乗席11の両側には、搭乗者60の腕が載置されるアームレスト13が設けられている。
力センサ9としては、例えば、6軸力センサを用いることができる。この場合、図3に示すように、3軸方向の並進力(SFx、SFy、SFz)と各軸周りのモーメント(SMx、SMy、SMz)を計測する。これらの並進力とモーメントは、力センサ9の中心を原点に取った値である。移動体1のセンサ処理部に出力する計測信号をモーメント(Mx、My、Mz)とし、それらのモーメントの制御座標原点を図2に示す(a、b、c)とすると、Mx、My、Mzは、それぞれ以下のように表すことができる。
Mx=SMx+c・SFy−b・SFz
My=SMy+a・SFz−c・SFx
Mz=SMz+b・SFx−a・SFy
なお、図3は、各軸を説明するための図である。力センサ9として、モーメント(Mx、My、Mz)を計測できるものであればよい。各軸周りのモーメント(SMx、SMy、SMz)を計測できる3軸力センサを制御座標原点に配置して、Mx,My、Mzを直接計測してもよい。また、1軸の力センサを3つ設けてもよい。さらには、歪みゲージや、ポテンショを用いたアナログジョイスティックなどでもよい。すなわち、直接的又は間接的に3軸周りのモーメントを計測できるものであればよい。そして、力センサ9は、3つのモーメント(Mx、My、Mz)を計測信号として出力する。
搭乗者60が体重移動することで、力センサ9にかかる力が変化する。移動体1は、この力センサにかかる力に応じて移動する。例えば、搭乗者の体重移動により、力センサ9に対して、ロール軸、ピッチ軸、ヨー軸周りの力が加わる。力センサ9は、この力を検出する。そして、各軸周りの力に応じた速度、及び方向に移動体1が移動する。
制御ボックス20の中には駆動モータ21、及び制御部50が配設されている。また、制御ボックス20には、駆動モータ21などの電源を供給するバッテリ(図示せず)などが設けられている。制御ボックス20は、搭乗席11の直下に配置されている。そして、制御ボックス20に取り付けられている支持部材等を介して搭乗席11が支持される。
制御部50は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信用のインターフェースなどを有する演算処理装置であり、駆動モータ21の動作を制御するための処理を行う。また、制御部50は、着脱可能なHDD、光ディスク、光磁気ディスク等を有し、各種プログラムや制御パラメータなどを記憶し、そのプログラムやデータを必要に応じてメモリ(不図示)等に供給する。また、制御部50には、ライフログを取得するためのプログラムが格納されている。
さらに、移動体本体10には、2つの把持物体用カメラ47と、1つの前方用カメラ48が設けられている。把持物体用カメラ47は、搭乗者の顔の近傍に配置されている。把持物体用カメラ47は、搭乗席11の背もたれ部分に固定されている。ここでは、顔の左右にそれぞれ把持物体用カメラ47が配置されている。なお、顔の左側の把持物体用カメラ47を把持物体用カメラ47Lとし、顔の右側の把持物体用カメラ47を把持物体用カメラ47Rとする。把持物体用カメラ47Lと把持物体用カメラ47Rの2つをまとめて、把持物体用カメラ47とする。
把持物体用カメラ47は、搭乗者60の顔と略同じ高さに固定されている。すなわち、搭乗者60の顔の左右両側にそれぞれ把持物体用カメラ47が設けられている。把持物体用カメラ47としては、例えば、パノラマカメラを用いることができる。ここで、把持物体用カメラ47は、CCDカメラなどのデジタルスチールカメラである。把持物体用カメラ47は、搭乗者60の手の辺りを斜め上方から撮像するように設置されている。すなわち、搭乗者60の動作パターンを検出するため、搭乗者60の手の動作に着目している。
ここでは、2つの把持物体用カメラ47が設けられているため、ある部分を異なる方向から撮像することができる。2つの把持物体用カメラ47は、前方斜め下に傾いて設置されている。また、左側の把持物体用カメラ47Lは少し右側を向いており、右側の把持物体用カメラ47Rは少し左側を向いている。把持物体用カメラ47で取得された画像は左眼画像となり、把持物体用カメラ47Rで取得された画像は右眼画像となる。把持物体用カメラ47Lと把持物体用カメラ47Rの撮像方向が交差する部分では、ステレオ画像の取得が可能となる。このステレオ画像を取得可能な領域は、搭乗者60の腹部の前方側であって、大腿部の上方側にある。具体的には、搭乗者60が物体を把持したときに、物体を把持した手が存在する部分がステレオ画像を撮像可能な領域となる。このように、把持物体用カメラ47Rと把持物体用カメラ47Lの視野が重なる部分で、ステレオ画像が取得される。これにより、把持物体とそれを把持した手を含む領域のステレオ画像を取得することが可能になる。2方向から把持物体を撮像することで把持物体までの距離を求めることが可能になる。
把持物体用カメラ47は、支持棒などの治具を介して、搭乗席11に設置されている。したがって、搭乗席11と連動して、把持物体用カメラ47の撮像方向が変化する。すなわち、搭乗席11が傾斜するとその傾斜角度に応じて、撮像方向が変化する。搭乗者が体重移動して搭乗席11が傾いた場合や、坂道、段差などを移動中に搭乗席11が傾いた場合でも、搭乗席11に対する把持物体用カメラ47の撮像範囲が変化しない。すなわち、搭乗席11に搭乗している搭乗者に対して、一定の領域が撮像される。この撮像領域と搭乗者60との距離は、搭乗席11が傾斜した場合でも、変化しない。よって、常に搭乗者の手の辺りを撮像することができる。すなわち、搭乗者60の手の辺りが死角になることを避けることができる。確実に把持物体のステレオ画像を取得することができる。また、把持物体用カメラ47の向きが搭乗者60と連動して動作することで、座標変換が不要になる。これにより、搭乗者の体重移動によりロール、ピッチ、ヨー軸が動作した場合でも、カメラ画像の処理負荷増加を防ぐことができる。
また、搭乗者60の前方を撮像するための前方用カメラ48が設けられている。前方用カメラ48は、CCDカメラなどのデジタルスチールカメラである。前方用カメラ48は、例えばアームレスト13の前方に設置されている。そして、前方用カメラ48は把持物体とその周辺を撮像するように固定されている。即ち、把持物体とその周辺景色が撮像される。これにより、把持物体を把持した位置や把持物体を放した場所などに関するログを取得することができる。前方用カメラ48の撮影方向も搭乗席と連動して変化する。前方用カメラ48は、把持物体と略同じ高さになる様に設置されている。なお、把持物体用カメラ47と前方用カメラ48は同期して、撮影を行うようにしてもよい。例えば、把持物体用カメラ47と前方用カメラ48は一定の時間間隔で静止画を取得している。
次に、移動体1を移動させるための制御系について、図4を用いて説明する。図4は、移動体1を移動させるための制御系の構成を示すブロック図である。まず、力センサ9によって、座面8aにかかる力を検出する。ここでは、上記の通り、力センサ9は、計測信号であるモーメントMx、My、Mzを制御部50に出力する。制御部50は、力センサ9からの計測信号に対して処理を行う。すなわち、力センサ9から出力される計測信号に対応する計測データに対して、演算処理を行う。制御部50は、モーメントに基づいて、制御計算を行う。これにより、制御部50が第1駆動輪31及び第2駆動輪32を駆動するための指令値を算出する。制御部50は、入力値に基づく指令値を各駆動モータ21に出力する。制御部50は、例えば、指令値として、駆動モータ21を回転させるための指令トルクを算出する。これにより、駆動モータ21に対して指令トルクが入力される。よって、搭乗者の意図に応じた方向及び速度で、移動体1が移動する。すなわち、搭乗者の意図通りに移動することができる。なお、トルクの代わりに回転速度等を指令値としてもよい。
さらに、駆動モータ21にはそれぞれ、エンコーダ21aが内蔵されている。このエンコーダ21aは、駆動モータ21の回転速度等を検出する。そして、検出された回転速度は、制御部50に入力される。制御部50は、現在の回転速度と、目標となる回転速度とに基づいてフィードバック制御を行う。例えば、目標回転速度と現在回転速度との差分に、適当なフィードバックゲインを乗じて、指令値を算出する。もちろん、左右の駆動モータ21に出力される指令値は、異なる値であってもよい。すなわち、前方、又は後方に直進する場合は、第1駆動輪31及び第2駆動輪32の回転速度が同じになるように制御し、左右に旋回する場合は、第1駆動輪31及び第2駆動輪32が、同じ方向で異なる回転速度になるよう制御する。また、その場旋回する場合は、第1駆動輪31及び第2駆動輪32が反対方向に回転するように制御する。エンコーダ21aの測定値によって、移動体1の現在位置が推定される。さらに、エンコーダ21aの測定値によって、移動体1の移動速度が推定される。
次に、図5、図6を用いてライフログを取得するための画像取得装置について説明する。図5は、画像取得装置の制御系を示すブロック図である。図6は、2つの把持物体用カメラ47で取得した画像を模式的に示す図である。図5に示しように、ライフログを取得するための画像取得装置70は、把持物体用カメラ47と前方用カメラ48と、制御部50とを有している。なお、制御部50は、物理的に単一な装置から構成されていなくてもよい。例えば、図4で示した移動制御を行うための制御系と、画像取得を行うための制御系とを別個の制御回路で構成してもよい。この制御部50によって、蓄積されたライフログ画像が管理されている。
制御部50には、画像処理部51と距離算出部52と判定部53とテンプレート画像データベース54とライフログデータベース55が設けられている。
テンプレート画像データベース54には、把持物体を特定するためのテンプレート画像がデータベースとして格納されている。搭乗者60によって把持されることが予定されているものがテンプレート画像として取得されている。例えば、本、ペン、手帳、メモリカード、携帯電話、電池、コップ、スティックのり、つめ切り、はさみ、アルバム、電球などの日用品(以下、物品と呼ぶこともある)のテンプレート画像が記憶されている。ここでは、1つの日用品に対して様々な条件下で画像を取得している。例えば、方向や光線条件などを変えて、日用品を撮像している。したがって、1つの物品に対して複数のテンプレート画像を取得することになる。そして、その画像とタグ情報(物品名、製品名、ジャンルなど)が対応付けて記憶されている。さらには、所定の日用品に対して、個人的な情報を付加してもよい。例えば、物品名を「お父さんの手帳」などとして、記憶してもよい。このように、テンプレート画像データベース54には、ある物体の画像と、その物体に関する情報とともに記憶されている。例えば、日用品を40点程度用意して、120枚のテンプレート画像を撮像する。また、テンプレート画像データベース54には、物品に限らず、動物などについてのテンプレート画像が格納されていてもよい。テンプレート画像には、把持物体用カメラ47で取得した画像(以下、取得画像とする)の中の物体と比較される比較対象が写っていることになる。後述するように、テンプレート画像と、取得画像とのパターンマッチングにより、把持物体を特定する。
ライフログデータベース55には、ライフログ画像がデータベースとして格納されている。例えば、把持物体用カメラ47や前方用カメラ48で取得された画像がライフログ画像として記憶される。さらに、ライフログ画像には、画像取得時間や画像取得位置を付加して、ライフログデータベース55に格納する。ライフログデータベース55では、ライフログ画像とその付加情報が対応付けられている。さらに、ライフログデータベース55には、画像処理によって抽出された把持物体に関する情報がライフログ画像に対応付けられて格納されている。さらに、取得画像とテンプレート画像間の類似度や、物品の存在確率がライフログデータベース55に格納されていてもよい。すなわち、物品に関する情報を抽出するための画像処理に関する処理結果が格納されていてもよい。
距離算出部52は、ステレオ画像を用いて、撮影された物体までの距離を算出する。すなわち、距離算出部52は、把持物体用カメラ47によって取得した画像に基づいて、その物体の3次元位置情報を抽出する。
判定部53は、ステレオ画像に写った撮影物体が、搭乗者60によって把持されている否かを判定するための処理を行う。例えば、判定部53は、把持物体用カメラ47で取得した取得画像の中で、変化領域を検出する。すなわち、前回取得した取得画像と今回取得した取得画像とを比較して、2つの画像が変化している領域を変化領域として抽出する。そして、距離算出部52は、この変化領域の3次元情報を復元する。判定部53は、距離算出部52で算出された距離を用いて、物体が設定領域内か否かを判定する。具体的には、距離算出部52は、取得画像に写った物体の距離を算出する。ここでは、2台の把持物体用カメラ47が異なる方向から撮像しているため、そのステレオ画像により物体の距離を算出することができる。
図6に示すように、搭乗者60が、その左手61と右手62で把持物体63を把持しているとする。なお、図6では、把持物体用カメラ47Lが撮像する範囲が左カメラ撮像範囲71として示され、把持物体用カメラ47Rが撮像する範囲が右カメラ撮像範囲72として示されている。左カメラ撮像範囲71が左眼画像として取得され、右カメラ撮像範囲72が右眼画像として取得される。さらに、左カメラ撮像範囲71と右カメラ撮像範囲72とで一部が空間的に重複している。この重複している部分を重複範囲73とする。この重複範囲73でステレオ画像が取得される。すなわち、重複範囲がステレオ画像取得範囲となる。把持物体63とその周辺のステレオ画像が取得されている。左カメラ撮像範囲71、右カメラ撮像範囲72、重複範囲73はそれぞれ矩形状になっている。
例えば、搭乗者60が上体の前方で、物体を把持したとすると、前回の取得画像と最新の取得画像とが大きく異なることになる。物体を把持する前と、把持した後では、画像データが大きく異なることになる。具体的には、把持する前は、取得画像の中に物体が写っていないが、把持した後では、把持した物体が取得画像の中に写ることになる。よって、画像が大きく変化することになる。重複範囲73の中で物体が大きく移動する。このように、前回の取得画像と今回の取得画像の差分を取って、差分に応じて変化領域を検出する。ここでは、左眼画像と、右眼画像のそれぞれに対して、変化領域を検出する。
そして、距離算出部52は、変化領域中の物体の距離を算出する。すなわち、移動後の物体の距離をステレオ画像に基づいて算出する。これにより、新たに把持物体用カメラ47に写った物体までの距離が算出される。そして、判定部53は、この距離に基づいて、新たに写った物体が把持物体であるか否かを判定する。例えば、距離算出部52で算出した距離が手の届く範囲を越えているような距離となった場合、把持物体ではないと判定する。反対に、距離算出部52で算出した距離が手の届く範囲内に含まれる場合、把持物体であると判定する。
画像処理部51は、テンプレート画像と取得画像とを比較して、把持物体を特定するための画像処理を行う。これにより、把持物体の情報(タグ情報等)が抽出される。例えば、画像処理部51は、全てのテンプレート画像に対してパターンマッチング処理を行う。ここで、画像処理部51は、重複範囲73の一部のみに対して、画像処理を行う。ここで、画像処理部51において、画像処理が行われる範囲を画像処理範囲74とする。すなわち、この画像処理範囲74のみに対して、パターンマッチング処理が行われる。図6では、画像処理範囲74が八角形になっている。画像処理範囲74は、把持物体用カメラ47の画素に対して予め設定されている。このように、重複範囲73の中の一部を画像処理範囲74とすることで、処理を簡素化することができる。すなわち、重複範囲73の中の一部に対してのみ、画像処理を行うことで、複雑な画像処理を行った場合でも、処理時間を短縮することができる。これにより、利便性を向上することができる。さらに、画像処理範囲74においてのみ、変化領域を抽出するようにしてもよい。
なお、取得画像には、複数の物体が写っていることがあるため、局所特徴量を用いてパターンマッチングを行うことが望ましい。画像処理部51は、例えば、SIFT(Scale Invariant Feature Transform)による特徴点マッチングを行う。例えば、それぞれのテンプレート画像中の特徴点を求めておく。そして、画像処理範囲74の中から、テンプレート画像に含まれる特徴点に対してマッチングするマッチング点を抽出する。このマッチング点の数が画像の類似度を示すことになる。このマッチング点の数に基づいて、物品を特定する。なお、ここでの処理の詳細については、後述する。もちろん、画像処理によって、2以上の物品を把持物体として特定してもよい。
このように、画像処理によって物品を特定することができたら、その物品の情報を抽出する。すなわち、テンプレート画像に対応付けられているタグ情報などが抽出される。把持物体の物品名を抽出することができる。そして、タグ情報などを取得画像と対応付けて、ライフログデータベース55に記憶する。ライフログデータベース55に格納された画像がライフログ画像となる。なお、把持物体を特定できない場合、その画像を破棄してもよい。ライフログデータベース55には、ライフログ画像の取得時間、取得位置が対応付けて記憶される。さらに、把持物体用カメラ47と同期して、前方用カメラ48を動作させる。
このように、取得画像が変化した場合のみ、ライフログを保存する。これにより、物体を把持した時や、把持している物体を机上に置いた時のライフログ画像が記憶される。すなわち、物品を移動させるような動作をした時のライフログを適切に蓄積していくことができる。このような動作をイベントと称すると、イベント発生時の画像がライフログ画像として蓄積していく。ライフログを参照することで、日用品の管理を行うことができる。例えば、最後に物体を置いた場所などを即座に知ることができる。よって、忘れ物探しの時間を減らし、効率的、快適な暮らしを実現することができる。
さらに、画像処理部51では、移動体1の移動速度に応じた画像処理のフィルタをかけている。例えば、移動速度が速い時は、パターンマッチングのスレッショルド(しきい値)を高くしている。移動中では、外乱などにより、取得画像がぶれてしまう。これにより、重複範囲73における撮影物体の位置が変化してしまう。実際に物体の位置が変化していなくても、取得画像中における撮影物体の位置が変化するおそれがある。しきい値を変化させることで、物体を把持している状態が続いているにもかかわらず、ログが残されてしまうのを防ぐことができる。
また、物体を把持する動作や、把持している物体を放す動作は、通常、移動体1が停止しる時や低速で移動している時に、行われると考えられる。パターンマッチングのスレッショルドを高くすることで、テンプレート画像とマッチングする確率を低くすることができる。これにより、移動体1が停止して、物体を把持するタイミングや、物体を放すタイミングでのログを効率的に取ることができるようになる。換言すると、移動体1が移動中に、把持物体を把持した状態のままのタイミングでは、ログが残らない。これにより、イベント発生時のみログが保存されるようになるため、不要なログが残るのを防ぐことができる。よって、処理時間を短縮できるとともに、データ量を低減することができる。
また、棚や机の周りなどの環境中に別途、固定カメラを設けてもよい。そして、固定カメラによって取得した画像をログに加えてもよい。この場合、物体の把持や開放が頻繁に行われる場所に固定カメラを設置することが好ましい。例えば、机の上や棚の前に固定カメラを設置する。そして、固定カメラにおいても画像処理を行い、取得画像に変化があった場合のみ、ログとして保存するようにする。また、固定カメラとしてネットワークカメラを用いて、画像を収集するようにしてもよい。また、移動体1と保存したログと合わせて、この場合、移動体1のログと、固定カメラのログを合わせて収集するコンピュータを用意してもよい。
また、距離に応じて、撮影物体が把持されているか否かを判定している。これにより、パターンマッチング等の画像処理を省略することができる。よって、処理時間を短縮できるとともに、データ量を低減することができる。なお、把持物体用カメラ47の近傍にURGなどの距離センサを搭載して、物体までの距離を算出してもよい。そして、物体までの距離に変動があった際のみ、把持物体用カメラ47で撮像するようにしてもよい。これにより、処理を簡素化することができるため、処理時間を短縮することができる。
次に、ライフログ画像を取得する処理について図7を用いて説明する。図7は、本実施の形態にかかる画像管理方法を示すフローチャートである。図7では、画像、保存するための処理が示されている。まず、把持物体用カメラ47によって左眼画像、右眼画像を取得する(ステップS101)。このとき、前方用カメラ48を把持物体用カメラ47と同期して動作させ、前景画像を取得してもよい。次に、変化領域を検出して、その3次元情報を復元する(ステップS102)。
なお、このステップS102について、図8を用いて詳細に説明する。まず、上記のようにステップS101で取得した左眼画像、右眼画像をメモリ等に記憶する(ステップS201)。ここでは、左眼画像、右眼画像のぞれぞれに対して、前回と今回の画像が用意される。そして、局所カラーヒストグラムによって、変化領域を検知する(ステップS202)。すなわち、前回と今回の取得画像を比較して、変化の大きい領域を変化領域とする。前回の取得画像データと今回の取得画像データの差分が大きい領域を抽出して、変化領域とする。変化領域を検知するための処理は、画像処理範囲74のみで行われる。これにより、処理を高速化することができる。そして、変化領域について、SURF(Spped Up Robust Features)特徴点を検出し、両眼画像によって特徴点の3次元座標を算出する(ステップS203)。ここでは、変化領域の距離が算出される。ここでの距離は、例えば、把持物体用カメラ47からの距離となっている。なお、距離センサを別途設けて、物体までの距離を求めてもよい。このようにして、変化領域の検出と、3次元位置情報の復元が行われる。搭乗者付近の検出点数で物体の移動を検知する(ステップS204)。これにより、搭乗者が物体を把持したこと、あるいは、物体を放したことが認識される。
次に、3次元座標を参照して、移動した物体が設定領域内に含まれているか否かを判定する(ステップS103)。物体が設定領域内に含まれてない場合、ステップS101に戻り、同様に画像を取得する。また、この場合は、取得画像を破棄するようにしてもよい。この設定領域は、搭乗者の手が届く範囲に対応している。すなわち、搭乗者から手の届く距離を越える範囲は、設定領域外となる。
物体が設定領域内に含まれている場合、取得画像と移動体1の位置を保存する(ステップS104)。このとき、移動体1の位置情報と時間情報が取得画像に対応付けてられている。そして、以下の通り、取得画像から把持物体に関する情報を抽出するためパターンマッチングを行う。まず、移動体の移動速度に応じて、パターンマッチングのスレッショルド(存在判定用のしきい値)を変更する(ステップS105)。例えば、移動速度が速い場合、スレッショルドを高くする。これにより、移動体1が高速移動中の取得画像がライフログ画像として保存されるのを防ぐことができる。移動体1の移動速度は、エンコーダ21aの測定値等によって求めることができる。
次に、パターンマッチングの画像処理について説明する。まず、全ての物品に対して画像類似度を計算する(ステップS106)。すなわち、テンプレート画像データベース54に格納されている全てのテンプレート画像に対してパターンマッチングを行う。これにより、各物品に対する画像類似度が算出される。この画像類似度は、上記の通り、特徴点に対するマッチング点の数に対応する。次に、画像類似度を存在確率に変換する(ステップS107)。すなわち、尤度計算を行って、各物品がどの程度の確率で存在するかを算出する。これは、各テンプレート画像において、元々含まれる特徴点数が異なるために、実施する。すなわち、マッチング点数は、テンプレート画像に含まれる特徴点数に大きく影響を受ける。具体的には、マッチング点数が同じ10点のときでも、テンプレート画像に含まれる特徴点数が50点の場合と、500点の場合とで存在確率が大きく異なる。マッチング点数が同じ数であったとしても、特徴点数が50点の時の存在確率は、特徴点数が500点の時の存在確率よりも大きくなる。
例えば、物体が本当に存在する事象をAとし、マッチした特徴点数(マッチング点)がk点になる事象をBとし、テンプレート画像に元々含まれる特徴点数をnとし、Aのときにある特徴点がマッチする確率をpとし、Bの時のマッチ確率をqとすると、以下の式が得られる。
P(B|A)=(1−p)n−k
P(A|B)={p(1−p)n−k}/{p(1−p)n−k+q(1−q)n−k
なお、P(A|B)={P(B|A)/P(B)}P(A)である。ここで、物体が存在しない事象をCとすると、P(A)=P(C)としている。もちろん、P(A)+P(C)=1となるため、P(A)=P(C)=0.5となる。なお。P(A)の値を経験的に設定してもよい。このように、特徴点数、マッチング点数から尤度を求めることができる。すなわち、マッチング点数を0〜1の尤度に変換することができる。なお、上記の式では、p、qとして経験的に適当な値を使用している。この尤度が存在確率となる。すなわち、この尤度が画像処理範囲74の中にテンプレート画像の比較物品が存在する存在確率を示している。尤度は、各テンプレート画像に対して算出される。
そして、存在判定条件を満たすか否かを判定する(ステップS108)。例えば、存在確率(尤度)がしきい値以上である場合、画像処理範囲74にテンプレート画像の物品が存在すると判定する。なお、ここでのしきい値は、ステップS105において最適化されている。すなわち、移動速度に応じて存在判定用のしきい値が変化する。これにより、不要なライフログが残されるのを防ぐことができる。あるテンプレート画像に対する尤度がしきい値以上である場合、把持物体をそのテンプレート画像の比較物品であると判定する。これにより、把持物体の情報を抽出することができる。もちろん、2以上の物品が存在すると判定された場合、2つの物体に関する情報が抽出される。
そして、物品存在ログを保存する(ステップS109)。取得時間、取得場所、物品、存在確率はライフログデータベース55に保存される。また、この物品に関する情報(物品名などのタグ情報)などが、ライフログ画像に対応付けてライフログデータベース55に格納される。なお、取得場所としては、移動環境中の座標でもよく、あるいは、机の上や棚の前というようにイベントが発生した領域を示すものでもよい。もちろん、座標とイベントが発生した場所の情報を示すものを両方格納してもよい。
このようにすることで、適切なライフログを蓄積していくことができる。すなわち、上記の処理を行っていくことで、搭乗者が把持した把持物体のログを画像として蓄積しておくことができる。したがって、搭乗者が何時、どこでどんな物品を把持したのかを記録していくことができる。さらに、何時、どこで、その物品を放したかを記録していくことができる。よって、利便性を向上することができる。上記のようにライフログ画像を取得していくことで、把持物体に着目したライフログデータベースを構築することができる。
また、物体までの距離に応じてパターンマッチングを行うか否かを判定している。よって、不要な画像がライフログ画像として格納されるのを防ぐことができる。これにより、利便性が向上し、より使いやすくなる。また、移動体1の移動速度に応じて、しきい値を変えている。よって、不要な画像がライフログ画像として格納されるのを防ぐことができる。また、パターンマッチングについては、上記の処理以外の画像処理を用いてもよい。
次に、蓄積したライフログデータベースから特定のライフログ画像を検索する処理について図9を用いて説明する。図9は、本実施の形態にかかる画像管理方法において、ライフログ画像を検索するための処理を説明するためのフローチャートである。例えば、検索者がある物品が今どこにあるかを検索するため、その物品名を入力したとする。すなわち、検索者が興味のある物品名を入力したとする。その物品に関してログに記憶されている存在確率を時間減衰させる(ステップS301)。ここでは、存在確率が指数関数e−tにしたがって減衰しているとしている。そして、その物品に対して、最大の存在確率を検索する(ステップS302)。そして、最大の存在確率となったライフログ画像、取得時刻、取得場所を提示する(ステップS303)。
通常、人間にとって興味がある情報は、物品に関する最新の情報である。すなわち、最後に物品が使用された場所を特定することができることが重要であると考えられる。例えば、本が3日前と5日前に棚に収納されたこと、4日前に机の上に置かれたことがそれぞれログとして残っているとする。この場合、最新の情報である3日前の情報のみ検索できれば十分である。
したがって、ステップS301において、画像取得時間からの経過時間によって指数関数的に存在確率を減衰させる。画像取得時の存在確率(尤度)をEとすると、検索時の存在確率は、E・e−tで示される。eは自然対数の底、tは画像取得時から検索時までの経過時間である。そして、ある1つの物品に対して検索情報が入力された場合、その検索情報と一致する物品の存在確率が最大となっているライフログ画像を掲示する。経過時間に応じて存在確率を減衰させることで、物品の存在に関するクエリに対して、簡便に答えることができる。よって、物探しの時間を短縮することができ、利便性を向上することができる。
なお、上記の検索処理は、移動体1以外のコンピュータによって実行してもよい。例えば、1台又は複数の移動体1が収集したライフログ画像を1つのコンピュータに転送して、保存する。そして、そのコンピュータに転送されたライフログ画像のデータベースを参照して、検索を行う。これにより、より利便性を向上することができる。また、2台以上の移動体1で収集したライフログ画像を検索、掲示できるようになれば、より存在確率の高いライフログ画像を提示することができる。よって、物品の場所をより確実に特定することができ、利便性を向上することができる。
実施の形態2.
本実施の形態では、実施の形態1に比べて、高速に検索するための処理を行っている。以下のこの処理について、図10を用いて説明する。なお、移動体1の基本的構成は、実施の形態1と同様であるため説明を省略する。また、図10において、ステップS401〜ステップS409までの処理は、図7に示したステップS101〜ステップS109までの処理とそれぞれ同様であるため、説明を省略する。すなわち、以下の説明では、実施の形態1と異なる処理についてのみ、詳細に説明する。
実施の形態1と同様に、物品存在ログを保存したら(ステップS409)、その物品のログの存在確率を時間減衰する(ステップS410)。既に、新たにライフログとして格納されたライフログ画像の存在確率を時間減衰させる。ここでは、実施の形態1と同様に指数関数的に減衰させている。
また、既に格納されているライフログ画像の中で、物品ごと、場所ごとに、最大存在確率を予め求めておく(ステップS411)。例えば、ある物品が机の上にあったときのライフログ画像が複数格納されていた場合、ある時間で最も存在確率が大きくなっているライフログ画像を抽出しておく。この最大の存在確率を最大存在確率とする。そして、最大存在確率を時間減衰させる(ステップS412)。ここでも、上記と同様に指数関数的に最大存在確率を減衰する。
そして、ステップS410とステップS412で時間減衰させた存在確率を比較する(ステップS413)。すなわち、今回取得した存在確率を時間減衰させた値と、最大存在確率を減衰させた値とを、比較する。もちろん、このステップでは、同じ時刻まで減衰させた値同士を比較している。そして、新たに取得された存在確率の減衰後の値が最大存在確率の減衰後の値を超えたか否かを判定する(ステップS414)。今回の値が過去の値を越えた場合(ステップS414のY)、最大存在確率を更新する(ステップS415)。更新された場合、ステップS411で用いる最大存在確率が変更される。例えば、最大存在確率となるログには、そのことを示す識別子などを付加する。存在確率が最大存在確率を越えていない場合は、ステップS401に戻る。この場合は、前回ステップS411で用いられた最大存在確率がそのまま次の比較でも使用されることになる。ステップS409〜ステップS415までの処理を適宜行っていれば、常に最大存在確率となるライフログ画像を速やかに特定することができる。
このように随時、最大存在確率を有するログを更新することで、即座に検索結果を提示することができる。よって、検索時間を短縮することができるようになり、利便性を向上することができる。このようにすることで、画像を適切に管理することができる。すなわち、適切な検索結果を短時間で掲示することができるようになる。
さらには、搭乗者の体験に応じた画像を取得することができるのであれば、移動体、乗物以外の場所であっても、画像取得装置を設置することができる。すなわち、画像を取得したい環境中にカメラを固定すればよい。すなわち、ユーザがある一定時間以上滞在する特定の場所に、固定カメラを予め設置しておく。そして、この場所での体験画像を取得する。このように、建物や各種設備などに画像取得装置を適用することも可能である。また、体験の記録をコンセプトに、画像だけでなく、音声や位置情報を紐付けて記憶してもよい。また、実施の形態1と実施の形態2を適宜組み合わせてもよい。
本発明の実施の形態にかかる移動体の構成を模式的に示す斜視図である。 本発明の実施の形態にかかる移動体に搭乗者が登場した状態を模式的に示す側面図である。 各軸周りの動作を説明するための図である。 本発明の実施の形態にかかる移動体を移動させるための制御系を示すブロック図である。 本発明の実施の形態にかかる移動体に設けられた画像取得装置を示すブロック図である。 画像取得装置で取得した画像を模式的に示す図である。 実施の形態1にかかる画像管理方法において、画像を取得するための処理を示すフローチャートである。 図7で示した処理の一部を詳細に示すフローチャートである。 実施の形態1にかかる画像管理方法において、画像を検索するための処理を示すフローチャートである。 実施の形態2にかかる画像管理方法において、画像を取得するための処理を示すフローチャートである。
符号の説明
1 移動体
9 力センサ
10 移動体本体
11 搭乗席
20 制御ボックス
21 モータ
21a エンコーダ
31 第1駆動輪
32 第2駆動輪
47 把持物体用カメラ
47R 把持物体用カメラ
47L 把持物体用カメラ
48 前方用カメラ
50 制御部
51 画像処理部
52 距離算出部
54 テンプレート画像データベース
55 ライフログデータベース
60 搭乗者
61 左手
62 右手
63 把持物体
71 左カメラ撮像範囲
72 右カメラ撮像範囲
73 重複範囲
74 画像処理範囲

Claims (11)

  1. 搭乗者の体験に応じた体験画像を取得する画像取得装置を有する移動体であって、
    前記搭乗者が搭乗する搭乗席と、
    前記搭乗者が把持した把持対象のステレオ画像を撮像するよう、撮像範囲が重複するように設置された2以上の把持対象用カメラと、
    前記ステレオ画像を撮像するステレオ画像撮像エリアの一部において、前記把持対象の情報を抽出するための画像処理を行う画像処理部と、
    前記把持対象用カメラで取得した取得画像を、前記把持対象の情報に対応付けて記憶する画像記憶部と、を備える移動体。
  2. 前記搭乗席と連動して、前記撮像対象用カメラの撮像方向が変化することを特徴とする請求項1に記載の移動体。
  3. 前記搭乗席の前方方向を撮像する前方用カメラをさらに備え、
    前記前方用カメラにおいて、前記把持物体とその周辺を撮像することを特徴とする請求項1、又は2に記載の移動体。
  4. 前記画像処理部が、予め設定されたテンプレート画像に対するパターンマッチングによって前記把持対象の情報を抽出し、
    前記移動体の移動速度に応じて、パターンマッチングのしきい値を変化させることを特徴とする請求項1乃至3のいずれか1項に記載の移動体。
  5. 前記把持対象用カメラのステレオ画像に基づいて、前記把持対象の距離を算出し、
    前記把持対象の距離に応じて、前記画像処理部による画像処理を行うか否かを判定している請求項1乃至4のいずれか1項に記載の移動体。
  6. 請求項1乃至5のいずれか1項に記載された移動体と、
    前記移動体の移動環境中に設けられたカメラと、を備える移動体システム。
  7. 移動体の搭乗席に搭乗した搭乗者の体験に応じた体験画像を管理する画像管理方法であって、
    撮像範囲が重複するように移動体に設置された2以上の把持対象用カメラによって、前記搭乗者が把持した把持対象のステレオ画像を撮像するステップと、
    前記ステレオ画像を撮像するステレオ画像撮像エリアの一部において、前記把持対象の情報を抽出するための画像処理を行うステップと、
    前記把持対象用カメラで取得した取得画像を、前記把持対象の情報に対応付けて記憶するステップと、を備える画像管理方法。
  8. 前記画像処理を行うステップにおいて、予め設定されたテンプレート画像に対するパターンマッチングによって前記把持対象の情報を抽出するステップを、さらに備え、
    前記パターンマッチングのしきい値を前記移動体の移動速度に応じて変化させている請求項7に記載の画像管理方法。
  9. 前記取得画像の中にテンプレート画像に含まれる比較対象が存在する存在確率を算出するステップと、
    前記存在確率に応じて、前記取得画像の中に前記比較対象が存在しているか否かを判定するステップと、をさらに備え、
    前記比較対象が存在する場合に、前記比較対象の情報を前記把持対象の情報として抽出する請求項7、又は8に記載の画像管理方法。
  10. 検索情報を入力するステップと、
    前記画像を取得した時間と前記検索情報を入力した時間との間の経過時間に基づいて、前記把持対象の存在確率を減衰させるステップと、
    前記減衰された存在確率に応じて検索結果を提示するステップと、をさらに備える請求項9に記載の画像管理方法。
  11. 前記把持対象用カメラのステレオ画像に基づいて、前記把持対象の距離を算出し、
    前記把持対象の距離に応じて、前記画像処理を行うステップにおける画像処理を行うか否かを判定している請求項6乃至10のいずれか1項に記載の画像管理方法。
JP2008290035A 2008-11-12 2008-11-12 移動体、移動体システム、及び画像管理方法 Active JP4869319B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008290035A JP4869319B2 (ja) 2008-11-12 2008-11-12 移動体、移動体システム、及び画像管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008290035A JP4869319B2 (ja) 2008-11-12 2008-11-12 移動体、移動体システム、及び画像管理方法

Publications (2)

Publication Number Publication Date
JP2010118851A true JP2010118851A (ja) 2010-05-27
JP4869319B2 JP4869319B2 (ja) 2012-02-08

Family

ID=42306223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008290035A Active JP4869319B2 (ja) 2008-11-12 2008-11-12 移動体、移動体システム、及び画像管理方法

Country Status (1)

Country Link
JP (1) JP4869319B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012059042A (ja) * 2010-09-09 2012-03-22 Mega Chips Corp 3次元画像生成装置
JP2017033382A (ja) * 2015-08-04 2017-02-09 株式会社日本総合研究所 画像情報検索サーバ、画像情報検索方法、及び利用者端末
WO2022244062A1 (ja) * 2021-05-17 2022-11-24 Eizo株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08280003A (ja) * 1995-04-07 1996-10-22 Olympus Optical Co Ltd 立体撮影装置
JP2003304486A (ja) * 2002-04-09 2003-10-24 Hitachi Ltd 記憶システムとそれを用いたサービスの販売方法
JP2005056213A (ja) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd 情報提供システム、情報提供サーバ、情報提供方法
JP2010011343A (ja) * 2008-06-30 2010-01-14 Toyota Motor Corp 画像取得装置、画像取得方法、及び移動体
JP2010039256A (ja) * 2008-08-06 2010-02-18 Toyota Motor Corp 表示システム、表示方法,及び移動体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08280003A (ja) * 1995-04-07 1996-10-22 Olympus Optical Co Ltd 立体撮影装置
JP2003304486A (ja) * 2002-04-09 2003-10-24 Hitachi Ltd 記憶システムとそれを用いたサービスの販売方法
JP2005056213A (ja) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd 情報提供システム、情報提供サーバ、情報提供方法
JP2010011343A (ja) * 2008-06-30 2010-01-14 Toyota Motor Corp 画像取得装置、画像取得方法、及び移動体
JP2010039256A (ja) * 2008-08-06 2010-02-18 Toyota Motor Corp 表示システム、表示方法,及び移動体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012059042A (ja) * 2010-09-09 2012-03-22 Mega Chips Corp 3次元画像生成装置
JP2017033382A (ja) * 2015-08-04 2017-02-09 株式会社日本総合研究所 画像情報検索サーバ、画像情報検索方法、及び利用者端末
WO2022244062A1 (ja) * 2021-05-17 2022-11-24 Eizo株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP7462113B2 (ja) 2021-05-17 2024-04-04 Eizo株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP4869319B2 (ja) 2012-02-08

Similar Documents

Publication Publication Date Title
JP6264495B1 (ja) 運転者監視装置、運転者監視方法、学習装置及び学習方法
WO2019149061A1 (en) Gesture-and gaze-based visual data acquisition system
EP2119223B1 (fr) Procede de commande a partir d'un signal oculaire volontaire, notamment pour une prise de vues
JP2022051761A (ja) 3次元空間内の姿勢推定
EP3316068B1 (fr) Système autonome de prise de vues animées par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible
JP6065077B2 (ja) ロボットによる物体手渡しシステム
JP6573193B2 (ja) 判定装置、判定方法、および判定プログラム
KR101988152B1 (ko) 비디오로부터의 영상 생성
EP3252714A1 (en) Camera selection in positional tracking
JP4865517B2 (ja) 頭部の位置・姿勢検出装置
US11010609B2 (en) Mobile image pickup system, learning method, mobile image pickup apparatus, information acquisition control apparatus, information acquisition control method and recording medium storing information acquisition control program
CA2757672A1 (en) Method of confirming motion parameters, apparatus for the same, and motion assisting device
JP6668942B2 (ja) 撮影制御装置、プログラム及び方法
FR3056921A1 (fr) Systeme autonome de prise de vues animees par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible.
US11609428B2 (en) Information processing apparatus and information processing method
CN110045827A (zh) 虚拟环境中虚拟物品的观察方法、装置及可读存储介质
CN107392083A (zh) 识别装置、识别方法、识别程序和记录介质
JP2016045874A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022174594A1 (zh) 基于多相机的裸手追踪显示方法、装置及系统
US20160232708A1 (en) Intuitive interaction apparatus and method
JP4869319B2 (ja) 移動体、移動体システム、及び画像管理方法
JP2010127779A (ja) 情報提供装置、情報提供方法およびプログラム
CN109076101B (zh) 云台控制方法、设备及计算机可读存储介质
JP2006268395A (ja) 情報処理装置、情報処理方法及びプログラム
JP2004338889A (ja) 映像認識装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100722

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111115

R151 Written notification of patent or utility model registration

Ref document number: 4869319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250