JP2004192076A - Image generation device - Google Patents

Image generation device Download PDF

Info

Publication number
JP2004192076A
JP2004192076A JP2002356090A JP2002356090A JP2004192076A JP 2004192076 A JP2004192076 A JP 2004192076A JP 2002356090 A JP2002356090 A JP 2002356090A JP 2002356090 A JP2002356090 A JP 2002356090A JP 2004192076 A JP2004192076 A JP 2004192076A
Authority
JP
Japan
Prior art keywords
image
moving body
distance
image generation
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002356090A
Other languages
Japanese (ja)
Other versions
JP4255272B2 (en
Inventor
Takumi Hashizume
匠 橋詰
Junichi Takiguchi
純一 瀧口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Mitsubishi Electric Corp
Original Assignee
Waseda University
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Mitsubishi Electric Corp filed Critical Waseda University
Priority to JP2002356090A priority Critical patent/JP4255272B2/en
Publication of JP2004192076A publication Critical patent/JP2004192076A/en
Application granted granted Critical
Publication of JP4255272B2 publication Critical patent/JP4255272B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an image useful for precisely grasping the state of a space or the like which a person cannot easily look directly at, or the state of an object such as a person or matter present in the space. <P>SOLUTION: A searching and monitoring device 10 comprises a mobile 11 movable in a prescribed direction to generate an integrated area image A of the moving area, and a full circumference imaging device 16 provided on the mobile 11 to substantially simultaneously image the circumferential visual field to obtain a ring-like original image T. The mobile 11 comprises an image expansion means 35 for expanding the original image T to a substantially rectangular panoramic image P, and an area image generation means 36 for integrating the panoramic images P of the area in which the mobile is moved to generate the area image A. In the area image generation means 36, the processing of collecting the panoramic images P having a width W according to the speed of the mobile 11 every predetermined time, and connecting each panoramic image P with the lapse of time is performed. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像生成装置に係り、更に詳しくは、人間が容易に直視することのできない空間等の様子、及び当該空間内に存在する人や物等の状況を正確に把握するのに有用な画像生成装置に関する。
【0002】
【従来の技術】
従来、大地震で倒壊の可能性のある家屋内の被災者発見、火災等で人間が侵入できない場所での生存者発見、又は、原子炉内等の人間が容易に入れない場所での機器点検時には、CCDカメラを搭載した無線操縦の移動体を進入させ、CCDカメラからの映像を外部で確認することで,遭難者の救出プランの策定や,機器の点検が実施されている。(例えば、特許文献1参照)
【0003】
【特許文献1】
特開2002−200990号公報
【0004】
【発明が解決しようとする課題】
しかしながら、前記従来技術では、リアルタイムのカメラ映像のみが得られるに過ぎず、移動体が進入する内部の状況が複雑な場合に、対象物とカメラアングル如何では、対象物等の識別や機器の点検が困難な場合がある。また、例えば、被災者を画像上で確認できても、その位置までは特定できないばかりか、その周囲の環境(例えば,天井落下の危険性,障害物の有無)の危険度に関する判断が固定カメラの瞬時映像からでは行い難いという問題がある。更に、救出のための階段や穴等をカメラで捕らえることができても、階段や穴等と被災者との位置関係が掴み難いため、救出プラン策定が行い難いという問題がある。また、カメラの映像からでは、当該カメラと被災者や点検対象機器等の対象物との離間距離が不明であり、この離間距離を簡単に把握できる装置の出現も要望されているところである。
【0005】
【発明の目的】
本発明は、以上の問題点に着目して案出されたものであり、その目的は、人間が容易に直視することのできない空間等の様子や当該空間内に存在する人、物等対象物の状況を正確に把握するのに有用な画像を得ることができる画像生成装置を提供することにある。
【0006】
また、本発明の他の目的は、カメラ等の撮像手段によって撮像された対象物と撮像手段との離間距離を画像上で簡単に把握することができる画像生成装置を提供することにある。
【0007】
【課題を解決するための手段】
前記目的を達成するため、本発明は、所定方向に移動可能な移動体と、この移動体に設けられるとともに、周囲の視野を略同時に撮像してリング状の原画像を得る撮像手段と、前記原画像を略短冊状のパノラマ画像に展開する画像展開手段と、前記移動体が移動した領域のパノラマ画像を総合した領域画像を生成する領域画像生成手段とを備え、
前記領域画像生成手段は、前記移動体の速度に応じた幅のパノラマ画像を所定時間毎に収集し、これら各パノラマ画像を経時的に繋ぎ合わることで、前記領域画像を生成する、という構成を採っている。このような構成によれば、移動体の移動領域のパノラマ画像を総合した領域画像が形成されるため、移動体が移動した空間の様子や当該空間内に存在する人や物の状況を一連の画像を用いて正確に把握することができる。従って、空間の状況が複雑であっても、空間内の人や物の識別や機器の点検等を容易に行うことができる他、被災者と、危険物及び救出のための階段、穴等との相対位置や相対姿勢が掴み易くなり、被災者の救出プランの策定を容易に行うことも可能となる。
【0008】
本発明における領域画像生成手段は、前記各パノラマ画像が略一定の向きで直線方向に繋ぎ合わされてなる帯状領域画像が生成される移動体基準画像生成部を備える、という構成を採っている。このように構成することで、比較的簡単な画像処理で領域画像を形成することができる。
【0009】
また、前記移動体の速度を検出する速度検出手段と、前記移動体の方位角及び/又は姿勢変位角を検出する角度検出手段とを備え、
前記領域画像生成手段は、方位が考慮された地図的領域画像が生成される方位基準画像生成部を備え、当該方位基準画像生成部は、前記速度検出手段及び角度検出手段の検出値に基づいて、各パノラマ画像が所定の方位を基準として繋ぎ合わされることで、前記地図的領域画像を生成する、という構成を併用できる。このような構成により、領域画像に映し出された対象物等の方位や、移動体の移動距離等が簡単に分かり、対象物等の探索や移動体の現在位置の特定等を容易に行うことができる。また、被災者や機器の周囲の環境の危険性、例えば、天井のコンクリートのひび割れ、天井落下の危険性、床面の穴や段差、床や壁面の障害物の有無等が地図に対応して表示されることになり、これら危険性のある場所や部位等を地図上で特定することができる。
【0010】
ここにおいて、前記速度検出手段は、所定の直交三軸方向の速度をそれぞれ検出可能に設けられる一方、前記角度検出手段は、前記直交三軸回りの回転角をそれぞれ検出可能に設けられ、
前記方位基準画像生成部は、前記速度検出手段及び角度検出手段からの検出値に基づいて、前記地図的領域画像を三次元的に生成する、という構成を採ることが好ましい。これにより、移動体が天地方向に移動する場合においても、移動体の移動領域の周囲の状況、対象物等の方位、移動体の移動距離、及び、移動体の現在位置等を正確に把握することができる。
【0011】
ここで、前記方位基準画像生成部は、前記移動体の移動軌跡を算出可能に設けられる、という構成を併用することができる。このような構成によれば、移動体の移動ルートを地図上で簡単に把握することが可能となる。
【0012】
また、前記方位基準画像生成部には、前記移動体の移動による画像のブレを補正するスタビライザー機能が設けられる、という構成を採るとよい。これにより、移動体の移動時に撮像手段に揺れが生じても、当該揺れによる画像のブレが補正され、より見易い領域画像を提供することができる。
【0013】
更に、前記移動体と所定の対象物との離間距離が反映された距離画像を生成する距離画像生成手段を更に備え、
前記距離画像生成手段は、前記移動体の移動による前記原画像の視差から算出された離間距離に基づいて前記距離画像を生成する、という構成も併せて採用することができる。このような構成によれば、カメラ等の撮像手段によって撮像された対象物と撮像手段との離間距離を画像上で簡単に把握することができ、移動体の移動時における障害物の回避、移動体の速度調整や進路決定等を難なく行うことができる。
【0014】
ここにおいて、前記距離画像生成手段は、前記離間距離に応じて異なる色彩が施された距離画像を生成する、という構成を採用とするとよい。これにより、対象物に対する遠近関係を視覚的に早く把握することができ、移動体の操作性を一層高めることができる。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら説明する。
【0016】
[第1実施例]
図1には、本実施例に係る画像生成装置としての探索監視装置の概略構成図が示されている。この図において、探索監視装置10は、人間が入れない場所等を移動しながら周囲を撮像し、当該移動領域を総合した領域画像を生成する装置である。この探索監視装置10は、所定方向に移動して前記領域画像を生成する移動体11と、この移動体11の移動を遠隔操作するための移動操作端末12と、移動体11と別個に設けられるとともに、当該移動体11からの領域画像が表示される表示手段14とを備えて構成されている。
【0017】
前記移動体11は、前方及び周囲の視野を略同時に撮像可能な撮像手段としての全周撮像器(ODV:Omni−Directional Vision)16と、この全周撮像器16の後方(図1中左方)に連なるとともに、各種センサが格納されたセンサユニット(IMU:Inertial Measurement Unit)17と、これら全周撮像器16及びセンサユニット17からの各種データに基づき、コンピュータを用いて所定の演算処理等を行うことにより前記領域画像を生成する画像処理装置18と、これら各装置16〜18が搭載されるとともに、キャタビラー等からなる移動機構20が設けられたプラットフォーム21と、前記移動操作端末12からの指令に基づいて移動機構20を駆動させる駆動装置22とを備えて構成されている。
【0018】
前記全周撮像器16は、図2に示されるように、略半球状の外観をなす本体24と、この本体24の外周部分に周方向に沿って多数設けられて図示しない電源により発光するLED等の発光体25とを備えている。
【0019】
前記本体24は、本出願人により既提案されている特開2002−325246号公報等に記載された構造が採用され、その前方(図1中右方)と側方略全周(側方約360度)とを略同時に撮像可能となっている。すなわち、本体24は、図3に示されるように、略中央に穴27が形成された凸状の主鏡28と、当該主鏡28を覆うとともに、外からの光が透過可能となる略半球状のドーム29と、このドーム29の頂部29Aに固定された凸状の副鏡30と、主鏡28の穴27の裏側(図3中左方)に相対配置されるCCDカメラ等の撮像部31とを備えている。この本体24は、図3中二点鎖線で示されるように、その前方からの光が直接、撮像部31に入射される一方、側方からの光が主鏡28、副鏡30の順で反射されて撮像部31に入射されるようになっている。この結果、図4に示される円形の原画像Tが得られるようになっている。この原画像Tは、側方略全周の画像を表すリング状のドーナツ画像Dと、このドーナツ画像Dの内側に位置するとともに、前方の画像を表す中央画像Cとにより構成されている。
【0020】
前記発光体25は、全周撮像器16の周辺が所定以下の明るさになったときに発光することで、暗所での本体24による撮像を可能にしている。この場合、特に限定されるものではないが、全周撮像器16が存在する場所の明るさ等に応じて自動若しくは手動でON−OFFできるように構成し、加えて、発光体25の照度等を調整できる構造としてもよい。
【0021】
なお、前記全周撮像器16としては、中央画像Cをも含めた原画像Tが得られる構造としたが、ドーナツ画像Dのみが得られるようにしてもよい。要するに、本発明は、周囲の視野を略同時に撮像してリング状の原画像Tを得ることができる限りにおいて、種々の構造の撮像手段を採用することができる。
【0022】
前記センサユニット17は、図5に示されるように、移動体11の進行方向の直線加速度を検出可能な直線加速度計33によって構成されている。
【0023】
前記画像処理装置18は、図5及び図6に示されるように、全周撮像器16で得られたドーナツ画像Dを短冊状のパノラマ画像Pに展開する画像展開手段35と、この画像展開手段35より展開されたパノラマ画像Pを繋ぎ合わせて、前記移動体11(図1参照)の移動領域を総合した一連の領域画像A(図7参照)を生成する領域画像生成手段36とを備えている。
【0024】
前記画像展開手段35は、図5に示されるように、全周撮像器16で得られたドーナツ画像Dに係るデータをデジタル変換する公知のフレームグラバ38と、このフレームグラバ38で変換されたデジタルデータ(例えば、ビットマップデータ)に対して所定の演算処理をすることで前記パノラマ画像Pを生成する処理部39とを備えて構成されている。
【0025】
処理部39は、前記特開2002−325246号公報において本出願人が既に提案したアルゴリズムを用いて、歪んだドーナツ画像Dから歪みが補正されたパノラマ画像Pに展開できるようになっている。なお、この展開アルゴリズムは、本発明の本質ではないため詳細な説明を省略する。
【0026】
前記領域画像生成手段36は、図7に示されるように、パノラマ画像Pを所定時間毎に収集し、これら各パノラマ画像Pを経時的に繋ぎ合わることで、帯状領域画像A1を生成するようになっている。すなわち、領域画像生成手段36は、図5に示されるように、前記直線加速度計33による検出値を時間で積分して移動速度を演算する積分器41と、この積分器41による演算値から全周撮像器16が基準となる帯状領域画像A1を生成する移動体基準画像生成部42とにより構成されている。この移動体基準画像生成部42は、単位時間毎に撮像されたパノラマ画像Pを略一定の向きで直線方向(図7中左右方向)に経時的に繋ぎ合わせることで、一連の帯状領域画像A1を生成するようになっている。つまり、ここでは、図7に示されるように、パノラマ画像Pの長寸側の辺同士が経時的に接合され、方形状の帯状領域画像A1が生成されることになる。この際、各パノラマ画像Pの短寸方向の幅Wは、積分器41で求められた移動体11の移動速度に応じて相違し、具体的には、移動体11の移動速度の増大に伴って幅Wが増大するようになっている。ここで、以上においては、直線加速度計33及び積分器41により、移動体11の速度を検出する速度検出手段を構成する。なお、この速度検出手段としては、前記構成例に限定されるものではなく、オドメータ等の他の機器を適用することもできる。
【0027】
前記表示手段14は、一若しくは二以上の液晶ディスプレイやCRTディスプレイ等により構成されており、具体的には、図5に示されるように、全周撮像器16からの原画像Tをリアルタイムで表示する第1の表示部44と、領域画像生成手段36で生成された帯状領域画像A1を表示する第2の表示部45とを備えている。
【0028】
従って、このような第1実施例によれば、第1の表示部44に表示された全周撮像器16の現在の原画像Tを見ながら、人間の入れないような場所等での移動体11の操作を簡単に行うことができる。更に、移動体11の移動領域の画像が一連の領域画像Aとして得られることになるため、人間が容易に入れないような場所等の様子やその場所に存在する対象物等を、あたかも人間が実際に見たのと略同等に把握できるという効果を得る。
【0029】
次に、本発明の前記以外の実施例について説明する。なお、以下の説明において、前述した部分と同一若しくは同等の構成部分については、同一符号を用いて説明を省略若しくは簡略にする。
【0030】
[第2実施例]
この第2実施例は、第1実施例に対し、帯状領域画像A1の他に、方位が考慮された図8の地図的領域画像A2をも生成可能としたところに特徴を有する。
【0031】
すなわち、ここでの地図的領域画像A2は、図8中北方向を上方、東方向を右方とする水平面上において、各パノラマ画像Pが、それらの中での北方向が常に同図中上を向くように、各パノラマ画像Pを適宜回転しながら繋ぎ合わされることにより形成される。従って、この地図的領域画像A2は、北基準の地図的な役割を担い、ある部分に映し出されている所定の対象物(図示省略)の位置や移動体11の出発点等からの距離の把握を可能とする。この地図的領域画像A2は、前記表示手段14の一部を構成する第3の表示部46(図9参照)で表示されるようになっている。なお、その他の第1及び第2の表示部44,45は、前記第1実施例と同様に、原画像T、帯状領域画像A1が表示されるようになっている。
【0032】
また、図9に示されるように、前記センサユニット17は、前記直線加速度計33に加え、地磁気の水平成分から移動体11のヨー方位角を検出可能な磁気方位計48を更に備えている。なお、磁気方位計48の代わりに地球の自転を検出する方式の他の方位計を適用することも可能である。
【0033】
前記領域画像生成手段36は、前記移動体基準画像生成部42及び前記積分器41に加え、当該積分器41で演算された移動体11の移動速度及び磁気方位計48で検出された方位角に基づいて、地図的領域画像A2を生成する方位基準画像生成部50を更に備えて構成されている。
【0034】
方位基準画像生成部50は、図10に示されるように、北が上方、東が右方となる地図状の北基準水平面座標系(磁北座標系)における各パノラマ画像Pの姿勢(回転角)と移動軌跡Lを求め、各パノラマ画像Pを北基準で経時的に繋ぎ合わせるようになっている。
【0035】
すなわち、方位基準画像生成部50では、図11に示されるアルゴリズムを用いて地図的領域画像A2が生成される。以下、このアルゴリズムの内容について説明する。
【0036】
先ず、前記第1実施例と同様にしてドーナツ画像Dがパノラマ画像Pに展開された後(S101)、各パノラマ画像Pは、磁気方位計48の検出値ψMAGに基づき、図12のパノラマ画像座標系P(x(i),y(j))から図10の磁北座標系N(x(i),y(j))に変換される(S102)。この際における変換式は、次の通りである。
【数1】

Figure 2004192076
但し、i=1〜w(図12参照)、j=1〜h(図12参照)とする。
このようにして求められた値は、前記各パノラマ画像Pの回転角を特定するパラメータとなる。
【0037】
一方、各パノラマ画像Pの移動軌跡Lは、積分器41により演算された移動体11の直線速度ΔLと磁気方位計48の検出値ψMAGとに基づき、次式によって求められる(S103)。
【数2】
Figure 2004192076
ここで、n(n=1,2,3・・・・)は、サンプリング周期であり、L(x,y)は、サンプリング時の移動体11の位置を示す。
【0038】
以上の式により、各サンプルにおけるパノラマ画像Pの位置及び姿勢が特定され、それらを総合して地図的領域画像A2が生成される(S104)。
【0039】
従って、このような第2実施例によれば、前述した第1実施例の効果に加え、地図的領域画像A2も得られるため、移動体11に写し出された人や物の位置に対する外部からの正確な把握に寄与できるという効果をも得る。
【0040】
[第3実施例]
この第3実施例は、前記第2実施例に対し、前記第3の表示部46で、図13に示されるように、地図的領域画像A2及び移動体11の移動軌跡Lを三次元的に表示可能にしたところに特徴を有する。同時に、方位基準画像生成部50に、移動体11の移動による地図的領域画像A2のブレを補正するスタビライザー機能を設けたところに特徴を有する。
【0041】
ここでのセンサユニット17は、図14に示されるように、移動体11の進行方向をX軸とする直交三軸方向の移動体11の直線加速度をそれぞれ検出可能な3軸直線加速度計52と、移動体11のロール方向、ピッチ方向、及びヨー方向回りの角速度を検出可能な3軸ジャイロ53と、前記磁気方位計48とを備えて構成されている。
【0042】
また、3軸直線加速度計52で検出された各直線加速度を時間で積分して直交三軸方向の速度を演算する積分器55と、3軸ジャイロ53で検出された各角速度を時間で積分して三方向回りの回転角度を演算する積分器56とが設けられている。従って、3軸直線加速度計52と積分器55とにより、所定の直交三軸方向の移動体の速度を検出可能な速度検出手段が構成される一方、3軸ジャイロ53と積分器56とにより、前記直交三軸回りの回転角(姿勢変位角)を検出可能な角度検出手段が構成される。なお、この角度検出手段としては、ヨー方向について前記磁気方位計48を用い、他の二方向については、傾斜を検出する傾斜計等に代替させることも可能である。
【0043】
本実施例に係る方位基準画像生成部50は、前記各実施例と同様の手順で得られたパノラマ画像Pと、3軸直線加速度計52及び積分器55により得られた直交三軸方向の速度と、3軸ジャイロ53と積分器56により得られた三方向回りの回転角と、前記磁気方位計により検出された方位角とから、前記第2実施例と異なるアルゴリズムを用いることにより、前記地図的領域画像A2及び移動軌跡Lを三次元的に生成し、且つ、地図的領域画像A2のブレを補正するよう演算処理するようになっている。
【0044】
ここでのアルゴリズムにつき、図15等を用いながら以下に説明する。
【0045】
前記各実施例と同様にしてドーナツ画像Dがパノラマ画像Pに展開された後(S201)、当該パノラマ画像Pの各座標が、図12のパノラマ画像座標系P(x(i),y(j))から、図16の極座標系Q(θAZ_0(i),θEL_0(j))に変換される(S202)。ここでは、次の変換式が用いられる。
【数3】
Figure 2004192076
但し、i=1〜w(図12参照)とする。
【数4】
Figure 2004192076
但し、j=1〜h(図12参照)とする。
【0046】
そして、パノラマ画像Pの各座標が、図15及び図17に示されるように、極座標系Q(θAZ_0(i),θEL_0(j))から、直交座標系(x,y,z)に変換される(S203)。ここでは、次の変換式が用いられる。
【数5】
Figure 2004192076
【数6】
Figure 2004192076
【数7】
Figure 2004192076
ここで得られたパノラマ画像Pの各座標は、図18及び図19に示されるように、全周撮像器16(ODV)を基準としたODV基準直交座標系(x,y,z)となる。
【0047】
次いで、図15に示されるように、パノラマ画像Pの各座標は、前記ODV基準直交座標系(x,y,z)から、移動体11を基準とした図20の機体基準直交座標系(x,y,z)に変換される(S204)。ここでは、次の変換式が用いられる。
【数8】
Figure 2004192076
但し、φ0−P,θ0−P,ψ0−Pは、移動体11に対する全周撮像器16のオフセット角、つまり、ODV基準直交座標系と機体基準直交座標系とのオフセット角である。また、次式(9)〜(11)に示されるように、C(φ)は、ロール(x)方向の回転行列であり、C(θ)は、ピッチ(y)方向の回転行列であり、C(ψ)は、ヨー(z)方向の回転行列である。
【数9】
Figure 2004192076
【数10】
Figure 2004192076
【数11】
Figure 2004192076
【0048】
そして、パノラマ画像Pの各座標は、移動体11によって動く前記機体基準直交座標系(x,y,z)から、常時静止状態となる水平面基準座標系(x,y,z)に変換される(S205)。ここでは、積分器56で3軸ジャイロ53の角速度を積分する(S206)ことによって得られる各方向の回転角(ロール方向φ,ピッチ方向θ,ヨー方向ψ)が用いられ、これによって、移動体11の移動によるパノラマ画像Pのブレを補正する処理が行われる。ここで、機体基準直交座標系(x,y,z)から、水平面基準座標系(x,y,z)への変換式は、次の通りである。
【数12】
Figure 2004192076
なお、C(φ)、C(θ)、C(ψ)は、前述の式(9)〜(11)を利用して求められる。
【0049】
次に、パノラマ画像Pの各座標は、水平面基準座標系(x,y,z)から、極座標系(θAZ_H(i),θEL_H(j))に変換される(S207)。ここでの変換式は、次の通りである。
【数13】
Figure 2004192076
但し、x,yの大きさにより、図21の場合分けが行われる。
【数14】
Figure 2004192076
【0050】
更に、パノラマ画像Pの各座標は、極座標系(θAZ_H(i),θEL_H(j))から、水平面基準のパノラマ画像座標系H(x(i),y(j))に変換される(S208)。ここでの変換式は、次の通りである。
【数15】
Figure 2004192076
但し、i=1〜w(図12参照)とする。
【数16】
Figure 2004192076
但し、j=1〜h(図12参照)とする。
【0051】
一方、パノラマ画像Pの移動軌跡Lは、次のようにして求められる。
【0052】
先ず、3軸直線加速度計52で検出された各方向の加速度を積分器55で積分することで、移動体の速度(Δx,Δy,Δz)が求められる(S209)。そして、前記機体基準直交座標系での速度(Δx,Δy,Δz)から、前記水平面基準座標系での速度(Δx,Δy,Δz)に変換される(S210)。ここでの変換式は、前述した式(12)が利用される。ここでも、前述の手順(S206)によって得られた各方向の回転角度(ロール方向φ,ピッチ方向θ,ヨー方向ψ)が用いられる。なお、C(φ)、C(θ)、C(ψ)は、前述の式(9)〜(11)を利用して求められる。
【0053】
そして、水平面基準座標系の速度(Δx,Δy)が、磁気方位計48からの検出値ψMAGに基づき、図10の磁北座標系の速度(Δx,Δy)に変換される(S211)。このときの変換式は、次の通りである。なお、ここでは、Δzは用いない。
【数17】
Figure 2004192076
【0054】
次に、前記磁北座標系の速度(Δx,Δy)と速度Δzとから、次式を用いて移動体11の移動軌跡Lが求められる(S212)。
【数18】
Figure 2004192076
ここで、n(n=1,2,3・・・・)は、サンプリング周期である。
【0055】
このようにして求められた移動軌跡Lは、前記第3の表示部46で、図13のように三次元的に表示される(S213)。
【0056】
また、パノラマ画像Pの各座標は、前記S208の手順で求めたパノラマ画像座標系H(x(i),y(j))から、前記磁北座標系に変換される(S214)。ここでは、前記S212の手順で求められた移動体11の移動軌跡Lと、磁気方位計48からの検出値ψMAGとに基づき、次式により変換される。
【数19】
Figure 2004192076
但し、i=1〜w、j=1〜hとする。
【0057】
このようにして求められた北方向基準の地図的領域画像A2は、天地方向(Z軸方向)の位置(高さ・深さ位置)毎に、第3の表示部46で表示可能となる(S214)。
【0058】
従って、このような第3実施例によれば、前述した効果に加え、移動体11が天地方向に移動したときでも、その周囲の状況をより確実に把握することができるという効果を得る。
【0059】
また、方位基準画像生成部50に、移動体11の移動に伴うパノラマ画像Pのブレを補正するスタビライザー機能が設けられているため、例えば、瓦礫の上を移動体11が走行する場合等において、当該移動体11の揺れにより生じるパノラマ画像Pのブレが補正されることになり、地図的領域画像A2を一層見易くできるという効果をも得る。
【0060】
なお、第3実施例の方位基準画像生成部50に対し、スタビライザー機能を設けないようにすることも可能である。この場合は、積分器56で演算された角度変位(φ、θ、ψ)を考慮せずに、第2実施例と同様にしてパノラマ座標Pの座標変換が行われる。
【0061】
また、前記第2及び第3実施例では、北基準の地図的領域画像A2を生成できるようにしたが、本発明はこれに限らず、同様のアルゴリズムで、他の方角や方向等を基準とした地図的領域画像A2を生成するようにしてもよい。
【0062】
[第4実施例]
この第4実施例に係る探索監視装置60は、図22に示されるように、前記第1実施例の構成に加え、移動体11から所定の対象物(図示省略)までの距離が反映された距離画像を生成する距離画像生成手段62を更に備えたところに特徴を有する。なお、ここで生成された距離画像は、表示手段14の第3の表示部64で表示される。
【0063】
前記距離画像生成手段62は、図22及び図23に示されるように、距離画像を生成する際に移動体11の移動を指令する距離画像指令端末66と、当該距離画像指令端末66からの信号と前記移動指令端末12からの信号を選択的に切り替える切替部67と、フレームグラバ38からのドーナツ画像Dが記憶される画像メモリ69と、撮像タイミングの相違する二枚のドーナツ画像Dを対比することで、所定の距離画像を生成する距離画像生成部70と、これら画像メモリ69及び距離画像生成部70を指令する撮像タイミング発生部71とを備えて構成されている。
【0064】
なお、特に限定されるものではないが、本実施例では、距離画像指令端末66、切替部67、及び撮像タイミング発生部71が移動体11と別個に設けられる一方、画像メモリ69及び距離画像生成部70が移動体11の画像処理装置18に設けられている。ここで、切替部67及び撮像タイミング発生部71を、移動体11に設けてもよいし、逆に、画像メモリ69及び距離画像生成部70を、移動体11と別個に設けてもよい。
【0065】
前記距離画像指令端末66は、所定の操作を行うと、切替部67が切り替わって、移動体11を直進させる指令を駆動装置22に付与するようになっている。
【0066】
前記距離画像生成部70は、移動体11の移動により異なる角度から撮像された二つのドーナツ画像Dに対し、それぞれ写った対象物の各画素数の差である視差から、移動体11と対象物との間の最短離間距離(以下、単に、「離間距離」と称する)を算出し、当該離間距離の大きさに応じて、前記対象物の色彩を人工的に変えた距離画像を生成できるようになっている。ここで、前記離間距離の算出は、前記視差の逆数に所定の定数を乗じることにより求められる。また、距離画像の生成は、距離毎に定められた色彩から、算出された離間距離に対応する色彩を選択し、当該色彩を、前記対象物が映った画像に施す処理が行われるようになっている。なお、前記対象物が映った画像に距離を併記する処理を行ってもよい。
【0067】
前記撮像タイミング発生部71は、距離画像指令端末66の操作が行われたときに、その直後のドーナツ画像Dを記憶するように画像メモリ69に指令するとともに、距離画像指令端末66の操作が行われてから一定時間後のドーナツ画像Dを取り込むように距離画像生成部70に指令する。
【0068】
次に、前記距離画像生成手段62による処理手順を説明する。
【0069】
距離画像指令端末66の操作が行われると、移動体11が、一定時間直進する。この際、移動体11の移動直後に全周撮像器16で撮像された先のドーナツ画像Dが、フレームグラバ38から画像メモリ69に記憶される。その後、所定時間経過し、移動体11が更に直進した状態で全周撮像器16に撮像された後のドーナツ画像Dが、フレームグラバ38から距離画像生成部70に取り込まれる。すると、距離画像生成部70では、画像メモリ69から先のドーナツ画像Dが取り込まれ、後のドーナツ画像Dとともに、それらに写った所定の対象物の画素数を計測して視差を算出する。そして、当該視差に基づいて前記離間距離が求められ、更に、前記対象物に所定の色彩が人工的に施された距離画像が生成されることになる。
【0070】
従って、このような第4実施例によれば、前記第1実施例の効果に加え、対象物までの距離を距離画像で確認することができ、移動体11の操作上一層有用になる。
【0071】
なお、距離画像生成手段62は、第2及び第3実施例の構成に対しても、同様に付加することができる。
【0072】
また、前記各実施例におけるアルゴリズムや処理手順、及び装置各部の構成は、前記各実施例に限定されるものではなく、実質的に同様の結果、作用、効果等が得られる限りにおいて、種々の変更が可能である。
【0073】
更に、前記各実施例では、画像処理装置18を移動体11に設けたが、本発明はこれに限らず、画像処理装置18の一部若しくは全体の構成を移動体11と分離配置することも可能である。
【0074】
また、前記各実施例では、人間の入れない場所等の状況を把握する探索監視装置に本発明を適用したが、本発明はこれに限らず、他の用途の画像生成装置にも適用することができる。
【0075】
【発明の効果】
以上説明したように、本発明によれば、あたかも現場を直視したかのような画像を得ることができ、人間が容易に直視できない空間等の様子や当該空間内に存在する人や物等の対象物の状況を正確に把握することができる。
【0076】
また、移動体と対象物との離間距離を画像から簡単に把握することができ、当該離間距離と実際の画像とにより、移動体の操作を一層楽に行うことができる。
【図面の簡単な説明】
【図1】第1実施例に係る探索監視装置の概略構成図。
【図2】全周撮像器及びセンサユニットの概略斜視図。
【図3】全周撮像器の概略断面図。
【図4】原画像の概念図。
【図5】第1実施例に係る画像処理装置のシステム構成図。
【図6】ドーナツ画像からパノラマ画像への展開を説明するための概念図。
【図7】帯状領域画像の概念図。
【図8】地図的領域画像の概念図。
【図9】第2実施例に係る画像処理装置のシステム構成図。
【図10】北基準水平面座標系を説明するための図。
【図11】第2実施例の方位基準画像生成部で適用されるアルゴリズムを説明するためのチャート図。
【図12】パノラマ画像座標系を説明するための図。
【図13】第3実施例の方位基準画像生成部で得られる三次元的な地図的領域画像及び移動軌跡の表示態様を示す概念図。
【図14】第3実施例に係る画像処理装置のシステム構成図。
【図15】第3実施例の方位基準画像生成部で適用されるアルゴリズムを説明するためのチャート図。
【図16】パノラマ画像極座標系を説明するための図。
【図17】極座標−直交座標変換を説明するための図。
【図18】ODV基準直交座標系と機体基準直交座標系との関係を示す斜視図。
【図19】ODV基準極座標系を説明するための斜視図。
【図20】機体基準直交座標系を説明するための斜視図。
【図21】直交座標から極座標への変換の際の場合分けに用いられる図表。
【図22】第4実施例に係る探索監視装置のシステム構成図。
【図23】第4実施例に係る探索監視装置の概略構成図。
【符号の説明】
10 探索監視装置(画像生成装置)
11 移動体
16 全周撮像器(撮像手段)
17 センサユニット
18 画像処理装置
33 直線加速度計(速度検出手段)
35 画像展開手段
36 領域画像生成手段
41 積分器(速度検出手段)
42 移動体基準画像生成部
48 磁気方位計
50 方位基準画像生成部
52 三軸直線加速度計(速度検出手段)
53 三軸ジャイロ(角度検出手段)
55 積分器(速度検出手段)
56 積分器(角度検出手段)
60 探索監視装置(画像生成装置)
62 距離画像生成手段
A 領域画像
A1 帯状領域画像
A2 地図的領域画像
D ドーナツ画像
L 移動軌跡
P パノラマ画像
T 原画像
W 幅[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image generating apparatus, and more specifically, is useful for accurately grasping a state of a space or the like that cannot be easily seen directly by a human, and a situation of a person or an object existing in the space. The present invention relates to an image generation device.
[0002]
[Prior art]
Conventionally, a victim was found inside a house that could collapse due to a large earthquake, a survivor was found in a place where humans could not enter due to a fire, etc., or equipment inspection in a place where humans could not easily enter such as in a nuclear reactor Occasionally, a rescue plan for a distressed person is determined and equipment is inspected by allowing a wirelessly-controlled mobile object equipped with a CCD camera to enter and externally check the image from the CCD camera. (For example, see Patent Document 1)
[0003]
[Patent Document 1]
JP 2002-200990 A
[0004]
[Problems to be solved by the invention]
However, in the above-described conventional technology, only a real-time camera image can be obtained, and when an internal situation where a moving object enters is complicated, whether the object and the camera angle are different, identification of the object or the like or inspection of equipment is performed. Can be difficult. Further, for example, even if the victim can be confirmed on the image, not only the position cannot be specified, but also the judgment regarding the degree of danger of the surrounding environment (eg, danger of falling from the ceiling, presence or absence of obstacles) is performed by a fixed camera. There is a problem that it is difficult to perform from the instant video. Furthermore, even if a camera can capture the steps, holes, etc. for rescue, it is difficult to grasp the positional relationship between the stairs, holes, etc. and the victim, and thus it is difficult to formulate a rescue plan. Further, the distance between the camera and an object such as a victim or a device to be inspected is unknown from the image of the camera, and there is a demand for a device that can easily grasp the distance.
[0005]
[Object of the invention]
The present invention has been devised in view of the above problems, and has as its object the appearance of a space or the like that cannot be easily seen directly by humans, or the presence of an object such as a person or an object in the space. It is an object of the present invention to provide an image generating apparatus capable of obtaining an image useful for accurately grasping the situation.
[0006]
Another object of the present invention is to provide an image generating apparatus capable of easily grasping, on an image, a separation distance between an object imaged by an imaging means such as a camera and the imaging means.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a moving body that is movable in a predetermined direction, and an imaging unit that is provided on the moving body and obtains a ring-shaped original image by imaging a surrounding visual field substantially simultaneously. Image developing means for developing the original image into a substantially strip-shaped panoramic image, and an area image generating means for generating an area image obtained by integrating panoramic images of the area where the moving body has moved,
A configuration in which the area image generating unit collects panoramic images having a width corresponding to the speed of the moving object at predetermined time intervals, and connects the panoramic images with time to generate the area image. Has been adopted. According to such a configuration, a region image is formed by integrating the panoramic image of the moving region of the moving object, so that the state of the space in which the moving object has moved and the situation of people and objects existing in the space can be described in a series. It can be accurately grasped using images. Therefore, even if the space situation is complicated, it is possible to easily identify people and objects in the space and check equipment, etc. The relative position and relative posture of the victim can be easily grasped, and the rescue plan of the victim can be easily formulated.
[0008]
The area image generating means according to the present invention has a configuration in which a moving object reference image generating section is provided which generates a band-shaped area image in which the panoramic images are joined in a linear direction in a substantially constant direction. With this configuration, an area image can be formed by relatively simple image processing.
[0009]
A speed detecting unit that detects a speed of the moving body; and an angle detecting unit that detects an azimuth angle and / or a posture displacement angle of the moving body,
The area image generation unit includes an azimuth reference image generation unit that generates a map-like area image in which an azimuth is considered, and the azimuth reference image generation unit is configured to perform a process based on detection values of the speed detection unit and the angle detection unit. The configuration in which the panoramic images are joined based on a predetermined azimuth to generate the map-like region image can be used together. With such a configuration, the azimuth of the object and the like, the moving distance of the moving object, and the like shown in the area image can be easily understood, and the search for the object and the current position of the moving object can be easily performed. it can. In addition, the danger of the environment around the victim and the equipment, such as cracks in the concrete on the ceiling, the danger of falling from the ceiling, holes and steps on the floor, and the presence of obstacles on the floor and wall, etc. are displayed in a map. Therefore, these danger places and parts can be specified on the map.
[0010]
Here, the speed detecting means is provided so as to be able to detect a speed in each of predetermined orthogonal triaxial directions, while the angle detecting means is provided so as to be able to detect rotation angles around the orthogonal triaxial axes, respectively.
It is preferable that the azimuth reference image generation unit three-dimensionally generate the cartographic region image based on detection values from the speed detection unit and the angle detection unit. Thus, even when the moving body moves in the vertical direction, the situation around the moving area of the moving body, the azimuth of the target object, the moving distance of the moving body, the current position of the moving body, and the like are accurately grasped. be able to.
[0011]
Here, the azimuth reference image generation unit may be used together with a configuration in which the trajectory of the moving object is calculated. According to such a configuration, the moving route of the moving object can be easily grasped on the map.
[0012]
Further, the azimuth reference image generation unit may be provided with a stabilizer function for correcting image blur caused by movement of the moving body. Thus, even if the imaging unit shakes during the movement of the moving body, the shake of the image due to the shake is corrected, and a more visible area image can be provided.
[0013]
Further, the image processing apparatus further includes a distance image generating unit that generates a distance image in which a separation distance between the moving body and the predetermined target object is reflected,
The distance image generating means may also adopt a configuration in which the distance image is generated based on a separation distance calculated from parallax of the original image due to movement of the moving object. According to such a configuration, it is possible to easily grasp on the image the distance between the image pickup unit and the target imaged by the image pickup unit such as a camera, and to avoid or move the obstacle when the moving body moves. Adjustment of body speed and determination of course can be performed without difficulty.
[0014]
Here, it is preferable to adopt a configuration in which the distance image generating means generates distance images having different colors according to the separation distance. Thereby, the perspective relation to the target object can be visually grasped quickly and the operability of the moving body can be further improved.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0016]
[First embodiment]
FIG. 1 is a schematic configuration diagram of a search monitoring device as an image generating device according to the present embodiment. In FIG. 1, a search and monitoring apparatus 10 is an apparatus that captures an image of the surroundings while moving in places where no humans can enter, and generates an area image in which the moving areas are integrated. The search monitoring device 10 is provided separately from the moving body 11 that moves in a predetermined direction to generate the area image, a mobile operation terminal 12 for remotely controlling the movement of the moving body 11, and the like. And display means 14 for displaying an area image from the moving body 11.
[0017]
The moving body 11 includes an omnidirectional imaging device (ODV: Omni-Directional Vision) 16 as an imaging unit capable of imaging the front and surrounding visual fields substantially simultaneously, and a rear portion of the omnidirectional imaging device 16 (left side in FIG. 1). ), And based on various data from the sensor unit (IMU: Inertial Measurement Unit) 17 in which various sensors are stored, and various data from the omnidirectional imaging device 16 and the sensor unit 17, perform predetermined arithmetic processing using a computer. An image processing device 18 that generates the region image by performing the above operation, a platform 21 on which these devices 16 to 18 are mounted, and a moving mechanism 20 including a caterpillar or the like are provided, and a command from the moving operation terminal 12 And a driving device 22 for driving the moving mechanism 20 based on the It is configured.
[0018]
As shown in FIG. 2, the full-circumference imaging device 16 includes a main body 24 having a substantially hemispherical appearance, and a plurality of LEDs provided along an outer peripheral portion of the main body 24 along a circumferential direction and emitting light by a power supply (not shown). And the like.
[0019]
The main body 24 employs a structure described in Japanese Patent Application Laid-Open No. 2002-325246, which has already been proposed by the present applicant, and its front (right side in FIG. 1) and substantially the entire side (approximately 360 sides). ) Can be imaged substantially simultaneously. That is, as shown in FIG. 3, the main body 24 includes a convex primary mirror 28 having a hole 27 formed substantially in the center, and a substantially hemisphere that covers the primary mirror 28 and allows external light to pass therethrough. -Shaped dome 29, a convex sub-mirror 30 fixed to the top 29 A of the dome 29, and an image pickup unit such as a CCD camera or the like disposed relatively behind the hole 27 of the primary mirror 28 (left side in FIG. 3). 31. In the main body 24, as shown by a two-dot chain line in FIG. 3, light from the front is directly incident on the image pickup unit 31, while light from the side is transmitted in the order of the primary mirror 28 and the secondary mirror 30. The light is reflected and made incident on the imaging unit 31. As a result, a circular original image T shown in FIG. 4 is obtained. The original image T is composed of a ring-shaped donut image D representing an image of substantially the entire circumference of the side, and a central image C located inside the donut image D and representing a forward image.
[0020]
The luminous body 25 emits light when the periphery of the omnidirectional image pickup device 16 has a brightness equal to or less than a predetermined value, thereby enabling imaging by the main body 24 in a dark place. In this case, although not particularly limited, it is configured so that it can be turned on or off automatically or manually according to the brightness or the like of the place where the omnidirectional image pickup device 16 is present. May be adjusted.
[0021]
The omnidirectional imaging device 16 has a structure in which the original image T including the central image C is obtained, but only the donut image D may be obtained. In short, the present invention can employ imaging means having various structures as long as the ring-shaped original image T can be obtained by imaging the surrounding visual field substantially simultaneously.
[0022]
As shown in FIG. 5, the sensor unit 17 includes a linear accelerometer 33 capable of detecting a linear acceleration in the traveling direction of the moving body 11.
[0023]
As shown in FIGS. 5 and 6, the image processing device 18 includes an image expanding unit 35 that expands the donut image D obtained by the full-circumferential imaging device 16 into a rectangular panoramic image P; A panoramic image P developed from 35, and a region image generating means 36 for generating a series of region images A (see FIG. 7) obtained by integrating the moving regions of the moving body 11 (see FIG. 1). I have.
[0024]
As shown in FIG. 5, the image developing means 35 includes a known frame grabber 38 for digitally converting data relating to the donut image D obtained by the omnidirectional imaging device 16, and a digital converter converted by the frame grabber 38. A processing unit 39 that generates the panoramic image P by performing predetermined arithmetic processing on data (for example, bitmap data).
[0025]
The processing unit 39 can develop a distorted donut image D into a distortion-corrected panoramic image P using an algorithm already proposed by the present applicant in Japanese Patent Application Laid-Open No. 2002-325246. This expansion algorithm is not the essence of the present invention, and a detailed description thereof will be omitted.
[0026]
As shown in FIG. 7, the area image generating means 36 collects the panoramic images P at predetermined time intervals, and connects these panoramic images P over time to generate a band-shaped area image A1. It has become. That is, as shown in FIG. 5, the area image generating means 36 integrates the detection value of the linear accelerometer 33 with time to calculate the moving speed, and The peripheral imager 16 includes a moving object reference image generation unit 42 that generates a band-shaped area image A1 serving as a reference. The moving object reference image generation unit 42 connects the panoramic images P captured at each unit time in a linear direction (the horizontal direction in FIG. 7) in a substantially constant direction over time to form a series of band-shaped area images A1. Is generated. That is, here, as shown in FIG. 7, the longer sides of the panoramic image P are joined with time, and a rectangular band-shaped area image A1 is generated. At this time, the width W in the short dimension direction of each panoramic image P differs according to the moving speed of the moving body 11 obtained by the integrator 41. Specifically, as the moving speed of the moving body 11 increases, As a result, the width W increases. Here, in the above, the linear accelerometer 33 and the integrator 41 constitute speed detecting means for detecting the speed of the moving body 11. Note that the speed detecting means is not limited to the above configuration example, and other devices such as an odometer can be applied.
[0027]
The display means 14 is composed of one or more liquid crystal displays, CRT displays, or the like. Specifically, as shown in FIG. 5, an original image T from the full-circumferential imaging device 16 is displayed in real time. And a second display unit 45 for displaying the band-shaped area image A1 generated by the area image generating means 36.
[0028]
Therefore, according to such a first embodiment, while viewing the current original image T of the omnidirectional image pickup device 16 displayed on the first display section 44, the moving object in a place where humans cannot enter is present. 11 can be easily performed. Furthermore, since the image of the moving area of the moving body 11 is obtained as a series of area images A, it is possible for a person to enter a state such as a place that cannot be easily entered by a human or an object existing in the place. The effect is obtained that the user can comprehend almost the same as actually seen.
[0029]
Next, other embodiments of the present invention will be described. In the following description, components that are the same as or equivalent to those described above will be omitted or simplified by using the same reference numerals.
[0030]
[Second embodiment]
The second embodiment is characterized in that, in addition to the first embodiment, in addition to the band-shaped region image A1, a map-like region image A2 of FIG.
[0031]
That is, here, the map-like area image A2 is such that each panoramic image P is on the horizontal plane in which the north direction is upward in FIG. Are formed by joining the panoramic images P while rotating the panoramic images P as appropriate. Therefore, this map-like area image A2 plays a role of a map with reference to the north, and grasps the position of a predetermined object (not shown) projected in a certain portion, the distance from the starting point of the moving body 11, and the like. Is possible. The map-like area image A2 is displayed on the third display unit 46 (see FIG. 9) which forms a part of the display unit 14. The other first and second display sections 44 and 45 are configured to display the original image T and the band-shaped area image A1, similarly to the first embodiment.
[0032]
As shown in FIG. 9, the sensor unit 17 further includes, in addition to the linear accelerometer 33, a magnetic compass 48 capable of detecting the yaw azimuth of the moving body 11 from a horizontal component of geomagnetism. Note that, instead of the magnetic compass 48, another compass that detects the rotation of the earth can be applied.
[0033]
The area image generating means 36 calculates the moving speed of the moving object 11 calculated by the integrator 41 and the azimuth detected by the magnetic compass 48 in addition to the moving object reference image generating unit 42 and the integrator 41. The directional reference image generation unit 50 that generates the map-like area image A2 based on the azimuth reference image is further provided.
[0034]
As shown in FIG. 10, the orientation reference image generation unit 50 is configured to provide the attitude (rotation angle) of each panoramic image P in a map-like north reference horizontal plane coordinate system (magnetic north coordinate system) in which north is upward and east is right. And the movement trajectory L are obtained, and the panoramic images P are connected over time based on the north reference.
[0035]
That is, the azimuth reference image generation unit 50 generates the map-like area image A2 using the algorithm shown in FIG. Hereinafter, the contents of this algorithm will be described.
[0036]
First, in the same manner as in the first embodiment, after the donut image D is developed into a panoramic image P (S101), each of the panoramic images P is detected by the detected value ψ of the magnetic compass 48. MAG Based on the panoramic image coordinate system P (x P (I), y P (J)) to the magnetic north coordinate system N (x N (I), y N (J)) (S102). The conversion formula at this time is as follows.
(Equation 1)
Figure 2004192076
However, i = 1 to w (see FIG. 12) and j = 1 to h (see FIG. 12).
The value obtained in this manner is a parameter for specifying the rotation angle of each of the panoramic images P.
[0037]
On the other hand, the moving trajectory L of each panoramic image P is the linear velocity ΔL of the moving body 11 calculated by the integrator 41. P And the detected value of the magnetic compass 48 MAG Is obtained by the following equation (S103).
(Equation 2)
Figure 2004192076
Here, n (n = 1, 2, 3,...) Is a sampling period, and L (x n , Y n ) Indicates the position of the moving body 11 at the time of sampling.
[0038]
With the above equations, the position and orientation of the panoramic image P in each sample are specified, and a map-like area image A2 is generated by integrating them (S104).
[0039]
Therefore, according to the second embodiment, in addition to the effects of the first embodiment described above, a map-like area image A2 is also obtained, so that the position of a person or an object projected on the mobile object 11 from the outside can be obtained. The effect of contributing to accurate grasp is also obtained.
[0040]
[Third embodiment]
This third embodiment is different from the second embodiment in that the third display unit 46 displays the map-like area image A2 and the moving trajectory L of the moving body 11 three-dimensionally, as shown in FIG. It has a characteristic in that it can be displayed. At the same time, the azimuth reference image generation unit 50 is characterized in that a stabilizer function for correcting blurring of the map-like area image A2 due to the movement of the moving body 11 is provided.
[0041]
As shown in FIG. 14, the sensor unit 17 includes a three-axis linear accelerometer 52 capable of detecting linear accelerations of the moving body 11 in three orthogonal directions with the traveling direction of the moving body 11 as the X axis. , A three-axis gyro 53 capable of detecting angular velocities of the moving body 11 around the roll direction, the pitch direction, and the yaw direction, and the magnetic compass 48.
[0042]
Also, an integrator 55 that integrates each linear acceleration detected by the three-axis linear accelerometer 52 with time to calculate the velocity in the orthogonal three-axis direction, and integrates each angular velocity detected by the three-axis gyro 53 with time. And an integrator 56 for calculating rotation angles around three directions. Therefore, the three-axis linear accelerometer 52 and the integrator 55 constitute speed detecting means capable of detecting the speed of the moving body in the predetermined orthogonal three-axis directions, while the three-axis gyro 53 and the integrator 56 form Angle detecting means is configured to detect a rotation angle (posture displacement angle) about the three orthogonal axes. As the angle detecting means, it is possible to use the magnetic compass 48 for the yaw direction and to substitute an inclinometer for detecting the inclination in the other two directions.
[0043]
The azimuth reference image generation unit 50 according to the present embodiment includes a panoramic image P obtained by the same procedure as in each of the above embodiments, and a speed in the orthogonal three-axis directions obtained by the three-axis linear accelerometer 52 and the integrator 55. From the rotation angles around the three directions obtained by the three-axis gyro 53 and the integrator 56 and the azimuth angle detected by the magnetic compass, the map is obtained by using an algorithm different from that of the second embodiment. The dynamic region image A2 and the moving trajectory L are three-dimensionally generated, and an arithmetic process is performed to correct the blur of the geographic region image A2.
[0044]
The algorithm here will be described below with reference to FIG.
[0045]
After the donut image D is developed into the panoramic image P in the same manner as in each of the above embodiments (S201), each coordinate of the panoramic image P is converted into the panoramic image coordinate system P (x P (I), y P (J)), the polar coordinate system Q (θ AZ_0 (I), θ EL_0 (J)) (S202). Here, the following conversion formula is used.
[Equation 3]
Figure 2004192076
However, i = 1 to w (see FIG. 12).
(Equation 4)
Figure 2004192076
However, j = 1 to h (see FIG. 12).
[0046]
Then, as shown in FIGS. 15 and 17, each coordinate of the panoramic image P is expressed by a polar coordinate system Q (θ AZ_0 (I), θ EL_0 (J)), the rectangular coordinate system (x 0 , Y 0 , Z 0 ) (S203). Here, the following conversion formula is used.
(Equation 5)
Figure 2004192076
(Equation 6)
Figure 2004192076
(Equation 7)
Figure 2004192076
As shown in FIGS. 18 and 19, each coordinate of the panoramic image P obtained here is based on an ODV reference rectangular coordinate system (x 0 , Y 0 , Z 0 ).
[0047]
Next, as shown in FIG. 15, each coordinate of the panoramic image P is defined by the ODV reference rectangular coordinate system (x 0 , Y 0 , Z 0 ), The body reference orthogonal coordinate system (x P , Y P , Z P ) (S204). Here, the following conversion formula is used.
(Equation 8)
Figure 2004192076
Where φ 0-P , Θ 0-P , Ψ 0-P Is an offset angle of the omnidirectional imaging device 16 with respect to the moving body 11, that is, an offset angle between the ODV reference rectangular coordinate system and the machine reference rectangular coordinate system. Also, as shown in the following equations (9) to (11), C X (Φ) is a rotation matrix in the roll (x) direction. Y (Θ) is a rotation matrix in the pitch (y) direction. Z (Ψ) is a rotation matrix in the yaw (z) direction.
(Equation 9)
Figure 2004192076
(Equation 10)
Figure 2004192076
[Equation 11]
Figure 2004192076
[0048]
Then, each coordinate of the panoramic image P is defined by the body reference rectangular coordinate system (x P , Y P , Z P ), The horizontal plane reference coordinate system (x H , Y H , Z H ) (S205). Here, the integrator 56 integrates the angular velocities of the three-axis gyro 53 (S206), and the rotation angle (roll direction φ) in each direction obtained by integrating the angular velocity. P , Pitch direction θ P , Yaw directionψ P ) Is used, whereby a process of correcting the blur of the panoramic image P due to the movement of the moving body 11 is performed. Here, the aircraft reference rectangular coordinate system (x P , Y P , Z P ) To the horizontal reference frame (x H , Y H , Z H ) Is as follows.
(Equation 12)
Figure 2004192076
Note that C X (Φ), C Y (Θ), C Z (Ψ) is obtained by using the above-described equations (9) to (11).
[0049]
Next, each coordinate of the panoramic image P is represented by a horizontal plane reference coordinate system (x H , Y H , Z H ) From the polar coordinate system (θ AZ_H (I), θ EL_H (J)) (S207). The conversion formula here is as follows.
(Equation 13)
Figure 2004192076
Where x H , Y H 21 is performed according to the size of.
[Equation 14]
Figure 2004192076
[0050]
Further, each coordinate of the panoramic image P is expressed by a polar coordinate system (θ AZ_H (I), θ EL_H (J)), the panoramic image coordinate system H (x H (I), y H (J)) (S208). The conversion formula here is as follows.
(Equation 15)
Figure 2004192076
However, i = 1 to w (see FIG. 12).
(Equation 16)
Figure 2004192076
However, j = 1 to h (see FIG. 12).
[0051]
On the other hand, the movement trajectory L of the panoramic image P is obtained as follows.
[0052]
First, the acceleration in each direction detected by the three-axis linear accelerometer 52 is integrated by the integrator 55 to obtain the speed (Δx P , Δy P , Δz P ) Is required (S209). Then, the velocity (Δx P , Δy P , Δz P ), The velocity in the horizontal reference frame (Δx H , Δy H , Δz H ) (S210). The above-described equation (12) is used as the conversion equation here. Also in this case, the rotation angles (roll direction φ P , Pitch direction θ P , Yaw directionψ P ) Is used. Note that C X (Φ), C Y (Θ), C Z (Ψ) is obtained by using the above-described equations (9) to (11).
[0053]
Then, the velocity of the horizontal coordinate system (Δx H , Δy H ) Is the detected value from the magnetic compass 48 MAG Based on the velocity (Δx N , Δy N ) (S211). The conversion formula at this time is as follows. Here, Δz H Is not used.
[Equation 17]
Figure 2004192076
[0054]
Next, the velocity of the magnetic north coordinate system (Δx N , Δy N ) And speed Δz H Accordingly, the movement trajectory L of the moving body 11 is obtained using the following equation (S212).
(Equation 18)
Figure 2004192076
Here, n (n = 1, 2, 3,...) Is a sampling cycle.
[0055]
The movement trajectory L obtained in this way is displayed three-dimensionally on the third display unit 46 as shown in FIG. 13 (S213).
[0056]
Further, each coordinate of the panoramic image P is determined by the panoramic image coordinate system H (x H (I), y H From (j)), it is converted to the magnetic north coordinate system (S214). Here, the movement locus L of the moving body 11 obtained in the procedure of S212 and the detection value ψ from the magnetic compass 48 MAG Is converted by the following equation.
[Equation 19]
Figure 2004192076
Here, i = 1 to w and j = 1 to h.
[0057]
The northern reference geographical area image A2 obtained in this way can be displayed on the third display unit 46 for each position (height / depth position) in the vertical direction (Z-axis direction) ( S214).
[0058]
Therefore, according to the third embodiment, in addition to the above-described effect, even when the moving body 11 moves in the vertical direction, an effect that the surroundings can be grasped more reliably.
[0059]
In addition, since the azimuth reference image generation unit 50 is provided with a stabilizer function for correcting blurring of the panoramic image P due to movement of the moving body 11, for example, when the moving body 11 travels on rubble, The blur of the panoramic image P caused by the shaking of the moving body 11 is corrected, and the effect that the map-like area image A2 can be more easily seen is also obtained.
[0060]
It should be noted that the azimuth reference image generation unit 50 of the third embodiment may not be provided with a stabilizer function. In this case, the angular displacement (φ P , Θ P , Ψ P ), The panorama coordinates P are converted in the same manner as in the second embodiment.
[0061]
Further, in the second and third embodiments, the north-based map-like area image A2 can be generated. However, the present invention is not limited to this. The generated map-like area image A2 may be generated.
[0062]
[Fourth embodiment]
As shown in FIG. 22, the search and monitoring device 60 according to the fourth embodiment reflects the distance from the moving body 11 to a predetermined target (not shown) in addition to the configuration of the first embodiment. The feature is that a distance image generating means 62 for generating a distance image is further provided. Note that the generated distance image is displayed on the third display unit 64 of the display unit 14.
[0063]
As shown in FIGS. 22 and 23, the distance image generating means 62 includes a distance image command terminal 66 for commanding movement of the moving body 11 when generating a distance image, and a signal from the distance image command terminal 66. And a switching unit 67 for selectively switching signals from the movement command terminal 12, an image memory 69 in which a donut image D from the frame grabber 38 is stored, and two donut images D having different imaging timings. Thus, the image processing apparatus includes a distance image generation unit 70 that generates a predetermined distance image, and an imaging timing generation unit 71 that commands the image memory 69 and the distance image generation unit 70.
[0064]
Although not particularly limited, in the present embodiment, the distance image command terminal 66, the switching unit 67, and the imaging timing generation unit 71 are provided separately from the moving body 11, while the image memory 69 and the distance image generation The unit 70 is provided in the image processing device 18 of the moving body 11. Here, the switching unit 67 and the imaging timing generation unit 71 may be provided in the moving body 11, or conversely, the image memory 69 and the distance image generation unit 70 may be provided separately from the moving body 11.
[0065]
When the distance image command terminal 66 performs a predetermined operation, the switching unit 67 switches, and gives a command to the driving device 22 to move the moving body 11 straight.
[0066]
The distance image generation unit 70 calculates the distance between the moving object 11 and the target object based on the parallax, which is the difference between the numbers of pixels of the target object, for the two donut images D captured at different angles due to the movement of the moving object 11. (Hereinafter simply referred to as “separation distance”), and a distance image in which the color of the object is artificially changed according to the magnitude of the separation distance can be generated. It has become. Here, the calculation of the separation distance is obtained by multiplying a reciprocal of the parallax by a predetermined constant. Further, in the generation of the distance image, a process of selecting a color corresponding to the calculated separation distance from the colors determined for each distance and applying the color to the image in which the object is reflected is performed. ing. Note that a process of writing the distance together with the image of the target object may be performed.
[0067]
The imaging timing generation unit 71 instructs the image memory 69 to store the donut image D immediately after the operation of the distance image command terminal 66 when the operation of the distance image command terminal 66 is performed. The distance image generation unit 70 is instructed to take in the donut image D after a predetermined time from the start.
[0068]
Next, a processing procedure by the distance image generating means 62 will be described.
[0069]
When the operation of the distance image command terminal 66 is performed, the moving body 11 moves straight for a predetermined time. At this time, the previous donut image D captured by the full-circumferential imaging device 16 immediately after the moving body 11 moves is stored in the image memory 69 from the frame grabber 38. After that, a predetermined time has elapsed, and the donut image D captured by the full-circumferential imaging device 16 in a state where the moving body 11 further proceeds straight is taken into the distance image generation unit 70 from the frame grabber 38. Then, the distance image generation unit 70 fetches the preceding donut image D from the image memory 69, and calculates the parallax by measuring the number of pixels of a predetermined target object shown in the donut image D together with the subsequent donut image D. Then, the separation distance is obtained based on the parallax, and further, a distance image in which a predetermined color is artificially applied to the object is generated.
[0070]
Therefore, according to the fourth embodiment, in addition to the effect of the first embodiment, the distance to the object can be confirmed by the distance image, which is more useful for the operation of the moving body 11.
[0071]
Note that the distance image generating means 62 can be similarly added to the configurations of the second and third embodiments.
[0072]
In addition, the algorithms and processing procedures in each of the embodiments and the configuration of each unit of the apparatus are not limited to the above-described embodiments, and various configurations are possible as long as substantially the same results, actions, effects, and the like are obtained. Changes are possible.
[0073]
Further, in each of the above embodiments, the image processing device 18 is provided on the moving body 11. However, the present invention is not limited to this, and a part or the entire configuration of the image processing device 18 may be separately arranged from the moving body 11. It is possible.
[0074]
Further, in each of the above embodiments, the present invention is applied to the search and monitoring device that grasps the situation of places where humans cannot enter, but the present invention is not limited to this, and may be applied to image generation devices for other uses. Can be.
[0075]
【The invention's effect】
As described above, according to the present invention, it is possible to obtain an image as if looking directly at the site, and to view a state of a space or the like that a human cannot easily see directly or a person or an object existing in the space. The situation of the object can be accurately grasped.
[0076]
Further, the distance between the moving object and the object can be easily grasped from the image, and the operation of the moving object can be performed more easily by using the distance and the actual image.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a search monitoring device according to a first embodiment.
FIG. 2 is a schematic perspective view of an all-around image pickup device and a sensor unit.
FIG. 3 is a schematic sectional view of an all-around image pickup device.
FIG. 4 is a conceptual diagram of an original image.
FIG. 5 is a system configuration diagram of the image processing apparatus according to the first embodiment.
FIG. 6 is a conceptual diagram for explaining development from a donut image to a panoramic image.
FIG. 7 is a conceptual diagram of a band-shaped area image.
FIG. 8 is a conceptual diagram of a map-like area image.
FIG. 9 is a system configuration diagram of an image processing apparatus according to a second embodiment.
FIG. 10 is a view for explaining a north reference horizontal coordinate system.
FIG. 11 is a chart for explaining an algorithm applied in an azimuth reference image generation unit of the second embodiment.
FIG. 12 is a diagram for explaining a panoramic image coordinate system.
FIG. 13 is a conceptual diagram showing a display mode of a three-dimensional map-like region image and a movement trajectory obtained by an azimuth reference image generation unit of the third embodiment.
FIG. 14 is a system configuration diagram of an image processing apparatus according to a third embodiment.
FIG. 15 is a chart for explaining an algorithm applied in the azimuth reference image generation unit of the third embodiment.
FIG. 16 is a diagram for explaining a panoramic image polar coordinate system.
FIG. 17 is a diagram for explaining polar coordinate to rectangular coordinate conversion.
FIG. 18 is a perspective view showing a relationship between an ODV reference rectangular coordinate system and an airframe reference rectangular coordinate system.
FIG. 19 is a perspective view illustrating an ODV reference polar coordinate system.
FIG. 20 is a perspective view for explaining an airframe reference orthogonal coordinate system.
FIG. 21 is a chart used for classification when converting from rectangular coordinates to polar coordinates.
FIG. 22 is a system configuration diagram of a search and monitoring device according to a fourth embodiment.
FIG. 23 is a schematic configuration diagram of a search and monitoring device according to a fourth embodiment.
[Explanation of symbols]
10 Search and monitoring device (image generation device)
11 Moving body
16 Full circumference imaging device (imaging means)
17 Sensor unit
18 Image processing device
33 linear accelerometer (speed detection means)
35 Image expansion means
36 area image generating means
41 Integrator (speed detection means)
42 Moving object reference image generation unit
48 magnetic compass
50 Direction reference image generation unit
52 triaxial linear accelerometer (speed detection means)
53 Three-axis gyro (angle detection means)
55 integrator (speed detection means)
56 integrator (angle detection means)
60 Search and monitoring device (image generation device)
62 Distance image generation means
A area image
A1 Band area image
A2 Map-like area image
D donut image
L locus
P Panoramic image
T original image
W width

Claims (8)

所定方向に移動可能な移動体と、この移動体に設けられるとともに、周囲の視野を略同時に撮像してリング状の原画像を得る撮像手段と、前記原画像を略短冊状のパノラマ画像に展開する画像展開手段と、前記移動体が移動した領域のパノラマ画像を総合した領域画像を生成する領域画像生成手段とを備え、
前記領域画像生成手段は、前記移動体の速度に応じた幅のパノラマ画像を所定時間毎に収集し、これら各パノラマ画像を経時的に繋ぎ合わることで、前記領域画像を生成することを特徴とする画像生成装置。
A moving body movable in a predetermined direction, an imaging unit provided on the moving body and capturing a surrounding visual field substantially simultaneously to obtain a ring-shaped original image, and developing the original image into a substantially strip-shaped panoramic image Image developing means, and an area image generating means for generating an area image combining panoramic images of the area where the moving body has moved,
The region image generating means collects a panoramic image having a width corresponding to the speed of the moving object at predetermined time intervals, and connects the panoramic images with time to generate the region image. An image generation device.
前記領域画像生成手段は、前記各パノラマ画像が略一定の向きで直線方向に繋ぎ合わされてなる帯状領域画像が生成される移動体基準画像生成部を備えたことを特徴とする請求項1記載の画像生成装置。2. The moving object reference image generating unit according to claim 1, wherein the area image generating unit includes a moving body reference image generating unit that generates a band-shaped area image in which the panoramic images are connected in a linear direction in a substantially constant direction. 3. Image generation device. 前記移動体の速度を検出する速度検出手段と、前記移動体の方位角及び/又は姿勢変位角を検出する角度検出手段とを備え、
前記領域画像生成手段は、方位が考慮された地図的領域画像が生成される方位基準画像生成部を備え、当該方位基準画像生成部は、前記速度検出手段及び角度検出手段の検出値に基づいて、各パノラマ画像が所定の方位を基準として繋ぎ合わされることで、前記地図的領域画像を生成することを特徴とする請求項1又は2記載の画像生成装置。
Speed detecting means for detecting a speed of the moving body, and angle detecting means for detecting an azimuth angle and / or a posture displacement angle of the moving body,
The area image generation unit includes an azimuth reference image generation unit that generates a map-like area image in which an azimuth is considered, and the azimuth reference image generation unit is configured to perform a process based on detection values of the speed detection unit and the angle detection unit. 3. The image generating apparatus according to claim 1, wherein the panoramic images are connected based on a predetermined azimuth to generate the map-like region image.
前記速度検出手段は、所定の直交三軸方向の速度をそれぞれ検出可能に設けられる一方、前記角度検出手段は、前記直交三軸回りの回転角をそれぞれ検出可能に設けられ、
前記方位基準画像生成部は、前記速度検出手段及び角度検出手段からの検出値に基づいて、前記地図的領域画像を三次元的に生成することを特徴とする請求項3記載の画像生成装置。
The speed detecting means is provided so as to be able to detect a predetermined speed in each of the three orthogonal triaxial directions, while the angle detecting means is provided so as to be able to detect a rotation angle around each of the three orthogonal axes,
The image generation apparatus according to claim 3, wherein the azimuth reference image generation unit three-dimensionally generates the map-like region image based on detection values from the speed detection unit and the angle detection unit.
前記方位基準画像生成部は、前記移動体の移動軌跡を算出可能に設けられていることを特徴とする請求項4記載の画像生成装置。The image generation device according to claim 4, wherein the azimuth reference image generation unit is provided so as to be able to calculate a movement locus of the moving body. 前記方位基準画像生成部には、前記移動体の移動による画像のブレを補正するスタビライザー機能が設けられていることを特徴とする請求項4又は5記載の画像生成装置。The image generation apparatus according to claim 4, wherein the azimuth reference image generation unit is provided with a stabilizer function of correcting image blur caused by movement of the moving body. 前記移動体と所定の対象物との離間距離が反映された距離画像を生成する距離画像生成手段を更に備え、
前記距離画像生成手段は、前記移動体の移動による前記原画像の視差から算出された離間距離に基づいて前記距離画像を生成することを特徴とする請求項1〜6の何れかに記載の画像生成装置。
The image processing apparatus further includes a distance image generating unit that generates a distance image in which a separation distance between the moving object and the predetermined target object is reflected,
The image according to any one of claims 1 to 6, wherein the distance image generation unit generates the distance image based on a separation distance calculated from a parallax of the original image due to movement of the moving body. Generator.
前記距離画像生成手段は、前記離間距離に応じて異なる色彩が施された距離画像を生成することを特徴とする請求項7記載の画像生成装置。The image generating apparatus according to claim 7, wherein the distance image generating unit generates a distance image having a different color according to the separation distance.
JP2002356090A 2002-12-06 2002-12-06 Image generation device Expired - Fee Related JP4255272B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002356090A JP4255272B2 (en) 2002-12-06 2002-12-06 Image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002356090A JP4255272B2 (en) 2002-12-06 2002-12-06 Image generation device

Publications (2)

Publication Number Publication Date
JP2004192076A true JP2004192076A (en) 2004-07-08
JP4255272B2 JP4255272B2 (en) 2009-04-15

Family

ID=32756515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002356090A Expired - Fee Related JP4255272B2 (en) 2002-12-06 2002-12-06 Image generation device

Country Status (1)

Country Link
JP (1) JP4255272B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017025485A (en) * 2015-07-16 2017-02-02 株式会社新日本コンサルタント Structure inspection device and structure inspection method
JP2017097871A (en) * 2012-11-21 2017-06-01 タレス Method of 3d panoramic mosaicing of scene
CN106953761A (en) * 2017-03-29 2017-07-14 杭州云纪网络科技有限公司 The method of server Disaster Preparedness System and processing message based on Disaster Preparedness System
JP2020063665A (en) * 2015-07-16 2020-04-23 株式会社新日本コンサルタント Structure inspection device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642300A (en) * 1992-07-24 1994-02-15 Railway Technical Res Inst Tunnel inspection device
JPH11259659A (en) * 1998-03-11 1999-09-24 Hokkaido Prefecture Environment map producing method by mobile robot
JPH11257953A (en) * 1998-03-06 1999-09-24 Koa:Kk Tunnel wall surface observing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642300A (en) * 1992-07-24 1994-02-15 Railway Technical Res Inst Tunnel inspection device
JPH11257953A (en) * 1998-03-06 1999-09-24 Koa:Kk Tunnel wall surface observing apparatus
JPH11259659A (en) * 1998-03-11 1999-09-24 Hokkaido Prefecture Environment map producing method by mobile robot

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097871A (en) * 2012-11-21 2017-06-01 タレス Method of 3d panoramic mosaicing of scene
JP2017025485A (en) * 2015-07-16 2017-02-02 株式会社新日本コンサルタント Structure inspection device and structure inspection method
JP2020063665A (en) * 2015-07-16 2020-04-23 株式会社新日本コンサルタント Structure inspection device
CN106953761A (en) * 2017-03-29 2017-07-14 杭州云纪网络科技有限公司 The method of server Disaster Preparedness System and processing message based on Disaster Preparedness System
CN106953761B (en) * 2017-03-29 2020-03-10 恒生电子股份有限公司 Server disaster recovery system and message processing method based on disaster recovery system

Also Published As

Publication number Publication date
JP4255272B2 (en) 2009-04-15

Similar Documents

Publication Publication Date Title
JP7260269B2 (en) Positioning system for aeronautical non-destructive inspection
JP6687204B2 (en) Projection image generation method and apparatus, and mapping method between image pixels and depth values
JP5383801B2 (en) Apparatus for generating position and route map data for position and route map display and method for providing the data
JP2000097637A (en) Attitude position detecting device
JP4422777B2 (en) Moving body posture detection device
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
JP2002034055A (en) Wide view angle multi-directional image acquiring apparatus and system for mobile unit
JP2016177640A (en) Video monitoring system
JP2006059202A (en) Imaging device and image correction method
KR20170094030A (en) System and Method for providing mapping of indoor navigation and panorama pictures
CN113240615B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
Zhang et al. An indoor navigation aid for the visually impaired
JP2017138947A (en) Flight altitude control device, unmanned aerial vehicle, flight altitude control method, and flight altitude control program
US20200366815A1 (en) Environment acquisition system
JP4077385B2 (en) Global coordinate acquisition device using image processing
JP2011095112A (en) Three-dimensional position measuring apparatus, mapping system of flying object, and computer program
KR102190743B1 (en) AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF
JP6583840B1 (en) Inspection system
JP5214355B2 (en) Vehicle traveling locus observation system, vehicle traveling locus observation method, and program thereof
JP6482855B2 (en) Monitoring system
JP2011169658A (en) Device and method for pinpointing photographed position
JP6482856B2 (en) Monitoring system
JP2011033489A (en) Marker for motion capture
JP4255272B2 (en) Image generation device
JP7428461B2 (en) Unmanned aircraft system and flight control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090127

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees