JP2009188980A - 360度の視野をもつステレオカメラ - Google Patents

360度の視野をもつステレオカメラ Download PDF

Info

Publication number
JP2009188980A
JP2009188980A JP2008287918A JP2008287918A JP2009188980A JP 2009188980 A JP2009188980 A JP 2009188980A JP 2008287918 A JP2008287918 A JP 2008287918A JP 2008287918 A JP2008287918 A JP 2008287918A JP 2009188980 A JP2009188980 A JP 2009188980A
Authority
JP
Japan
Prior art keywords
image
stereo camera
view
image sensor
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008287918A
Other languages
English (en)
Inventor
Randolph G Hartman
ランドルフ・ジー・ハートマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2009188980A publication Critical patent/JP2009188980A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Navigation (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)

Abstract

【課題】車両が所定の場所を横切るときに、他の測定システムを用いて車両の位置を特定するためのシステムを提供する。
【解決手段】ステレオカメラは、少なくとも1つの画像センサと、領域の第1の像を少なくとも1つの画像センサに向けるように構成された第1の面とを備え、第1の像は、ほぼ360度の領域の像を備える。ステレオカメラは、さらに領域の第2の像を少なくとも1つの画像センサに向けるように構成された第2の面を備え、第2の像は、ほぼ360度の領域の像を備え、ここで、少なくとも1つの画像センサは、1つの画像に第1の像および第2の像を取得するように構成される。
【選択図】図1

Description

本発明は、360度の視野をもつステレオカメラに関する。
本出願は、概ね、2007年2月23日に出願された表題「CORRELATION POSITION DETERMINATION」の米国特許出願第11/678313号(以下「313出願」)、および2007年8月13日に出願された表題「RANGE MEASUREMENT DEVICE」の米国特許出願第11/837868号に関連し、これらは参照することにより本稿に統合される。
多くのナビゲーション応用は、物体の正確な位置決めおよび追跡を提供する。たとえば、無人陸上車両(UGV; unmanned ground vehicle)のような無人車両は、所定の場所まで適切に操縦するために正確な位置情報を必要とする。これらのナビゲーション応用のほとんどは、必要なレベルの精度を達成するために、1つまたはそれ以上の全地球測位システム(GPS; global positioning system)センサを採用する。
しかし、GPSの使用はいくつかの制限がある。たとえば、人工衛星の通信が妨害されたところでは、所望の位置においてGPS信号が得られないかもしれない。さらに、GPSセンサは、車両の位置に関連する場所の局所的な特徴のための位置情報(たとえば、任意の追加的な周囲の物体またはその領域内の目印)を得ることができない。
上述のこれらの理由により、また本明細書を読んで理解することにより本技術分野の当業者に明らかになるであろう以下に述べるその他の理由のために、本業界では車両が所定の場所を横切るときに、他の測定システムを用いて車両およびその周囲の物体の位置を決定するためのシステムおよび方法へのニーズがある。
一実施形態としてステレオカメラが提供される。このステレオカメラは、少なくとも1つの画像センサと、領域の第1の像を少なくとも1つの画像センサに向けるように構成された第1の面とを備え、第1の像は、領域のほぼ360度の像を持ち、ステレオカメラはさらに、領域の第2の像を少なくとも1つの画像センサに向けるように構成された第2の面を備え、前記第2の像は、領域のほぼ360度の像を持ち、少なくとも1つの画像センサは、少なくとも1つの画像に、第1の像および第2の像を取得するように構成される。
本発明は、以下の詳細な説明および添付図面を参照することにより、より容易に理解することができ、また、さらなる利点や使用方法が明らかになる。一般の慣行に従って、説明される様々な特徴は、図面において寸法通りに描かれておらず、本願発明に関連する特定の特徴を強調して描かれている。
以下の詳細な説明において、符号は添付の図面に示されており、本発明を実施できるように特定の実施形態を示している。これらの実施形態は、当業者が本発明を実施できるように十分に詳細に説明される。また、他の実施形態をとることもできることを理解されたい。また、論理的、機械的、電気的な変更は、本願発明の趣旨および範囲から逸脱することなく可能であることを理解されたい。それゆえ、以下の詳細な説明は限定する意図ではなく、本願発明の範囲は、特許請求の範囲の記載に及びその等価物によってのみ特定される。
本発明の実施形態は、単一の画像センサのみのステレオカメラで、360度の水平視野で物体を追跡することを可能にする。そのため、ステレオカメラを移動させるホストユニットが曲がるときに物体は視野から外れないので、物体が視野内に存在する時間間隔は増大する。同様に、本願は特定の実施形態において、360度の水平視野を持たない典型的なステレオカメラと比較して、ホストユニットの位置を決定するのに用いられる物体の数および物体の幾何的配置が改良される。物体の数の増加は、水平線に沿った大きな視野によるものである。
図1は、ナビゲーションシステム100のブロック図である。図示されているように、ナビゲーションシステム100は、約360度の水平視野を持つステレオカメラ106と通信するプロセッサ102を含む。いくつかの実施形態において、システム100は、GPSセンサ108、慣性センサ110、方位センサ112、スピードセンサ114、高度センサ116などの少なくとも1つの追加のセンサを含む。ナビゲーションシステム100は、ホスト車両が図2に示す領域200のような領域を横断するのを支援するために、ホスト車両上で用いられる。たとえば、ホスト車両は、無人陸上車両(UGV)および無人航空車両(UAV)を含むが、これに限定されない。
ステレオカメラ106は、ほぼ同じ瞬間に2つの画像を取得する。取得された2つの画像の画像データはプロセッサ102に送られる。プロセッサ102は、この画像データをレンジデータ(range data)を決定するために用いる。レンジデータは、ステレオカメラ106の近くの物体の距離および角度を含む。前述のように、360度の水平視野を持つステレオカメラが用いられる。360度の水平視野は、ステレオカメラ106からどんな水平方向に位置する物体でも検出することを可能にする。ほぼ360度の水平視野を持つ例示的なステレオカメラが、図3−6とともに以下に説明される。ホスト車両が所定の領域を通過するとき、ステレオカメラ106からの画像データは、物体までの地球参照角度(たとえば、絶対距離データ)とともに、物体間の個別的なレンジ(たとえば相対距離データ)を探知するのに用いられる。
慣性センサ110を含む実施形態に置いて、追加的な情報がホスト車両の位置を推定するためにプロセッサ102に提供される。一般的に、慣性センサ110は、現在の位置を、時間に関する以前の情報、初期位置、初期速度、初期の向きに基づいて外部情報の援助なしに推定する。図1に示されているように、初期位置入力および初期向き入力が提供される。慣性センサ110により生成される情報(本実施形態においては)がプロセッサ102に提供される。プロセッサ102は、慣性センサ110のデータを、ステレオカメラ106からの距離および角度のデータと組み合わせて、ホスト車両の現在の位置を決定するために用いる。図1に示されているように、現在の位置および現在の向きが出力される。現在の向きおよび現在の位置の出力は、ナビゲーションの絶対座標および相対座標の両方で、システム100を位置付けるために用いられる。他の実施形態において、1つまたはそれ以上のGPSセンサ108、方位センサ112、スピードセンサ114および高度センサ116がプロセッサ102にデータを、ナビゲーションの絶対座標および相対座標を決定するのに使用するために提供する。
図2は、横断線図200を示しており、横断する領域200を通過するホスト車両207(たとえばUGV)を示している。図示されているように、横断領域200は、物体210−1から210−Nを含む。一実施形態において、物体210−1から210−Nは、313出願に開示された相関位置決定方法に従って位置付けられる(たとえば予め配置される)。位置づけられた物体の配置は、メモリ118のようなデータベースに記憶され、プロセッサ102のようなプロセッサからアクセス可能であり、一方で、ホスト車両207は、領域200の進路を決める。代替実施形態として、物体210−1から210−Nの配置は、予め分かってはおらず変更可能である。たとえば、物体210−1から210−Nの1つまたはそれ以上は、車両や通行人等の移動する物体である。ホスト車両207は、第1地点202から始まり第2地点204で終わる経路201を通る。ホスト車両207は、図1のステレオカメラ106に類似するステレオカメラ206を備える。ステレオカメラ206は、領域200のほぼ360度の水平視野からなる画像を取得し、この画像は、ホスト車両207および/または物体210−1から210−Nの相対位置を決定するのに用いられる。この相対位置の決定に関しては、図3−6とともに以下でさらに説明される。
図3は、本発明の一実施形態によるステレオカメラ300のブロック図である。この実施形態において、ステレオカメラ300は、2つの反射面302−1および302−2、2つのレンズ304−1および304−2、2つの画像センサ306−1および306−2、時間調整電子機器308を備える。反射面302−1および302−2は、360度の視野をレンズ304−1および304−2にそれぞれ反射する。反射面302−1および302−2は、共通の軸上に配置され(たとえば軸312)、既知の距離だけ離れている(たとえば距離314)。特に、この例においては、反射面302−1および302−2は、垂直に離れておりかつ共通の方向を向いている。しかし、代替的な構成もまた可能である。たとえば、代替的な構成の一例として、反射面302−1および302−2は、垂直に離れておりかつ反対方向を向いている。離れた反射面302−1および302−2は、垂直方向に、各反射面に他の反射面により反射された像が現れることを防止する。
他の構成の例が図10に示されており、レンズ1004−1および1004−2は、超広角レンズ(たとえば円形魚眼レンズ)である。超広角レンズは、領域のほぼ360度の水平視野およびほど180度の半球視野を写す。このような実施形態において、レンズ1004−1および1004−2が領域の像を画像センサ1006−1および1006−2に導くので、反射面302−1および302−2は必要ない。図10に示されている他の部品(たとえば、時間調整電子機器1008、画像センサ1006−1および1006−2)は、図3の実施形態について説明されたのと同様に機能する。
図3に戻って、各反射面302−1および302−2の形状は、領域の360度の水平視野を提供するように構成される。たとえば、この実施形態において、各反射面は302−1および302−2は、角錐形状である。しかし、他の実施形態おいて、他の形状とすることもできる。例示的な、反射面302−1および302−2の形状が図8A−8Eに示されており、これらの図は、これに限定するわけではないが、円錐、半球、ジオデシックドーム、角錐、四面体をそれぞれ含む。また、反射面302−1および302−2は、ミラーのような、画像の鏡面反射(すなわち、単一の入射方向のための単一の出射方向)を提供するための任意の適当な材料から作られる。
この実施形態においては、レンズ304−1および304−2は、反射像の物体がそれぞれの画像センサ306−1および306−2に到達したときに結像されるように、それぞれの反射面302−1および302−2上に集められる。時間調整電子機器308は、各レンズ304−1および304−2、画像センサ306−1および306−2に制御信号を送る。制御信号は、各レンズ304のシャッターが開くタイミングおよび開き時間を示し、それにより、反射像の画像を取得する。特に、本実施形態において、時間調整電子機器308は、画像センサ306−1および306−2がそれぞれほぼ同じ時間に画像を取得するように制御信号を送る。それゆえ、反射像は、レンズ304−1および304−2の一方を通って、それぞれの画像センサ306−1および306−2に向かう。
本例では、画像センサ306−1および306−2は、電荷結合素子(CCD)を用いて実装される。しかし、本発明の実施形態はこれに限定されない。とくに、画像センサ306−1および306−2は、相補性金属酸化膜半導体素子(CMOS)センサ(たとえば、アクティブピクセル画像センサ)のような、画像を電気信号に変換するための任意の適当な装置で実装することができる。画像センサ306−1および306−2は、電気画像データをプロセッサ102のようなプロセッサに送り、プロセッサは、この画像データに基づいて相対位置を計算する。
反射面302−1および302−2は共通の軸を持ち且つ離れているので、実質的に同一の注目領域(たとえば領域200)の像を、異なった位置から反射する。特に、各反射面302−1および302−2からの反射像は、注目領域のほぼ360度の像を含む。図4は、反射面302−1および302−2からの反射像の取得画像の線図表現の例を示す。図から分かるように、物体414−1・・・414−Nは、それぞれの画像416および418において異なっている。これは、軸312に沿って反射面が離れているからである。
図1のプロセッサ102のようなプロセッサは、画像センサ306−1および306−2からのそれぞれの画像データを用いて、領域内でのホスト車両の物体に対する相対位置を決定する。特に、プロセッサは、画像センサ306−1からの画像データ中の物体の位置と、画像センサ306−2からの画像データ中の同物体の位置との相関をとる。当業者は、カメラ画像中の物体を同定し相関させる方法を知っていることを理解されたい。従って、ここでは、画像中の物体を同定するプロセスの詳細をこれ以上説明しない。この相関に基づいて、プロセッサは、反射面302−1と302−2との間の相対角度を計測する。既知の距離314および計測した相対角度を用いて、プロセッサは、領域内のホストユニットから物体までの距離を計算する。プロセッサは、物体までの距離(レンジ)および角度向き(たとえば、相対ピッチ、ロール、および/またはヨー)を決定できる。
図5は、反射面302−1および302−2から物体510までの相対角度および距離の例を示す線図であり、これは、物体までのレンジを計算するために用いられる。長さlは既知の分離距離314であり、角度αおよびαは直角(90度)である。上述のように、画像センサ306−1および306−2により取得した画像の相関に基づいて、プロセッサは角度θおよびθを測定する。また、三角形の内角の和は180度であることから、プロセッサは角度βおよびβを計算する。長さlおよび全ての角度が分かったので、正弦および余弦の法則を用いて、長さl、lおよびlを計算することができる。さらに、他の実施形態で用いられる、代替公式は、映像に基づいたナビゲーションシステムに関連する分野の当業者に知られている。このような代替公式は、これに限定しないが、レンジおよび向きを推定するカルマンフィルタを含む。
物体までの距離に基づいて、プロセッサは、ホストユニットの物体に対する位置を計算する。ホストユニットの相対位置を用いて、プロセッサは、領域内の物体と適切に相互作用することができる。また、物体の絶対位置が与えられると、物体に対するホストユニットの位置に基づいて、ホストユニットの絶対位置を決定することができる。
さらに、いくつかの実施形態において、プロセッサは、第1の時間において各画像センサ306−1および3062のから得られた画像中の物体の位置と、第2の時間において各画像センサ306−1および306−2から得られた画像中の対応する物体の位置との相関をとる。画像センサ306−1と306−2との間の相関とともに、時間間の物体の位置の相関をとることにより、プロセッサは、測定された画像中の物体の動きに基づいて相関をとった物体に対するホスト車両の速度を決定する。さらに、ホスト車両の速度が分かったら、測定された画像中の物体の動きに基づいて、ホスト車両に対する物体の相対速度を決定することができる。
360度の水平視野により、物体の検出および距離の計算が改善される。典型的なステレオ映像システムにおいて、水平視野は限定されている。それゆえ、水平視野の外側の物体は検出されず、操縦中に、物体はカメラの視野に入りまた視野から出る。たとえば、ホスト車両の側部から近づいてくる物体または側部に位置する物体は検出されず、典型的なステレオカメラシステムでは、物体を追跡するのが困難である。また、360度の水平視野を持つので、限られた水平視野を備える典型的なステレオ映像システムよりも、所定時間におけるより多くの物体を検出して、ホスト車両の位置を決定することができる。より多くの物体を用いることは測定数を増加させ、それがホストユニットの位置の計算の精度を向上させる。
図6は、本発明の他の実施形態により、他のステレオカメラ600の線図である。ステレオカメラ600は、2つの反射面602−1および602−2、時間調整電子機器608および1つの画像取得装置605を含む。画像取得装置605は、レンズ604および画像センサ606を備える。反射面602−1および602−2は、図3で述べたように、共通の軸上に配置され、既知の距離614だけ離れている。しかし、ステレオカメラ600において、反射面602−1および602−2はそれぞれ、同一の瞬間に、距離314だけ離れた位置から画像取得装置605に向かって360度の画像を反射する。画像取得装置605から取得された各画像は、反射面602−1により反射された像に対応する領域、および反射面602−2により反射された像に対応する領域を含む。
反射面602−1および602−2は、ミラーのような画像の鏡面反射を提供するための任意の適当な材料から作ることができる。各反射面602−1および602−2の形状は、領域の360度の水平視野を提供するために構成される。たとえば、本実施形態において、各反射面602−1および602−2は、角柱のように形成される。しかし、他の実施形態においては、他の形状も可能である。反射面602−1および602−2の例示的な形状は、図8に示されており、これに限定されないが、円錐、半球、角柱、四面体、およびジオデシックドームが含まれる。
さらに、反射面602−2は、反射面602−2の中心を通る空隙610を備えるように構成される。反射面602−1は反射面602−2よりも小さいので、反射面602−1から反射される像が空隙610を通りレンズ604に到達する。円筒形トンネルのような、反射面602−1に一致する多くの構成の空隙が可能である。画像センサ606により取得された画像の例が図7に示されている。同図から分かるように、画像716は、2つの領域717および719を備える。領域717は、反射面602−2から反射された像に対応し、領域719は、反射面602−1から反射される像に対応する。空隙610は画像センサ606が単一の画像716の反射像を取得できるようにする。レンズ604は、ほぼ共通の焦点距離を持つ両方の反射像のための、適切なフォーカスを提供するように構成される。
図9は、本発明の一実施形態による、ホスト車両に対する物体の相対位置を決定するための方法900のフローチャートである。ステップ902において、第1の像は、反射面302−1のような第一の面からが画像センサ向けられる。一実施形態において、第1の面は、第1の像を画像センサに向かって反射する反射面である。他の実施形態において、第1の面は、第1の像を画像センサに向けて屈折させる超広角レンズ(たとえばレンズ1004−1、1004−2)である。第1の像は、上述のように、ほぼ360度の領域の水平視野を持つ。ステップ904において、第2の像が、反射面302−2のような第2の面から画像センサに向けられる。また、第2の像は、ほぼ360度の領域の視野を持つ。第1の面と同様に、一実施形態において、第2の面は、第2の像を画像センサに向かって反射させる反射面である。他の実施形態において、第2の面は第2の像を画像センサに向かって屈折させる超広角レンズである。
ステップ906において、第1の像および第2の像は、画像センサ306のような画像センサで少なくとも1つの画像で取得される。第1の像および第2の像は、実質的に同じ時間において取得される。特に、一実施形態において、第1の像および第2の像は、2つの像を1つの画像に取得する同一の画像センサに反射される。たとえば、このような実施形態において、上述のように、第1の反射面で反射された第1の像は、空隙610のような第2の反射面の空隙を通る。そして、同一の画像センサは単一の画像を取得し、この画像は、上述のように、同一の時間に第1の反射面および第2の反射面から反射した両方の像を含む。他の実施形態において、2つの分離した画像センサが用いられる。このような実施形態においては、各画像センサは、上述のような1つの像を取得する。
ステップ908において、ホスト車両に対する物体の相対位置を決定するために、取得画像中の物体の位置が解析される。いくつかの実施形態において、物体の絶対位置がわかっていれば、ホスト車両の絶対位置もまた決定される。特に、ホストユニットの位置を決定するために、既知の物体の位置(上述のようにメモリに記憶された位置など)および物体の相対位置が解析される。同様に、いくつかの実施形態において、ホスト車両の絶対位置が分かるので、ホストユニットに対する物体の相対位置および基地のホストユニットの位置に基づいて物体の絶対位置を決定することができる。
一実施形態において、物体の位置の解析は、第1の取得画像中の物体の位置と第2の取得画像中の同物体の位置との相関をとることを含む。従って、角度および距離のような、第1および第2の面と物体との間の相対測定は、物体位置の相関に基づいて計算される。そして、ホストユニットから物体までの距離および角度向きは、相対測定および第1の面と第2の面との間の既知の間隔に基づいて計算される。ホストユニットから物体までの距離および角度向きは、画像中の共通の物体に対するホストユニットの相対位置を決定するために用いられる。さらに、いくつかの実施形態において、所定時間経過後の少なくとも1つの画像における位置の変化に基づいて、ホストユニットの物体に対する相対速度が決定される。同様に、いくつかの実施形態において、ホストユニットに対する物体の相対速度が決定され、いくつかの実施形態では、これは、物体の位置およびホストユニットの既知の速度に基づいて行われる。
本稿で、特定の実施形態が図示および説明されたが、当業者にとって、同じ目的を達成するために考慮される任意の配置が、示された特定の実施形態に代替可能であることを理解されたい。本願は、本発明のあらゆる変更または修正を含むことを意図している。それゆえ、本発明は特許請求の範囲およびその均等物によってのみ確定されることがはっきりと意図されている。
本発明の一実施形態によるナビゲーションシステムのブロック図である。 ホスト車両が横断する領域を通過するときの横断線図である。 本発明の一実施形態によるステレオカメラのブロック図である。 反射面からの画像を描写するブロック図の一例を示す図である。 物体の反射面からの相対角度および距離の例を示すブロック図である。 本発明の一実施形態による他のステレオカメラのブロック図である。 反射面からの画像を描写するブロック図の他の一例を示す図である。 本発明の実施形態において用いられる反射面の形状の例を示す図である。 本発明の一実施形態による、ホストユニットに関する物体の相対位置を決定する方法のフローチャートである。 本発明の一実施形態による他のステレオカメラのブロック図である。

Claims (3)

  1. ステレオカメラ(300,600,1000)であって、
    前記ステレオカメラは、少なくとも1つの画像センサ(306,606,1006)と、
    領域の第1の像を前記少なくとも1つの画像センサに向けるように構成された第1の面(302−1,602−1,1004−1)とを備え、前記第1の像は、前記領域のほぼ360度の像を持ち、
    前記ステレオカメラはさらに、前記領域の第2の像を前記少なくとも1つの画像センサに向けるように構成された第2の面(302−2,602−2,1004−2)を備え、前記第2の像は、前記領域のほぼ360度の像を持ち、
    前記少なくとも1つの画像センサは、少なくとも1つの画像に、前記第1の像および前記第2の像を取得するように構成される、ステレオカメラ。
  2. 請求項1に記載のステレオカメラ(300,600,1000)であって、
    前記第1の面(302−1,602−1,1004−1)および前記第2の面(302−2,602−2,1004−2)のそれぞれは、
    反射面(302,602)および超広角レンズ(1004)のいずれか一方を有する、ステレオカメラ。
  3. 請求項1に記載のステレオカメラ(300,1000)であって、前記少なくとも1つの画像センサ(306,1006)は、
    前記第1の像および前記第2の像を単一の画像に取得するように構成された単一の画像センサ(606);または
    第1の画像センサ(306−1,1006−1)および第2の画像センサ(306−2,1006−2)であって、前記第1の画像センサ(306−1,1006−1)は、前記第1の像を第1の画像に取得するように構成され、前記第2の画像センサは、前記第2の像を第2の画像に取得するように構成される、第1および第2の画像センサ、
    のいずれか一方を有する、ステレオカメラ。
JP2008287918A 2007-11-09 2008-11-10 360度の視野をもつステレオカメラ Pending JP2009188980A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/938,068 US8174562B2 (en) 2007-11-09 2007-11-09 Stereo camera having 360 degree field of view

Publications (1)

Publication Number Publication Date
JP2009188980A true JP2009188980A (ja) 2009-08-20

Family

ID=40344999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008287918A Pending JP2009188980A (ja) 2007-11-09 2008-11-10 360度の視野をもつステレオカメラ

Country Status (3)

Country Link
US (1) US8174562B2 (ja)
EP (1) EP2059058A3 (ja)
JP (1) JP2009188980A (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101369351A (zh) * 2007-08-14 2009-02-18 深圳富泰宏精密工业有限公司 机动车行驶记录装置
AU2009327362A1 (en) 2008-12-19 2011-08-04 Xollai, Llc System and method for determining an orientation and position of an object
EP2388987A1 (en) 2010-05-19 2011-11-23 Thomson Licensing Camera with volumetric sensor chip
CN101923730B (zh) * 2010-09-21 2012-05-02 北京大学 基于鱼眼相机和多平面镜装置的三维重建方法
FI20105977A0 (fi) * 2010-09-22 2010-09-22 Valtion Teknillinen Optinen järjestelmä
JP5778177B2 (ja) * 2010-12-28 2015-09-16 公立大学法人公立はこだて未来大学 画像撮像装置および画像提示システム
JP5775354B2 (ja) 2011-04-28 2015-09-09 株式会社トプコン 離着陸ターゲット装置及び自動離着陸システム
DE102011101246A1 (de) * 2011-05-11 2012-11-15 Conti Temic Microelectronic Gmbh Redudante objektdetektion für fahrerassistenzsysteme
JP5882693B2 (ja) 2011-11-24 2016-03-09 株式会社トプコン 航空写真撮像方法及び航空写真撮像装置
EP2527787B1 (en) 2011-05-23 2019-09-11 Kabushiki Kaisha TOPCON Aerial photograph image pickup method and aerial photograph image pickup apparatus
EP2756264B1 (de) 2011-09-12 2021-01-27 Continental Teves AG & Co. OHG Verfahren zum bestimmen von lagedaten eines fahrzeuges
US20130106990A1 (en) 2011-11-01 2013-05-02 Microsoft Corporation Planar panorama imagery generation
US9406153B2 (en) 2011-12-14 2016-08-02 Microsoft Technology Licensing, Llc Point of interest (POI) data positioning in image
US10008021B2 (en) * 2011-12-14 2018-06-26 Microsoft Technology Licensing, Llc Parallax compensation
US9324184B2 (en) 2011-12-14 2016-04-26 Microsoft Technology Licensing, Llc Image three-dimensional (3D) modeling
WO2013102212A1 (en) * 2011-12-30 2013-07-04 Seegrid Corporation Auto-navigating vehicle with field-of-view enhancing sensor positioning and method of accomplishing same
JP6122591B2 (ja) 2012-08-24 2017-04-26 株式会社トプコン 写真測量用カメラ及び航空写真装置
JP6055274B2 (ja) * 2012-10-31 2016-12-27 株式会社トプコン 航空写真測定方法及び航空写真測定システム
CN103235478B (zh) * 2012-12-19 2017-04-12 乔楠 用于环幕立体摄像的系统、设备、图像处理方法及装置
US9299007B2 (en) * 2014-01-28 2016-03-29 Ncr Corporation Methods and apparatus for item identification using brightness compensation
US9243914B2 (en) * 2014-06-17 2016-01-26 Raytheon Company Correction of navigation position estimate based on the geometry of passively measured and estimated bearings to near earth objects (NEOS)
US10269257B1 (en) 2015-08-11 2019-04-23 Gopro, Inc. Systems and methods for vehicle guidance
US10370118B1 (en) 2015-10-31 2019-08-06 Simon Saito Nielsen Lighting apparatus for remote controlled device
US9720413B1 (en) * 2015-12-21 2017-08-01 Gopro, Inc. Systems and methods for providing flight control for an unmanned aerial vehicle based on opposing fields of view with overlap
US10768639B1 (en) 2016-06-30 2020-09-08 Snap Inc. Motion and image-based control system
CN109074199B (zh) * 2016-08-30 2021-12-28 深圳市大疆创新科技有限公司 用于在图像内的投影位置处检测障碍物的方法和系统
US10973391B1 (en) 2017-05-22 2021-04-13 James X. Liu Mixed reality viewing of a surgical procedure
US11348265B1 (en) 2017-09-15 2022-05-31 Snap Inc. Computing a point cloud from stitched images
US11753142B1 (en) 2017-09-29 2023-09-12 Snap Inc. Noise modulation for unmanned aerial vehicles
US11531357B1 (en) 2017-10-05 2022-12-20 Snap Inc. Spatial vector-based drone control
US11822346B1 (en) 2018-03-06 2023-11-21 Snap Inc. Systems and methods for estimating user intent to launch autonomous aerial vehicle
US11972521B2 (en) 2022-08-31 2024-04-30 Snap Inc. Multisensorial presentation of volumetric content

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997031484A1 (fr) * 1996-02-23 1997-08-28 Kabushiki Kaisha Yokota Seisakusho Systeme de reconnaissance optique large champ
JP2004026144A (ja) * 2002-06-18 2004-01-29 Daimler Chrysler Ag 車両内部または外部を監視する方法、及び監視カメラを備えた車両
JP2006072495A (ja) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd 立体物監視装置
WO2006041268A1 (en) * 2004-10-14 2006-04-20 Nanophotonics Ltd. Rectilinear mirror and imaging system having the same
JP2006195959A (ja) * 2004-11-12 2006-07-27 Takata Corp 画像処理による車両安全管理システム
JP2006287274A (ja) * 2005-03-07 2006-10-19 Toshiba Teli Corp 撮像装置及びそれを用いた立体視画像生成システム
WO2007102659A1 (en) * 2006-03-09 2007-09-13 Siliconfile Technologies Inc. Cmos stereo camera for obtaining three-dimensional image

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2680312B2 (ja) * 1987-07-10 1997-11-19 アイシン・エィ・ダブリュ株式会社 車両用ナビゲーション装置
US5646843A (en) * 1990-02-05 1997-07-08 Caterpillar Inc. Apparatus and method for surface based vehicle control system
US5661650A (en) * 1994-02-23 1997-08-26 Honda Giken Kogyo Kabushiki Kaisha System for controlling a vehicle relative to a judged shape of a travel road
JP3185613B2 (ja) * 1995-06-22 2001-07-11 三菱電機株式会社 距離測定装置
US6356296B1 (en) * 1997-05-08 2002-03-12 Behere Corporation Method and apparatus for implementing a panoptic camera system
DE19855400A1 (de) * 1998-12-01 2000-06-15 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bestimmung eines zukünftigen Kursbereichs eines Fahrzeugs
US6445983B1 (en) * 2000-07-07 2002-09-03 Case Corporation Sensor-fusion navigator for automated guidance of off-road vehicles
US6664529B2 (en) * 2000-07-19 2003-12-16 Utah State University 3D multispectral lidar
US6502033B1 (en) * 2000-10-05 2002-12-31 Navigation Technologies Corp. Turn detection algorithm for vehicle positioning
US7552008B2 (en) * 2001-07-18 2009-06-23 Regents Of The University Of Minnesota Populating geospatial database for onboard intelligent vehicle applications
FI115678B (fi) * 2003-03-25 2005-06-15 Sandvik Tamrock Oy Järjestely kaivosajoneuvon törmäyksenestoon
US7098999B1 (en) * 2004-03-05 2006-08-29 Raytheon Company High-speed readout circuit and system incorporating same
US20060103723A1 (en) * 2004-11-18 2006-05-18 Advanced Fuel Research, Inc. Panoramic stereoscopic video system
DE102004062275A1 (de) * 2004-12-23 2006-07-13 Aglaia Gmbh Verfahren und Vorrichtung zum Ermitteln eines Kalibrierparameters einer Stereokamera
KR100715026B1 (ko) * 2005-05-26 2007-05-09 한국과학기술원 단일카메라 전방향 양안시 영상 획득 장치
US9270976B2 (en) * 2005-11-02 2016-02-23 Exelis Inc. Multi-user stereoscopic 3-D panoramic vision system and method
US8050863B2 (en) * 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
US7211980B1 (en) * 2006-07-05 2007-05-01 Battelle Energy Alliance, Llc Robotic follow system and method
US20080039991A1 (en) * 2006-08-10 2008-02-14 May Reed R Methods and systems for providing accurate vehicle positioning
US7741962B2 (en) * 2006-10-09 2010-06-22 Toyota Motor Engineering & Manufacturing North America, Inc. Auditory display of vehicular environment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997031484A1 (fr) * 1996-02-23 1997-08-28 Kabushiki Kaisha Yokota Seisakusho Systeme de reconnaissance optique large champ
JP2004026144A (ja) * 2002-06-18 2004-01-29 Daimler Chrysler Ag 車両内部または外部を監視する方法、及び監視カメラを備えた車両
JP2006072495A (ja) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd 立体物監視装置
WO2006041268A1 (en) * 2004-10-14 2006-04-20 Nanophotonics Ltd. Rectilinear mirror and imaging system having the same
JP2006195959A (ja) * 2004-11-12 2006-07-27 Takata Corp 画像処理による車両安全管理システム
JP2006287274A (ja) * 2005-03-07 2006-10-19 Toshiba Teli Corp 撮像装置及びそれを用いた立体視画像生成システム
WO2007102659A1 (en) * 2006-03-09 2007-09-13 Siliconfile Technologies Inc. Cmos stereo camera for obtaining three-dimensional image

Also Published As

Publication number Publication date
EP2059058A2 (en) 2009-05-13
US8174562B2 (en) 2012-05-08
EP2059058A3 (en) 2012-07-04
US20090122133A1 (en) 2009-05-14

Similar Documents

Publication Publication Date Title
JP2009188980A (ja) 360度の視野をもつステレオカメラ
US9025033B2 (en) Surveillance camera and method for calibrating the survelliance camera using a calibration tool
JP5227110B2 (ja) Gps付全方位カメラ及び空間データ収集装置
US9175955B2 (en) Method and system for measuring angles based on 360 degree images
EP3089449B1 (en) Method for obtaining light-field data using a non-light-field imaging device, corresponding device, computer program product and non-transitory computer-readable carrier medium
US9507028B1 (en) Positioning apparatus and method for vehicle
US20150156423A1 (en) System for following an object marked by a tag device with a camera
Veth et al. Fusion of low-cost imagining and inertial sensors for navigation
CA2603329C (en) Method and system for producing an image from a vehicle
JP2008527360A (ja) 少なくとも1つの標的の測量方法及びその測地装置
CN111025308B (zh) 车辆定位方法、装置、系统和存储介质
JP6291519B2 (ja) 三次元点群データに実寸法を付与する方法とそれを用いた管路等の位置測定
JP6881917B2 (ja) 距離計測装置、撮像制御装置
JP2000337887A (ja) 移動体の自己位置標定装置
JP2019060754A (ja) 光学画像を用いた雲の高度および風速の計測方法
JP4361913B2 (ja) 動き量計算装置
EP1584896A1 (en) Passive measurement of terrain parameters
US20090003654A1 (en) Single-aperature passive rangefinder and method of determining a range
JP5920807B2 (ja) 光軸方向特定方法、光軸方向特定装置、及び光軸方向特定プログラム
Lu et al. Image-based system for measuring objects on an oblique plane and its applications in 2-D localization
US9879992B2 (en) Virtual perspective center aligned with measurement center
US20220103762A1 (en) Imaging apparatus, imaging system, and imaging method
JPH08178654A (ja) 標定装置
CN112050830B (zh) 一种运动状态估计方法及装置
JP2009031206A (ja) 位置測定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131015