JP2009008655A - 自律車両ナビゲーションのための三次元障害物マップ作成の方法及びシステム - Google Patents
自律車両ナビゲーションのための三次元障害物マップ作成の方法及びシステム Download PDFInfo
- Publication number
- JP2009008655A JP2009008655A JP2008026107A JP2008026107A JP2009008655A JP 2009008655 A JP2009008655 A JP 2009008655A JP 2008026107 A JP2008026107 A JP 2008026107A JP 2008026107 A JP2008026107 A JP 2008026107A JP 2009008655 A JP2009008655 A JP 2009008655A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle map
- autonomous vehicle
- focus distance
- focus
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000013507 mapping Methods 0.000 title description 3
- 239000002131 composite material Substances 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/106—Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Studio Devices (AREA)
- Instructional Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】自律車両のナビゲーション中の障害物を避けるために、3次元(3D)障害物マップを作成する。
【解決手段】画像取り込み装置を自律車両に提供し、画像取得装置を、所定数の異なる指定距離にフォーカスして、指定距離それぞれにおける画像を取得する。そして、取得された画像それぞれに関してどの領域にピント合わせされているかを識別し、対応するレンズフォーカス距離を、ピント合わせされている領域それぞれに割り当てる。その後、取得した画像それぞれに基づいて合成画像を形成する。領域それぞれには、対応するレンズフォーカス距離がラベル付けされる。その後、合成画像から三次元障害物マップが生成される。この障害物マップはx、y、z座標系を有し、x及びyはピクセル水平位置及び垂直位置に比例し、zはレンズフォーカス距離である。
【選択図】図1
【解決手段】画像取り込み装置を自律車両に提供し、画像取得装置を、所定数の異なる指定距離にフォーカスして、指定距離それぞれにおける画像を取得する。そして、取得された画像それぞれに関してどの領域にピント合わせされているかを識別し、対応するレンズフォーカス距離を、ピント合わせされている領域それぞれに割り当てる。その後、取得した画像それぞれに基づいて合成画像を形成する。領域それぞれには、対応するレンズフォーカス距離がラベル付けされる。その後、合成画像から三次元障害物マップが生成される。この障害物マップはx、y、z座標系を有し、x及びyはピクセル水平位置及び垂直位置に比例し、zはレンズフォーカス距離である。
【選択図】図1
Description
本発明は、自律車両ナビゲーションのための三次元障害物マップ作成の方法及びシステムに関する。
自律車両は広く使用されており、ロボット及び無人航空機(UAV)等の種々の無人地上車、水中車両、及び航空宇宙機を含んでいる。自律車両は、完全に人間の介入なしで状況を判断し、状況に応答する必要がある。自律車両のナビゲーション及び制御の全体的性能、正確性、及び頑健性に主要な制約がある。ナビゲーションを適切に行うには、自律車両はその場所を感知し、所望の行先に向かってハンドルを切り、障害物を避けることが可能でなければならない。各種様式が自律車両ナビゲーションを提供するために使用されている。これらには、全地球測位システム(GPS)、センサからの慣性測定値、及びカメラからの画像測定値の使用が含まれる。
個人又は小グループで持ち運び、野外に配備することができる、偵察及び監視のためのより小型のUAVが開発されつつある。このようなUAVは、遠隔制御可能な超小型無人機(MAV)及び組織的制御無人航空機(OAV)を含む。MAVの典型的な寸法は約6インチ〜12インチ(15cm〜30cm)であり、昆虫サイズのMAVの開発が進められている。このような航空機は、戦場で軍隊により操作されるように設計することができ、森若しくは丘、都市部の建物の種々の位置、又は見通しの効かない場所に隠れている敵勢を検出する能力を、小規模戦闘部隊及び個人戦闘員に提供することができる。こういった航空機のいくつかは、高い場所に位置して見張りをすることができ、本質的に、軍隊を機動させるための見張り番になる。
ナビゲーション中に障害物を避けるために、UAV等の自律車両は、三次元(3D)障害物マップの作成を必要とする。現在使用される典型的な車両センサは、非常に高価である(例えば、レーザスキャン検知測距(LADAR))か、又は非常に複雑なアルゴリズムを必要とする(例えば、多くの特徴を追跡しようとする立体カメラ)。
本発明は、自律車両ナビゲーションのための障害物マップ作成の方法及びシステムに関する。該方法は、画像取り込み装置を自律車両に提供するステップと、画像取り込み装置を、所定数の異なる指定距離にフォーカスするステップであって、それにより、指定距離それぞれにおける画像を取得する、フォーカスステップを含む。該方法は、取得された画像それぞれに関してどの領域にピント合わせされているかを識別するステップと、対応するレンズフォーカス距離を、ピント合わせされている領域それぞれに割り当てるステップをさらに含む。取り込まれた画像のそれぞれに基づいて合成画像が形成され、領域それぞれには、対応するレンズフォーカス距離がラベル付けされる。その後、合成画像から三次元障害物マップが生成される。三次元障害物マップはx、y、z座標系を有し、xはピクセル水平位置に比例し、yはピクセル垂直位置に比例し、zはレンズフォーカス距離である。
以下の詳細な説明において、当業者が本発明を実施できるように十分に詳細に実施形態を説明する。本発明の範囲から逸脱することなく他の実施形態を利用可能なことを理解されたい。したがって、以下の詳細な説明は本発明の範囲を制限するものではないことが理解されるであろう。
本発明は、自律車両ナビゲーションのための障害物マップ作成の方法を対象とする。概して、方法は、画像取り込み装置を自律車両に提供するステップ、及び画像取り込み装置を所定数の異なる指定距離にフォーカス(ピント合わせ)して、各指定距離にある画像を取得するステップを含む。次に、方法は、取得された各画像内のどの領域にフォーカスされているかを識別し、対応するレンズフォーカス距離を、フォーカスされている各領域に割り当てる。取り込まれた画像から合成画像が形成され、各領域には対応するレンズフォーカス距離のラベル付けがされる。次に、三次元(3D)障害物マップが合成画像から生成される。
3D障害物マップの作成は、単眼カメラオートフォーカスアルゴリズムを使用して、ピント合わせされた各領域のレンジの二次元(2D)アレイを生成することで実現することができる。次に、各画像内のこの情報が利用されて、3D障害物マップが生成される。
本方法及び本システムは、超小型無人機(MAV)及び組織的制御無人航空機(OAV)を含む無人航空機(UAV)等の自律車両の障害物回避に使用することができるが、軽量積載プラットフォームであることに制限されない。
本方法及び本システムは、超小型無人機(MAV)及び組織的制御無人航空機(OAV)を含む無人航空機(UAV)等の自律車両の障害物回避に使用することができるが、軽量積載プラットフォームであることに制限されない。
図1は、本発明の一実施形態による障害物検出及びマップ作成システム100のフローチャートと機能ブロック図を組み合わせたものである。システム100は、デジタルカメラ等の画像取り込み装置110を含む。3Dマップ作成ソフトウェアを含むマップ作成モジュール120が、画像取り込み装置110と有効に通信する。ラプラス経路計画アルゴリズム等の障害物回避ソフトウェアを含む障害物回避モジュール130が、マップ作成モジュール120と有効に通信する。
ラプラス経路計画アルゴリズムに関連する詳細は、2006年9月5日に出願された同時係属中の米国特許出願第11/470,099号に開示されており、これを参照により本明細書に援用する。
ラプラス経路計画アルゴリズムに関連する詳細は、2006年9月5日に出願された同時係属中の米国特許出願第11/470,099号に開示されており、これを参照により本明細書に援用する。
システム100の動作中、カメラのレンズは、ブロック112において、所定数の指定距離(例えば、7つの距離)にピント合わせするように調整され、ブロック114において、カメラはこれらの各距離の写真(画像)を撮影する(例えば、7枚の写真)。指定距離の各レンズ設定は、カメラのメモリ装置に保存され、写真がマップ作成モジュール120に高速ダウンロードされる。マップ作成モジュール120内の3Dマップ作成ソフトウェアは、各写真内のどの領域がフォーカス(ピント合わせ)されているかを識別し(ブロック122)、対応するレンズフォーカス距離をピント合わせされている各領域に割り当てる(ブロック124)。合成写真が形成され、各領域にフォーカス距離がラベル付けされる(ブロック126)。次に、x、y、z座標系を有する3D障害物マップが生成される(ブロック128)。ただし、
x=(ピクセル水平位置)/(レンズからイメージャまでの距離)×(レンズフォーカス距離)
y=(ピクセル垂直位置)/(レンズからイメージャまでの距離)×(レンズフォーカス距離)
z=(レンズフォーカス距離)
である。したがって、xはピクセル水平位置に比例し、yはピクセル垂直位置に比例し、zはレンズフォーカス距離である。3D障害物マップは、障害物回避モジュール130に転送され、障害物回避モジュール130は、3D障害物マップを標準障害物回避アルゴリズムに利用する(ブロック132)。
本発明の方法及びシステムの実施に関連するさらなる詳細を以下に述べる。
x=(ピクセル水平位置)/(レンズからイメージャまでの距離)×(レンズフォーカス距離)
y=(ピクセル垂直位置)/(レンズからイメージャまでの距離)×(レンズフォーカス距離)
z=(レンズフォーカス距離)
である。したがって、xはピクセル水平位置に比例し、yはピクセル垂直位置に比例し、zはレンズフォーカス距離である。3D障害物マップは、障害物回避モジュール130に転送され、障害物回避モジュール130は、3D障害物マップを標準障害物回避アルゴリズムに利用する(ブロック132)。
本発明の方法及びシステムの実施に関連するさらなる詳細を以下に述べる。
機器
一実施形態では、障害物検知及びマップ作成システムは、フルサイズイメージャ(例えば、2400×3600=860万ピクセルを有する24mm×36mmイメージャ)を有する単一のカメラ(8.6メガピクセル)及び普通の50mmレンズに基づくことができる。カメラは、焦点距離(f)0.05m、ピクセル幅(c)(24mmCD幅)/(2400ピクセル)=10ミクロン(ミクロンはピクセルサイズを測定する典型的な単位である)、fナンバー(N)3.0を有する。視野(FOV)=(24mmCCD幅)/50mm焦点距離=30度である。カメラのオートフォーカスアルゴリズムを使用して、約7m〜約45mまでの6つのレンジビンに分けることができる。JPEG等の典型的な画像圧縮方式は、4×4ピクセルセル又は8×8ピクセルセルを使用し、JPEG係数内の情報を使用して、その4×4領域又は8×8領域にピント合わせされているか否かを判断することができる。このタイプのレンジ測定は(2400/4)×(3600/4)=600×900の各サブ領域に対して行うことができ、これにより、(30度)/600=0.05度角度分解能が提供される。各オートフォーカスセルは4×4ピクセルを有し、6つの異なるレンズ位置での写真を0.25秒以内に撮影することができる(毎秒24フレーム(fps))。これは、z=画像内の600×900の各(x,y)値のレンジを提供し、これを使用して3D障害物マップを生成することができる。
一実施形態では、障害物検知及びマップ作成システムは、フルサイズイメージャ(例えば、2400×3600=860万ピクセルを有する24mm×36mmイメージャ)を有する単一のカメラ(8.6メガピクセル)及び普通の50mmレンズに基づくことができる。カメラは、焦点距離(f)0.05m、ピクセル幅(c)(24mmCD幅)/(2400ピクセル)=10ミクロン(ミクロンはピクセルサイズを測定する典型的な単位である)、fナンバー(N)3.0を有する。視野(FOV)=(24mmCCD幅)/50mm焦点距離=30度である。カメラのオートフォーカスアルゴリズムを使用して、約7m〜約45mまでの6つのレンジビンに分けることができる。JPEG等の典型的な画像圧縮方式は、4×4ピクセルセル又は8×8ピクセルセルを使用し、JPEG係数内の情報を使用して、その4×4領域又は8×8領域にピント合わせされているか否かを判断することができる。このタイプのレンジ測定は(2400/4)×(3600/4)=600×900の各サブ領域に対して行うことができ、これにより、(30度)/600=0.05度角度分解能が提供される。各オートフォーカスセルは4×4ピクセルを有し、6つの異なるレンズ位置での写真を0.25秒以内に撮影することができる(毎秒24フレーム(fps))。これは、z=画像内の600×900の各(x,y)値のレンジを提供し、これを使用して3D障害物マップを生成することができる。
別の実施形態では、障害物検知及びマップ作成システムは、単一の8メガピクセルデジタル一眼レフ(SLR)カメラに基づくことができる。このようなシステムは400×300の各JPEG領域に約7m〜約52mまでの7つの障害物距離レンジビンを提供し、各JPEG領域は8×8ピクセルを含む。求められる計算は、デジタルカメラ内のJPEGアルゴリズム及びその領域がピント合わせされているか否かを判断するために各8×8JPEG領域に1つの高空間周波数係数を選択することだけである。超音波距離センサを任意に使用して、付近の窓又は特徴のない壁へのレンジをカメラが測定するのを補うことができる。この実施形態では、障害物回避のために約45度の視野も必要である。
レンジ分解能
レンジ分解能を求めるに際して、絞りが広く焦点距離が長いレンズは、浅い被写界深度(depth-of-field)を有するため、写真では、障害物が所与のレンジビン内にある領域でのみピント合わせされることを利用して、深度情報が得られる。例えば、写真のどのエリアがピント合わせされているかを判断するには、写真のJPEG表現での各8×8セルが調べられる。8×8JPEGセルは、最高空間周波数に大きな係数を有する場合のみ、ピント合わせされる。最高空間周波数係数の値を記憶することにより、8×8ピクセルセルがピント合わせされているか否かのインジケータが提供される。レンズを一連の距離(例えば、8m、9m、11m、13m、18m、31m、及び52m)にピント合わせした状態で一連の(例えば、7枚等の)写真を撮影することにより、合成写真上の各8×8ピクセルエリアの7つのレンジビン内に深度情報を有する合成写真を構築することができる。高解像度、例えば、3500×2300ピクセル(8メガピクセル)の写真が提供される場合、レンジビン情報を有する、合計で(3500/8)×(2300/8)=437×287個のJPEGセルを得ることができる。
レンジ分解能を求めるに際して、絞りが広く焦点距離が長いレンズは、浅い被写界深度(depth-of-field)を有するため、写真では、障害物が所与のレンジビン内にある領域でのみピント合わせされることを利用して、深度情報が得られる。例えば、写真のどのエリアがピント合わせされているかを判断するには、写真のJPEG表現での各8×8セルが調べられる。8×8JPEGセルは、最高空間周波数に大きな係数を有する場合のみ、ピント合わせされる。最高空間周波数係数の値を記憶することにより、8×8ピクセルセルがピント合わせされているか否かのインジケータが提供される。レンズを一連の距離(例えば、8m、9m、11m、13m、18m、31m、及び52m)にピント合わせした状態で一連の(例えば、7枚等の)写真を撮影することにより、合成写真上の各8×8ピクセルエリアの7つのレンジビン内に深度情報を有する合成写真を構築することができる。高解像度、例えば、3500×2300ピクセル(8メガピクセル)の写真が提供される場合、レンジビン情報を有する、合計で(3500/8)×(2300/8)=437×287個のJPEGセルを得ることができる。
カメラ/レンズシステムが過焦点距離Hにピント合わせされる場合、H/2と無限遠との間の距離で見えるすべてのオブジェクトにピント合わせされることになる。したがって、本方法で使用されるレンジフロムフォーカス(range-from-focus)技法は、H/2の距離までしか機能しない。52mまでのレンジを測定するために、少なくともH=f×f/(N×c)=104mの過焦点距離(hyper-focal distance)を有するカメラ/レンズシステムが必要である。
図2は、レンジビン分解能及び精度を示すグラフである。グラフはH=104mを有するカメラ/レンズシステムの場合に約7m〜約52mまでの7つのレンジビンの公称焦点範囲に対して、レンズが(s)でピント合わせされる最大距離及び最小距離をプロットする。近景はDnear=H×s/(H+s)で求められ、遠景はDfar=H×s/(H−s)で求められる。グラフは、焦点距離が過焦点距離Hに近づくにつれて、最大焦点距離と最小焦点距離との広がりが急速に増大することを示している。その結果得られる区別可能な距離のビン数は、過焦点距離に近づきつつあるレンジの場合にかなり小さく、近いレンジほど区別可能なレンジビン数がはるかに大きくなる。
振動
晴れた日に、F16レンズ設定を使用する場合、シャッタ速度をおよそISO設定の逆数にする必要があるため、ISO100では、シャッタ速度をおよそ1/100秒に設定する必要がある。F1.8レンズが使用される場合、シャッタ速度はほぼ以下の式で表される必要がある。
シャッタ時間=(1.8/16)2×(1/100秒)
=1/8000秒
振動周波数は、車両エンジンの毎分回転数(RPM)の周波数及び複数の高調波成分を含んでいる。車両エンジンのRPMが約6000RPM=100Hzである場合、シャッタが開いている時間中に経験するエンジン回転の端数は、以下のとおりである。
(シャッタ時間)×(エンジンレート)=(1/8000秒)×100Hz
=1/80<<1
したがって、振動により写真がぶれることがない。
晴れた日に、F16レンズ設定を使用する場合、シャッタ速度をおよそISO設定の逆数にする必要があるため、ISO100では、シャッタ速度をおよそ1/100秒に設定する必要がある。F1.8レンズが使用される場合、シャッタ速度はほぼ以下の式で表される必要がある。
シャッタ時間=(1.8/16)2×(1/100秒)
=1/8000秒
振動周波数は、車両エンジンの毎分回転数(RPM)の周波数及び複数の高調波成分を含んでいる。車両エンジンのRPMが約6000RPM=100Hzである場合、シャッタが開いている時間中に経験するエンジン回転の端数は、以下のとおりである。
(シャッタ時間)×(エンジンレート)=(1/8000秒)×100Hz
=1/80<<1
したがって、振動により写真がぶれることがない。
センサ更新レート
MAV型車両又はOAV型車両の良好な障害物回避のための追加要件は、約1Hzの障害物センサ更新レートを有することである。少なくとも5Hz(5fps)のフレームレートを有するデジタルSLRカメラを使用して、この性能を提供することができる。これにより、一連の7枚の写真を(5fps)/(7フレーム)=0.7Hzで更新することが可能である。例えば、キャノン(登録商標)のEOS−20Dの5fps速度がバーストモードの場合、写真はカメラの高速メモリバッファに記憶される。衝突回避にはデジタルSLRカメラの完全な角度分解能を必要としないため、本方法で障害物回避アルゴリズムに転送する必要があるのは、そのデータのわずかな部分だけ(例えば、8×8ピクセルセルがグループ化されるため、1/(8×8)=1/64)である。カメラとコンピュータとの間でUSB2データ転送を使用する場合、完全な8メガピクセル画像を約0.5秒で転送することができる。本方法は、画像内の詳細の1/64のみを転送するため(範囲測定に必要な8×8ピクセルJPEG領域毎に1バイト)、1フレームからの範囲データの転送に必要な時間は、(0.5秒/フルフレーム)×(1/64)=0.008秒である。
MAV型車両又はOAV型車両の良好な障害物回避のための追加要件は、約1Hzの障害物センサ更新レートを有することである。少なくとも5Hz(5fps)のフレームレートを有するデジタルSLRカメラを使用して、この性能を提供することができる。これにより、一連の7枚の写真を(5fps)/(7フレーム)=0.7Hzで更新することが可能である。例えば、キャノン(登録商標)のEOS−20Dの5fps速度がバーストモードの場合、写真はカメラの高速メモリバッファに記憶される。衝突回避にはデジタルSLRカメラの完全な角度分解能を必要としないため、本方法で障害物回避アルゴリズムに転送する必要があるのは、そのデータのわずかな部分だけ(例えば、8×8ピクセルセルがグループ化されるため、1/(8×8)=1/64)である。カメラとコンピュータとの間でUSB2データ転送を使用する場合、完全な8メガピクセル画像を約0.5秒で転送することができる。本方法は、画像内の詳細の1/64のみを転送するため(範囲測定に必要な8×8ピクセルJPEG領域毎に1バイト)、1フレームからの範囲データの転送に必要な時間は、(0.5秒/フルフレーム)×(1/64)=0.008秒である。
計算例
デジタルSLRカメラを使用して3D障害物マップを構築することの実現可能性を判断するために、以下の例において、前項で述べたカメラの過焦点距離及び視野を計算する。カメラ:キャノン(登録商標)のEOS−20D、3500×2300ピクセル、22.5mm×15mm CCD(ピクセル幅=6.5ミクロン)
レンズ:Sigma f=30mm、fナンバー=1.4、Canonマウントを有するEX DC HSM
過焦点距離H及び視野は以下のように計算される。
H=f2/(Fナンバー)×(ピクセル幅)
=(0.030m)2/(1.4×6.5×10−6m)
=99m
水平視野=2×tan−1{(22.5mm)/2/30}mm
=41度
垂直視野=2×tan−1{(15mm)/2/30mm}
=28度
デジタルSLRカメラを使用して3D障害物マップを構築することの実現可能性を判断するために、以下の例において、前項で述べたカメラの過焦点距離及び視野を計算する。カメラ:キャノン(登録商標)のEOS−20D、3500×2300ピクセル、22.5mm×15mm CCD(ピクセル幅=6.5ミクロン)
レンズ:Sigma f=30mm、fナンバー=1.4、Canonマウントを有するEX DC HSM
過焦点距離H及び視野は以下のように計算される。
H=f2/(Fナンバー)×(ピクセル幅)
=(0.030m)2/(1.4×6.5×10−6m)
=99m
水平視野=2×tan−1{(22.5mm)/2/30}mm
=41度
垂直視野=2×tan−1{(15mm)/2/30mm}
=28度
本発明の方法及びシステムの動作に使用される各種のプロセスタスク、計算、並びに信号及び他のデータの生成を実行する命令は、ソフトウェア、ファームウェア、又は他のコンピュータ可読命令で実施することができる。これらの命令は通常、コンピュータ可読命令又はデータ構造の記憶に使用される任意の適したコンピュータ可読媒体に記憶される。このようなコンピュータ可読媒体は、汎用若しくは専用のコンピュータすなわちプロセッサ、又は任意のプログラム可能な論理装置がアクセスできる任意の利用可能な記憶媒体である。
適したコンピュータ可読媒体は、例えば、EPROM、EEPROM、若しくはフラッシュメモリ装置等の半導体メモリ装置、内部ハードディスク若しくはリムーバブルディスク等の磁気ディスク、光磁気ディスク、CD、DVD、若しくは他の光学記憶ディスク、不揮発性ROM、RAM、及び他の同様の媒体、又は所望のプログラムコード手段をコンピュータ実行可能命令若しくはデータ構造の形態で記憶するために使用できる任意の他の媒体を含む不揮発性メモリ装置である。上記のいずれも、特定用途向け集積回路(ASIC)で補われてもよく、又はASICに組み込まれてもよい。情報がネットワーク又は別の通信接続(有線、無線、又は有線と無線の組み合わせ)を介してコンピュータに転送又は提供される場合、コンピュータは該接続をコンピュータ可読媒体としてみなす。したがって、このような接続はコンピュータ可読媒体と称することができる。上記の組み合わせもコンピュータ可読媒体の範囲内である。
本発明の方法は、プロセッサにより実行される、プログラムモジュール等のコンピュータ可読命令で実施することができる。一般に、プログラムモジュールは、特定のタスクを実行又は特定の抽象データ型を実施するルーチン、プログラム、オブジェクト、データ構成要素、データ構造、アルゴリズム等を含む。コンピュータ実行可能命令、関連するデータ構造、及びプログラムモジュールは、本明細書に開示した方法のステップを実行するプログラムコード手段の例を表す。このような実行可能命令又は関連するデータ構造の特定の順番は、このようなステップにおいて述べられた機能を実施する対応する動作の例を表す。
本発明は、本質的な特徴から逸脱することなく他の特定の形態で具現することが可能である。説明した実施形態はあらゆる点で制限ではなく例示としてのみみなされるべきである。したがって、本発明の範囲は上記説明ではなく添付の特許請求の範囲により示される。特許請求の範囲の均等物の意味及び範囲内にあるすべての変更は、特許請求の範囲内に包含されるものである。
Claims (3)
- 自律車両ナビゲーションのための障害物マップ作成の方法であって、
画像取り込み装置を、自律車両からの所定数の異なる指定距離にフォーカスして、前記指定距離のそれぞれにある画像を取得するステップと、
取得された画像がそれぞれのどの領域にフォーカスされているかを識別するステップと、
対応するレンズフォーカス距離を、フォーカスされている前記領域のそれぞれに割り当てるステップと、
取得された画像のそれぞれに基づいて合成画像を形成するステップであって、前記領域のそれぞれには対応する前記レンズフォーカス距離でラベル付けされる、ステップと、
前記合成画像から、x、y、z座標系を有する三次元障害物マップであって、xはピクセル水平位置に比例し、yはピクセル垂直位置に比例し、zは前記レンズフォーカス距離である三次元障害物マップを生成するステップと
からなることを特徴とする障害物マップ作成方法。 - 請求項1記載の方法において、該方法はさらに、前記三次元障害物マップを障害物回避アルゴリズムに利用するステップを
含むことを特徴とする方法。 - 請求項1記載の方法において、該方法はさらに、前記三次元障害物マップを生成するステップの前に、前記領域それぞれのレンジの二次元アレイを生成するステップを含むことを特徴とする方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/671,755 US7974460B2 (en) | 2007-02-06 | 2007-02-06 | Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009008655A true JP2009008655A (ja) | 2009-01-15 |
Family
ID=39415352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008026107A Withdrawn JP2009008655A (ja) | 2007-02-06 | 2008-02-06 | 自律車両ナビゲーションのための三次元障害物マップ作成の方法及びシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US7974460B2 (ja) |
EP (1) | EP1956457A1 (ja) |
JP (1) | JP2009008655A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198207A (ja) * | 2011-03-18 | 2012-10-18 | Enii Kk | 画像処理装置および方法、ならびに移動体衝突防止装置 |
CN108427438A (zh) * | 2018-04-11 | 2018-08-21 | 北京木业邦科技有限公司 | 飞行环境检测方法、装置、电子设备及存储介质 |
JPWO2018051498A1 (ja) * | 2016-09-16 | 2019-04-11 | ヤマハ発動機株式会社 | 基板作業システム、および、基板作業システムにおける部品搬送方法 |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7974460B2 (en) * | 2007-02-06 | 2011-07-05 | Honeywell International Inc. | Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles |
US9726485B2 (en) * | 2007-04-22 | 2017-08-08 | Ilookabout Inc. | Method of obtaining geographically related images using a vehicle |
WO2010071842A1 (en) | 2008-12-19 | 2010-06-24 | Xollai, Llc | System and method for determining an orientation and position of an object |
US8405742B2 (en) * | 2008-12-30 | 2013-03-26 | Massachusetts Institute Of Technology | Processing images having different focus |
IL196276A (en) | 2008-12-30 | 2013-04-30 | Elbit Systems Ltd | Independent navigation system and method for maneuverable platform |
US8712679B1 (en) | 2010-10-29 | 2014-04-29 | Stc.Unm | System and methods for obstacle mapping and navigation |
EP2590139A1 (de) * | 2011-11-04 | 2013-05-08 | Alicona Imaging GmbH | Verfahren und Apparat zur flächenhaften optischen dreidimensionalen Messung von Oberflächentopographien |
US9113059B2 (en) * | 2011-11-30 | 2015-08-18 | Canon Kabushiki Kaisha | Image pickup apparatus and image region discrimination method |
DE102011121473A1 (de) | 2011-12-17 | 2013-06-20 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung, Kraftfahrzeug und Computerprogramm |
US9481301B2 (en) | 2012-12-05 | 2016-11-01 | Magna Electronics Inc. | Vehicle vision system utilizing camera synchronization |
ES2478700B1 (es) * | 2013-01-21 | 2015-06-30 | Idneo Technologies, S.L. | Sistema y método para la detección de obstáculos |
US8818572B1 (en) * | 2013-03-15 | 2014-08-26 | State Farm Mutual Automobile Insurance Company | System and method for controlling a remote aerial device for up-close inspection |
KR102066938B1 (ko) * | 2013-08-20 | 2020-01-16 | 한화테크윈 주식회사 | 영상 처리 장치 및 방법 |
US9483816B2 (en) | 2013-09-03 | 2016-11-01 | Litel Instruments | Method and system for high accuracy and reliability registration of multi modal imagery |
US9903719B2 (en) | 2013-09-03 | 2018-02-27 | Litel Instruments | System and method for advanced navigation |
DE102013222304A1 (de) * | 2013-11-04 | 2015-05-07 | Conti Temic Microelectronic Gmbh | Verfahren zur Bestimmung von Objektentfernungen mit einer in einem Kraftfahrzeug verbauten Kamera |
US9349284B2 (en) | 2014-04-24 | 2016-05-24 | International Business Machines Corporation | Regional driving trend modification using autonomous vehicles |
US9304515B2 (en) | 2014-04-24 | 2016-04-05 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Regional operation modes for autonomous vehicles |
US9798007B2 (en) | 2014-07-01 | 2017-10-24 | Sikorsky Aircraft Corporation | Obstacle data model construction system with range sensor shadows and use in motion planning |
WO2016022483A1 (en) * | 2014-08-04 | 2016-02-11 | Gentex Corporation | Driver assist system utilizing an inertial sensor |
CN104808682B (zh) * | 2015-03-10 | 2017-12-29 | 成都优艾维智能科技有限责任公司 | 小型旋翼无人机自主避障飞行控制方法 |
CN104850134B (zh) * | 2015-06-12 | 2019-01-11 | 北京中飞艾维航空科技有限公司 | 一种无人机高精度自主避障飞行方法 |
EP3315414B1 (en) * | 2015-06-29 | 2022-07-13 | Yuneec Technology Co., Limited | Geo-location or navigation camera, and aircraft and navigation method therefor |
CN105022405A (zh) * | 2015-07-16 | 2015-11-04 | 杨珊珊 | 街景地图制作方法、控制服务器、无人机及制作装置 |
DE102015112380A1 (de) | 2015-07-29 | 2017-02-02 | Connaught Electronics Ltd. | Verfahren zum Bestimmen einer Entfernung von einer Kamera zu einem Objekt, Fahrerassistenzsystem und Kraftfahrzeug |
CN105094143A (zh) * | 2015-08-27 | 2015-11-25 | 泉州装备制造研究所 | 基于无人机的地图显示方法和装置 |
CN105159297B (zh) * | 2015-09-11 | 2018-02-13 | 南方电网科学研究院有限责任公司 | 输电线路无人机巡检避障系统与方法 |
CN107917692B (zh) * | 2017-11-09 | 2020-02-18 | 长江三峡勘测研究院有限公司(武汉) | 一种基于无人机的块体识别方法 |
EP3591490B1 (en) * | 2017-12-15 | 2021-12-01 | Autel Robotics Co., Ltd. | Obstacle avoidance method and device, and unmanned aerial vehicle |
US11047978B2 (en) | 2018-01-12 | 2021-06-29 | The Euclide 2012 Investment Trust | System and method for generating an electromagnetic-profile digital map |
JP7182895B2 (ja) * | 2018-04-13 | 2022-12-05 | 株式会社東芝 | 情報処理装置、プログラム、および情報処理方法 |
JP2021177582A (ja) * | 2018-07-31 | 2021-11-11 | ソニーグループ株式会社 | 制御装置、制御方法、およびプログラム |
DE102018221133A1 (de) * | 2018-12-06 | 2020-06-10 | Zf Friedrichshafen Ag | Positions- und Bewegungserkennung mittels Autofokussystem |
US11237572B2 (en) | 2018-12-27 | 2022-02-01 | Intel Corporation | Collision avoidance system, depth imaging system, vehicle, map generator and methods thereof |
US11968639B2 (en) | 2020-11-11 | 2024-04-23 | Magna Electronics Inc. | Vehicular control system with synchronized communication between control units |
CN112508865B (zh) * | 2020-11-23 | 2024-02-02 | 深圳供电局有限公司 | 一种无人机巡检避障方法、装置、计算机设备和存储介质 |
DE102021202454A1 (de) | 2021-03-15 | 2022-09-15 | Zf Friedrichshafen Ag | Umgebungsmodellierung basierend auf Kameradaten |
CN114489078B (zh) * | 2022-01-27 | 2024-07-12 | 珠海一微半导体股份有限公司 | 基于相位检测的移动机器人避障方法、芯片和机器人 |
CN114723640B (zh) * | 2022-05-23 | 2022-09-27 | 禾多科技(北京)有限公司 | 障碍物信息生成方法、装置、电子设备和计算机可读介质 |
DE102022117341A1 (de) | 2022-07-12 | 2024-01-18 | Valeo Schalter Und Sensoren Gmbh | Verfahren zur Bestimmung eines Abstandes zu einem Objekt in einem Sichtfeld einer Kamera, Computerprogramm, Steuereinheit für eine Fahrzeugkamera, Kamera- und Fahrerassistenzsystem |
Family Cites Families (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4219812A (en) * | 1978-12-26 | 1980-08-26 | The United States Of America As Represented By The Secretary Of The Army | Range-gated pulse doppler radar system |
US4783753A (en) * | 1986-05-07 | 1988-11-08 | Environmental Research Inst. Of Michigan | System for reducing speckle noise |
IE61778B1 (en) * | 1989-01-04 | 1994-11-30 | Emyville Enterprises | Image processing |
JP2669031B2 (ja) * | 1989-02-28 | 1997-10-27 | 日産自動車株式会社 | 自律走行車両 |
JP2669043B2 (ja) * | 1989-04-12 | 1997-10-27 | 日産自動車株式会社 | 自律走行車両 |
US5361127A (en) * | 1992-08-07 | 1994-11-01 | Hughes Aircraft Company | Multi-image single sensor depth recovery system |
US5436839A (en) * | 1992-10-26 | 1995-07-25 | Martin Marietta Corporation | Navigation module for a semi-autonomous vehicle |
US5777690A (en) * | 1995-01-20 | 1998-07-07 | Kabushiki Kaisha Toshiba | Device and method for detection of moving obstacles |
US5793900A (en) * | 1995-12-29 | 1998-08-11 | Stanford University | Generating categorical depth maps using passive defocus sensing |
KR100195018B1 (ko) * | 1996-11-04 | 1999-06-15 | 윤종용 | 수치지도 형상데이터 합성시 그 명칭 처리방법 |
JP3660492B2 (ja) * | 1998-01-27 | 2005-06-15 | 株式会社東芝 | 物体検知装置 |
US7298289B1 (en) * | 1998-01-27 | 2007-11-20 | Hoffberg Steven M | Mobile communication device |
US6154558A (en) * | 1998-04-22 | 2000-11-28 | Hsieh; Kuan-Hong | Intention identification method |
US6130705A (en) * | 1998-07-10 | 2000-10-10 | Recon/Optical, Inc. | Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use |
US6507661B1 (en) * | 1999-04-20 | 2003-01-14 | Nec Research Institute, Inc. | Method for estimating optical flow |
US6307959B1 (en) * | 1999-07-14 | 2001-10-23 | Sarnoff Corporation | Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation |
JP4233723B2 (ja) * | 2000-02-28 | 2009-03-04 | 本田技研工業株式会社 | 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体 |
US6411898B2 (en) * | 2000-04-24 | 2002-06-25 | Matsushita Electric Industrial Co., Ltd. | Navigation device |
US20020105484A1 (en) * | 2000-09-25 | 2002-08-08 | Nassir Navab | System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality |
US7027615B2 (en) * | 2001-06-20 | 2006-04-11 | Hrl Laboratories, Llc | Vision-based highway overhead structure detection system |
US6868314B1 (en) * | 2001-06-27 | 2005-03-15 | Bentley D. Frink | Unmanned aerial vehicle apparatus, system and method for retrieving data |
GB0117541D0 (en) * | 2001-07-19 | 2003-08-06 | Bae Systems Plc | Automatic registration of images in digital terrain elevation data |
US20030072479A1 (en) * | 2001-09-17 | 2003-04-17 | Virtualscopics | System and method for quantitative assessment of cancers and their change over time |
JP3945279B2 (ja) * | 2002-03-15 | 2007-07-18 | ソニー株式会社 | 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置 |
KR100493159B1 (ko) * | 2002-10-01 | 2005-06-02 | 삼성전자주식회사 | 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법 |
US7417641B1 (en) * | 2002-10-16 | 2008-08-26 | Rockwell Collins, Inc. | Aeronautical chart display apparatus and method |
KR100446636B1 (ko) * | 2002-11-21 | 2004-09-04 | 삼성전자주식회사 | 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법 |
SE526913C2 (sv) * | 2003-01-02 | 2005-11-15 | Arnex Navigation Systems Ab | Förfarande i form av intelligenta funktioner för fordon och automatiska lastmaskiner gällande kartläggning av terräng och materialvolymer, hinderdetektering och styrning av fordon och arbetsredskap |
US7136506B2 (en) * | 2003-03-03 | 2006-11-14 | Lockheed Martin Corporation | Correlation based in frame video tracker |
WO2004095071A2 (en) * | 2003-04-17 | 2004-11-04 | Kenneth Sinclair | Object detection system |
JP3994950B2 (ja) * | 2003-09-19 | 2007-10-24 | ソニー株式会社 | 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 |
US7231294B2 (en) * | 2003-10-23 | 2007-06-12 | International Business Machines Corporation | Navigating a UAV |
US7620265B1 (en) * | 2004-04-12 | 2009-11-17 | Equinox Corporation | Color invariant image fusion of visible and thermal infrared video |
US7492965B2 (en) * | 2004-05-28 | 2009-02-17 | Lockheed Martin Corporation | Multiple map image projecting and fusing |
US7298922B1 (en) * | 2004-07-07 | 2007-11-20 | Lockheed Martin Corporation | Synthetic panchromatic imagery method and system |
US7015855B1 (en) * | 2004-08-12 | 2006-03-21 | Lockheed Martin Corporation | Creating and identifying synthetic aperture radar images having tilt angle diversity |
KR100790860B1 (ko) * | 2004-12-14 | 2008-01-03 | 삼성전자주식회사 | 사람 추적 장치 및 방법, 그 방법을 수행하기 위한프로그램이 저장된 기록매체와 그 장치를 포함하는 이동형전자기기 |
US7414706B2 (en) * | 2004-12-22 | 2008-08-19 | Northrop Grumman Corporation | Method and apparatus for imaging a target using cloud obscuration prediction and detection |
JP4544028B2 (ja) * | 2005-05-13 | 2010-09-15 | 日産自動車株式会社 | 車載画像処理装置、および画像処理方法 |
US7668403B2 (en) * | 2005-06-28 | 2010-02-23 | Lockheed Martin Corporation | Frame grabber |
US7542828B2 (en) * | 2005-07-01 | 2009-06-02 | Lockheed Martin Corporation | Unmanned air vehicle, integrated weapon platform, avionics system and control method |
US7454037B2 (en) * | 2005-10-21 | 2008-11-18 | The Boeing Company | System, method and computer program product for adaptive video processing |
JP4740723B2 (ja) * | 2005-11-28 | 2011-08-03 | 富士通株式会社 | 画像解析プログラム、該プログラムを記録した記録媒体、画像解析装置、および画像解析方法 |
US8417060B2 (en) * | 2006-03-20 | 2013-04-09 | Arizona Board Of Regents For And On Behalf Of Arizona State University | Methods for multi-point descriptors for image registrations |
US7907750B2 (en) * | 2006-06-12 | 2011-03-15 | Honeywell International Inc. | System and method for autonomous object tracking |
US7967255B2 (en) * | 2006-07-27 | 2011-06-28 | Raytheon Company | Autonomous space flight system and planetary lander for executing a discrete landing sequence to remove unknown navigation error, perform hazard avoidance and relocate the lander and method |
US7840352B2 (en) * | 2006-09-05 | 2010-11-23 | Honeywell International Inc. | Method and system for autonomous vehicle navigation |
US7974460B2 (en) * | 2007-02-06 | 2011-07-05 | Honeywell International Inc. | Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles |
US8290304B2 (en) * | 2007-02-23 | 2012-10-16 | Lockheed Martin Corporation | Iterative region-based automated control point generation |
US7881497B2 (en) * | 2007-03-08 | 2011-02-01 | Honeywell International Inc. | Vision based navigation and guidance system |
CA2682256C (en) * | 2007-03-21 | 2017-01-03 | Commonwealth Scientific And Industrial Research Organisation | Method for planning and executing obstacle-free paths for rotating excavation machinery |
US20090088916A1 (en) * | 2007-09-28 | 2009-04-02 | Honeywell International Inc. | Method and system for automatic path planning and obstacle/collision avoidance of autonomous vehicles |
US7489334B1 (en) * | 2007-12-12 | 2009-02-10 | International Business Machines Corporation | Method and system for reducing the cost of sampling a moving image |
US8565913B2 (en) * | 2008-02-01 | 2013-10-22 | Sky-Trax, Inc. | Apparatus and method for asset tracking |
JP4999734B2 (ja) * | 2008-03-07 | 2012-08-15 | 株式会社日立製作所 | 環境地図生成装置、方法及びプログラム |
US8078399B2 (en) * | 2008-03-10 | 2011-12-13 | Honeywell International Inc. | Method and device for three-dimensional path planning to avoid obstacles using multiple planes |
US20100034424A1 (en) * | 2008-08-06 | 2010-02-11 | Honeywell International Inc. | Pointing system for laser designator |
-
2007
- 2007-02-06 US US11/671,755 patent/US7974460B2/en active Active
-
2008
- 2008-02-01 EP EP08101227A patent/EP1956457A1/en not_active Withdrawn
- 2008-02-06 JP JP2008026107A patent/JP2009008655A/ja not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198207A (ja) * | 2011-03-18 | 2012-10-18 | Enii Kk | 画像処理装置および方法、ならびに移動体衝突防止装置 |
JPWO2018051498A1 (ja) * | 2016-09-16 | 2019-04-11 | ヤマハ発動機株式会社 | 基板作業システム、および、基板作業システムにおける部品搬送方法 |
US11912412B2 (en) | 2016-09-16 | 2024-02-27 | Yamaha Hatsudoki Kabushiki Kaisha | Substrate working system and method for conveying component in substrate working system |
CN108427438A (zh) * | 2018-04-11 | 2018-08-21 | 北京木业邦科技有限公司 | 飞行环境检测方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US7974460B2 (en) | 2011-07-05 |
EP1956457A1 (en) | 2008-08-13 |
US20080189036A1 (en) | 2008-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009008655A (ja) | 自律車両ナビゲーションのための三次元障害物マップ作成の方法及びシステム | |
KR101835434B1 (ko) | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 | |
CN109194876B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
CN109544620A (zh) | 图像处理方法和装置、计算机可读存储介质和电子设备 | |
CN112837207B (zh) | 全景深度测量方法、四目鱼眼相机及双目鱼眼相机 | |
CN108496201A (zh) | 图像处理方法和设备 | |
KR20200071960A (ko) | 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치 | |
US20210264666A1 (en) | Method for obtaining photogrammetric data using a layered approach | |
CN110720023B (zh) | 一种对摄像机的参数处理方法、装置及图像处理设备 | |
KR20150128140A (ko) | 어라운드 뷰 시스템 | |
KR102473804B1 (ko) | 영상관제 시스템에서 카메라 영상내 관제 지점의 지도 매핑 방법 | |
CN110036411B (zh) | 生成电子三维漫游环境的装置和方法 | |
JP7552589B2 (ja) | 情報処理装置、情報処理方法、プログラム、及び情報処理システム | |
JP6949930B2 (ja) | 制御装置、移動体および制御方法 | |
KR102578056B1 (ko) | 비행체를 이용한 항공 사진 측량용 촬영 장치 및 방법 | |
CN210986289U (zh) | 四目鱼眼相机及双目鱼眼相机 | |
JP5471919B2 (ja) | 画像処理装置、画像処理プログラム及び画像処理方法、並びに移動体 | |
JP2016219980A (ja) | 対象物情報表示装置 | |
WO2019127192A1 (zh) | 图像处理方法和设备 | |
JP2020050261A (ja) | 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体 | |
JP2021022846A (ja) | 点検方法、点検システム | |
CN110726407A (zh) | 一种定位监控方法及装置 | |
WO2016092254A1 (en) | Apparatus and method for optical imaging | |
CN112154477A (zh) | 图像处理方法、装置和可移动平台 | |
CN110892354A (zh) | 图像处理方法和无人机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110510 |