JP2005322002A - 複合人工知能装置 - Google Patents
複合人工知能装置 Download PDFInfo
- Publication number
- JP2005322002A JP2005322002A JP2004139195A JP2004139195A JP2005322002A JP 2005322002 A JP2005322002 A JP 2005322002A JP 2004139195 A JP2004139195 A JP 2004139195A JP 2004139195 A JP2004139195 A JP 2004139195A JP 2005322002 A JP2005322002 A JP 2005322002A
- Authority
- JP
- Japan
- Prior art keywords
- image
- artificial intelligence
- unit
- camera
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 296
- 150000001875 compounds Chemical class 0.000 title 1
- 238000000034 method Methods 0.000 claims abstract description 91
- 230000008569 process Effects 0.000 claims abstract description 66
- 238000012545 processing Methods 0.000 claims abstract description 43
- 239000013598 vector Substances 0.000 claims description 221
- 238000004364 calculation method Methods 0.000 claims description 139
- 230000006870 function Effects 0.000 claims description 71
- 238000009826 distribution Methods 0.000 claims description 67
- 239000002131 composite material Substances 0.000 claims description 61
- 238000001514 detection method Methods 0.000 claims description 39
- 230000033001 locomotion Effects 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 32
- 230000009471 action Effects 0.000 claims description 25
- 238000004891 communication Methods 0.000 claims description 19
- 239000000284 extract Substances 0.000 claims description 16
- 230000010354 integration Effects 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 15
- 230000006641 stabilisation Effects 0.000 claims description 12
- 238000011105 stabilization Methods 0.000 claims description 12
- 230000006399 behavior Effects 0.000 claims description 10
- 238000004088 simulation Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000003014 reinforcing effect Effects 0.000 claims description 3
- 230000000052 comparative effect Effects 0.000 claims description 2
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000010191 image analysis Methods 0.000 claims description 2
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 abstract 2
- 230000000875 corresponding effect Effects 0.000 description 49
- 238000010586 diagram Methods 0.000 description 31
- 238000000926 separation method Methods 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 12
- 230000036961 partial effect Effects 0.000 description 11
- 238000012937 correction Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 230000001276 controlling effect Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 230000002829 reductive effect Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 239000012634 fragment Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000011895 specific detection Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
Abstract
【解決手段】 任意の物体に取り付けられる複数の人工知能装置は、それぞれ、取り付けられた物体の属性を記憶する自己物体の属性記憶機能101と、取り付けられた物体の空間位置姿勢を認識する自己物体の空間位置姿勢認識機能102と、取り付けられた物体の周囲の対象物を認識する自己物体の周囲対象物認識機能103と、各認識機能により取り付けられた物体の状況を判断する自己物体の状況判断機能104と、各認識機能の処理過程を記録する機能105と、他の物体に取り付けられた人工知能装置との間で情報の送受信を行う通信機能106と、他の物体に取り付けられた人工知能装置から受信した情報を加えて各認識機能の継続処理を行う継続処理機能107を備えている。
【選択図】 図1
Description
特に、本発明は、人工知能装置自らが存する三次元空間を認識した後に任意の対象部を認識することで認識率を向上させることができるとともに、三次元形状の対象物については、あらかじめ用意した対応する三次元部品に置き換えることにより、対象物の認識率を飛躍的に向上させることができ、しかも、複数の人工知能装置相互間で認識情報を共有することにより、多方向からの情報を総合的に判断することで認識精度をさらに飛躍的に向上させることができる複合人工知能装置に関する。
人工知能においては、まず空間全体を把握し、次に対象物を認識することが必要となる。また、人工知能の技術は、画像認識の技術を発展させて、現実の世界をバーチャルな世界に投影する技術も必要となる。
そして、このような人工知能を認識判断の手段とすることにより、例えば、監視カメラや車両,作業ロボット等、任意の対象についての自動制御,自動運転を実現することが可能となる。
画像認識を利用した従来の人工知能技術としては、例えば、監視カメラで撮像された火災の画像に基づいて人工知能が避難誘導経路を判断,表示する「火災時非難誘導装置」(特許文献1)や、ビデオカメラ等で得られた画像から物体を探知,認識する人工知能を備えた「物体認識及び追跡システム」(特許文献2)などがある。
また、本来三次元である対象物を二次元(画像)のみで認識することには自ら限界があり、従来の人工知能技術では、現実の三次元対象物を効率よく正確に認識することは極めて困難であった。
また、単一の人工知能装置による個別の判断だけでは、全体系に対して矛盾のない認識,判断と、それに基づく対象物の制御等を行うことは困難であった。
しかしながら、点の集合のみから三次元形状を生成しようとすることには無理があり、実際には、精度が悪く三次元形状を正確に再現できる段階には至っていない。
また、観測者のカメラからの二次元画像情報だけでは、対象物の隠れた部分の情報を得られず、結局は対象物の一部分についての三次元形状しか得られていなかった。
各人工知能装置は、自分の持つ自分自身の属性についての情報を他の人工知能装置に与えることで、又はその反対に、目的の対象物の属性をその対象物の属する人工知能装置から取得することで、判断精度を飛躍的に増加させるようにしてある。
本発明では、三次元空間認識と三次元対象物認識を分離し、まず三次元空間を認識し、自分と周囲との関係を明らかにし、その後に対象部の座標及び視角を絞り込んで、認識することで、認識率を高めるようにしてある。
三次元部品への置き換えは、二次元画像中の点の集合からポリゴンを生成し、三次元対象物の概略形状を生成し、三次元面と三次元部品の一面と比較することで、三次元部品を特定することにより行う。また、三次元面を生成する過程においては、詳細を知りたい部分を追加して形状生成を行う。
部品には属性が与えられているので、その属性の関係から、現在の意味を理解し、全体状況と個別状況を理解することができる。そして、それらの意味の理解を複数の人工知能装置間で行い、総合判断を行う。
これにより、総合判断に矛盾しない各人工知能措置による単独の判断を行うことができ、次の行動を決定することが可能となる。
そして、複数の人工知能装置で得られた情報を相互に共有することにより、総合的な空間認識,対象物認識を実現するようにしてある。単一の人工知能装置であっても、対象物の認識や位置の特定,形状の特定,意味理解・判断,対象物の制御は可能であるが、人工知能装置が複数存在する複合人工知能装置のネットワーク環境を用意し、個々の人工知能装置の持つ情報や判断結果を相互にやり取りすることで、総合判断が可能となり、単独の人工知能装置の場合と比較して、より正確でより広範囲な空間認識,対象物認識が可能となる。
これにより、現実世界を正確かつ有効に仮想空間に置き換えることができ、これを個々の人工知能装置において利用することで、総合判断と矛盾しない個々の人工知能装置における判断,行動が可能となる。
それぞれ単独の人工知能装置において、周囲の空間認識は、自分自身のカメラからとらえた画像内の特徴点の三次元分布を求め、同時に自分自身のカメラ位置を求めることで実現できる。そして、座標を統合することで複数の人工知能装置が統合される。
認識された対象物は、すべて属性の分かっている部品に置き換えられ、部品による仮想空間が生成されるので、各人工知能装置は、その仮想空間中で自己の位置と状況を把握し、意味を理解した上で次の行動を決定することができる。
各人工知能装置は自分の位置を把握し、周囲の物に自分の位置姿勢を伝え、統一された座標系で共通理解を持つことができる。
各人工知能装置単独では空間の一部しか認識判断し得ないが、様々な物体に取り付けられた複数の人工知能装置による複合人工知能装置においては、物体が存在する空間の全体配置を認識し、三次元的に理解し、単独の人工知能装置で得られた三次元情報を統合し、三次元画像を得るだけではなく、画像内の物体や対象物の属性情報等と照らし合わせて、全体を把握することができる。
そして、理解された現実の三次元世界は各人工知能装置、すなわち、各物体で共有されることになる。これによって、各物体毎に行動条件等をそれぞれ独自に決定し、かつ、各物体間で統合した行動が可能となる。これにより、それぞれの物体に意思があるような行動ができ、個の意思と全体意思が統合された矛盾のない行動ができるようになる。
また、すれ違う車両から、行き先方向の情報を取得し、各車両は自動運転に有益な判断材料として反映させることができる。
具体的には、三次元物体の特定結果をすべての人工知能装置において共有できる。取得映像情報の共有化により、見えない位置の画像も他の人工視覚から取得して総合的に判断できる。属性による比較だけでも部品の特定ができる。個々の人工知能装置の体験を全体の知識として共有でき、しかも全体の知識を生かして、全体の意思を生成し、その全体の意思に矛盾のない個別の判断が可能となる。
ユビキタス時代はすべての物にPCがついて、情報をやり取りすることができる近未来が描かれている。その究極の姿が本発明である。
ここで、以下に示す本発明の複合人工知能装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、画像中からの特徴点の自動抽出,抽出した特徴点の自動追跡,特徴点の三次元座標の算出,カメラベクトルの演算,三次元部品の特定,座標の特定等を行わせる。このように、本発明の複合人工知能装置における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
まず、図1〜図3を参照して、本発明に係る複合人工知能装置で実現される基本的機能について説明する。
図1は、本発明の複合人工知能装置を構成する各人工知能装置の基本的機能構成を示すブロック図である。
図2は、図1に示す人工知能装置が取り付けられる現実世界の物体及び対象物の関係を示す説明図である。
図3は、図2に示す人工知能装置が取り付けられる物体及び対象物の関係をより具体的に示す説明図である。
図1に示すように、各人工知能装置100は、それぞれ個別に、自己物体の属性記憶機能101と、自己物体の空間位置姿勢認識機能102と、自己物体の周囲対象物認識機能103と、自己物体の状況判断機能104と、処理過程の記録機能105と、通信機能106と、継続処理機能107を実現するようになっている。
そして、このような通信機能により、複数の人工知能装置100はネットワークを構成し、各人工知能装置100は、他の人工知能装置100からの同様な情報を自己物体の受信することで、認識処理の途中から前記受信により取り入れた他の物体の人工知能装置からの情報を加えて継続処理を行う機能が実現できるようになっている。
そして、バーチャルな世界で空間位置姿勢認識、対象物の認識、属性による認識等を行い、さらに、単独の人工知能装置では困難な総合的判断を行い、また、総合的判断に矛盾しない個別の判断を行い、状況判断及び行動決定までを行うことができるようになっている。
このようにして、複数の物体に取り付けられた複数の人工知能装置100により、自分の周囲の対象物を認識し、状況を判断するとともに、他の人工知能装置100と情報をやり取りし、判断結果の情報のやり取りのみならず、判断処理の過程での情報をもやり取りし、複合的判断を行う複合人工知能装置を形成することができる。
それぞれの物体に属する人工知能装置100は、他の物体に属する人工知能装置との通信を可能とする通信機能106を持っており、この通信機能106により、自己物体の性質やセンサから得られた情報等の属性情報や、自己物体に取り付けたカメラによる周囲の画像情報,その画像を分析した情報,分析の過程の情報,自己物体の三次元分布図や自分の属する物体の空間位置姿勢認識情報,自己物体の周囲の対象物の認識情報,自己物体の周囲の状況判断情報について、これらの一部情報又はそれらの組み合わせ情報を他の物体に取り付けられて他の物体に属する人工知能装置100に送信し、また、他の人工知能装置100から受信する。
これにより、現実世界をバーチャルな世界に変換し、空間位置姿勢認識、対象物の認識、属性による認識等により、又はそれら認識による総合判断により、状況判断及び行動決定までを行うことができる。
現実世界には複数台の車両が存在し、その中には人工知能装置が取り付けられた車両と、人工知能装置100の取り付けられていない車両が存在し、それらが混在して道路を通行する。
このように、現実世界は人工知能装置100を取り付けた車両や道路付帯設備と、人工知能装置100が取り付けられていないその他の対象物の2種類に分類できる(図2(a)参照)。
また、人工知能装置100の付いていない車両の状況を他の人工知能装置100に備えられたカメラで捉えて、複合された人工知能装置100が協力して多方面からの映像により、単独の人工知能装置によるよりも正確に捉えることができる。
さらに、画像としてはとらえられない遠方の車両の状況をも複合人工知能装置間の通信により得ることができる。
複数の車両や道路設備に取り付けられたそれぞれの人工知能装置100は、それぞれの周囲の状況を判断し、判断結果を共通の座標で表すことで情報を共有できる。そして、人工知能装置100が取り付けられた車両は、後述する制御装置と組み合わせることで自動運転が可能となる。
また、車両以外の例としては、例えばビルの中のような屋内にある主要物体や移動する物体(車いすやロボット等)に人工知能装置100を取り付け、LAN環境でデータのやり取りをすることができる。車いすやロボットは、LAN環境の下で自動運転がなされ、目的の行動をとることが可能となる。
すなわち、複合人工知能装置は、人工知能装置100が取り付けられた様々な物体と、それ以外の様々な他物体に対し、人工知能装置100の機能の一部を有する一部装置を取り付け、他の物体に属する一部装置は単独では人工知能装置100の機能を有しないが、他の物体に取り付けられた一部装置からの情報を人工知能装置100に送信することにより、又は人工知能装置100による判断結果を受信することにより、様々な物体に取り付けられた人工知能装置100の機能を向上させ、又は他物体を制御することができるようになっている。
「人工知能装置の一部機能」を備える一部装置としては、例えば、カメラと画像伝送装置のみで画像認識機能は持たない装置などがある。一部装置に備えられる機能と省略される機能は、複合人工知能装置の使用目的や適用対象等に応じて適宜設定することができる。但し、一部装置には、取得した情報を他の人工知能装置100に伝達するための通信装置については必ず備えられるようにする。
このように、人工知能装置100のすべての機能は有しないが一部の機能を有する一部装置を用いても、広範囲の情報を取得することが可能となり、対象物の認識が精度良くできるようになり、また、一つの対象物に対する視点を多方向にとることができ、認識精度を向上させることができる。これにより、複合人工知能装置の正確かつ高精度な対象物認識を行いつつ、一部装置の構成を簡素化して装置全体の低コスト化,簡略化等を実現することができる。
このようにすると、現実世界は人工知能装置100を取り付けた車両と物体、一部装置を取り付けた車両と物体、何も取り付けられていない車両と対象物とに分類されることになる。
一部装置から送られた情報は、人工知能装置100において分析解析判断され、人工知能装置単独での分析解析判断に比較して高効率で高精度に行われる。
人工知能装置100を取り付けた車両は、周囲の状況を判断できるので、車両に制御装置を取り付けることで、車両の自動運転が可能となる。
物体「b」は、道路の付帯設備のように自力では移動しない物体であり、制御装置は必要ない。
物体「c」は、一部装置のみを備えており、判断機能は備えられていないが、通信機能は備えており、自ら取得したデータを通信装置を介して他の人工知能装置100に送り、他から情報を取得することができる。従って、判断等が必要な場合には他の人工知能装置100に頼ることになる。
物体「d」は、人工知能装置100も一部装置も備えていない物体であり、現実にはこの物体「d」のような物体(対象物)が混在することになる。
次に、以上のような本発明の複合人工知能装置における、より具体的な機能について、図4を参照しつつ説明する。
図4は、図1に示した各人工知能装置100において実現されるより具体的機能を説明するための機能ブロック図である。
同図に示すように、人工知能装置100では、以下のような具体的機能が実現される。
物体位置姿勢移動配置部402は、三次元空間構成部401で得られた空間の三次元空間内に存在する人工知能装置100が属する様々な物体及び一部装置が属するその他の物体の、位置と姿勢と移動を三次元データとして取得して、統一座標系に配置する。
対象物位置移動追加配置部403は、物体位置姿勢移動配置部402により物体が配置された統一座標系に、物体に属さない対象物の三次元位置と姿勢と移動を三次元データとして取得して、統一座標系に追加配置する。
姿勢絞り込み部405aは、物体、その他の物体及び対象物に対応する部品をデータベース部404の中の候補部品から抽出し、三次元空間構成部401の視点位置から概略の配置と姿勢を予想して、部品の姿勢を絞り込む。
属性による部品絞り込み部405bは、必要に応じ、後述する部品の特定及び固定(物体対象物部品特定部407及び物体対象物部品座標固定部408参照)の後に、又は同時に、又は先だって、物体の持つ属性と部品の持つ属性を比較し、条件内で属性が一致すれば特定の可能性が増加したものとして、部品候補を絞り込む。
比較部406は、物体、その他の物体及び対象物の一部分の三次元形状データと絞り込んだ部品を次々比較する。
物体対象物部品座標固定部408は、物体対象物部品特定部407による特定と同時に、又はその特定の後に、部品の三次元位置を詳細に決定して、統一座標系に再配置する。
物体部品属性比較追加更新部409は、既に特定が済んでいれば部品に新たな属性を追加し、又は更新する。
部品再構築三次元空間生成部410は、統一座標系に、複数の部品により再構築して、部品再構築三次元空間を生成する。
仮想空間での自己認識部412は、生成された現実対応仮想空間中に、自分自身の三次元位置と姿勢と移動を配置し、自己位置を中心とした部品の三次元配置と属性関係を求める。
意味ルール付与部413は、複数の部品の三次元配置とそれらの属性の持つ相互関係から生み出される意味を生成するルールを前もって与えておく。
意味発生部414は、現実対応仮想空間内の自分自身の位置関係、及びそれら属性の関係から意味を生成する。
時間経緯シミュレーション部416は、自己状況把握部415によって得られる自己状況と周囲の関係状況を、過去から現在を経て近未来に亘ってシミュレーションによって確認する。
行動決定部417は、時間経緯シミュレーション部416による近未来の状況を確認し、理解した上で、自分自身の現在の行動を決定する。
具体的には、プロセス記憶部418aは、複合人工知能装置に含まれる一部又は全部の人工知能装置における行動決定部417の行動決定に至る全プロセス又は一部プロセスを記憶する。
類型分類部418bは、プロセス記憶部418aのプロセスを類似するプロセスに分類整理して保存する。
これにより、以前体験した類似するプロセスを再現して、プロセスを単純化することができる。
図3に示すように、まず、三次元空間構成部401により、個々の人工知能装置100によって取得された周囲空間の画像情報等、また、個々の人工知能装置と個々の一部装置によって取得された周囲空間の画像情報等が、統一座標系に統合され、空間の三次元形状の概略が構成される。
次に、物体位置姿勢移動配置部402において、空間の三次元空間内に存在する人工知能装置100が属する様々な物体、及び一部装置が属するその他の物体の位置と姿勢と移動を三次元データとして通信により取得し、統一座標系に配置する。
このようにすることで、すべての物体と対象物はそれらの移動を含めて三次元の空間的配置が構成されことになる。
次に、物体及び対象物に対応する三次元部品を抽出する。物体及び対象物に対応する三次元形状と属性を前もって与えてある複数の部品については、データベース部404にあらかじめ格納されている。なお、この部品は、形状を示す三次元CGを持つことを原則とするが、二次元の部品であっても良い場合がある。
次に、比較部406において、物体、その他の物体及び対象物の一部分の三次元形状データと絞り込んだ部品を次々比較する。
比較部406では、三次元的な比較,二次元的な比較,色の比較,その他のセンサから得られたデータの比較等の属性比較がなされ、物体対象物部品特定部407において、比較の一致と不一致を判断して、一致することで対応する部品を特定する。ここでは、一致したことで部品を特定し、それを形状として出力して表示することができる。
属性による部品絞り込み部405bでは、必要に応じて、上述の部品の特定及び固定の後に、又は同時に、又は先だって、物体の持つ属性と部品の持つ属性を比較して、条件内で属性が一致すれば、直ぐに特定するのではなく、特定の可能性が増加したものとして、部品候補を絞り込み、最終的には形状比較で特定する為の前段階処理を行う。
部品再構築三次元空間生成部410では、上述した統一座標系に、複数の部品により再構築することにより、部品再構築三次元空間を生成する。これにより、現実世界は、三次元部品で再構築されたバーチャル三次元空間として得られることになる。ただし、すべての物体を三次元空間に置き換える必要はない。複合人工知能装置の目的に応じて、その目的に必要な物体と対象物のみ部品に置き換えればよい。なお、複合人工知能装置の目的が明確でない場合や、複数の目的がある場合には、可能な限り多くの部品で現実世界を再構築することが好ましい。
そして、現実対応仮想空間部411により、部品再構築三次元空間において、構成要素となる各部品に属性を与え、現実世界を、属性を持つ複数の部品による仮想の世界として扱う現実対応仮想空間を生成する。
自己位置は周囲との関係で求めることができる。また、他の人工知能装置100で取得されたその物体の位置と属性と部品と比較することにより、自分自身を三次元空間の中に三次元形状で表現することが可能となる。また、物体に備えられたカメラ等では観測できない物体自身の色等、自分自身では得られない属性情報等もあるので、その場合には、周囲の人工知能装置から最新のデータを取得することで、自分自身の属性を更新することができる。
そこで、意味ルール付与部413によって、複数の部品の三次元配置とそれらの属性の持つ相互関係から生み出される意味を生成するルールを前もって与えておく。例えば、物体がトランプカードである場合、同じトランプのカードでも、ゲームの種類によってその配置の意味が異なる。また、物体が車両の場合、二台の車両間の距離が同じでも、それが同じ車線上にあるのか、対向する車線上にあるのかでは、意味が異なる。
そのような意味を産み出すルールを前もって用意する。
具体的には、物体自身と周囲との空間的位置関係から、人工知能装置100を取り付けた物体は、状況判断において個別の固有の意味を持つことになる。例えば、人工知能装置100を取り付けた車両の場合、それ自身で自分のおかれている意味と行動の目的を持ち、それを周囲の人工知能装置100との通信によって関係し合うことで、全体として総合的意味が生成される。総合的意味とは、例えば「事故発生による渋滞」というような全体に共通する意味である。
また、このような総合的意味とは別に、個別の目的を持つ人工知能装置100が持つ個別の意味が存在する。個別の意味とは、例えば「迂回して目的地に急ぐ」という行動を産み出し、他の車両では「レストランによって食事をしながら渋滞が解消されるのを待つ」というような固有の意味となる。
そこで、時間経緯シミュレーション部416において、過去から現在を経て近未来に亘ってシミュレーションによって刻々変化する自己状況を確認し、目的に合った行動に最適な未来を推測する。
そして、行動決定部417で、上述した自己状況と周囲関係状況を理解した上で、自分自身の次の行動を決定する。これにより、行動は総合的意味と個別の意味から個々の人工知能装置で固有に決定される。
このような行動決定部417を有する人工知能装置100が複数、通信可能に結合されることで、複合型の人工知能装置が実現されることになる。
類型分類部418bでは、プロセス記憶部418aのプロセスを類似するプロセスに分類整理して保存する。
意味発生は、学習装置418の中で産み出し、記憶しておく。また意味の配置と連続がまた新しい意味を産み出すので、意味ルール付与部413と意味発生部414は学習装置418とともに備えられるのが好ましい。
このようにして、以前体験した類似するプロセスを再現して、プロセスを単純化することができる。
次に、本発明の複合人工知能装置において以上のような基本的機能,具体的機能を実現するため各人工知能装置100が備える一実施形態の概略構成について図5及び図6を参照して説明する。
図5は、本発明の複合人工知能装置を構成する各人工知能装置100の一実施形態の概略構成を示すブロック図であり、図6は、図5に示す概略構成の詳細を示したブロック図である。
同図に示すように、本発明の一実施形態に係る人工知能装置100は、画像取得装置501と、画像特徴点演算装置502と、比較基準信号選択装置503と、形状部品生成装置504と、形状部品データベース装置505と、比較候補信号選択装置506と、部品構成による3D地図装置507と、GPSによるカメラ概略位置決定装置508と、比較認識装置509と、座標統合装置510と、更新された部品構成による3D地図DB装置511と、意味理解判断装置512と、制御装置513と、さらに、表示装置(出力装置)514とを備えている。
以下、具体的に各部について説明する。
具体的には、画像取得装置501においては、動画像または連続静止画を取得する。
ここで、取得画像は全周囲画像とすることが好ましく、従って、画像取得装置501に備えられるカメラも全周囲を写すカメラが好ましいが、その構成は特に限定されない。例えば、カメラを移動させ回転させることで全周囲を写しても良いし、複数のカメラで全周囲をカバーしても良い。また複数のカメラで視野を重複させて全周囲をカバーして設置しても良い。
画像一時記憶部502aでは、画像取得部501で取得された動画映像を、記録は又は一次記録する。記録する画像はカメラベクトルの演算に必要な範囲でよく、通常は数フレーム〜数十フレーム分の映像が有ればよい。また、十分過去の映像は消去することができる。
特徴点抽出・追跡処理部502bにおいて、画像一次記憶部に一時記録した画像の中に、演算に必要となる十分な数の特徴点を自動抽出する。精度の点から、一フレームに数十から数百の特徴点が存在することが適切である。
特徴点を、各フレーム画像内に自動追跡することで各フレームの特徴点の対応関係を求めておく。これはカメラベクトルを演算するためと、後述する特徴点面三次元分布図を生成するために必要となる。
ベクトル演算部502cにおいて、カメラベクトルを演算する目的の特徴点から、各フレーム画像に対応したカメラベクトル(カメラ位置と回転)と特徴点の三次元座標をエピポーラ幾何学の演算で自動的に求める。
カメラベクトル検出部502dでは、カメラ位置の精度が向上するように、特徴点とカメラ位置が作る多くの三角形により複数回重複演算され、一つのカメラ位置が複数求められ、また一つの特徴点の座標が複数回重複演算される。得られた特徴点及びカメラの位置と回転と、その分布が最も狭い範囲に分布する位置が最も誤差が小さい点と仮定して、カメラ位置を統計処理で求める。分布が広範囲に広がるときは、その演算に係わった特徴点はふさわしくない特徴点として破棄し、演算をやり押す。カメラベクトルはそれのみで求められるのではなく、常に特徴点とともに得られる。
そして、カメラ位置と回転を三次元座標として抽出することにより、カメラ位置、すなわち人工知能装置100が備えられる物体自身の三次元位置と姿勢(カメラ位置と姿勢に対応)が検出される。このカメラベクトルを精度良く、リアルタイム演算で処理することが必要である。
まず、画像取得装置501で取得された画像データは画像一時記録部502aを経て(又は直接)特徴点抽出・追跡処理部502bに入力され、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像(特徴部位)が自動抽出され、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図7〜図9に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図9に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図10に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図10の○印参照)、例えば、100点程度の特徴点を抽出する。
具体的には、カメラベクトル検出部502dは、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する
例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、図9に示す360度全周画像のような広角画像の方が特徴点を数多く選択し易くなる。そこで、カメラベクトル演算に360度全周画像を用いることにより、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図9は、カメラベクトル検出部502dにおける処理を理解し易くするために、1台または複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のカメラベクトル検出部502dの演算では、必ずしもメルカトール図法による展開画像である必要はない。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
図11では、図9の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトルが示されている。
図12及び図13は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
具体的には、カメラベクトル検出部502dは、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返す。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。
これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
以上のようにして、カメラベクトル検出部502dでは、高精度なカメラベクトルを高速に求めることができる。
追加特徴点抽出・追跡処理部502eでは、カメラベクトルが演算で求められれば、新たに追加した特徴点はカメラベクトルから単純な計算で簡単に求められる。また、カメラベクトル演算に係わらない特徴点をいくらでも追加して、その三次元座標を求めることができる。
従って、詳細に知りたい領域の特徴点抽出を任意に指定することができ、また、移動体抽出においては、移動体が存在すると予想される領域とその周辺の特徴点を集団として抽出し、追跡する。
移動体検出は、単純には静止座標系として、矛盾する追跡結果の特徴点又は特徴部位を当てても良い。
特徴点座標演算部502fでは、演算に用いた特徴点のみならず、新たに指定したカメラベクトル演算に係わらない十分な数の特徴点を用いて、特徴点の三次元座標を簡単な演算で求めることができる。これは、上述したカメラベクトル演算における演算量とは桁違いに少ない時間で演算が可能である。
すなわち、カメラベクトルが既知となれば簡単な三角形の演算により特徴点の三次元座標は短時間で求めることができる。従って、カメラベクトル演算用特徴点と特徴点の三次元分布図生成用の特徴点は本質的に区別するものではなく、また区別できないものである。
演算用の特徴点は、画像全体に均等に分布し、また、遠距離と中距離と近距離をバランス良く含んでいる範囲から選択することが望ましい。
また、特徴点の三次元分布図生成用の特徴点追加指定は、画像中に詳細形状等を知りたい対象物があれば、その対象物とその周りで密な分布となるように特徴点抽出の領域を指定することが望ましい。
特徴点結合ポリゴン生成部502gでは、図15及び16に示すように、カメラベクトルと同時に得られた特徴点及び、後のカメラベクトルを既知とした演算で得られた追加特徴点の三次元座標を、矛盾のなく結合して単位ポリゴンを生成する。単位ポリゴンとなる単純な三角形生成には幾通りもあり、適切な三角形または多角形とすることが必要である。
条件は、実際の凹凸を計測しても良いし、輝度勾配が凹凸に対応すると想定して、ポリゴン内に輝度勾配の大きい特徴点が存在するときは、さらに細分化して、単位ポリゴンを生成することが有効である。
また、ポリゴンが大きくとも、内部に輝度勾配が無い場合には、形状勾配もないと類推することができ、大きなポリゴンのままとすることもできる。
また、小さいポリゴンを複数結合して、ポリゴン群を生成する方法以外に、大きなポリゴンを生成し、ポリゴン領域内の輝度勾配が一定となるまで、細分化して単位ポリゴンを生成することも有効である。
そして、このようにしてポリゴン面群を複数生成し、さらに複数のフレーム画像から得られる多数のポリゴン面群を重複させながら、隙間にはポリゴン面群を追加しながら、隙間を埋めるように重ね合わせて結合ポリゴン群を生成し、統計処理して平均ポリゴン面を生成する。
このポリゴン演算を繰り返すことにより、対象物及びその周辺の平均ポリゴン面を連続的に取り出し、対象物とその周辺のポリゴン三次元形状を形成することができる。なお、ボリゴンを生成せずに、特徴点分布図をそのまま後述する比較認識装置509に導くことも可能である。
[特徴点凹凸ポリゴン分割結合生成方法]
上述したような単位ポリゴンを生成する際に、まず標準サイズのポリゴンを生成し、もし、ポリゴン内に三次元座標が既知の特徴点が無ければ、新たに追加特徴点を抽出し、追跡し、その三次元座標を求める(図17参照)。
そして、ポリゴン内に三次元座標が既知の特徴点が有れば、その特徴点に着目し、ポリゴン面内に含まれる前記既知の特徴点、又は追加特徴点のポリゴン面からの垂直距離を計測する。
垂直距離が基準値を超えた特徴点が見つかれば、それを新たな頂点とするポリゴンに分割し、より小さなポリゴンを生成し、分割されたポリゴンについて標準サイズのポリゴンに施した作業と同様な作業を施す。
これにより、最終的に、対象物の三次元形状をより数の少ないポリゴンで表現することができるようになる。
あるいは、凹凸が基準値に満たない場合はポリゴンを統合してより大きなポリゴンを生成する。
この作業を繰り返すことにより、対象物を凹凸に見合った数のポリゴンで表現することで、効率の良い三次元形状化が可能となる。
なお、特徴点も追加特徴点もその導き方が異なるだけで、得られる結果に関しては全く同じである。
単位ポリゴンを生成する際に、まず標準サイズのポリゴンを生成し、ポリゴン内の輝度勾配が基準値より大きければ、ポリゴン内部に追加特徴点を抽出し、追跡し、その三次元座標を求め、標準サイズのポリゴン内部に追加特徴点を頂点とする、より小さなポリゴンに分割し、ポリゴン内の輝度勾配が規定値以下になるまで分割を繰り返す。
ポリゴン内の輝度勾配が基準値より小さければ、隣接するポリゴンを結合して基準値内でできるだけ大きなポリゴンを生成し、最終的に、対象物の三次元形状をより数の少ないポリゴンで表現する。
特徴点分布図から、各特徴点を結合し三角形等の多角形を生成して、ポリゴン化する。但し、単位ポリゴンを生成するには、条件を付け、画像内での輝度の勾配の少ないところは三次元形状の変化は少ないところであると予想されるから、大きな多角形で単位ポリゴンを生成する。
また、輝度勾配が同じであれば、特徴点を結合する条件として、特徴点と特徴点の三次元距離を制限する等の条件を付ける。
指定領域で特徴点座標を求めても、結合されない場合は見かけ角度は近接していても、三次元距離が遠いことを意味し、分離している物体であることを意味している。そのことでも対象物を分離できる。
さらにポリゴン面を特徴点面分布信号とすることで、部品と比較しやすい状態を作り出すことができる。
また、移動体が有れば移動体のポリゴン面形状を生成して、移動体特徴点面分布信号を出力する。
さらに、複数のフレーム画像から得られる多数のポリゴン面群を重複させながら重ね合わせて結合ポリゴン群を生成し、統計処理して平均ポリゴン面を生成する。
図18に示すように、十分に多くの特徴点の三次元座標から、多くの特徴点、又は多くの特徴点を結合して得られるポリゴン面からなる特徴点面三次元分布図が生成される。さらに、三次元空間の中に、カメラ位置としての自分自身の三次元位置と特徴点分布を同時に描き出すこともできる。
この特徴点の三次元分布状況は、カメラ周囲の三次元形状を示している。
例えば、視野を重複させれば、特徴点追跡を複数のカメラによる映像に適応することができるので、精度が向上する。
また、視野を重複させなければ、それぞれのカメラの特徴点は独立となるが、広範囲の計測が可能となる。
さらに、画角が異なる複数のカメラを用いることで、広角レンズ側で三次元位置精度を向上させ、狭角レンズ側で、3軸回転の精度を向上させることができるので、結果としてカメラベクトルの高精度化を図ることが可能となる。
後述するように、比較認識装置509において比較する信号は比較基準信号と比較候補信号であるが、比較基準信号選択装置503では、そのうちの比較基準信号を生成する。
この比較基準信号は、比較基準映像選択部によって実写映像から生成した実写信号の一部である。また、比較基準特徴点面三次元分布部から生成される、特徴点面三次元分布図の一部である。これらのうちのどちらか、あるいは両方が比較認識装置に送られて、比較候補信号と比較されることになる。
形状部品生成装置504では、後のプロセスにおける認識,特定,理解,判断に必要となる複数の部品を前もって生成しておく。部品は、映像から生成する映像部品生成部、3DCGから生成する3DCG部品生成部、対象物の部分の面だけを近似する為の面部品生成部からなる。
部品の生成は、手動で生成する場合もあり、自動生成の場合もある。
部品は前もって用意されるものであるが、例えば、初めて体験する対象物のような場合には、その場でリアルタイムで生成することもあり得る。
また、形状部品データベース装置505の部品は、実際の空間に近い配置で部品構成されて後述する3D地図装置507に保存される。
形状部品データベース装置505では、形状部品生成装置504で生成された様々な部品が整理されて格納してある。三次元空間は複数の対象物の集合からなることから、予想される対象物のモデルを前もって部品データベースとして用意しておく。
映像部品DB部には、映像から部品を生成する形状部品生成装置504の映像部品生成部で生成された部品が格納さる。
3DCG部品DB部には、3DCGから部品を生成する形状部品生成装置504の3DCG部品生成部で生成された部品が格納される。
面形状部品DB部は、対象物の部分の面だけを近似するための形状部品生成装置504の面部品生成部で生成された部品が格納される。
比較候補信号選択装置506は、形状部品データベース装置505の部品データベースの中から、候補の部品を選択的に導き出してくる。具体的には、カメラの場所を示す何らかの情報、例えばGPSから得られた概略位置や、人工知能システムの認識結果から、人工知能装置100の置かれている状況等を判断し、予想値の高い順番に候補の部品を選択して、次のプロセス(比較認識装置509)に送るようになっている。
この比較候補信号選択装置506で選択され次段のプロセスに送出される信号としては、図6に示すように、形状部品データベース装置505の部品データベースに対応した、映像部品信号,3DCG部品信号,面部品信号と、3D地図装置507に対応した3D地図配列信号となっている。
部品構成による3D地図装置507(又は図4で示した部品再構築三次元空間生成部410)には、三次元形状地図が格納されるようになっており、これは、人工知能装置100の周囲状況の三次元形状をデータベース内の部品に対応する対象物映像の一部又は全部から生成するものである。
一つ目は、データベース内の部品から三次元形状を生成し、実際の画像からそのテクスチャーを取得して、部品と対応付けが済んでいる映像を配置した三次元地図である。この場合は、部品から構成される三次元形状地図が考えられる。周囲状況の三次元形状がデータベース内の部品によって構成されている三次元形状地図である。
ここで、部品とはCGであり、あるいは記録した実写映像の一部分や、単純な三次元形状を持つ地図等である。これは、周囲状況をデータベース内の部品を用い、その部品を三次元的に配置することで構成される三次元形状地図である。部品の集合として構成されるため、個々の部品の属性は保存され、その属性が理解されていることになる。
これは、上記したものと同様にデータベース内の部品によるが、単に部品の配置の順番や大まかな配置のみがテキストで記述されたものである。
GPSによるカメラ概略位置決定装置508では、GPS(Global Positioning System:全地球測位システム)を用いて概略の絶対座標を取得する。GPSの精度には制限があるので、GPSは概略位置計測用として利用する。そして、取得した概略位置情報を比較候補信号選択装置506に送る。
比較候補信号選択装置506においては、GPSのデータから概略位置を受け取り、それを部品構成による3D地図装置の仮の位置とし、前記仮の位置付近の複数の部品の中から、比較認識装置に信号を送り出すための3D地図配列信号を生成,出力することができる。そして、これによって、後述する比較認識装置509で部品が特定されることになる。
比較基準信号選択装置503からの比較基準信号は、映像主体の比較基準映像信号と、特徴点が合成する面又は点の分布から成る比較基準特徴点面三次元分布部からなる(図6参照)。
比較基準信号選択装置503からの比較基準信号と比較候補信号選択装置506からの比較候補信号とが一致しないときは、比較認識装置509は、比較候補信号を次々選択し、一致するまで比較する。そして、一致したときに、比較基準信号と比較候補信号が一対一に対応付けられ、それによって対象物が認識されたと判断し、比較認識装置509は、認識された比較候補信号の座標と部品を特定し、出力する。
比較認識装置509では、上述した特徴点面三次元分布信号と面部品信号を比較し、三次元的に一致する座標を求め、一致しないときは、一致するまで面部品信号を変更し、最終的に、特徴点面三次元分布信号と面部品信号とが、近似的に一致する面部品を選択決定することで、対象物の概略形状を把握する。
一致した部品はその対象物を表現する物として属性ともに部品特定部で決定される。
次に、さらに形状を絞り込むことで、3D部品又は映像部品の比較候補信号を縛り込み、比較基準信号としての面部品信号又は映像信号と比較し、動画映像の各フレーム内の領域について以上の作業を連続的に行う。
特徴点面分布図と面部品とを比較する場合には、図18に示すように、面と面の比較になるので都合がよい。また、特徴点のみの分布と部品の面との比較も考えられるが、ポリゴン面を形成してから面部品と比較する方が、特徴点の所属が明確になるので、誤差が少なくなる。
ここでは、特徴点面三次元分布図を基準比較信号とする場合は、すべて分布形状比較部509aで行うものとする。
また、特徴点面三次元分布図を基準信号としない場合はすべて対象物形状比較部509bで行うものとする。
判断が間違ったとすれば、再度他の部品で確認し、自己位置と周囲状況を再確認する。また、他の物体の陰となり認識できなかったこともあり得るので、統計的に、他の部品で確認することで自己位置認識を済ませることができる。
そこで、三次元空間は複数の対象物の集合からなると考え、分布形状比較部509aにおいて特徴点面三次元分布図を面分品と比較して、面の大まかな構成を予想する。
必要が有ればその後に、対象物形状比較部509bにおいて、対象物の部品を特定する。
部品形状データベース装置505には予想される対象物のモデルを前もって用意してあるから、特徴点の三次元分布図の中のおおよその部品の種類と位置とは、一般に予想が付くので、候補部品を選択的に選び出すことは十分可能である。
あるいは、面部品の認識後に対象物の3D部品を特定することが可能となる。
絞り込みによって部品は概略位置でほぼ決定され、その三次元の姿勢のみを比較装置で決定すればよい。システムのスタート時点においては概略位置から部品候補を絞り込む必要があっても、一度カメラ位置が決定し部品が特定された後は、配列された順番に部品を選択していけば良い状況となり、概略位置計測は場所の確認の意味だけとなり、あるいは見失った場合の確認機能となる。また、位置精度を向上させる為に特定された部品を使うことができる。
その部品の三次元座標が既知とすれば、それを認識することでカメラ位置をさらに精度良く決定できることになる。
GPS及び直前の位置情報から現在の概略位置を選択し、大まかな体積や大きさで概略の選択をした後に、映像若しくは特徴点の三次元分布と部品の三次元形状を比較する。地上に車両があるが空間に浮いてはあり得ないなど、部品の大まかな位置は絞り込めることになる。そして、両信号を比較することにより、その部品の大まかな位置と向きが決定する。形状が合致しなければ、前記部品データベースから次の候補分を導き出してくる。
これは三次元の特徴点の分布と、部品の三次元形状の比較と言うことになる。ただし、この段階ではまだ部品がそれそのものと決定したわけではなく、おおよその形状と位置が一致したに過ぎないと言える。
特殊な場合として、特徴点の二次元分布と部品の二次元形状を比較することもあり得る。例えば、道路平面の特徴点分布と地図とを比較し、周囲の特徴点分布図と地図形状とを比較する場合がそうである。
部品の一致が得られない場合には、比較候補信号選択装置506で、次の候補部品を選択し、合致する部品が見つかるまで繰り返すことで、部品を特定する。
その後は、カメラ周囲の三次元形状の一部分の映像と候補の部品の映像とを比較し、候補の部品を次々比較する。ここは実際の映像と部品の比較となる。この場合は、三次元の映像と三次元の部品の比較とは限らない。様々な方向からみた二次元の映像と、三次元部品の二次元投影映像との比較という場合もある。合致すれば、次の特定及び固定装置に移行する。
合致しなければ、比較候補信号選択装置506で、次の候補部品を選択し、映像が合致する部品が見つかるまで繰り返す。
座標統合装置510では、映像と部品の二次元投影面合致する場合の部品を唯一選択して特定し、合致した時の部品の三次元位置をその特定した部品の三次元座標として固定する。
対応する部品が用意されていない場合には、合致する部品が存在しないことになるので、そのような場合も想定し、その場合には、特徴点分布からくる大まかな形状のみが認識され、それがどの部品に対応するかは分からないまま、未定の対象物として登録するようにする。
これは例えば、自動運転システムであればそれは車両であるし、人工知能システムであればロボットの形状等である。
特徴点面三次元分布図は、移動体を静止物体とは分離して分類することができる。図20に示すように、移動体に属する特徴点面三次元分布図を生成することで、一つの移動体に属する特徴点のグループには共通のカメラベクトルが存在することになる。但し、移動体とカメラ位置は相対値であり、まだ絶対値を持たない。
そこで、既知の静止座標系に対して求めたカメラ位置を移動体カメラ位置に代入することで、移動体のカメラ位置が決定され、結果として移動体位置が決定される。部品の特定ができない場合でも、その移動体に属する特徴点面三次元分布図から、概略形状をそのまま又は面部品で近似して、大まかな形状を座標系の中に統合して取り込むことができる。
これによって、複数の部品による三次元空間が再生成される。その複数の部品はすべて名称とその属性が分かっていて、それらの組み合わせとして表現された空間を再構築したことになる。
この更新された部品構成による3D地図DB装置511は、システムが前もって部品構成による3D地図装置を持っている場合には、その地図が最新データに更新されたことを意味し、前もって持たない場合には、新規にシステムが前もって部品構成による3D地図装置を生成したことになる。
さらに、これによって、意味理解判断装置512における意味理解を向上させることができる。
そして、図20に示すように、この意味理解判断装置512の出力により制御装置513が制御され、自分自身(カメラ)を自動的に制御して動かし、又は目的の作業装置(ロボット車両等)を動かし、制御し、行動を起こさせることができる。さらに、上述したプロセスの段階で他の人工知能装置100との情報交換をすることで精度を上げ、単独の人工知能装置では困難な総合判断を行い、個別には総合判断に矛盾しない判断を行い、制御し、行動を起こさせることができる。
部品が持つ属性としては、対象物名称、対象物の部分名称、設置条件、性質、材質、重さ、色、温度、存在条件、形状、隣接条件、自己相関係数等、対象物に係わるすべての情報を言う。
さらに、意味理解判断装置512では、目的の作業における現状の意味を理解し、目的の作業にとって現場が適切か否か、今後の行動の判断(例えばどの方向に進行すべきか等)が行える。このような目的の作業に沿った判断としては、例えば、安全と理解すること、危険と理解すること、直進進行可能と判断すること、停止と判断すること等、様々な理解が存在する。具体的には、認識された周囲状況において、自己の進行方向に障害物がなければ安全であり、障害物があれば危険と判断される。
例えば、図20(b)に示すように、車両であれば、ハンドル、アクセル、ブレーキ、方向指示器、警笛等を前記意味理解装置で判断し、自動操作し、制御することで、対象となる機器の自動コントロールができる。
また、制御内容を表示し、それを人間が理解して作業することもできる。
図20(b)に示すように、各制御項目を適切に制御することで、目的の自動制御が可能となる。
表示装置514には、カメラ自身の位置から見た、周囲の状況を表示することができる。
また、スピーカ等を介して音声ガイドとして出力することができる。
音声ガイドの内容としては、例えば、図21に列挙したような内容がある。
次に、以上のような本発明の複合人工知能装置において基準映像を用いて物体の位置姿勢を求める実施形態について図22〜図25を参照して説明する。
図22は、本発明の複合人工知能装置において物体の位置姿勢の補強となる基準映像の参照データを示すブロック図であり、図23は、図22に示す基準映像を用いた位置姿勢の演算手段の概略構成を示すブロック図である。
これらの図に示すように、複合人工知能装置に対する補強手段は、前もって予想される物体の移動通路又は移動範囲の基準映像を前もって撮影するとともに、この基準映像の各フレーム画像に対応するカメラベクトル演算データを前もって記憶し、さらに、必要に応じて、基準映像をカメラベクトル演算データによって、一部又は全部を三次元データに変換することによって、基準映像と動画映像との対応を求めることで、上述したGPS等のデータを補強してカメラ位置姿勢の精度を上げるようにしたものである。
そこで、本実施形態では、前もって位置と姿勢の精度の高い基準映像を映像ストレージ部として用意するようにしてある。
図22に示すように、基準映像とそのカメラベクトルから、動画映像のカメラベクトルを求めるプロセス(図22に示す1〜8)において、基準画像をプロセス1〜8までのどの段階まで処理して参照データとして記憶しておくかは任意である。最終処理は映像の三次元データまで求めることであるが、どの段階まで処理するかは、例えばコストや手間等の問題から決定すればよい。
従って、参照データとして記憶する範囲としては、例えば、基準画像の一部を三次元化して記憶することもでき、また、全く処理しないままの基準映像だけを記憶するようにしてもよい。基準映像からカメラベクトル演算を行うのは、前処理として行うのが適切であるが、基準映像からその場で演算により求めることも可能である。
図23に示すように、まず、参照データ及び取得データのカメラベクトルを求めるには、特徴点抽出部→特徴部位抽出部→特徴面抽出部→追跡部→カメラベクトル演算部→・・・という流れとなる。ここでは、カメラベクトルまでを求めてそれを記録媒体に記録する場合を説明する。
まず、精度の高い参照データとしての基準映像の位置と姿勢のデータを求めておく。そして、取得映像をリアルタイム処理して、カメラベクトルを求める。
また、既知である基準映像のカメラベクトルと、その場で演算で求めた動画映像のカメラベクトルを比較し、両者の関係を画像の特徴部位の対応から求めて、両者のカメラベクトルを関連付けることで、人工知能装置に取り付けられたカメラ自身の位置を決定することができる。
このようにして、基準映像からの三次元的位置姿勢のズレとして、物体の位置を精度良く求めることができる。
すべての動画映像のフレームに亘って上述のように基準映像からのカメラベクトルデータのズレとして演算しても良いが、演算時間を短縮するには、基準画像のフレーム間隔を十分とって上述した演算を行い、その中間フレームは単なる動画像側のカメラベクトル演算を行い、図25に示すように内挿することができる。
このようにすることで、基準画像のフレーム数を少なくすることができるので、データ量を少なくし、演算処理時間を大幅に短縮することができ好ましい。
上述した基準映像ではデータ量が大きくなることから、基準映像の中でカメラベクトル演算に必要な特徴部分のみを選択的に部分映像として持つことで、データ量を少なくすることができる。この特徴部位のデータは、基準映像の場合と同様、記録媒体に記録しておく。
次に、図26を参照して、本発明の複合人工知能装置に、さらに高精度三次元演算装置を備えた実施形態について説明する。
図26は、図6に示した人工知能装置に高精度三次元演算装置515を備えた実施形態の概略構成を示すブロック図である。
同図に示す高精度三次元演算装置515は、三次元形状追跡部と、高精度カメラベクトル演算部を備えている。
三次元形状追跡部では、画像特徴点演算装置502によって得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される三次元情報をもつデータの三次元形状の一部分を用いて三次元形状の自動追跡を行う。
そして、得られた追跡データから、高精度カメラベクトル演算部によって高精度でカメラベクトルを出力するようになっている。
そこで、この特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元形状の情報を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関が取りやすく、三次元形状はフレーム画像によって、その三次元形状が変化しないので、多くのフレーム画像に亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これは、概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
ここで追跡の対象となる三次元形状データとしては、以下のものがある。
(1)比較基準特徴点面三次元分布から出力される特徴点三次元分布形状
(2)面形状部品特定部から出力される面形状部品
(3)部品特定部から出力される部品
これらは、それぞれ三次元形状を持つので高精度三次元形状演算装置515による追跡の対象となる。
さらに、三次元形状をカメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。
カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
次に、本発明の複合人工知能装置において、各人工知能装置に複数の画像取得装置及びそれに対応する複数の画像特徴点演算装置を備える実施形態について、図27〜図32を参照して説明する。
図27及び図28に示すように、本実施形態は、図5及び図6に示した人工知能装置100とほぼ同様の構成となっており、
画像取得装置501において、同期した複数のビデオカメラにより複数の動画映像を取得するようにしてある。
そして、画像特徴点演算装置502においては、複数のビデオカメラと同数の各機能部を有しており、それぞれのカメラに対応して演算されるカメラ数に対応した出力を、それぞれのカメラに属するカメラと同数の画像特徴点演算装置において、同一機能部の間で関係付けながら演算を行うようになっている。
これにより、演算精度を向上させて、より精度の高いカメラベクトルと特徴点三次元座標,広範囲の特徴点面三次元分布図を生成できるようになっている。
カメラベクトル演算において複数のカメラ映像を用いる場合、視野の広い広角視野カメラと、この広角カメラよりも視野の狭い狭角視野カメラとの位置関係を固定して、同時に同期させて使用し、広角カメラ側の広角視野映像と狭角視野カメラによる狭角視野映像をそれぞれ入力し、広角視野映像から演算によって得られたカメラベクトル値を、狭角視野映像によるカメラベクトル演算時に代入演算することで、高精度のカメラベクトルを得ることができる。
一方、狭角レンズは視野が狭いので位置精度が取れない。しかし、画角当たりの画素数が多いので、角度の精度は高くなる。
そこで、広角レンズで得られる広角視野映像と、狭角レンズで得られる狭角視野映像の双方を用いてカメラベクトル演算を行うことにより、高精度なカメラベクトルを得ることが可能となる。
広角視野カメラと狭角視野カメラを用いる場合、両カメラは固定して車両等に設置され、同期して使用するようにする。
広角視野カメラによる映像出力は、例えばAVI等の方式により画像圧縮され、一旦記録部(画像一時記録部)に保存される。そして、必要な画像フレームが呼び出されてカメラベクトル演算が行われる。
このようにして得られた狭角視野カメラのカメラベクトルは、視野角当たりの画素数が広角視野カメラに比較して十分に多いので、高精度の座標軸回転角を得ることができる。
必要があれば、ここで得られた高精度の座標軸回転角を、さらに、広角視野カメラ側の座標回転角として代入すれば位置精度は更に向上する。
それぞれのカメラの映像出力は記録部に記録する。後処理として、画像安定化する場合は、映像出力をAVI等で圧縮して、全フレームをストレージに記録する。また、リアルタイムでカメラ姿勢制御として画像安定化する場合や、カメラの保持機構や車両そのものの位置制御や姿勢制御を目的とする場合には、全フレームの画像の記録ではなく、リアルタイム処理に必要なフレーム数だけの画像を記録すればよい。ただし、映像そのものを必要とする場合は必要な画像はすべて記録する。
ここで、広角レンズカメラによるカメラベクトルは視野を広く取れるために、特徴点を長距離追跡することができ、三次元位置精度が高く取れる。一方、狭角レンズカメラの映像出力は、視野が狭い分特徴点の追跡距離が短くなり、三次元位置精度は取れないが、一ピクセル当たりの画角が小さいため、回転精度は高く取れる。
さらに、必要があれば、3軸回転信号を広角レンズカメラ側の3軸回転角として代入して、さらに精度の高い三次元位置を演算することができる。これを繰り返すことにより、精度をさらに高めることが可能となる。
また、記録された画像の画像安定化の実際の演算については、揺れ成分信号からの信号を処理するが、360°映像を扱う場合のように球面に貼り付けた映像を揺れ成分の信号で回転させて補正する方法や、通常の画像のように球面ではない通常の平面画像を揺れ角に合わせて回転させて平面展開するように平面変換するとで実現できる。実際には平面画像でも球面画像でも、球面変換も平面変換もどちらでも可能である。
同図に示すように、それぞれのカメラでは、それぞれの視野で特徴点抽出と特徴点追跡が行われるので、必ずしも視野が重複している必要はない。
それぞれのカメラの位置関係が固定されていることだけが必要となる。
一台のカメラによって得られるカメラベクトルの位置座標は相対値であるため、後に何らかのスケール校正を行う必要があるが、カメラの視野を重複させることで、同一特徴点を追跡できる場合には視差を計測できるので、距離の絶対距離が取得できるので、計測には有利であり精度は更に向上する。
カメラの視野を重複させる場合を図30に示す。
また、同図に示す横の独立視野の狭角視野カメラは、3軸回転角に高感度となるように設定してある。
このような視野重複カメラを画像安定化手段(後述する図33に示す画像スタビライズ部604参照)に利用する場合には、画像特徴点演算装置502の最終出力の3軸回転ベクトルを補正信号として画像に回転補正をかけて画像を安定化する。
なお、広角レンズと狭角レンズの視野は必ずしも重複する必要はない。
図32に示す例は、航空機の離着陸時のように、地面との距離が接近したような場合に、広角視野カメラを視野重複させて複数台(二台)設置した場合である。
航空機の離着陸時には、滑走路に近づいて対地速度が速くなるので、特徴点検出と追跡が困難になることを考慮して、図32に示すように、横外向きに広角視野カメラを設置する。
また、このように視野重複が有れば絶対距離が計測できるので、カメラベクトル演算で求められた相対距離を校正して、絶対距離に変換することが出来る。
図33及び図34は、本実施形態に係る移動体検出・静止座標系分離・移動体座標系分離を行う人工知能装置の概略構成を示すブロック図である。
同図において、動画像取得部601は、人工知能装置100が備えられる物体に取り付けられたカメラから動画像を取得する。
特徴点検出・追跡部602は、動画像取得部601で得られた動画像内の静止物体の十分多くの特徴点を抽出し、抽出された十分多くの特徴点を複数のフレーム画像に亘って追跡する。
カメラベクトル演算部603は、特徴点の追跡結果からカメラベクトル(カメラ位置姿勢)を演算して求める。
静止系延長交点抽出部605は、画像スタビライズ部604で安定化された画像上で、前記特徴点の追跡軌跡を再配置し、安定化された画像上で、複数の特徴点の追跡軌跡の延長線が静止座標系で交わる一対の延長交点を求める。
分割画像分類部606は、安定化された画像を小領域の分割画像に分割し、各分割画像に関して複数のフレーム画像に亘って対応点を求め、各分割画像が前記延長交点を通過するか否かにより、静止座標系か、それ以外かに分類する。
静止座標系以外分類抽出部608は、延長交点に属するか否かによる画像分類部によって静止座標系以外と判断された分割画像を抽出して一時記録する。
静止座標系三次元化部609は、静止座標系分類抽出部607で得られた静止座標系と判断された分割画像について、延長交点と分割画像中心を結ぶ延長上に対応点を求めることで、分割画像の三次元座標を求める。
移動体分割画像追跡部610は、静止座標系以外分類抽出部608で分離された移動体分割画像を複数のフレームに亘って追跡する。
移動体別三次元化部612は、移動体延長交点分類部により移動体別に分類された移動体別分割画像とその追跡結果から、移動体別分割画像の三次元座標を求めることで、移動体の形状とその座標を求める。
スケール合わせ部613は、移動体三次元化部で得られた共通する既知の長さ又は、複数カメラに共通する対象物を基準として、各移動体のスケールを静止座標系と共有させる。
座標統合部614は、スケール合わせ部でスケール合わせの済んだ移動体別三次元座標と静止座標系の座標を統合する。
ゴム紐相関部616は、画像分割部615により分割されたブロック画像において、各ブロック画像をあたかもゴム紐でつないだように、配列順番が変更されないように、しかも伸び縮するように結合し、ブロック間で大きな輝度差が有ればそれが衝撃となってゴム紐が切断するように緩く結合し、フレーム間の相関またはマッチングをとる。これによって、一部の相関又はマッチングが不完全であっても、ブロックの順番を変えないで配列することで、全体像を失わないようにすることができる。
まず、動画像取得部601では人工知能の一部機能として物体に取り付けられたカメラで得た動画像を取得する。画像に歪みがある場合は、画像の歪み補正をして次のプロセスに進める。
特徴点検出・追跡部602では、複数のフレームに亘り特徴点を検出し、それを追跡する。
カメラベクトル演算部603では、図6で示したカメラベクトル検出部502dと同様に、特徴点の追跡軌跡からカメラベクトルを演算で求める。カメラベクトルとは、上述したように、カメラの位置姿勢を六つの自由度(X ,Y, Z,Φx,Φy,Φz)で表現したベクトルのことである。
画像スタビライズ部604では、特徴点抽出・追跡→カメラベクトル演算→回転補正というプロセスで画像を安定化させる。
安定化された平面変換画像上(通常の遠近法画像)で、特徴点及び分割画像の追跡軌跡は直線となり、その直線の交点として一対の延長交点が求まる。時間の流れに沿って追跡すれば進行方向には湧き出し点が、進行方向の反対側には消滅点(遠近法の消失点とは異なる)が延長交点として求まる。時間の流れを逆追跡すれば関係も逆になるが、常に一対の延長交点が求まる。
また、安定化された球面画像上で、複数の特徴点及び分割画像を追跡した場合の軌跡の交点は大円となり、球面画像上で大円が交わる二点として一対の延長交点が求められる。
分割画像の配列を優先して対応関係を求めることで、フレーム毎の対応が良く取れるゴム紐相関法を用いるのが好ましい。
ゴム紐相関法とは、画像をブロック化し、各ブロック映像をあたかもゴム紐で縦横を格子状につないだように、配列順番が変更されないように結合し、伸び縮するように結合し、輝度差が有ればそれが衝撃となってゴム紐が切断するように緩く結合し、フレーム間の相関またはマッチングをとる方法であり、相関又はマッチングが不完全であっても、ブロックの順番を変えないで内挿することで、全体像を失わないようにするのがゴム紐相関理論と同じ方法である。
具体的には図35に示すように、延長交点と分割画像を結ぶ直線上に対応点を求めて、対応点が求まればそれを追跡点として静止座標系に静止して存在するものとして分類する。
このようにすることで、面での対応点を求めることなく、面での対応点探索に比較して、極めて短時間で対応点を求めることができる。
このとき、延長交点と分割画像又は特徴点を結ぶ直線上に対応点を求める追跡処理において、多少直線からはみ出した範囲にまで対応点を探索して求めることで、直線からのズレを補正するように延長交点を再演算することにより、より精度の高い延長交点が求められる。精度の高い延長交点から、精度の高いカメラベクトル演算が可能となる。
一般に、ゴム紐相関理論は面の対応であるが、延長交点法とゴム紐相関理論を組み合わせれば、延長交点からの延長直線上に対応点を求める一次元のゴム紐とすることができるので、対応点演算の時間はかなり短縮され精度も向上する。
また、分割画像と特徴点とは延長交点に関しては同じ意味であり、区別されない。従って特徴点の追跡によって延長交点を求めても、分割画像によって特徴点を求めても物理的には同じ意味である。
静止座標系三次元化部609では、静止座標系分類抽出部607で得られた静止座標系と判断された分割画像について、延長交点と分割画像中心を結ぶ延長上に対応点を求めることで、分割画像の三次元座標を求める。
一方、移動体分割画像追跡部610では、静止座標系以外分類抽出部608で分離された移動体分割画像を複数のフレームに亘って追跡する。
移動体別延長交点分類部611では、移動体分割画像追跡部による追跡軌跡から、図31に示すように、移動体分割画像の追跡延長交点を求め、得られた移動体延長交点別に、移動体分割画像を移動体別に分類する。
スケール合わせ部613では、移動体三次元化部で得られた共通する既知の長さ又は、複数カメラに共通する対象物を基準として、各移動体のスケールを静止座標系と共有させる。
座標統合部614では、スケール合わせ部でスケール合わせの済んだ移動体別三次元座標と静止座標系の座標を統合する。複数のカメラの場合はカメラ間の距離が確定していれば絶対長が算出されるが、カメラが一台の場合は相対値となるが、他の人工知能装置からの情報を取得して絶対長が算出される。
また、前もって静止座標系以外分類抽出部608の前に、移動体別領域大分類部(図示せず)を設けて、静止座標系以外分類抽出部608から得られた分割画像の固まりを大きく分類しておき、移動体分割画像の追跡をすることができる。
静止座標系三次元化部609及び移動体別三次元化部612においては、原則的にすべての分割画像について複数のフレームに亘り追跡を行うが、対応点を闇雲に探すのではなく、先の延長交点からの延長上にのみ探せばよいことになる。このことで精度の良い追跡が可能となる。
また、移動体別三次元化部612で三次元形状の概略が取得された段階で、あるいはスケール合わせ部613により、三次元形状の絶対スケールを取得した段階で、比較部621によって部品データベース部620の三次元部品と比較し一致させることで(図34参照)、移動体別に認識を行い(移動体認識部619)、さらに部品と置換することができる(部品置換部622)。
このようにして、置換された部品を静止座標系と座標統合することで、静止座標系の中に移動体を3DCGで表現することができる。
移動体別座標系決定部617は、移動体別延長交点分類部611によって得られた移動体別の分割画像追跡軌跡から、仮想移動体別カメラベクトルを検出し、それを移動体別仮想カメラベクトルとし、複数の移動体別仮想カメラベクトルの座標系を、既知の静止座標系のカメラベクトルに一致させるように座標変換するようになっている。これによって、移動体別座標系を静止座標系に座標変換し、移動体を移動体別に静止座標系に統合することができる。
図36及び図37に示すように、仮想カメラベクトルは、移動する物体に固有に存在する。すなわち、移動する複数の物体の特徴点は、それぞれ固有の仮想カメラベクトルに属する。
移動体別に分類された分割画像(移動体別分割画像)は、カメラに対して移動するが、一般にはカメラも移動しているから、まずカメラベクトル演算によりカメラ及びその移動を静止座標系で表現する。
また、カメラから見た移動体はカメラを仮の静止座標系としているから、そのまま移動体別の仮のカメラベクトルを演算すれば、移動体を静止座標系とした仮のカメラベクトルが求まる。このことで移動体別の座標系が求まり、移動体別に座標系を決定することができる。
カメラが一個の場合、カメラは同一であるから、カメラベクトルと仮のカメラベクトルを一致させることで、移動体別の分割画像の座標を静止座標系で表現したことになる。
また、移動体別分割画像のデータは一般に静止座標系の分割画像に比べて少ないので、他の人工知能装置から受け取った同一移動体の相対三次元データと合わせることで移動体の三次元形状と座標を求めやすくなる。また複数の方向の人工知能装置からのデータを統合することで、正しい絶対スケールを求めることができる。
一般に、カメラ一個では得られる三次元データは相対値であり、それを絶対値に変換する為には画像中の既知の長さのものを基準として変換するか、他のカメラからの情報を取得してカメラ間の距離等の既知の距離を基準として絶対スケールに変換することができる。
移動体別ロックオン部613は、移動体別延長交点分類部611によって得られた移動体別の延長交点又はカメラベクトルから、移動体別の座標系を求める移動体別座標決定部により、任意の移動体の座標系を求め、任意の移動体の延長交点を固定するように、又は移動体別座標系との関係で定められた任意の位置と姿勢を基準としてカメラ方向を制御して、あるいは、カメラを制御せずに画像を任意の移動体の座標系で安定化して表示する。
そこで、カメラ方向を制御し、常に或る特定の移動体座標系を追跡することで移動体を静止座標系のごとく表示(ロックオン)することができる。
また、カメラを制御せずとも画像処理により、取得された映像から常にある特定の座標系を追跡して、あたかもその移動体座標系が静止座標系であるように扱って表示、すなわちロックオンすることができる。
上述したように、人工知能装置は、物体に取り付けられることで、その物体の移動や属性等のデータを他の人工知能装置との間でやり取りして、複合人工知能装置を構成するが、人工知能装置が取り付けられた物体は通常は移動するので、その移動を正確に把握しなければならない。また、移動を予定通り行うために適切な制御を行わなければならない。
カメラの位置姿勢制御と物体の位置姿勢制御は同義であるとして以下に説明する。
また、正常なカメラ姿勢と現在のカメラ姿勢との差から、カメラの回転を補正する回転補正信号を生成することができる。
そして、この位置及び回転補正信号により、カメラ、若しくはカメラが固定されている保持機構、あるいはカメラを積載している移動物体の姿勢を制御して補正することができる。
また、このような補正信号により、航空機・車両等に取り付けられた人工知能装置は、回転姿勢制御のみならず、カメラが固定されている車両等を制御することで、車両の位置制御としても利用できる。
すなわち、カメラの回転角Φx,Φy,Φz から生成する回転補正信号により、回転角を一定に保つように制御できる。一般には、これらのすべてを固定する必要はなく、一軸の自由回転は残しながら回転制御する方が良い場合もある。
また、ヘリコプターが上空でホバリングする場合には、X,Y,Z,Φx,Φy,Φzの、すべてについて制御することで実現できる。
また、位置制御とは予定された三次元位置からのズレを検出して、それを車両等の位置制御信号としてフィードバックすることで、予定の航路に導くことが可能となる。車両や航空機の予定航路をX,Y,Zと比較することで、位置制御として利用できる。
なお、移動体の制御にはリアルタイム性が要求されるので、上述したように、複数の映像を利用することにより、リアルタイムで取得される映像出力を直接カメラベクトル演算に用いて、過去のデータと照らし合わせて、カメラベクトルのリアルタイム演算をするようにする(図27及び図28参照)。
リアルタイム演算で得られた高精度カメラベクトルは、三次元位置とカメラの3軸回転の信号を含むので、カメラを積載した車両の姿勢制御と位置制御が実現できる。
さらに、図26に示したような高精度三次元演算装置等と組み合わせることにより、より高精度の位置と姿勢制御が可能となる。
101 自己物体の属性記憶機能
102 自己物体の空間位置姿勢認識機能
103 自己物体の周囲対象物認識機能
104 自己物体の状況判断機能
105 処理過程の記録機能
106 通信機能
107 継続処理機能
501 画像取得装置
502 画像特徴点演算装置
503 比較基準信号選択装置
504 形状部品生成装置
505 形状部品データベース装置
506 比較候補信号選択装置
507 部品構成による3D地図装置
508 GPSによるカメラ概略位置決定装置
509 比較認識装置
510 座標統合装置
511 更新された部品構成による3D地図DB装置
512 意味理解判断装置
513 制御装置
514 表示装置(出力装置)
515 高精度三次元演算装置
Claims (15)
- 任意の物体に取り付けられる複数の人工知能装置を備え、
各人工知能装置は、
取り付けられた物体の属性を記憶する自己物体の属性記憶機能と、
取り付けられた物体の空間位置姿勢を認識する自己物体の空間位置姿勢認識機能と、
取り付けられた物体の周囲の対象物を認識する自己物体の周囲対象物認識機能と、
前記各認識機能により取り付けられた物体の状況を判断する自己物体の状況判断機能と、
前記各認識機能の処理過程を記録する機能と、
他の物体に取り付けられた人工知能装置との間で情報の送受信を行う通信機能と、
他の物体に取り付けられた人工知能装置から受信した情報を加えて前記各認識機能の継続処理を行う継続処理機能と、を有し、
複数の人工知能装置間で、自己物体の属性情報,自己物体の周囲の画像情報,画像の分析情報,自己物体の空間位置姿勢認識情報,自己物体の周囲の対象物の認識情報,自己物体の周囲の状況判断情報等の一部情報又はそれらの組み合わせ情報を送受信し、
各人工知能装置において、他の人工知能装置からの情報を加えて自己物体及び他の物体を共通の座標系に統合し、現実世界をバーチャル世界に変換して空間位置姿勢認識,対象物の認識,属性による認識等を行うことを特徴とする複合人工知能装置。 - 前記複数の人工知能装置のうちの任意の人工知能装置は、
前記人工知能装置の各機能の一部のみを有し、他の人工知能装置に情報を送信し、又は、他の人工知能装置における判断結果を受信することにより、前記人工知能装置の各機能の一部又は全部を行う請求項1記載の複合人工知能装置。 - 前記各人工知能装置は、
取得された周囲空間の画像情報等を統一座標系に統合し、空間の三次元形状の概略を構成する三次元空間構成部と、
前記空間の三次元空間内に存在する各人工知能装置が取り付けられた物体の位置と姿勢と移動を三次元データとして取得して、前記統一座標系に配置する物体位置姿勢移動配置部と、
前記物体が配置された統一座標系に、人工知能装置が取り付けられていない対象物の三次元位置と姿勢と移動を三次元データとして取得して、前記統一座標系に追加配置する対象物位置移動追加配置部と
前記物体及び対象物に対応する三次元形状と属性が与えられた複数の部品を格納したデータベース部と
前記物体及び対象物に対応する部品を、前記データベース部に格納された候補部品と前記三次元空間構成部の視点位置から、概略の配置と姿勢を予想して、当該部品の姿勢を絞り込む姿勢絞り込み部と
前記物体及び対象物の三次元形状データと絞り込んだ部品を比較する比較部と、
前記比較の一致不一致を判断して、対応する部品を特定する物体対象物部品特定部と
前記部品の特定と同時に又は特定の後に、前記部品の三次元位置を詳細に決定し、統一座標系に再配置する物体対象物部品座標固定部と
必要に応じ、前記部品の特定及び固定の後に又は同時に又は先だって、前記物体の属性と部品の属性を比較し、条件内で属性が一致した部品を部品候補に絞り込む属性による部品絞り込み部と、
特定が済んだ部品に新たな属性を追加し又は更新する物体部品属性比較追加更新部と、
前記統一座標系に、複数の部品により再構築して部品再構築三次元空間を生成する部品再構築三次元空間生成部と、
前記部品再構築三次元空間において、構成要素となる各部品に属性を与え、現実世界を、属性を持つ複数の部品による仮想の現実対応仮想空間として扱う現実対応仮想空間部と、
前記現実対応仮想空間中に、当該人工知能装置の三次元位置と姿勢と移動を配置し、自己位置を中心とした部品の三次元配置と属性関係を求める仮想空間での自己認識部と、
複数の部品の三次元配置とそれらの属性が持つ相互関係から意味を生成するためのルールを格納した意味ルール付与部と
前記現実対応仮想空間内の自己の位置関係及びそれら属性の関係から、前記意味を生成する意味発生部と
三次元空間の中の自己の状況を前記現実対応仮想空間内に置き換える自己状況把握部と
前記自己状況把握部によって得られる自己状況と周囲の関係状況を、時間経緯中のシミュレーションにより確認する時間経緯シミュレーション部と
前記時間経緯シミュレーションにより、当該物体の行動を決定する行動決定部と、を備える請求項1又は2記載の複合人工知能装置。 - 前記行動決定部の行動決定に至る全プロセス又は一部プロセスを記憶するプロセス記憶部と、
前記プロセス記憶部のプロセスを類似するプロセスに分類して保存する類型分類部と、を有し、
既に得られた類似するプロセスを再現することによりプロセスを単純化する学習装置を備える請求項3記載の複合人工知能装置。 - 前記各人工知能装置は、
ビデオカメラ等により動画映像を取得する画像取得装置と、
前記動画映像を記録はまたは一次記録し、
記録した映像内に有って画像的特徴のある十分多くの特徴点を自動抽出し、前記特徴点を動画画像内に自動追跡し、
十分に多くの前記特徴点から、各特徴点の三次元座標を重複して演算で求め、
前記演算で得られた十分に多くの前記特徴点の三次元座標の重複する関係から、統計処理演算により精度良くカメラベクトルを求め、
前記映像内に、任意の部分の近傍の追加特徴点を抽出して動画像内に追跡し、
既に得られている前記カメラベクトルから、追加された前記追加特徴点の三次元座標及び移動ベクトルを演算で求めて出力し、移動体がある場合には移動体ベクトル信号を出力し、
カメラベクトルと同時に得られた特徴点及び後のカメラベクトルを既知とした演算で得られた追加特徴点の三次元座標を、矛盾のなく結合して単位ポリゴンを生成し、単位ポリゴンを矛盾無く複数結合することで、ポリゴン面群を生成し、前記ポリゴン面群を複数生成し、さらに複数のフレーム画像から得られる多数のポリゴン面群を重複させながら、隙間にはポリゴン面群を追加しながら、隙間を埋めるように重ね合わせて結合ポリゴン群を生成し、統計処理して平均ポリゴン面を生成し、この多重ポリゴン演算の繰り返しにより、対象物及びその周辺の平均ポリゴン面を連続的に取り出し、対象物とその周辺のポリゴン三次元形状を形成し、
前記カメラベクトル信号及び、移動体が有れば移動体移動ベクトル信号と、及び前記ポリゴン面形状を生成して、特徴点面分布信号として出力し、移動体がある場合には移動体のポリゴン面形状を生成して、移動体特徴点面分布信号を出力する画像特徴点演算装置と、
前記画像特徴点演算装置から出力された特徴点面三次元分布信号と映像信号との何れか一方又は双方を比較基準信号として出力する比較基準信号選択装置と、
前記動画映像内に予想される対象物又はその一部の特徴部分を切り出した映像部品と、前記動画映像内に予想される対象物又はその一部分となる3DCG部品とを生成する形状部品生成装置と、
前記形状部品生成装置で生成した複数の部品と、対象物の表面形状の一部とを、3DCG部品として記録した形状部品データベース装置と、
前記画像特徴点演算装置で得られるカメラベクトル信号により、カメラの概略位置を指定して場所等を絞り込み、その概略位置付近に存在することが予想される部品を、前記形状部品データベース装置の中から選択して取り出し、比較候補信号として出力する比較候補信号選択装置と、
前記比較基準信号選択装置からの比較基準信号と、前記比較候補信号選択装置からの比較候補信号とを比較し、一致しないときは比較候補信号を選択して一致するまで比較し、一致した場合に比較基準信号と比較候補信号を一対一に対応付けて対象物が認識されたと判断し、認識された比較候補信号の座標と部品を特定して出力する比較認識装置と、
前記動画映像の各フレーム内の領域について前記作業を連続的に行い、動画映像のすべてのフレームについて前記作業を連続的に繰り返し、移動体対象物には対応する部品の座標と移動ベクトルを付加し、静止物体には認識された複数の部品の座標を統合する座標統合装置と、
前記動画映像の一部又は全部を既知の部品で再構成し、必要が有ればその中に前記カメラベクトルとして得られたカメラの三次元座標位置と3軸回転姿勢をデータとして出力する出力装置と、
を備える請求項1乃至4記載の複合人工知能装置。 - 前記座標統合装置で統合された部品の三次元的再構成状況から、カメラの置かれている状況と意味を理解し、あらかじめ対象物の部品の属性として与えた情報から対象物単独の性質と、それぞれ属例を持つ複数の認識対象物の配列の意味を理解し、又はそれらの複合情報からカメラの置かれている状況の意味を理解し、次の行動を判断する意味理解判断装置と、
前記意味理解判断装置の出力により、カメラ又は制御対象装置を制御する制御装置と、を備える請求項5記載の複合人工知能装置。 - 前記形状部品生成装置は、前記部品を生成する際に、各部品に属性を付与する請求項5記載の複合人工知能装置。
- 前記動画映像に対応するように、前記形状部品データベース装置の部品を配列した部品構成による3D地図装置と、
前記比較候補信号選択装置に備えられる、GPS等のデータから概略位置を受け取り、その概略位置を部品構成による3D地図装置の仮の位置とし、当該記仮の位置付近の複数の部品の中から、前記比較認識装置に信号を送り出すための3D地図配列信号と、
前記比較認識装置で特定され座標が決定された更新部品により、更新された3D地図を生成する更新された部品構成による3D地図装置と、を備える請求項5記載の複合人工知能装置。 - 予想される前記物体の移動通路又は移動範囲を撮影した基準映像と、前記基準映像の各フレーム画像に対応するカメラベクトル演算データを記憶し、
必要に応じて、前記基準映像を前記カメラベクトル演算データによって全部又は一部を三次元データに変換し、
前記基準映像と前記動画映像との対応を求めることで、前記GPS等のデータを補強してカメラ位置姿勢の精度を上げる請求項8記載の複合人工知能装置。 - 前記基準映像に代えて、前記基準映像内の前記動画映像との対応を求めるために適した複数の特徴部位をあらかじめ選択して切り取ることにより基準特徴部位映像として記憶し、
必要に応じて、前記基準特徴部位映像を前記カメラベクトル演算データから二次元データ又は三次元データに変換し、
前記基準特徴部位映像と前記動画映像との対応を求めることで、前記GPS等のデータを補強してカメラ位置姿勢の精度を上げる請求項9記載の複合人工知能装置。 - 前記画像特徴点演算装置で得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される三次元情報をもつデータの三次元形状の一部分を用いて三次元形状を自動追跡する三次元形状追跡部と、
三次元形状追跡部で得られた追跡データから高精度なカメラベクトルを出力する高精度カメラベクトル演算部と、
を有する高精度三次元形状演算装置を備える請求項5記載の複合人工知能装置。 - 前記画像取得装置は、複数の動画映像を取得する同期した複数のビデオカメラを有するとともに、
前記画像特徴点演算装置は、前記複数のビデオカメラと同数備えられ、
複数のカメラの出力を、各カメラに対応する画像特徴点演算装置において、同一機能部間で関係付けながら演算精度を向上させる請求項5記載の複合人工知能装置。 - 前記各人工知能装置は、
物体に取り付けられたカメラから動画像を取得する動画像取得部と、
前記動画像内の静止物体の十分多くの特徴点を抽出し、抽出された十分多くの特徴点を複数のフレーム画像に亘って追跡する特徴点検出・追跡部と、
前記特徴点の追跡結果からカメラの位置と姿勢を示すカメラベクトルを演算により求めるカメラ演算部と、
前記カメラベクトルから画像の回転による揺れを止めて画像を安定化させる画像スタビライズ部と、
前記画像スタビライズ部で安定化された画像上で、前記特徴点の追跡軌跡を再配置し、前記安定化された画像上で、複数の特徴点の追跡軌跡の延長線が静止座標系で交わる一対の延長交点を求める静止系延長交点抽出部と、
前記安定化された画像を小領域の分割画像に分割し、各分割画像に関して複数のフレーム画像に亘って対応点を求め、前記各分割画像が前記延長交点を通過するか否かにより、静止座標系か、それ以外かに分類する分割画像分類部と、
前記延長交点による分割画像分類部によって静止座標系と判断された分割画像を抽出して一時記録する静止座標系分類抽出部と、
前記延長交点に属するか否かによる画像分類部によって静止座標系以外と判断された分割画像を抽出して一時記録する静止座標系以外分類抽出部と、
前記静止座標系分類抽出部で得られた前記静止座標系と判断された分割画像について、延長交点と分割画像中心を結ぶ延長上に対応点を求めることで、分割画像の三次元座標を求める静止座標系三次元化部と、
前記静止座標系以外分類抽出部で分離された移動体分割画像を複数のフレームに亘って追跡する移動体分割画像追跡部と、
前記移動体分割画像追跡部による追跡軌跡から、移動体分割画像の追跡延長交点を求め、得られた移動体延長交点別に、移動体分割画像を移動体別に分類する移動体別延長交点分類部と、
前記移動体延長交点分類部により移動体別に分類された移動体別分割画像とその追跡結果から、移動体別分割画像の三次元座標を求めることで、移動体の形状とその座標を求める移動体別三次元化部と、
前記移動体三次元化部で得られた共通する既知の長さ、又は複数カメラに共通する対象物を基準として、各移動体のスケールを静止座標系と共有させるスケール合わせ部と、
前記スケール合わせ部でスケール合わせの済んだ移動体別三次元座標と静止座標系の座標を統合する座標統合部と、
を備える請求項1乃至4記載の複合人工知能装置。 - 前記移動体別延長交点分類部によって得られた移動体別の分割画像追跡軌跡から、仮想移動体別カメラベクトルを検出し、それを移動体別仮想カメラベクトルとし、前記複数の移動体別仮想カメラベクトルの座標系を、既知の静止座標系のカメラベクトルに一致させるように座標変換する移動体別座標系決定部を備え、
移動体別座標系を静止座標系に座標変換し、移動体を移動体別に静止座標系に統合する請求項13記載の複合人工知能装置。 - 前記移動体別延長交点分類部によって得られた移動体別の延長交点又はカメラベクトルから、移動体別の座標系を求める移動体別座標決定部により、任意の移動体の座標系を求め、
前記任意の移動体の延長交点を固定するように、又は前記移動体別座標系との関係で定められた任意の位置と姿勢を基準としてカメラ方向を制御し、
又はカメラを制御せずに画像を前記任意の移動体の座標系で安定化して表示する、移動体別ロックオン部を備える請求項13記載の複合人工知能装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004139195A JP4624000B2 (ja) | 2004-05-07 | 2004-05-07 | 複合人工知能装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004139195A JP4624000B2 (ja) | 2004-05-07 | 2004-05-07 | 複合人工知能装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005322002A true JP2005322002A (ja) | 2005-11-17 |
JP4624000B2 JP4624000B2 (ja) | 2011-02-02 |
Family
ID=35469244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004139195A Active JP4624000B2 (ja) | 2004-05-07 | 2004-05-07 | 複合人工知能装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4624000B2 (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007323600A (ja) * | 2006-06-05 | 2007-12-13 | Denso It Laboratory Inc | 特徴点移動検出装置および特徴点移動検出方法 |
JP2008022545A (ja) * | 2006-06-15 | 2008-01-31 | Kazuo Iwane | Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 |
JP2008217593A (ja) * | 2007-03-06 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | 被写体領域抽出装置及び被写体領域抽出プログラム |
JP2008304269A (ja) * | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2010079452A (ja) * | 2008-09-24 | 2010-04-08 | Canon Inc | 位置姿勢計測装置及び方法 |
JP2011100306A (ja) * | 2009-11-06 | 2011-05-19 | Hitachi Ltd | シミュレーションシステム |
KR20140030444A (ko) * | 2012-08-29 | 2014-03-12 | 한국과학기술연구원 | 마커리스 증강현실 서비스 제공 장치 및 이를 위한 촬영 위치 추정 방법 |
CN109284664A (zh) * | 2017-07-20 | 2019-01-29 | 大陆汽车有限责任公司 | 驾驶员辅助系统和护栏检测方法 |
KR101972095B1 (ko) * | 2019-02-25 | 2019-04-24 | 국방과학연구소 | 물체탐지 성능 향상용 인공물체 추가 방법 및 장치 |
KR20190078665A (ko) * | 2017-12-11 | 2019-07-05 | 한국전자통신연구원 | 감시 단말의 통합적 운용을 위한 감시 정보 처리 장치 및 방법 |
WO2019190243A1 (ko) * | 2018-03-28 | 2019-10-03 | 삼성전자 주식회사 | 사용자와의 대화를 위한 정보를 생성하는 시스템 및 방법 |
WO2021006622A1 (en) * | 2019-07-09 | 2021-01-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
KR20210006826A (ko) * | 2019-07-09 | 2021-01-19 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR20210049599A (ko) * | 2019-10-25 | 2021-05-06 | 주식회사 오비고 | 복수의 인공지능을 사용한 정보 제공 방법 및 이를 사용한 앱 프레임워크 서버 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307350A (ja) * | 2001-04-18 | 2002-10-23 | Sony Corp | ロボット装置、ロボット装置の動作制御方法、ロボット装置の制御システム、プログラム及び記録媒体 |
-
2004
- 2004-05-07 JP JP2004139195A patent/JP4624000B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307350A (ja) * | 2001-04-18 | 2002-10-23 | Sony Corp | ロボット装置、ロボット装置の動作制御方法、ロボット装置の制御システム、プログラム及び記録媒体 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007323600A (ja) * | 2006-06-05 | 2007-12-13 | Denso It Laboratory Inc | 特徴点移動検出装置および特徴点移動検出方法 |
JP4621171B2 (ja) * | 2006-06-05 | 2011-01-26 | 株式会社デンソーアイティーラボラトリ | 特徴点移動検出装置および特徴点移動検出方法 |
JP2008022545A (ja) * | 2006-06-15 | 2008-01-31 | Kazuo Iwane | Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 |
JP2008217593A (ja) * | 2007-03-06 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | 被写体領域抽出装置及び被写体領域抽出プログラム |
JP2008304269A (ja) * | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2010079452A (ja) * | 2008-09-24 | 2010-04-08 | Canon Inc | 位置姿勢計測装置及び方法 |
US8520931B2 (en) | 2008-09-24 | 2013-08-27 | Canon Kabushiki Kaisha | Position and orientation measurement apparatus and method thereof |
JP2011100306A (ja) * | 2009-11-06 | 2011-05-19 | Hitachi Ltd | シミュレーションシステム |
KR20140030444A (ko) * | 2012-08-29 | 2014-03-12 | 한국과학기술연구원 | 마커리스 증강현실 서비스 제공 장치 및 이를 위한 촬영 위치 추정 방법 |
KR101586071B1 (ko) * | 2012-08-29 | 2016-02-03 | 한국과학기술연구원 | 마커리스 증강현실 서비스 제공 장치 및 이를 위한 촬영 위치 추정 방법 |
CN109284664A (zh) * | 2017-07-20 | 2019-01-29 | 大陆汽车有限责任公司 | 驾驶员辅助系统和护栏检测方法 |
CN109284664B (zh) * | 2017-07-20 | 2023-10-27 | 大陆智行德国有限公司 | 驾驶员辅助系统和护栏检测方法 |
KR20190078665A (ko) * | 2017-12-11 | 2019-07-05 | 한국전자통신연구원 | 감시 단말의 통합적 운용을 위한 감시 정보 처리 장치 및 방법 |
KR102550982B1 (ko) | 2017-12-11 | 2023-07-05 | 한국전자통신연구원 | 감시 단말의 통합적 운용을 위한 감시 정보 처리 장치 및 방법 |
WO2019190243A1 (ko) * | 2018-03-28 | 2019-10-03 | 삼성전자 주식회사 | 사용자와의 대화를 위한 정보를 생성하는 시스템 및 방법 |
KR101972095B1 (ko) * | 2019-02-25 | 2019-04-24 | 국방과학연구소 | 물체탐지 성능 향상용 인공물체 추가 방법 및 장치 |
WO2021006622A1 (en) * | 2019-07-09 | 2021-01-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
KR20210006826A (ko) * | 2019-07-09 | 2021-01-19 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102269053B1 (ko) | 2019-07-09 | 2021-06-24 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11599114B2 (en) | 2019-07-09 | 2023-03-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
KR20210049599A (ko) * | 2019-10-25 | 2021-05-06 | 주식회사 오비고 | 복수의 인공지능을 사용한 정보 제공 방법 및 이를 사용한 앱 프레임워크 서버 |
KR102287963B1 (ko) | 2019-10-25 | 2021-08-10 | 주식회사 오비고 | 복수의 인공지능을 사용한 정보 제공 방법 및 이를 사용한 앱 프레임워크 서버 |
Also Published As
Publication number | Publication date |
---|---|
JP4624000B2 (ja) | 2011-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7040867B2 (ja) | システム、方法およびプログラム | |
US10598489B2 (en) | Visual odometry and pairwise alignment for high definition map creation | |
Martin-Martin et al. | Jrdb: A dataset and benchmark of egocentric robot visual perception of humans in built environments | |
JP4273119B2 (ja) | ナビゲーション装置 | |
US11353589B2 (en) | Iterative closest point process based on lidar with integrated motion estimation for high definition maps | |
US10859395B2 (en) | Lane line creation for high definition maps for autonomous vehicles | |
JP4767578B2 (ja) | 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置 | |
JP4185052B2 (ja) | 拡張仮想環境 | |
JP5227065B2 (ja) | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 | |
JP4854819B2 (ja) | 画像情報出力方法 | |
JP4624000B2 (ja) | 複合人工知能装置 | |
JP6821154B2 (ja) | 基準映像地図を用いた自己位置姿勢標定装置 | |
US20210407186A1 (en) | Multi-Collect Fusion | |
WO2020235286A1 (ja) | 認識位置決め装置及び情報変換装置 | |
JP4926822B2 (ja) | 湧きだし点基準cv領域画像前置装置 | |
Soheilian et al. | Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas | |
US20210404834A1 (en) | Localization Based on Multi-Collect Fusion | |
JP5090797B2 (ja) | Cv値基準一括追跡装置、このcv値基準一括追跡装置を用いたcv領域画像前置装置 | |
CN114581603A (zh) | 一种无人机建模方法及装置 | |
Grinstead et al. | Developing detailed a priori 3D models of large environments to aid in robotic navigation tasks | |
D'Amico et al. | A Comparative Analysis of Visual Odometry in Virtual and Real-World Railways Environments | |
Boroujeni | Visual Data Analytic and Robotics for Automated Construction Performance Monitoring | |
Kadavasal Sivaraman | Virtual reality based multi-modal teleoperation using mixed autonomy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070410 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090616 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20091201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100422 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100908 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20100922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101026 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101102 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4624000 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131112 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |