JP4546155B2 - 画像処理方法、画像処理装置および画像処理プログラム - Google Patents

画像処理方法、画像処理装置および画像処理プログラム Download PDF

Info

Publication number
JP4546155B2
JP4546155B2 JP2004164445A JP2004164445A JP4546155B2 JP 4546155 B2 JP4546155 B2 JP 4546155B2 JP 2004164445 A JP2004164445 A JP 2004164445A JP 2004164445 A JP2004164445 A JP 2004164445A JP 4546155 B2 JP4546155 B2 JP 4546155B2
Authority
JP
Japan
Prior art keywords
orientation
image
image processing
estimated
dependency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004164445A
Other languages
English (en)
Other versions
JP2005346348A (ja
Inventor
智 佐藤
一生 登
雅通 中川
幹也 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2004164445A priority Critical patent/JP4546155B2/ja
Publication of JP2005346348A publication Critical patent/JP2005346348A/ja
Application granted granted Critical
Publication of JP4546155B2 publication Critical patent/JP4546155B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像から、物体の位置や姿勢、動きなどを検出する画像処理技術に関し、特に、一般の光環境下における検出精度の低下を抑制するための技術に関する。
従来、対象物の位置や姿勢、動きなどの検出を行うために、カメラを用いる方法が広く利用されている。すなわち、カメラで撮影された画像に対し、例えばパターンマッチングやオプティカルフロー検出、特徴点抽出といった画像処理を適用することにより、対象物の位置や姿勢などを検出する。
カメラ画像から対象物の位置・姿勢を検出する技術としては、例えば、対象物の3次元形状モデルをステレオカメラの画像と位置合わせするものがあった(例えば、特許文献1参照)。
また、対象の位置と姿勢の変動、対象の変形、および照明変動などの変動全般に対して頑強なパターン認識装置も、提案されている(例えば、特許文献2参照)。
特許第2961264号 特開2000−76440号
しかしながら、特許文献1のような従来の画像処理は、ノイズのない画像に対しては有効であるが、例えば家庭内のような一般環境で撮影された画像では、精度が下がるという問題がある(例えば、「阪野貴彦、池内克史 “移動カメラによる自空間画像を用いた車両からのスペキュラ除去”,情報処理学会 研究報告 CVIM,2003−CVIM−141,pp.17−23,2003」)。
また、特許文献2の装置では、入力部分空間を生成し処理を行うため、部分空間を生成した環境に近い環境であれば、頑強な認識を行うことができる。しかし、家庭内などのような一般環境では、例えば夜と昼とで光源が全く異なってしまうように、光環境が劇的に変化する。このため、検出精度の劣化が生じてしまい、そのまま適用することは困難である。
図16は実際の家庭内で携帯電話を撮影した場合の画像を模式的に示している。家庭内では通常、1個以上の光源LSが存在する。このため、光源とカメラ、携帯電話の法線方向が正反射の関係を満たすとき、携帯電話の表面に輝度値の高い鏡面反射領域203が生じる。この鏡面反射領域203は、カメラ位置によって位置が異なり、また、光源状態によって輝度も異なる。そのため、この画像から、パターンマッチングにより携帯電話201を検出しようとすると、鏡面反射領域203はパターン画像における対応領域とは輝度もエッジ情報も異なるため、検出精度は極端に劣化してしまう。
また、図17はステレオマッチングにおける鏡面反射を示す図である。図17(a)に示すように、対象物202をステレオカメラで撮影したとき、図17(b)に示すように、光源LSに起因して、いずれのカメラ画像にも鏡面反射領域203L,203Rが生じる。ところが、これら鏡面反射領域203L,203Rは、カメラ位置の相違に起因して、その位置と色情報が異なっている。このため、2個のカメラ画像は大きく異なることになり、この結果、ステレオマッチングの精度が低下してしまう。
前記の問題に鑑み、本発明は、家庭内など一般環境において、対象物の位置推定等を行う画像処理において、鏡面反射などに起因する検出精度の低下を抑制することを課題とする。
前記の課題を解決するために、本発明は、画像処理方法として、対象物が撮された画像データを取得し、この画像データから前記対象物の位置姿勢を暫定的に推定する。また、前記対象物に係る光学データを取得する。そして、暫定的に推定された位置姿勢、および取得された光学データを用いて、当該対象物の視点位置依存度を算出する。そして、算出した視点位置依存度を考慮して、前記画像データから、前記対象物の位置姿勢を推定する。
本発明によると、画像データから暫定的に推定された位置姿勢と、対象物に係る光学データを用いて、当該対象物の視点位置依存度が算出される。ここで、本発明における「視点位置依存度」とは、画像データの色情報が、カメラ位置によって変化する度合のことを指す。そして、画像データから対象物の位置姿勢を推定する際に、この算出した視点位置依存度が考慮される。このため、鏡面反射や屈折などの影響が、画像処理の際に考慮されることになり、したがって、精度の低下を抑制することができる。
本発明によると、家庭内の一般環境においても、対象物に係る光学データを用いて、鏡面反射や屈折の影響を考慮して画像処理がなされるので、検出精度・認識率を向上させることができる。したがって、撮影する際の光環境に影響を受けない、ロバストな画像処理を実現することができる。
本発明の第1の態様では、画像処理方法として、対象物が撮された画像データを取得する第1のステップと、前記画像データから前記対象物の位置姿勢を暫定的に推定する第2のステップと、前記対象物に係る光学データを取得する第3のステップと、前記光学データ、および前記第2のステップにおいて暫定的に推定された位置姿勢を用いて、前記対象物の視点位置依存度を算出する第4のステップと、前記第4のステップにおいて算出した視点位置依存度を考慮して、前記画像データから前記対象物の位置姿勢を推定する第5のステップとを備えたものを提供する。
本発明の第2の態様では、前記第5のステップにおいて推定した位置姿勢の信頼度を評価する第6のステップを備え、前記第6のステップにおいて所定の評価が得られたとき、前記第5のステップにおいて推定した位置姿勢を前記対象物の位置姿勢として判断する第1態様の画像処理方法を提供する。
本発明の第3態様では、前記第4のステップは、前記視点位置依存度を、鏡面反射成分に基づき算出するものである第1態様の画像処理方法を提供する。
本発明の第4態様では、前記第4のステップは、前記対象物の鏡面反射領域を推定するステップを含み、前記第5のステップは、前記第4のステップにおいて推定された鏡面反射領域について、画像処理の対象から外す、または、画像処理における重み付けを相対的に小さくするステップを含む第3態様の画像処理方法を提供する。
本発明の第5態様では、鏡面反射領域を推定する際に、前記光学データとして、カメラ情報、反射モデルパラメータ、および光源情報のうち少なくとも1つを用いる第4態様の画像処理方法を提供する。
本発明の第6態様では、前記反射モデルパラメータとして、Torrance-Sparrowモデルなどの反射モデルを利用した光学特性パラメータを用いる第5態様の画像処理方法を提供する。
本発明の第7態様では、前記反射モデルパラメータとして、前記対象物の鏡面反射可能領域を記述したパラメータを用いる第5態様の画像処理方法を提供する。
本発明の第8態様では、前記第4のステップは、前記視点位置依存度を、屈折率に基づき算出するものである第1態様の画像処理方法を提供する。
本発明の第9態様では、前記第3のステップは、前記光学データの取得を、前記対象物に付された無線タグを利用して行うものである第1態様の画像処理方法を提供する。
本発明の第10態様では、前記第5のステップは、算出された視点位置依存度に従って、前記画像データから、処理対象から外すマスク領域を含むマスク画像を生成し、このマスク画像を用いて前記対象物の位置姿勢を推定するものである第1態様の画像処理方法を提供する。
本発明の第11態様では、画像処理装置として、対象物が撮された画像データを取得する画像取得部と、前記対象物に係る光学データを取得する光学データ取得部と、前記光学データ取得部によって取得された光学データを用いて、前記画像取得部によって取得された画像データを処理し、前記対象物の位置姿勢を推定する画像処理部とを備え、前記画像処理部は、前記画像データから前記対象物の位置姿勢を暫定的に推定する手段と、暫定的に推定した位置姿勢、および前記光学データを用いて、当該対象物の視点位置依存度を算出する手段と、算出した視点位置依存度を考慮して、前記画像データから、前記対象物の位置姿勢を推定する手段とを備えたものを提供する。
本発明の第12態様では、画像処理プログラムとして、コンピュータに、対象物が撮された画像データから前記対象物の位置姿勢を暫定的に推定するステップと、暫定的に推定された位置姿勢、および前記対象物に係る光学データを用いて、当該対象物の視点位置依存度を算出するステップと、算出した視点位置依存度を考慮して、前記画像データから前記対象物の位置姿勢を推定するステップとを実行させるものを提供する。
以下、本発明の実施の形態について、図面を参照しながら説明する。
(第1の実施形態)
図1は本発明の第1の実施形態に係る画像処理装置の構成図である。図1の画像処理装置は、画像に撮された対象物の位置・姿勢を推定する。
図1において、画像取得部101は、対象物が撮された画像データを取得する。ここでは、画像取得部101は2台のカメラを利用して、対象物のステレオ画像を撮影するものとする。光学データ取得部102は、後述するようにRFタグ(無線タグ)などを用いて、対象物に係る光学データを取得する。そして、画像処理部103は、光学データ取得部102が取得した光学データを用いて、画像取得部101によって取得された画像データを処理し、対象物の位置姿勢を推定する。
画像処理部103は、位置姿勢推定部104、視点位置依存度算出部105および繰り返し制御部106を備えている。位置姿勢推定部104は、画像取得部101によって撮像された画像データを用いて、光学データ取得部102によって取得された対象物の3次元形状データ等を参照して、対象物の位置・姿勢を推定する。視点位置依存度算出部105は、光学データ取得部102が取得した光学データと、位置姿勢推定部104が暫定的に推定した対象物の位置・姿勢データとを用いて、画像データの色情報がカメラ位置によって変化する度合を示す視点位置依存度を算出する。位置姿勢推定部104は、視点位置依存度算出部105によって算出された視点位置依存度を用いて、再度、対象物の位置・姿勢を推定する。繰り返し制御部106は、このような位置姿勢推定部104および視点位置依存度算出部105による繰り返し処理を、推定された位置・姿勢の信頼度を評価しつつ、制御する。
ここで、本発明における「視点位置依存度」とは、画像データの色情報が、カメラ位置によって変化する度合のことを指す。色情報とは、例えば、輝度、色相などである。後述するように、視点位置依存度は、対象物表面の鏡面反射成分に基づいて求めたり、対象物の屈折率に基づいて求めたりする。
本実施形態では、対象物に係る光学データとして、次の3つのデータを利用する。
○反射モデルパラメータ
○カメラ情報(カメラの位置と姿勢を表すデータ)
○光源情報(光源の位置および照射輝度分布を表すデータ)
ここで、反射モデルパラメータについて説明する。一般に、物体の表面反射は、拡散反射成分と鏡面反射成分との和からなる二色性反射モデルによって表現される。二色性反射モデルとして、Torrance-Sparrowモデルが広く知られており、ここでは簡略化されたTorrance-Sparrowモデルのパラメータを、反射モデルパラメータとして用いる。
簡略化されたTorrance-Sparrowモデルは、以下の式で表される(「K. Ikeuchi, K. Sato, “Determining reflectance properties of an object using range and brightness images”, IEEE Trans. Pattern Analysis and Machine Intelligence, Vol.13, 11, pp.1139-1153, 1991」参照)。
Figure 0004546155
上の式(1)の右辺第1項id は拡散反射成分を表し、第2項is は鏡面反射成分を表している。ここで、cはRGBのいずれか、ic は画像面の明るさ、Lc は光源の光度、Rは光源から物体表面の各点までの距離であり、照明光強度がこの距離の2乗に反比例して減衰する特性を考慮して導入されたものである。K’d,c とK’s,c とはそれぞれ拡散反射成分と鏡面反射成分に対応する反射係数、σは表面粗さを示す。また、θi は物体表面の点における入射角であり、物体表面の法線方向と光源方向とがなす角度、θr は物体表面の法線方向とカメラ方向とがなす角度、αは光源方向とカメラ方向の二等分線方向と法線方向とがなす角度である。
図2はこれらの関係を示す図である。図2において、ベクトルNは対象物表面OSFの法線方向、ベクトルVはカメラCMの方向、ベクトルLは光源LSの方向、ベクトルHはカメラ方向(ベクトルV)と光源方向(ベクトルL)との二等分線方向を示している。
ここで、
d,c =K’d,c c
s,c =K’s,c c
c =ic 2
とすると、式(1)は次のように変形される
Figure 0004546155
すなわち、Kd,c とKs,c はそれぞれ拡散反射成分と鏡面反射成分に対応する反射係数、σは表面粗さを示しており、これらのパラメータKd,c 、Ks,c およびσによって、対象物の反射特性を記述することができる。そこでこれらのパラメータKd,c 、Ks,c およびσを、反射モデルパラメータとして用いる。通常、パラメータKd,c 、Ks,c は、R,G,Bにおいて互いに異なるため、R,G,Bそれぞれについて個別に求めることが望ましい。ただし、ここでは簡略化のため、R,G,Bではなく、輝度を用いる場合について説明する。
図3(a),(b)はそれぞれ、拡散反射成分id および鏡面反射成分is のカメラ方向による変化を模式的に示すグラフである。図3では光源の位置は固定とする。図3から分かるように、拡散反射成分id はカメラ方向に関係なく一定値になるが、鏡面反射成分is はカメラ方向に大きく依存し、角度αが0すなわち、カメラ方向と光源方向との二等分線方向と、対象物表面の法線方向とが一致したとき、最大となる。すなわち、鏡面反射成分に基づいて、視点位置依存度を算出することができる。
このように、反射モデルパラメータに加え、カメラ情報、光源情報、並びに、カメラ方向および光源方向と対象物の法線方向との相対的な関係が求まれば、視点位置依存度を算出することができ、例えば対象物の鏡面反射領域を推定することができる。
光学データ取得部102は、視点位置依存度を求めるために必要となる、上述したパラメータを全て取得する。以下、これらのパラメータの取得方法について、順に説明する。
1)反射モデルパラメータ
ここでは、対象物にRFタグが設置されており、当該対象物の反射モデルパラメータがRFタグに記憶されているものとする。光学データ取得部102はRFタグのアンテナを有し、対象物のRFタグと通信を行うことによって、反射モデルパラメータを取得する。
2)カメラ情報
カメラ情報としては、焦点距離(投影中心とスクリーンの距離)、レンズ歪み係数、画像の歪み中心、画面の縦横比、画素サイズなどのカメラ内部パラメータと、カメラの焦点位置、姿勢(向き)などのカメラ外部パラメータとがある。これらのパラメータは、例えば公知の手法によって、予め取得しておけばよい。カメラ外部パラメータの取得は、例えば、特開平5−38688号公報記載の方法を用いればよい。また、カメラ内部パラメータの取得は、例えば、「Roger Y.Tsai,“An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision",Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,pp.364-374,1986」の方法を用いればよい。
3)光源情報
光源の位置と照射輝度分布を推定する手法として、例えば、表面が鏡面である鏡面球を利用する方法が知られている。鏡面球の表面には、その鏡面球の位置に入射する光の光源が映されていると考えられる。そこで、このような鏡面球をカメラで撮影し、その画像を解析することによって、光源の位置と照射輝度分布を推定する(例えば、「田中法博、富永昌治 “全方位の光源分光分布の計測とその応用”,画像の認識・理解シンポジウム(MIRU2002),vol.II,pp.99-1004,2000」)。また、広角カメラを天井方向に向けて光源状態を撮影する方法も、広く知られている。
また、光源が太陽光や月光である場合、日時と測定地の緯度経度とが分かれば、光源の位置と照度は既知となる。測定地の緯度経度は、例えばGPSを用いることによって得ることができる。また、ネットワークを利用して、天気情報などのサイトから情報を得るようにしてもかまわない。
また、家庭内の場合、光源となるものは部屋内の照明である。照明の位置は固定であり、照明のON―OFFは測定することが可能である。このため、例えば、照明や家具などの位置や形状情報(CADデータ)、機器の動作状態を管理する家庭内サーバが存在している場合、光学データ取得部102は、その家庭内サーバと通信を行うことによって、光源の位置および照射輝度分布情報を得ることができる。
4)対象物の法線方向(位置・姿勢)
ここでは、対象物に設置されたRFタグには、反射モデルパラメータの他に、対象物の3次元形状データが記憶されているものとする。光学データ取得部102は、対象物のRFタグと通信を行うことによって、対象物の3次元形状データを取得する。ここでの3次元形状データは、例えば、ワイヤーフレームモデルのような形式であってもよいし、立方体や円柱など単純なモデルを組み合わせた形式であってもよい。
そして、その3次元形状データの位置・姿勢を変えながら、実際の画像とのマッチングを行い、最も高いマッチング度を得た位置・姿勢を、対象物の位置・姿勢として暫定的に推定する。後述するHOUGH変換のような投票処理を利用することによって、ロバストな推定を行うことができる。(位置・姿勢検出方法としては、例えば、特許文献1)。推定した位置・姿勢から、対象物の法線方向を求めることができる。
なお、本実施形態では、対象物の位置・姿勢を推定することを目的としているにもかかわらず、視点位置依存度の算出のために、対象物の位置・姿勢に係る情報を必要とする。このため、まず位置姿勢推定部104が、対象物の3次元形状データを用いて「対象物の位置・姿勢」の暫定的な推定を行い、この暫定的な推定結果を用いて、視点位置依存度算出部105が視点位置依存度を算出する。さらに、算出された視点位置依存度を利用して再度、位置姿勢推定部104が「対象物の位置・姿勢」の推定を行う。このような処理によって、ロバストな推定を実現することができる。
上述したように、反射モデルパラメータ、カメラ情報、光源情報、および対象物の法線方向が求まれば、視点位置依存度を算出することができ、対象物の鏡面反射領域を推定することができる。鏡面反射領域が推定されると、例えば、その鏡面反射領域を含む領域に、その後の画像処理から外すためのマスク領域を設定する。図4はマスク領域207の設定例であり、図16の画像に対応している。マスク領域を除外して、特徴点抽出、パターンマッチング、ブロックマッチングなどの画像処理を行うことによって、その後の画像処理における鏡面反射による性能劣化の影響を除去することができる。
なお、対象物の反射モデルパラメータは、RFタグを用いる代わりに、例えば画像取得部101で撮像した画像を用いて、取得することも可能である。例えば、画像から対象物のIDを認識し、このIDに対応した光学データを、別途設けられたデータベース(DB)から読み出すようにすればよい。画像から対象物のIDを認識する方法としては、対象物に2次元バーコードや画像マーカーなどのマークを貼り付け、その情報を読み取るという方法が広く知られている(例えば、「香月理絵、太田順、水田貴久、新井民夫 "知能ロボットのための環境整備法(第一報:環境への作業情報配置法)", 第19回日本ロボット学会学術講演会, 1C32, pp.353−354, 2001」参照)。
図5はこのようなDBの一例を示したものである。図5のDBには、対象物の識別ID、形状データ、および各領域における光学モデルパラメータが記載されている。図5のようなDBは、個々の画像処理装置が保持していてもかまわないし、サーバが一元管理し、各画像処理装置がサーバにアクセスするようにしてもかまわない。また、このようなサーバはWEBをはじめとするネット上に存在していてもかまわない。
なお、画像から対象物のIDを認識する代わりに、対象物の画像自体を登録しておき、撮像画像と登録画像とのマッチングによって対象物を識別するようにしてもよい。このような手法としては、パラメトリック固有空間法を利用したもの等がある(例えば、特開2002−140706号公報参照)。この場合、登録画像DBと光学モデルパラメータDBとは、統一しておくことが望ましい。
図6は画像処理部103における処理の流れの一例を示すフローチャートである。図6において、ステップS102,S103,S106,S107は位置姿勢推定部104が実行し、ステップS105は視点位置依存度算出部105が実行し、ステップS108〜S110は繰り返し制御部106が実行する。
まず、画像処理部103は、画像取得部101によって撮像されたステレオ画像を取り込む(S101)。ここで、この2枚のステレオ画像をそれぞれ左画像および右画像と呼ぶ。次に、位置姿勢推定部104が、特徴点抽出アルゴリズム(例えば、「J. Shi and C. Tomasi, "Good Features to Track," IEEE Conference on Computer Vision and Pattern Recognition, pp. 593-600, 1994」)に従い、左画像から例えば50個の特徴点を抽出する(S102)。そして、これら50個の特徴点の対応点を、右画像からブロックマッチング法によって探索する。ステレオ画像を撮影したカメラのカメラ情報(内部パラメータおよび外部パラメータ)が既知であるとき、特徴点と対応点との関係から、対象物の3次元位置を推定することができる。さらに、推定された50点の3次元位置にHough変換を適用することによって、対象物の位置姿勢X1を暫定的に推定する(S103)。位置姿勢推定の具体的な処理については、後述する。
次に、画像処理部103は、光学データ取得部102から対象物光学データとして、反射モデルパラメータや光源情報を取り込む(S104)。そして、視点位置依存度算出部105が、ステップS103で暫定的に推定された位置姿勢X1を仮定し、対象物について、視点位置依存度を算出し、この視点位置依存度が高い領域すなわち鏡面反射領域を推定する(S105)。そして位置姿勢推定部104が、この視点位置依存度を利用して、再度、対象物の位置・姿勢X2を推定する。すなわち、ステップS102で抽出された50個の特徴点のうち鏡面反射領域に含まれているものがあるとき、その特徴点を廃棄し、この代わりに、鏡面反射領域以外の領域から特徴点を抽出する。このようにして、鏡面反射領域に含まれない50個の特徴点を再抽出する(S106)。さらに、50個の新たな特徴点を用いてステップS103と同様の処理を行い、再度、対象物の位置姿勢X2を推定する(S107)。
次に、ステップS103,S107で推定された位置・姿勢X1,X2の信頼度E1,E2を計算する(S108,S109)。信頼度の具体的な計算方法については、後述する。
ここで、もし暫定的に推定した位置姿勢X1が正しいものであるとき、鏡面反射領域を除外して求めた新たな位置姿勢X2も同じ値をとり、かつ、信頼度E2は鏡面反射領域を除外した分だけ信頼度E1よりも高くなるはずである。一方、位置姿勢X1が誤っているとき、鏡面反射領域の位置も誤って推定されるため、位置姿勢X2はX1と同じものにはならず、かつ、信頼性E2もE1よりも低下すると考えられる。そこで、
X1=X2 & E1≦E2 …(3)
を満たしたときは(S110でYes)、対象物の位置姿勢はX2であると判断し(S111)、処理を終了する。一方、上式(3)を満たさないときは、位置姿勢推定は間違っていると判断し(S110でNo)、ステップS102に戻り、対象物の位置姿勢推定を特徴点の抽出からやり直す。もちろん、処理のやり直し方はこれに限られず、例えば、X1=X2、E1=E2として、ステップS106に戻るようにしてもよい。
(位置姿勢推定の具体例)
対象物の位置・姿勢を推定する具体的な処理について、円柱と直方体を例にとって、説明する。
1)円柱で近似できる物
床や机に立てて置かれた空き缶など、円柱で近似できる対象物は、次のようにして位置や姿勢を推定することができる。図7(a)は床や机に置かれた空き缶などを円柱で近似した図である。円柱CCは高さh、底面半径rとし、円柱CCが置かれた平面SFの高さをh_tとする。また、点Piは円柱CCの特徴点であり、その3次元座標を(xi,yi,zi)とする(ただし、h_tは省略)。円柱CCの高さh、底面半径rは、上述したとおり例えばRFタグを利用して取得できる。また、平面SFの高さh_tは部屋のCADデータがあれば既知である。
まず、3次元位置の高さziが、下の条件1を満たさない特徴点はノイズであると判断し、その特徴点を除去する。
条件1: h_t < zi < h_t + h
また、特徴点Piは、必ず、円柱CCの表面上にあるものと考えられる。ここで、図7(b)に示すように、ある点を円周上にもつ半径rの円の中心は、必ず、その点を中心とした半径rの円周上に存在する。このことに着目すると、円柱CCの中心軸の位置は、次のようにして検出することができる。
a)円柱が置かれているx−y平面SFを投票空間として、この平面を量子化した「マス」を作成する。
b)特徴点Piのxy座標(xi,yi)を中心とし、半径rの円周上に存在する「マス」に投票をする。
c)条件1を満たした全ての特徴点について、b)の処理を繰り返す。
d)最も多く投票された「マス」の位置を、円柱CCの中心軸の位置として推定する。
このような処理によって、はずれ値に影響されず、円柱CCで近似できる対象物の位置をロバストに推定できる。
2)直方体で近似できる物
携帯電話など、直方体で近似できる対象物は、次のようにして位置や姿勢を推定することができる。図8(a)は携帯電話などを直方体で近似した図である。直方体RPの3辺の長さは、それぞれ、H,L,Wとする。また、点Piは直方体RPの特徴点であり、その3次元座標を(xi,yi,zi)とする。直方体RPの3辺の長さH,L,Wは、上述したとおり例えばRFタグを利用して取得できる。
この場合、対象物の位置と姿勢を一意に決定するためには、図8(a)に示すように、中心軸のxy座標と、床面に垂直なある側面とx軸との傾きとが求まればよい。そこで、xy座標と、x軸との角度θとを要素とする3次元空間を投票空間とし、量子化した「マス」を作成しておく。
説明を簡単にするために、次の2つのステップに分ける。
a)図8(b)のように、幅L−高さHの面がx−z平面上に存在し、物体の回転はない場合を仮定し、中心軸の位置のみを推定する。
b)中心軸の位置と角度θを推定する。
・ステップa)
特徴点Piが直方体RPの側面上に存在するとき、図9(a)に示すように、この直方体RPの中心軸は点Piを中心とした縦W、横Lの長方形RCのエッジ上に存在する。すなわち、中心軸は下の式(4)を満たす座標(Xc’,Yc’)を通る。
Figure 0004546155
・ステップb)
図9(b)に示すように、中心軸が存在するであろう長方形RCを、点Piを中心にして回転させる。このとき、長方形RCのエッジは、図9(c)に示すように、半径W/2の円と、半径√(W2 +L2 )/2の円とに挟まれた領域ARを形成する。この領域AR内に、直方体RPの中心軸はあるはずである。そこで、下の式(5)を満たす座標(Xc,Yc)と回転角θに対応する「マス」に投票を行う。
Figure 0004546155
全ての特徴点について同様の投票を行い、最も多く投票された「マス」の位置と角度を、直方体RPの位置と姿勢として推定する。
(信頼度計算の具体例)
また、ステップS108などにおける信頼度の計算は、例えば次のように行う。上述した投票処理を利用して対象物の位置と姿勢を推定したとき、推定された位置・姿勢X1、X2を示す「マス」(これを「推定されたマス」と呼ぶ)への投票数を、信頼度の計算に利用する。例えば、もし、全ての特徴点が対象物上にあり、対応点検出が正確に行われているとき、「推定されたマス」には全ての特徴点について投票がなされているはずである。一方、鏡面反射やノイズなどに起因して対応点検出に失敗したときは、その特徴点については「推定されたマス」には投票されていないと考えられる。そこで、「推定されたマス」に対する投票数、すなわち、どれだけの特徴点について投票されているかを、その推定値に対する信頼度として用いることができる。
なお、ここでの説明では、二色性反射モデルとしてTorrance-Sparrowモデルを利用したが、これ以外に例えば、PhongモデルやCook-Torranceモデルを利用してもかまわない。
また、上述した例では、視点位置依存度の高い領域については、特徴点を選択しないものとしたが、その代わりに、視点位置依存度に応じて画像処理における重み付けを行ってもよい。例えば、鏡面反射領域における特徴点について、他の領域の特徴点と比べて重みを小さく設定すればよい。
(第2の実施形態)
図10は本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図、図11は図10の画像処理部103Aにおける処理の流れの一例を示すフローチャートである。図10では図1と共通の構成要素には、図1と同一の符号を付している。画像処理部103Aは、合成画像生成部107を備えている。
図11の処理では、対象物の位置・姿勢を推定するために、2段階のブロックマッチングを利用する。これによって、対象物の位置と姿勢を高速に、かつ高精度に測定することができる。また、合成画像生成部107がマスク画像を作成し、このマスク画像を利用して位置・姿勢推定を行う。図11において、ステップS202,S203およびS207は位置姿勢推定部104が実行し、ステップS205は視点位置依存度算出部105が実行し、ステップS206は合成画像生成部107が実行し、ステップS208〜S210は繰り返し制御部106が実行する。
まず、画像処理部103Aは、画像取得部101によって撮像されたステレオ画像を取り込む(S201)。次に、位置姿勢推定部104が、2段階ブロックマッチングにより対象物の位置姿勢を求める。まず、対象物の位置を粗く求めるために、ステレオ画像の縮小画像を作成し、この縮小画像に対して1度目のブロックマッチングを行う(S202)。すなわち、上述したような位置姿勢検出法によって、縮小画像から位置姿勢X0を推定する。縮小画像を用いることによって、ブロックマッチングの探索範囲が狭まり、処理時間が短縮されるという効果があるが、その一方で、推定精度が低下するという問題も生じる。
そこで、ステップS202で推定された位置姿勢X0を基準とし、その近傍に正しい解があると仮定して、再度ブロックマッチングを行う(S203)。ここでは、縮小画像ではなく、画像取得部101によって取得された原画像を利用する。大まかな位置姿勢が求まっている条件下でブロックマッチングを行うため、探索範囲が狭まり、処理時間が短縮される。しかも、縮小画像ではなく原画像を利用するため、高精度な推定が可能になる。
次に、画像処理部103Aは、光学データ取得部102から対象物光学データとして、反射モデルパラメータや光源情報を取り込む(S204)。そして、視点位置依存度算出部105が、ステップS202で暫定的に推定された位置姿勢X0を仮定し、対象物について、視点位置依存度が高い領域すなわち鏡面反射領域を推定する(S205)。
合成画像生成部104は、原画像に対し、推定された鏡面反射領域を含むマスク領域を設定し、マスク画像を作成する(S206)。マスク領域については、以降の画像処理の対象から外される。このとき、暫定的に推定された位置姿勢は、鏡面反射などに起因して精度は低いと考えられるので、マスク領域は、推定された鏡面反射領域よりも広めに設定することが好ましい。そして、位置姿勢推定部104は、このマスク画像に対してステップS203と同様の処理を行い、再度、対象物の位置姿勢X2を推定する(S207)。
次に、ステップS203,S207で推定された位置・姿勢X1,X2の信頼度E1,E2を、上述の方法を用いて計算する(S208,S209)。そして、上述のステップS110と同様に、
X1=X2 & E1≦E2 …(3)
を満たしたときは(S210でYes)、対象物の位置姿勢はX2であると判断し(S211)、処理を終了する。一方、上式(3)を満たさないときは、位置姿勢推定は間違っていると判断し(S210でNo)、ステップS202に戻り、対象物の位置姿勢推定をやり直す。
また、上述したようなマスク処理や重み付け処理では、光源情報を利用して、その処理内容を適宜変更してもよい。これは、対象物の鏡面反射成分が十分に弱い場合、光源の強度が十分に小さいとき、鏡面反射を拡散反射として近似できるためである。すなわち、鏡面反射成分(KSc およびσ)の値と光源情報に応じて処理を切り替えることによって、ロバスト性を向上させることができる。
(第3の実施形態)
上述した処理では、対象物に係る光学データとして、反射モデルパラメータ、カメラ情報および光源情報という3つのデータを利用するものとしたが、これら全てを用いる必要は必ずしもない。ここでは、光学データとして、反射モデルパラメータおよびカメラ情報を利用し、光源情報は利用しない例について、説明する。画像処理部103における処理の流れは、図6と同様である。
本実施形態と、光源情報を用いる方法との違いは、ステップS106の処理である。上述した方法では、反射モデルパラメータとして、簡略化されたTorrance-SparrowモデルのパラメータKdc,Kscおよびσを利用したが、本実施形態では、対象物の鏡面反射可能領域を領域ごとに記述したパラメータを用いる。
図12は本実施形態において用いる反射モデルパラメータを記述したDBのデータ内容の一例を示す図である。図12において、「光学モデルパラメータ」「鏡面反射可能領域」のフィールドは、視点位置依存度の度合を示している。すなわち、「0」は、その領域では拡散反射が支配的であり、鏡面反射が生じないことを示しており、一方、「1」は、光源の位置によっては鏡面反射を起こす可能性があることを示している。言い換えると、視点位置依存度が高い領域には「1」が示され、視点位置依存度が低い領域には「0」が示されている。
例えば、図12のデータ例では、識別ID「001」の携帯電話において、液晶ディスプレー部(領域B)と上部のボタン(領域D,E)は鏡面反射を起こす可能性があるが、それ以外の領域(領域A,C)は鏡面反射が生じないことを表している。
そこで、図13に示すように、鏡面反射が起こる可能性のある領域、すなわち視点位置依存度の高い領域B,D,Eにマスクを設定し、これらの領域から特徴点を選択しないようにする。これにより、対象物の鏡面反射による検出精度低下の影響を受けないロバストな位置・姿勢検出を行うことができる。
なお、上述の各実施形態では、ステレオマッチングを利用した位置姿勢推定について説明したが、本発明は、このような処理に限定されるものではない。例えば、移動物体に設置したカメラによって所定の時間間隔を開けて撮像した2枚の画像を用いてブロックマッチングを行うことによって、オプティカルフローを求めることができる。オプティカルフローは広く、対象物の動き検出に利用される。このような処理にも、ここで述べたのと同様の処理を適用することができる。
また、このオプティカルフローを利用し、自動車やロボットのような移動物体の軌跡検出を行うことも可能であるが、このような処理にも本発明は適用できる。例えば、特願2003−153002に開示の方法において、特徴点抽出の際に、本発明を適用すればよい。
また、マスク画像を利用することによって、物体の自動認識を目的としたパターンマッチングに、本発明を適用することも可能である。
なお、上述の各実施形態の画像処理方法は、光源環境が複雑な家庭内などにおいて、物品の保持を行うロボットなどに有効である。推定された鏡面反射領域において、局所的に輝度が高く、鏡面反射が生じていると推定される場合、その領域には傷がついていると考えられる。また、推定された鏡面反射領域の輝度が十分に小さく、明らかに鏡面反射を起こしていない場合も、その領域には傷がついている可能性が高い。このような傷がついている位置をロボットが保持することは、安全性の面で好ましくない。そこで、本画像処理技術がロボットに搭載されている場合に、このような領域が検出されたときは、その領域を保持しないように制御することが望ましい。
(第4の実施形態)
透明な物体の位置や姿勢を推定する場合、屈折率の違いによる画像データの違いが問題となる。図14(a),(b)は格子状の背景BGの前に、形状は同じだが屈折率が異なる透明物体301,302を置いたときの画像を示す図である。図14から分かるように、屈折率の違いによって、対象物の画像データは大きく異なる。
図15は図14における光線経路を示す図である。図15に示すように、背景BGから反射(放射)された光は、実線の経路(光線)を通り、透明物体301を通過してカメラCMに入射する。このときの光線経路は、物体の形状のみならず、透明物体301の屈折率nに依存する。
屈折率nは、一般に、次の式(6)で示すスネルの法則で表される。
n=sinθ11/sinθ12 …(6)
すなわち、対象物が透明物体であるとき、屈折率に応じた視点位置依存度が生じる。本実施形態では、屈折率に基づく視点位置依存度を算出し、この視点位置依存度を考慮して、画像処理を行う。
具体的には例えば、第1の実施形態で示した図6のフローと同様に、処理を行うことができる。すなわち、対象物が透明であるとき、RFタグに、予めその屈折率の情報を記録しておく。光学データ取得部102は、対象物に係る光学データとして、RFタグから屈折率の情報を取得する。そして、屈折率が極端に大きい領域や屈折率が一様でない領域について、視点位置依存度が高い領域と判断してマスクをかけ、その後の画像処理を行わないようにする。屈折率が極端に大きい領域や屈折率が一様でない領域では、位置姿勢推定のような画像処理は非常に難しいため、このような処理によって、画像処理の精度を上げることができる。
もちろん、マスクをかけて処理対象から除外する代わりに、視点位置依存度に依存した重み付け処理を行うようにしてもかまわない。例えば、上述した投票処理を用いて位置姿勢を推定する場合、投票する際に、屈折率を基準にして重み付けを行う。例えば、通常、投票は対応する「マス」に対して1ポイントずつ加算していくが、屈折率nを利用して、ポイント数Pを次のように変更すればよい。
P=1/n ただし、不透明物体の場合は1
また、屈折率を利用した対象物の形状測定方法としては、例えば、「辻田美紀、眞鍋佳嗣、千原國宏 "背景パターンの変化を利用した透明物体の形状と屈折率の計測", 第46回自動制御学会連合講演会講演論文集, FA2−08―4, pp.771−772, 2003」に開示されたものなどがある。
また、本実施形態は、投光型レンジファインダにおいて、特に有効である。投光型レンジファインダでは、対象物を光源で投光し、その反射光を測定することによって対象物の3次元形状を測定する。このため、対象物が透明物体である場合、測定はうまくいかない可能性が高い。そこで、対象物の透明領域(屈折率が存在する領域)に対して3次元形状測定処理の重みを小さくする。これにより、測定のロバスト性を向上させることができる。もちろん、透明領域にマスク処理を行い、不透明領域のみを利用して処理を行ってもよい。
また、上述した例では、視点位置依存度を輝度に関して求めるものとしたが、もちろんこの限りではなく、例えば、色相に関して求めるようにしてもよい。これは、光源の位置は固定であるが、光強度のみが変化するとき、特に有効である。
色相とは、色の違いを区別する属性である(例えば「画像解析ハンドブック」、pp.104、東京大学出版会、1992)。通常、光源の強度が変化しても、光源の色相は変化しないと考えられる。このため、拡散反射領域では、光源の強度が変化しても各画素の色相は変化しない。すなわち、視点位置が変化しても色相は固定である。また、二色性反射モデルを考える場合、鏡面反射においても色相は変化しないが、通常、鏡面反射領域では相互反射の影響により映りこみが生じる。映りこみとは、周りの物体自体が光源となることである。
このため、鏡面反射領域において、視点が変化する場合、映り込みによる光源色の変化の影響から色相が変化する。また、拡散反射領域では物体色の色相が観察され、鏡面反射領域では光源色の色相が観察されるため、視点位置の変化に伴い画素が拡散反射領域から鏡面反射領域へ、または鏡面反射領域から拡散反射領域へ変化した際、その色相は変化する。したがって、視点位置依存度を色相に関して求めることによって、相互反射による映り込みや、光源の強度変化について、画像処理に対する影響を抑えることができる。
本発明によると、撮影する際の光環境に影響を受けないロバストな画像処理を実現できるので、例えば、家庭内などで利用されるロボットや、自動車などにおける画像処理に有用である。
本発明の第1の実施形態に係る画像処理装置の構成図である。 反射モデルを説明するための概念図である。 (a),(b)は拡散反射成分および鏡面反射成分のカメラ方向による変化を模式的に示すグラフである。 マスク領域の設定例である。 光学データを格納したデータベースを示す図である。 本発明の第1の実施形態における画像処理方法を示すフローチャートである。 円柱で近似できる物の位置・姿勢推定方法を説明するための概念図である。 直方体で近似できる物の位置・姿勢推定方法を説明するための概念図である。 直方体で近似できる物の位置・姿勢推定方法を説明するための概念図である。 本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。 本発明の第2の実施形態における画像処理方法を示すフローチャートである。 本発明の第3の実施形態において用いる反射モデルパラメータを記述したデータの一例である。 本発明の第3の実施形態におけるマスク領域の設定例である。 屈折率の違いによる画像の変化を示す図である。 図14における光線経路を示す図である。 鏡面反射領域を含む画像の例である。 ステレオマッチング処理において、鏡面反射領域を含む画像の例である。
符号の説明
101 画像取得部
102 光学データ取得部
103,103A 画像処理部
104 位置姿勢推定部
105 視点位置依存度算出部
106 繰り返し制御部
107 合成画像生成部
203,203L,203R 鏡面反射領域
207 マスク領域

Claims (12)

  1. 対象物が撮された画像データを、取得する第1のステップと、
    前記画像データから、前記対象物の位置姿勢を、暫定的に推定する第2のステップと、
    前記対象物に係る光学データを、取得する第3のステップと、
    前記光学データ、および前記第2のステップにおいて暫定的に推定された位置姿勢を用いて、前記対象物の、画像データの色情報がカメラ位置によって変化する度合を示す視点位置依存度を算出する第4のステップと、
    前記第4のステップにおいて算出した視点位置依存度を考慮して、前記画像データから、前記対象物の位置姿勢を、推定する第5のステップとを備えた
    ことを特徴とする画像処理方法。
  2. 請求項1において、
    前記第5のステップにおいて推定した位置姿勢の、信頼度を評価する第6のステップを備え、
    前記第6のステップにおいて所定の評価が得られたとき、前記第5のステップにおいて推定した位置姿勢を、前記対象物の位置姿勢として判断する
    ことを特徴とする画像処理方法。
  3. 請求項1において、
    前記第4のステップは、前記視点位置依存度を、鏡面反射成分に基づき算出するものである
    ことを特徴とする画像処理方法。
  4. 請求項3において、
    前記第4のステップは、前記対象物の鏡面反射領域を推定するステップを含み、
    前記第5のステップは、前記第4のステップにおいて推定された鏡面反射領域について、画像処理の対象から外す、または、画像処理における重み付けを相対的に小さくするステップを含む
    ことを特徴とする画像処理方法。
  5. 請求項4において、
    鏡面反射領域を推定する際に、前記光学データとして、カメラ情報、反射モデルパラメータ、および光源情報のうち少なくとも1つを用いる
    ことを特徴とする画像処理方法。
  6. 請求項5において、
    前記反射モデルパラメータとして、Torrance-Sparrowモデルなどの反射モデルを利用した光学特性パラメータを用いる
    ことを特徴とする画像処理方法。
  7. 請求項5において、
    前記反射モデルパラメータとして、前記対象物の鏡面反射可能領域を記述したパラメータを用いる
    ことを特徴とする画像処理方法。
  8. 請求項1において、
    前記第4のステップは、前記視点位置依存度を、屈折率に基づき算出するものである
    ことを特徴とする画像処理方法。
  9. 請求項1において、
    前記第3のステップは、前記光学データの取得を、前記対象物に付された無線タグを利用して行うものである
    ことを特徴とする画像処理方法。
  10. 請求項1において、
    前記第5のステップは、
    算出された視点位置依存度に従って、前記画像データから、処理対象から外すマスク領域を含むマスク画像を生成し、このマスク画像を用いて、前記対象物の位置姿勢を推定するものである
    ことを特徴とする画像処理方法。
  11. 対象物が撮された画像データを、取得する画像取得部と、
    前記対象物に係る光学データを、取得する光学データ取得部と、
    前記光学データ取得部によって取得された光学データを用いて、前記画像取得部によって取得された画像データを処理し、前記対象物の位置姿勢を推定する画像処理部とを備え、
    前記画像処理部は、
    前記画像データから、前記対象物の位置姿勢を、暫定的に推定する手段と、
    暫定的に推定した位置姿勢、および前記光学データを用いて、当該対象物の、画像データの色情報がカメラ位置によって変化する度合を示す視点位置依存度を算出する手段と、
    算出した視点位置依存度を考慮して、前記画像データから、前記対象物の位置姿勢を、推定する手段とを備えたものである
    ことを特徴とする画像処理装置。
  12. コンピュータに、
    対象物が撮された画像データから、前記対象物の位置姿勢を、暫定的に推定するステップと、
    暫定的に推定された位置姿勢、および前記対象物に係る光学データを用いて、当該対象物の、画像データの色情報がカメラ位置によって変化する度合を示す視点位置依存度を算出するステップと、
    算出した視点位置依存度を考慮して、前記画像データから、前記対象物の位置姿勢を、推定するステップとを
    実行させるための画像処理プログラム。
JP2004164445A 2004-06-02 2004-06-02 画像処理方法、画像処理装置および画像処理プログラム Expired - Fee Related JP4546155B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004164445A JP4546155B2 (ja) 2004-06-02 2004-06-02 画像処理方法、画像処理装置および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004164445A JP4546155B2 (ja) 2004-06-02 2004-06-02 画像処理方法、画像処理装置および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2005346348A JP2005346348A (ja) 2005-12-15
JP4546155B2 true JP4546155B2 (ja) 2010-09-15

Family

ID=35498672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004164445A Expired - Fee Related JP4546155B2 (ja) 2004-06-02 2004-06-02 画像処理方法、画像処理装置および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP4546155B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101422035B (zh) 2006-05-29 2012-02-29 松下电器产业株式会社 光源推定装置、光源推定系统与光源推定方法以及图像高分辨率化装置与图像高分辨率化方法
JP2012203559A (ja) * 2011-03-24 2012-10-22 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP7319527B2 (ja) * 2019-05-22 2023-08-02 ダイキン工業株式会社 画像処理システム
JP7276992B2 (ja) * 2021-08-06 2023-05-18 東芝エレベータ株式会社 エレベータの利用者検知システム
JP2023088061A (ja) * 2021-12-14 2023-06-26 株式会社Jvcケンウッド 三次元モデル生成装置、三次元モデル生成方法及び三次元モデル生成プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08241413A (ja) * 1995-03-07 1996-09-17 Matsushita Electric Ind Co Ltd 動領域検出装置
JP2548742B2 (ja) * 1987-09-07 1996-10-30 株式会社日立製作所 3次元シーン表示装置
JP2961264B1 (ja) * 1998-09-21 1999-10-12 工業技術院長 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000076440A (ja) * 1998-08-27 2000-03-14 Toshiba Corp パタン認識装置およびその方法
JP2000315257A (ja) * 1999-04-30 2000-11-14 Shiseido Co Ltd 皮膚状態の三次元画像生成方法
JP2002024807A (ja) * 2000-07-07 2002-01-25 National Institute Of Advanced Industrial & Technology 物体運動追跡手法及び記録媒体
JP2003091726A (ja) * 2001-09-17 2003-03-28 Nhk Engineering Services Inc 反射パラメータ取得装置、反射成分分離装置、反射パラメータ取得用プログラム、及び反射成分分離用プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2548742B2 (ja) * 1987-09-07 1996-10-30 株式会社日立製作所 3次元シーン表示装置
JPH08241413A (ja) * 1995-03-07 1996-09-17 Matsushita Electric Ind Co Ltd 動領域検出装置
JP2000076440A (ja) * 1998-08-27 2000-03-14 Toshiba Corp パタン認識装置およびその方法
JP2961264B1 (ja) * 1998-09-21 1999-10-12 工業技術院長 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000315257A (ja) * 1999-04-30 2000-11-14 Shiseido Co Ltd 皮膚状態の三次元画像生成方法
JP2002024807A (ja) * 2000-07-07 2002-01-25 National Institute Of Advanced Industrial & Technology 物体運動追跡手法及び記録媒体
JP2003091726A (ja) * 2001-09-17 2003-03-28 Nhk Engineering Services Inc 反射パラメータ取得装置、反射成分分離装置、反射パラメータ取得用プログラム、及び反射成分分離用プログラム

Also Published As

Publication number Publication date
JP2005346348A (ja) 2005-12-15

Similar Documents

Publication Publication Date Title
WO2018049998A1 (zh) 交通标志牌信息获取方法及装置
CN110825101B (zh) 一种基于深度卷积神经网络的无人机自主降落方法
US7471809B2 (en) Method, apparatus, and program for processing stereo image
EP3168812B1 (en) System and method for scoring clutter for use in 3d point cloud matching in a vision system
US10909395B2 (en) Object detection apparatus
JP5872818B2 (ja) 測位処理装置、測位処理方法、および画像処理装置
CN109918977B (zh) 确定空闲车位的方法、装置及设备
CN109801333B (zh) 体积测量方法、装置、系统及计算设备
KR20160003776A (ko) 자세 추정 방법 및 로봇
US8155387B2 (en) Method and system for position determination using image deformation
CN106908064B (zh) 一种基于Kinect2传感器的室内夜间视觉导航方法
CN108537214B (zh) 一种室内语义地图的自动化构建方法
CN112184765A (zh) 一种基于视觉的水下航行器自主跟踪方法
El Bouazzaoui et al. Enhancing rgb-d slam performances considering sensor specifications for indoor localization
KR102490521B1 (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
JP4546155B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
CN116559181B (zh) 基于光度立体视觉的缺陷检测方法、系统、装置及介质
CN108564626B (zh) 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置
CN116642490A (zh) 基于混合地图的视觉定位导航方法、机器人及存储介质
CN116883981A (zh) 一种车牌定位识别方法、系统、计算机设备及存储介质
CN114608522B (zh) 一种基于视觉的障碍物识别与测距方法
Yoo et al. Improved LiDAR-camera calibration using marker detection based on 3D plane extraction
CN111489384B (zh) 基于互视角的遮挡评估方法及装置、设备、系统和介质
JP2021043679A (ja) イメージレジストレーション装置、画像生成システム、イメージレジストレーション方法及びイメージレジストレーションプログラム
CN117523428B (zh) 基于飞行器平台的地面目标检测方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100701

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4546155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees