JP4546155B2 - 画像処理方法、画像処理装置および画像処理プログラム - Google Patents
画像処理方法、画像処理装置および画像処理プログラム Download PDFInfo
- Publication number
- JP4546155B2 JP4546155B2 JP2004164445A JP2004164445A JP4546155B2 JP 4546155 B2 JP4546155 B2 JP 4546155B2 JP 2004164445 A JP2004164445 A JP 2004164445A JP 2004164445 A JP2004164445 A JP 2004164445A JP 4546155 B2 JP4546155 B2 JP 4546155B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- image
- image processing
- estimated
- dependency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 78
- 238000003672 processing method Methods 0.000 title claims description 22
- 230000003287 optical effect Effects 0.000 claims description 56
- 238000000034 method Methods 0.000 claims description 50
- 238000011156 evaluation Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 12
- 238000005259 measurement Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003746 surface roughness Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Description
図1は本発明の第1の実施形態に係る画像処理装置の構成図である。図1の画像処理装置は、画像に撮された対象物の位置・姿勢を推定する。
○反射モデルパラメータ
○カメラ情報(カメラの位置と姿勢を表すデータ)
○光源情報(光源の位置および照射輝度分布を表すデータ)
Kd,c =K’d,c Lc
Ks,c =K’s,c Lc
Ic =ic R2
とすると、式(1)は次のように変形される
ここでは、対象物にRFタグが設置されており、当該対象物の反射モデルパラメータがRFタグに記憶されているものとする。光学データ取得部102はRFタグのアンテナを有し、対象物のRFタグと通信を行うことによって、反射モデルパラメータを取得する。
カメラ情報としては、焦点距離(投影中心とスクリーンの距離)、レンズ歪み係数、画像の歪み中心、画面の縦横比、画素サイズなどのカメラ内部パラメータと、カメラの焦点位置、姿勢(向き)などのカメラ外部パラメータとがある。これらのパラメータは、例えば公知の手法によって、予め取得しておけばよい。カメラ外部パラメータの取得は、例えば、特開平5−38688号公報記載の方法を用いればよい。また、カメラ内部パラメータの取得は、例えば、「Roger Y.Tsai,“An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision",Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,pp.364-374,1986」の方法を用いればよい。
光源の位置と照射輝度分布を推定する手法として、例えば、表面が鏡面である鏡面球を利用する方法が知られている。鏡面球の表面には、その鏡面球の位置に入射する光の光源が映されていると考えられる。そこで、このような鏡面球をカメラで撮影し、その画像を解析することによって、光源の位置と照射輝度分布を推定する(例えば、「田中法博、富永昌治 “全方位の光源分光分布の計測とその応用”,画像の認識・理解シンポジウム(MIRU2002),vol.II,pp.99-1004,2000」)。また、広角カメラを天井方向に向けて光源状態を撮影する方法も、広く知られている。
ここでは、対象物に設置されたRFタグには、反射モデルパラメータの他に、対象物の3次元形状データが記憶されているものとする。光学データ取得部102は、対象物のRFタグと通信を行うことによって、対象物の3次元形状データを取得する。ここでの3次元形状データは、例えば、ワイヤーフレームモデルのような形式であってもよいし、立方体や円柱など単純なモデルを組み合わせた形式であってもよい。
X1=X2 & E1≦E2 …(3)
を満たしたときは(S110でYes)、対象物の位置姿勢はX2であると判断し(S111)、処理を終了する。一方、上式(3)を満たさないときは、位置姿勢推定は間違っていると判断し(S110でNo)、ステップS102に戻り、対象物の位置姿勢推定を特徴点の抽出からやり直す。もちろん、処理のやり直し方はこれに限られず、例えば、X1=X2、E1=E2として、ステップS106に戻るようにしてもよい。
対象物の位置・姿勢を推定する具体的な処理について、円柱と直方体を例にとって、説明する。
床や机に立てて置かれた空き缶など、円柱で近似できる対象物は、次のようにして位置や姿勢を推定することができる。図7(a)は床や机に置かれた空き缶などを円柱で近似した図である。円柱CCは高さh、底面半径rとし、円柱CCが置かれた平面SFの高さをh_tとする。また、点Piは円柱CCの特徴点であり、その3次元座標を(xi,yi,zi)とする(ただし、h_tは省略)。円柱CCの高さh、底面半径rは、上述したとおり例えばRFタグを利用して取得できる。また、平面SFの高さh_tは部屋のCADデータがあれば既知である。
条件1: h_t < zi < h_t + h
携帯電話など、直方体で近似できる対象物は、次のようにして位置や姿勢を推定することができる。図8(a)は携帯電話などを直方体で近似した図である。直方体RPの3辺の長さは、それぞれ、H,L,Wとする。また、点Piは直方体RPの特徴点であり、その3次元座標を(xi,yi,zi)とする。直方体RPの3辺の長さH,L,Wは、上述したとおり例えばRFタグを利用して取得できる。
特徴点Piが直方体RPの側面上に存在するとき、図9(a)に示すように、この直方体RPの中心軸は点Piを中心とした縦W、横Lの長方形RCのエッジ上に存在する。すなわち、中心軸は下の式(4)を満たす座標(Xc’,Yc’)を通る。
図9(b)に示すように、中心軸が存在するであろう長方形RCを、点Piを中心にして回転させる。このとき、長方形RCのエッジは、図9(c)に示すように、半径W/2の円と、半径√(W2 +L2 )/2の円とに挟まれた領域ARを形成する。この領域AR内に、直方体RPの中心軸はあるはずである。そこで、下の式(5)を満たす座標(Xc,Yc)と回転角θに対応する「マス」に投票を行う。
また、ステップS108などにおける信頼度の計算は、例えば次のように行う。上述した投票処理を利用して対象物の位置と姿勢を推定したとき、推定された位置・姿勢X1、X2を示す「マス」(これを「推定されたマス」と呼ぶ)への投票数を、信頼度の計算に利用する。例えば、もし、全ての特徴点が対象物上にあり、対応点検出が正確に行われているとき、「推定されたマス」には全ての特徴点について投票がなされているはずである。一方、鏡面反射やノイズなどに起因して対応点検出に失敗したときは、その特徴点については「推定されたマス」には投票されていないと考えられる。そこで、「推定されたマス」に対する投票数、すなわち、どれだけの特徴点について投票されているかを、その推定値に対する信頼度として用いることができる。
図10は本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図、図11は図10の画像処理部103Aにおける処理の流れの一例を示すフローチャートである。図10では図1と共通の構成要素には、図1と同一の符号を付している。画像処理部103Aは、合成画像生成部107を備えている。
X1=X2 & E1≦E2 …(3)
を満たしたときは(S210でYes)、対象物の位置姿勢はX2であると判断し(S211)、処理を終了する。一方、上式(3)を満たさないときは、位置姿勢推定は間違っていると判断し(S210でNo)、ステップS202に戻り、対象物の位置姿勢推定をやり直す。
上述した処理では、対象物に係る光学データとして、反射モデルパラメータ、カメラ情報および光源情報という3つのデータを利用するものとしたが、これら全てを用いる必要は必ずしもない。ここでは、光学データとして、反射モデルパラメータおよびカメラ情報を利用し、光源情報は利用しない例について、説明する。画像処理部103における処理の流れは、図6と同様である。
透明な物体の位置や姿勢を推定する場合、屈折率の違いによる画像データの違いが問題となる。図14(a),(b)は格子状の背景BGの前に、形状は同じだが屈折率が異なる透明物体301,302を置いたときの画像を示す図である。図14から分かるように、屈折率の違いによって、対象物の画像データは大きく異なる。
n=sinθ11/sinθ12 …(6)
すなわち、対象物が透明物体であるとき、屈折率に応じた視点位置依存度が生じる。本実施形態では、屈折率に基づく視点位置依存度を算出し、この視点位置依存度を考慮して、画像処理を行う。
P=1/n ただし、不透明物体の場合は1
102 光学データ取得部
103,103A 画像処理部
104 位置姿勢推定部
105 視点位置依存度算出部
106 繰り返し制御部
107 合成画像生成部
203,203L,203R 鏡面反射領域
207 マスク領域
Claims (12)
- 対象物が撮された画像データを、取得する第1のステップと、
前記画像データから、前記対象物の位置姿勢を、暫定的に推定する第2のステップと、
前記対象物に係る光学データを、取得する第3のステップと、
前記光学データ、および前記第2のステップにおいて暫定的に推定された位置姿勢を用いて、前記対象物の、画像データの色情報がカメラ位置によって変化する度合を示す視点位置依存度を算出する第4のステップと、
前記第4のステップにおいて算出した視点位置依存度を考慮して、前記画像データから、前記対象物の位置姿勢を、推定する第5のステップとを備えた
ことを特徴とする画像処理方法。 - 請求項1において、
前記第5のステップにおいて推定した位置姿勢の、信頼度を評価する第6のステップを備え、
前記第6のステップにおいて所定の評価が得られたとき、前記第5のステップにおいて推定した位置姿勢を、前記対象物の位置姿勢として判断する
ことを特徴とする画像処理方法。 - 請求項1において、
前記第4のステップは、前記視点位置依存度を、鏡面反射成分に基づき算出するものである
ことを特徴とする画像処理方法。 - 請求項3において、
前記第4のステップは、前記対象物の鏡面反射領域を推定するステップを含み、
前記第5のステップは、前記第4のステップにおいて推定された鏡面反射領域について、画像処理の対象から外す、または、画像処理における重み付けを相対的に小さくするステップを含む
ことを特徴とする画像処理方法。 - 請求項4において、
鏡面反射領域を推定する際に、前記光学データとして、カメラ情報、反射モデルパラメータ、および光源情報のうち少なくとも1つを用いる
ことを特徴とする画像処理方法。 - 請求項5において、
前記反射モデルパラメータとして、Torrance-Sparrowモデルなどの反射モデルを利用した光学特性パラメータを用いる
ことを特徴とする画像処理方法。 - 請求項5において、
前記反射モデルパラメータとして、前記対象物の鏡面反射可能領域を記述したパラメータを用いる
ことを特徴とする画像処理方法。 - 請求項1において、
前記第4のステップは、前記視点位置依存度を、屈折率に基づき算出するものである
ことを特徴とする画像処理方法。 - 請求項1において、
前記第3のステップは、前記光学データの取得を、前記対象物に付された無線タグを利用して行うものである
ことを特徴とする画像処理方法。 - 請求項1において、
前記第5のステップは、
算出された視点位置依存度に従って、前記画像データから、処理対象から外すマスク領域を含むマスク画像を生成し、このマスク画像を用いて、前記対象物の位置姿勢を推定するものである
ことを特徴とする画像処理方法。 - 対象物が撮された画像データを、取得する画像取得部と、
前記対象物に係る光学データを、取得する光学データ取得部と、
前記光学データ取得部によって取得された光学データを用いて、前記画像取得部によって取得された画像データを処理し、前記対象物の位置姿勢を推定する画像処理部とを備え、
前記画像処理部は、
前記画像データから、前記対象物の位置姿勢を、暫定的に推定する手段と、
暫定的に推定した位置姿勢、および前記光学データを用いて、当該対象物の、画像データの色情報がカメラ位置によって変化する度合を示す視点位置依存度を算出する手段と、
算出した視点位置依存度を考慮して、前記画像データから、前記対象物の位置姿勢を、推定する手段とを備えたものである
ことを特徴とする画像処理装置。 - コンピュータに、
対象物が撮された画像データから、前記対象物の位置姿勢を、暫定的に推定するステップと、
暫定的に推定された位置姿勢、および前記対象物に係る光学データを用いて、当該対象物の、画像データの色情報がカメラ位置によって変化する度合を示す視点位置依存度を算出するステップと、
算出した視点位置依存度を考慮して、前記画像データから、前記対象物の位置姿勢を、推定するステップとを
実行させるための画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004164445A JP4546155B2 (ja) | 2004-06-02 | 2004-06-02 | 画像処理方法、画像処理装置および画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004164445A JP4546155B2 (ja) | 2004-06-02 | 2004-06-02 | 画像処理方法、画像処理装置および画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005346348A JP2005346348A (ja) | 2005-12-15 |
JP4546155B2 true JP4546155B2 (ja) | 2010-09-15 |
Family
ID=35498672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004164445A Expired - Fee Related JP4546155B2 (ja) | 2004-06-02 | 2004-06-02 | 画像処理方法、画像処理装置および画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4546155B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101422035B (zh) | 2006-05-29 | 2012-02-29 | 松下电器产业株式会社 | 光源推定装置、光源推定系统与光源推定方法以及图像高分辨率化装置与图像高分辨率化方法 |
JP2012203559A (ja) * | 2011-03-24 | 2012-10-22 | Olympus Corp | 画像処理装置、画像処理プログラムおよび画像処理方法 |
JP7319527B2 (ja) * | 2019-05-22 | 2023-08-02 | ダイキン工業株式会社 | 画像処理システム |
JP7276992B2 (ja) * | 2021-08-06 | 2023-05-18 | 東芝エレベータ株式会社 | エレベータの利用者検知システム |
JP2023088061A (ja) * | 2021-12-14 | 2023-06-26 | 株式会社Jvcケンウッド | 三次元モデル生成装置、三次元モデル生成方法及び三次元モデル生成プログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08241413A (ja) * | 1995-03-07 | 1996-09-17 | Matsushita Electric Ind Co Ltd | 動領域検出装置 |
JP2548742B2 (ja) * | 1987-09-07 | 1996-10-30 | 株式会社日立製作所 | 3次元シーン表示装置 |
JP2961264B1 (ja) * | 1998-09-21 | 1999-10-12 | 工業技術院長 | 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2000076440A (ja) * | 1998-08-27 | 2000-03-14 | Toshiba Corp | パタン認識装置およびその方法 |
JP2000315257A (ja) * | 1999-04-30 | 2000-11-14 | Shiseido Co Ltd | 皮膚状態の三次元画像生成方法 |
JP2002024807A (ja) * | 2000-07-07 | 2002-01-25 | National Institute Of Advanced Industrial & Technology | 物体運動追跡手法及び記録媒体 |
JP2003091726A (ja) * | 2001-09-17 | 2003-03-28 | Nhk Engineering Services Inc | 反射パラメータ取得装置、反射成分分離装置、反射パラメータ取得用プログラム、及び反射成分分離用プログラム |
-
2004
- 2004-06-02 JP JP2004164445A patent/JP4546155B2/ja not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2548742B2 (ja) * | 1987-09-07 | 1996-10-30 | 株式会社日立製作所 | 3次元シーン表示装置 |
JPH08241413A (ja) * | 1995-03-07 | 1996-09-17 | Matsushita Electric Ind Co Ltd | 動領域検出装置 |
JP2000076440A (ja) * | 1998-08-27 | 2000-03-14 | Toshiba Corp | パタン認識装置およびその方法 |
JP2961264B1 (ja) * | 1998-09-21 | 1999-10-12 | 工業技術院長 | 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2000315257A (ja) * | 1999-04-30 | 2000-11-14 | Shiseido Co Ltd | 皮膚状態の三次元画像生成方法 |
JP2002024807A (ja) * | 2000-07-07 | 2002-01-25 | National Institute Of Advanced Industrial & Technology | 物体運動追跡手法及び記録媒体 |
JP2003091726A (ja) * | 2001-09-17 | 2003-03-28 | Nhk Engineering Services Inc | 反射パラメータ取得装置、反射成分分離装置、反射パラメータ取得用プログラム、及び反射成分分離用プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2005346348A (ja) | 2005-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018049998A1 (zh) | 交通标志牌信息获取方法及装置 | |
CN110825101B (zh) | 一种基于深度卷积神经网络的无人机自主降落方法 | |
US7471809B2 (en) | Method, apparatus, and program for processing stereo image | |
EP3168812B1 (en) | System and method for scoring clutter for use in 3d point cloud matching in a vision system | |
US10909395B2 (en) | Object detection apparatus | |
JP5872818B2 (ja) | 測位処理装置、測位処理方法、および画像処理装置 | |
CN109918977B (zh) | 确定空闲车位的方法、装置及设备 | |
CN109801333B (zh) | 体积测量方法、装置、系统及计算设备 | |
KR20160003776A (ko) | 자세 추정 방법 및 로봇 | |
US8155387B2 (en) | Method and system for position determination using image deformation | |
CN106908064B (zh) | 一种基于Kinect2传感器的室内夜间视觉导航方法 | |
CN108537214B (zh) | 一种室内语义地图的自动化构建方法 | |
CN112184765A (zh) | 一种基于视觉的水下航行器自主跟踪方法 | |
El Bouazzaoui et al. | Enhancing rgb-d slam performances considering sensor specifications for indoor localization | |
KR102490521B1 (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
JP4546155B2 (ja) | 画像処理方法、画像処理装置および画像処理プログラム | |
CN116559181B (zh) | 基于光度立体视觉的缺陷检测方法、系统、装置及介质 | |
CN108564626B (zh) | 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置 | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
CN116883981A (zh) | 一种车牌定位识别方法、系统、计算机设备及存储介质 | |
CN114608522B (zh) | 一种基于视觉的障碍物识别与测距方法 | |
Yoo et al. | Improved LiDAR-camera calibration using marker detection based on 3D plane extraction | |
CN111489384B (zh) | 基于互视角的遮挡评估方法及装置、设备、系统和介质 | |
JP2021043679A (ja) | イメージレジストレーション装置、画像生成システム、イメージレジストレーション方法及びイメージレジストレーションプログラム | |
CN117523428B (zh) | 基于飞行器平台的地面目标检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070320 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100608 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100701 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130709 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4546155 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |