JP2015049776A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2015049776A
JP2015049776A JP2013181938A JP2013181938A JP2015049776A JP 2015049776 A JP2015049776 A JP 2015049776A JP 2013181938 A JP2013181938 A JP 2013181938A JP 2013181938 A JP2013181938 A JP 2013181938A JP 2015049776 A JP2015049776 A JP 2015049776A
Authority
JP
Japan
Prior art keywords
edge
rectangular area
line segments
coordinate system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013181938A
Other languages
English (en)
Other versions
JP6054831B2 (ja
Inventor
裕明 矢口
Hiroaki Yaguchi
裕明 矢口
雅幸 稲葉
Masayuki Inaba
雅幸 稲葉
清宏 宗玄
Kiyohiro Sogen
清宏 宗玄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Toyota Motor Corp
Original Assignee
University of Tokyo NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Toyota Motor Corp filed Critical University of Tokyo NUC
Priority to JP2013181938A priority Critical patent/JP6054831B2/ja
Publication of JP2015049776A publication Critical patent/JP2015049776A/ja
Application granted granted Critical
Publication of JP6054831B2 publication Critical patent/JP6054831B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】精度良く矩形領域を検出することが可能な画像処理装置、画像処理方法及び画像処理プログラムを提供する。【解決手段】矩形領域検出装置100は、距離画像に含まれる3次元平面内のエッジを検出するエッジ検出部105と、検出したエッジ画素間を接続するエッジ断片群を検出するエッジ断片検出部106と、検出したエッジ断片群の座標系を3次元平面座標系に変換する座標系変換部107と、3次元平面座標系におけるエッジ断片群の分布に基づいて、3次元平面内の矩形領域を検出する矩形領域検出部113と、を備えるものである。【選択図】図9

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関し、特に、画像に含まれる所定領域を検出する画像処理装置、画像処理方法及び画像処理プログラムに関する。
対象空間を撮像した画像から所望の形状や物体等を検出する画像処理技術が知られている。例えば、特許文献1には、画像内の矩形領域を検出する技術が開示されている。特許文献1では、入力画像に含まれるエッジ画素を抽出し、エッジ画素に基づいて直線検出を行い、略直交する4本の直線から矩形領域を検出している。
特開2013−106160号公報
特許文献1は、画像から原稿を読み取るための技術であるため、撮像対象とカメラが略対面していることを想定し、略対面で撮像した2次元画像上で直線が略直交しているかを判定している。すなわち、図32に示すように、特許文献1では、原稿の紙面(平面)に対向する位置から撮像した画像900を取得し、画像900の2次元平面における水平方向及び垂直方向の直線を検出し、これらの直線から原稿を示す矩形領域901を検出する。
しかしながら、特許文献1では、撮像対象とカメラが対面していないような3次元環境については考慮されていない。例えば、図33の画像910に示すように、3次元環境における食器棚など矩形の平面(3次元平面)911を斜めから計測(撮像)した場合、遠近法により2次元画像(画像平面)としては、平面911における水平方向及び垂直方向の直線が90度を成さず、平面911の角911aが必ずしも直交しない(直角とならない)。このため、特許文献1などの従来技術を3次元環境へ適用し、矩形領域を検出することは困難である。すなわち、従来技術では、対象物とカメラとが対面していることが前提となっており、対面していない場合には、直線検出を行って検出された直線が他の直線と直交しないため、矩形領域を検出することが難しい。
また、特許文献1の実施例として直線検出に(標準的)ハフ変換を使用しているが、(標準的)ハフ変換では一般に直線として検出するか否かの閾値設定が難しい。例えば、図33のように、略同一方向を向く複数の小さな模様911bを含む画像910に対しハフ変換を用いて直線を検出すると、図34のように、矩形のエッジに対応した直線912に加えて、模様911bにも直線912aが検出されてしまう。このため、不要な直線により複数の矩形の“角”候補が検出される恐れがあり、結果として誤検出が多くなる。すなわち、従来技術では、対象物の模様等も直線検出により直線と抽出されてしまい、対象物の形状を正確に検出することができない場合がある。
したがって、従来技術では、検出対象と対面しない位置から画像を取得するような3次元環境において、正確に矩形領域を検出することができないという問題があった。
本発明に係る画像処理装置は、計測画像情報に含まれる3次元平面内の複数のエッジ画素を検出するエッジ画素検出部と、前記検出した複数のエッジ画素間を接続する複数のエッジ線分を検出するエッジ線分検出部と、前記検出した複数のエッジ線分の座標系を、前記3次元平面の法線方向から見た平面座標系に変換する座標系変換部と、前記平面座標系における複数のエッジ線分の分布に基づいて、前記3次元平面内の矩形領域を検出する矩形領域検出部と、を備えるものである。
本発明に係る画像処理方法は、計測画像情報に含まれる3次元平面内の複数のエッジ画素を検出し、前記検出した複数のエッジ画素間を接続する複数のエッジ線分を検出し、前記検出した複数のエッジ線分の座標系を、前記3次元平面の法線方向から見た平面座標系に変換し、前記平面座標系における複数のエッジ線分の分布に基づいて、前記3次元平面内の矩形領域を検出するものである。
本発明に係る画像処理プログラムは、計測画像情報に含まれる3次元平面内の複数のエッジ画素を検出し、前記検出した複数のエッジ画素間を接続する複数のエッジ線分を検出し、前記検出した複数のエッジ線分の座標系を、前記3次元平面の法線方向から見た平面座標系に変換し、前記平面座標系における複数のエッジ線分の分布に基づいて、前記3次元平面内の矩形領域を検出する、画像処理方法をコンピュータに実行させるためのものである。
本発明によれば、精度良く矩形領域を検出することが可能な画像処理装置、画像処理方法及び画像処理プログラムを提供することができる。
実施の形態に係る矩形領域検出方法の概要を示すフローチャートである。 実施の形態に係る矩形領域検出方法で処理する画像の一例を示す図である。 実施の形態に係る矩形領域検出方法で処理する画像の一例を示す図である。 実施の形態に係る矩形領域検出方法で処理する画像の一例を示す図である。 実施の形態に係る矩形領域検出方法で処理する画像の一例を示す図である。 実施の形態に係る矩形領域検出方法で処理する画像の一例を示す図である。 実施の形態に係る矩形領域検出方法で処理する画像の一例を示す図である。 実施の形態に係る矩形領域検出方法を説明するための説明図である。 実施の形態1に係る矩形領域検出装置の構成を示すブロック図である。 実施の形態1に係る矩形領域検出装置の動作を説明するための説明図である。 実施の形態1に係る矩形領域検出装置の動作を説明するための説明図である。 実施の形態1に係る矩形領域検出装置の動作を説明するための説明図である。 実施の形態1に係る矩形領域検出方法を示すフローチャートである。 実施の形態1に係る矩形領域検出方法で処理する画像の一例を示す図である。 実施の形態1に係る矩形領域検出方法を説明するための説明図である。 実施の形態1に係る矩形領域検出方法を説明するための説明図である。 実施の形態1に係る矩形領域検出方法を説明するための説明図である。 実施の形態1に係る矩形領域検出方法を説明するための説明図である。 実施の形態1に係る矩形領域検出方法を説明するための説明図である。 実施の形態1に係る矩形領域検出方法を説明するための説明図である。 実施の形態1に係る矩形領域検出方法を説明するための説明図である。 実施の形態1に係る矩形領域検出方法を説明するための説明図である。 実施の形態2に係る家具モデル処理システムの構成を示すブロック図である。 実施の形態2に係る家具モデル生成方法を示すフローチャートである。 実施の形態2に係る家具モデル生成方法を示すフローチャートである。 実施の形態2に係る家具モデル生成方法で処理する画像の一例を示す図である。 実施の形態2に係る家具モデル生成方法で使用するユーザインタフェースの一例を示す図である。 実施の形態2に係る家具モデル生成方法で使用するユーザインタフェースの一例を示す図である。 実施の形態2に係る家具モデル生成方法で使用するユーザインタフェースの一例を示す図である。 実施の形態2に係る家具モデル生成方法で使用するユーザインタフェースの一例を示す図である。 実施の形態2に係る家具モデル生成方法で使用するユーザインタフェースの一例を示す図である。 従来の矩形領域検出方法を示す図である。 従来の矩形領域検出方法を示す図である。 従来の矩形領域検出方法を示す図である。
(実施の形態の概要)
実施の形態の説明に先立って、実施の形態の特徴についてその概要を説明する。実施の形態では、環境を計測した距離画像センサの情報から環境内の矩形領域を検出する。図1は、実施の形態に係る矩形領域検出方法の概要を示している。この矩形領域検出方法は、後述するように矩形領域検出装置などにより実行される。
図1に示すように、まず、距離画像センサにより環境を計測した距離画像から3次元注目平面を検出する(S11)。例えば、矩形領域検出装置は、図2に示すような距離画像が入力されると、図3に示すような注目平面(図3の白地部分)を検出する。
続いて、S11で検出した3次元注目平面から、平面のマスク画像を生成し(S12)、生成したマスク画像に対しエッジ検出を行う(S13)。例えば、矩形領域検出装置は、図2の距離画像及び図3の3次元注目平面に基づいて、距離画像から平面画像を抽出したマスク画像を生成し、図4に示すようにマスク画像のエッジを検出したエッジ画像を検出する。
続いて、矩形領域検出装置は、S13で検出したエッジ画像に対し、確率的ハフ変換などの線分検出手段を用いてエッジ断片群(エッジ線分の集合)を検出する(S14)。例えば、矩形領域検出装置は、図4のエッジ画像に確率的ハフ変換を行い、図5に示すようなエッジ断片群を検出する。図8(a)は、2次元計測座標系(センサから見た座標系)のエッジ断片群を模式的に示している。
続いて、矩形領域検出装置は、S14で検出した2次元のエッジ断片群を3次元平面座標系(平面の法線方向から見た座標系)へ変換する(S15)。例えば、矩形領域検出装置は、図8(a)の2次元計測座標系のエッジ断片群を、図8(b)に示すような3次元平面座標系へ変換する。
続いて、矩形領域検出装置は、S15で変換した3次元平面座標系において、X,Y軸方向にエッジ存在位置ヒストグラムを作成し、平均シフト法などを使ってX,Y軸方向のエッジ存在ピーク位置を求める(S16)。例えば、矩形領域検出装置は、図8(b)の3次元平面座標系におけるエッジ断片群について、図8(c)に示すようなX,Y軸方向のエッジ断片の分布を示すエッジ存在位置ヒストグラムを生成し、このヒストグラムのピーク位置を求める。
続いて、矩形領域検出装置は、S16で求めたX,Y軸方向のエッジ存在ピーク位置を結ぶ最小線分(ピーク線分)を求める(S17)。例えば、矩形領域検出装置は、図8(c)のエッジ存在位置ヒストグラムのピーク位置を接続し、図8(d)や図6に示すような最小線分を生成する。
続いて、矩形領域検出装置は、S17で求めた最小線分上に、S14で検出したエッジ断片群が存在するか否かを照合することで、正しい矩形(長方形)領域を検出する(S18)。例えば、矩形領域検出装置は、図8(d)や図6の最小線分と図8(a)や図5のエッジ断片群を照合し、有効な最小線分に囲まれた領域を求めることで、図8(e)や図7に示すような矩形領域を検出する。
このように、実施の形態では、環境を計測した距離画像センサの情報から環境内の矩形領域を検出する方法において、2次元の画像から抽出したエッジ断片群を、3次元の平面座標系へ変換し、平面座標系で直交する2軸方向に対して、エッジ存在位置の分布を示すヒストグラムを作成することで、信頼性高く矩形領域を検出することができる。
(実施の形態1)
以下、図面を参照して実施の形態1について説明する。図9は、本実施の形態に係る画像処理システム(矩形領域検出システム)の構成を示している。
図9に示すように、本実施の形態に係る画像処理システム1は、矩形領域検出装置100と距離画像センサ200とを備えている。なお、矩形領域検出装置100と距離画像センサ200は、一体の装置であってもよいし、各々独立した装置であってもよい。例えば、矩形領域検出装置100と距離画像センサ200は、ロボットなどに備えられている。
距離画像センサ(距離画像計測部)200は、3次元環境を計測して得られる距離画像(距離画像データ、計測画像データ)を生成する。距離画像は、センサ(計測点)から計測対象を撮像した画像情報(入力画像)とセンサから計測対象までの距離情報とを含んでおり、例えば、1画素につき、“RGBD(カラー+距離)”または“グレースケール(輝度値)+距離“を含んでいる。距離画像センサ200は、ステレオカメラ(3次元カメラ)、LRF(レーザレンジファインダ)+カメラ、Microsoft Kinect(登録商標)などで構成される。
矩形領域検出装置100は、距離画像取得部101、平面検出部102、平面マスク画像生成部103、平面座標系計算部104、エッジ検出部105、エッジ断片検出部106、座標系変換部107、エッジ存在位置ヒストグラム生成部108、ヒストグラムピーク推定部109、線分生成部110、近傍エッジ断片抽出部111、エッジ照合部112、矩形領域検出部113を備えている。
なお、後述の本実施の形態に係る矩形領域検出方法が実現できれば、その他の機能ブロックで構成してもよい。図9の矩形領域検出装置100における各機能(各処理)は、ハードウェア又はソフトウェア、もしくはその両方によって構成され、1つのハードウェア又はソフトウェアから構成してもよいし、複数のハードウェア又はソフトウェアから構成してもよい。矩形領域検出装置100の各機能を、CPU(Central Processing Unit)やメモリ等を有するコンピュータにより実現してもよい。例えば、記憶装置に後述する矩形領域検出方法を行うための矩形領域検出プログラムを格納し、矩形領域検出装置100の各機能を、記憶装置に格納された矩形領域検出プログラムをCPUで実行することにより実現してもよい。
距離画像取得部101は、距離画像センサ200が環境を計測して生成した距離画像(距離画像データ)を取得する。平面検出部102は、距離画像取得部101が取得した距離画像に含まれる入力画像に対し、平面検出処理を行い、注目平面(3次元平面)を検出する。平面マスク画像生成部(抽出画像生成部)103は、平面検出部102が検出した注目平面の領域をマスクとして、入力画像から注目平面に対応するマスク画像(抽出画像)を抽出する。平面座標系計算部104は、平面検出部102が検出した注目平面について、平面を基準とした平面座標系を計算する。
エッジ検出部(エッジ画素検出部)105は、平面マスク画像生成部103が生成したマスク画像に対し、エッジ検出処理を行い、検出したエッジ画素を含むエッジ画像を生成する。エッジ断片検出部(エッジ線分検出部)106は、エッジ検出部105が検出したエッジ画像に対し、確率的ハフ変換処理を行い、エッジ画像に含まれるエッジ画素を接続するエッジ断片群(エッジ線分群)を検出する。
座標系変換部107は、エッジ断片検出部106が検出した2次元のエッジ断片群の座標系を、3次元の平面座標系に変換する。座標系変換部107は、2次元座標系を3次元座標系に変換し、また、3次元座標系を2次元座標系にも変換する。
座標系変換部107における3次元座標(X,Y,Z)から2次元座標(u,v)への変換処理は、例えば、ピンホールカメラモデルを使った透視投影変換により行われる。ピンホールカメラモデルでは、図10に示すように、カメラ座標系(センサ座標系)、グローバル座標系(ワールド座標系)、座標系間の位置・姿勢を行列で表現した同時変換行列を使用するカメラはセンサ(距離画像センサ)に相当し、カメラ座標系はカメラを基準とした座標系である。グローバル座標系は、3次元の基準となる座標であり、計測対象(例えば注目平面)を基準とした座標系である。次の式1に、同時変換行列を用いて3次元座標を2次元座標に変換する変換式を示す。カメラ外部パラメータ行列(同時変換行列)は、カメラ座標系から見たグローバル座標系の位置・姿勢を示している。
また、座標系変換部107における2次元座標から3次元座標への変換処理についても、ピンホールカメラモデルを用いて変換が行われる。図11に示すように、カメラから画像面までの焦点距離をf、カメラから物体(計測対象)までの距離をDとすると、カメラから見た2次元座標(u,v)は次の式2となる。
本実施の形態における距離画像センサでは画素と対象物体の距離Dが計測でき、1ピクセルの(u,v,D)の値が得られるため、3次元座標(X,Y,Z)の値を次の式3により計算できる。
エッジ存在位置ヒストグラム生成部(ヒストグラム生成部)108は、座標系変換部107が変換した3次元平面座標系において、エッジ断片群の分布を示すエッジ存在位置ヒストグラムを生成する。ヒストグラムピーク推定部(ピーク検出部)109は、エッジ存在位置ヒストグラム生成部108生成したエッジ存在位置ヒストグラムにおけるエッジが存在する位置のピークを推定する。線分生成部(ピーク線分生成部)110は、ヒストグラムピーク推定部109が推定したヒストグラムのピーク位置を結ぶ最小線分(ピーク線分)を生成する。
近傍エッジ断片抽出部(近傍エッジ線分抽出部)111は、エッジ断片検出部106が検出したエッジ断片群を参照し、線分生成部110が生成した最小線分近傍のエッジ断片群を抽出する。近傍エッジ断片抽出部111は、最小線分をエッジ断片群のエッジ画像へ投影した距離に基づいて、最小線分近傍のエッジ断片群を抽出する。最小線分(エッジ断片群)を画像へ投影した距離は、2次元画像または3次元画像における、点から線分(直線)までの距離として求めることができる。
2次元画像(2次元座標系)に投影する場合、点から直線の距離は、次の式4により求まる。式4では、点A(x,y)から、直線L(ax+by+c=0)に下ろした垂線の長さ(距離)dを示している。
点と線分の距離は、点から線分上に垂線を下ろせるかどうかで場合分けし、線分上に垂線が下ろせる場合は上記の式4で距離が計算でき、線分上に垂線が下ろせない場合は、線分の端点(始点または終点)と点との距離が線分と点との距離となる。近傍エッジ断片抽出部111は、この計算方法により、エッジ断片の中心位置と最小線分の距離を計算する。
3次元画像(3次元座標系)に投影する場合、図12に示すように、注目点Pから最小線分Eへ下ろした垂線はVP→Hと書くことができ、点と線分の距離|VP→H|は次の式5のように計算できる。
エッジ照合部112は、近傍エッジ断片抽出部111が抽出した近傍エッジ断片群と最小線分とを照合し、有効な最小線分かどうか(照合の成功/失敗を)判定する。エッジ照合部112は、3次元画像のエッジ断片群を最小線分へ射影した長さに基づいて、最小線分の有効性を判定し、無効な(照合が失敗した)最小線分は除去する。矩形領域検出部113は、エッジ照合部112が有効な最小線分であると判定した(照合が成功した)線分に囲まれた領域を矩形領域と判定する。
図13は、本実施の形態に係る画像処理システム(矩形領域検出装置)で実行される矩形領域検出方法(矩形領域検出処理)を示している。
図13に示すように、まず、距離画像センサ200は、3次元環境を計測する(S101)。距離画像センサ200は、3次元環境を計測することにより、図2のような入力画像と距離を含む距離画像を生成し、距離画像取得部101が、この距離画像を取得する。
続いて、平面検出部102は、S101で取得した距離画像に含まれる入力画像から注目平面を検出し、注目平面上の距離点群を特定する(S102)。例えば、平面検出部102は、図2のような入力画像に対して、RANSAC(RANdom SAmple Consensus)等の手法を用いて、図3のように、平面パラメータ(ax+by+cz+d=0のa,b,c,d)と平面上の距離点群(図3の白地部分)を特定する。RANSAC法では、任意の点から平面パラメータを求め、平面パラメータ上に多くの点が含まれるものが平面であると特定する。RANSACアルゴリズムを利用することで、ノイズの多い入力画像から精度良く平面を検出できる。
続いて、平面マスク画像生成部103は、S101で取得した入力画像から、S102で検出した注目平面領域の画像のみを抽出する(S103)。平面マスク画像生成部103は、図3のように検出した平面上に距離点群が存在する画素を“1”(図3の白地部分)、平面の距離点群が存在しない画素を“0”(図3の黒地部分)とすることで2値マスクを作成し、図2のような入力画像とこの2値マスクとのANDを取ることで(“1”の画素の色情報のみ残す)、図14のような平面マスク画像を生成する。
続いて、平面座標系計算部104は、S102で検出した注目平面の平面座標系を計算する(S104)。平面座標系計算部104は、S102で求めた平面パラメータをもとに、図15に示すような平面座標系を計算する。ここでは、一例として、平面の法線方向をZ軸、垂直方向(重力方向)をY軸、水平方向をX軸とする。これら3次元の座標軸について、X,Y,Zの順番は変えても良い。矩形領域を検出したい方向の(矩形の平面の)任意の2軸をX,Y軸としてよい。少なくとも平面の法線は、(3軸のうちの)1軸として選択される。例えば、図2のような入力画像から家具の扉や引き出し等の矩形領域を検出する場合、垂直方向(重力方向)をY軸とすることが好ましい。垂直面の矩形領域を検出することで、矩形領域を家具候補と仮定することができる。
続いて、エッジ検出部105は、S103で生成したマスク画像に対し、エッジ画像を検出する(S105)。エッジ検出部105は、任意のエッジフィルタを使うことができ、例えばCannyフィルタやラプラシアンフィルタを用いてエッジを検出し、図4のようなエッジ画像を生成する。Cannyフィルタでは、ガウス型の微分フィルタを用いることで、ノイズに強いエッジ画像を検出できる。図16はエッジ画像の拡大図である。図16のように、エッジ画像は、エッジを検出した画素(位置)をエッジ画素として示した(例えば白地)画像である。すなわち、エッジ画像では、各画素がエッジであるか否かを示している。
続いて、エッジ断片検出部106は、S105で生成したエッジ画像に対し、エッジ断片群を検出する(S106)。エッジ断片検出部106は、図4のようなエッジ画像に対し、確率的ハフ変換を使って、図5のようなエッジ断片群(エッジ線分の集合)を検出する。図17は、図16のエッジ画像(エッジ画素)に対するエッジ断片群である。図17のように、エッジ断片は、エッジ画素を接続する線分(エッジ線分)である。すなわち、エッジ断片は、第1のエッジ画素を始点とし、第2のエッジ画素を終点とした線分(直線)である。なお、エッジ画素を接続する線分は複数存在するためエッジ断片群と称するが、この線分の1つまたは複数をエッジ断片と称する場合もある。
ハフ変換には、標準的ハフ変換と確率的ハフ変換があり、本実施の形態では確率的ハフ変換を用いる。確率的ハフ変換では、ランダムに選択したエッジ画素を用いて、パラメータ平面に投票し、投票結果に基づいて画像上の特徴を検出する。確率的ハフ変換を用いることにより、エッジ画像の中からエッジ画素を端点に持つ線分を検出できる。このため、従来技術の図34のように、標準的ハフ変換を用いた場合と比べて、不要な直線の検出を防ぐことができる。なお、確率的ハフ変換に限らず、エッジ画素を接続する線分を検出するその他の線分検出方法を用いてもよい。
続いて、座標系変換部107は、S106で検出した(2次元の)エッジ断片群を(3次元の)平面座標系に変換する(S107)。座標系変換部107は、上記式1のようなピンホールカメラモデルを用いて、図8(a)のような、距離画像センサから見たエッジ断片の(2次元の)座標系(カメラ座標系)を、図8(b)のような、注目平面をZ方向(法線方向)から見た(3次元の)平面座標系(グローバル座標系)に変換する。
距離画像センサ200が計測した距離画像では1画素に距離情報も含まれているため、エッジ断片の「中心位置」、「エッジ始点」、「エッジ終点」の画素に対応する3次元位置について、上記式1を次の式6として、それぞれ座標変換を行う。
式6の同時変換行列は、平面座標系計算部104で計算される。なお、ここでは、エッジ断片の「中心位置」、「エッジ始点」、「エッジ終点」の3点の座標を変換するが、エッジ断片を3次元座標に変換するために、少なくとも「エッジ始点」、「エッジ終点」の2点の座標を変換してもよい。本実施の形態では、次のS108で、エッジ断片の中心位置を使用するため、この中心位置の座標についても3次元座標に変換する。
続いて、エッジ存在位置ヒストグラム生成部108は、S107で変換した平面座標系のエッジ断片群について、エッジの存在位置を示すエッジ存在位置ヒストグラムを生成する(S108)。エッジ存在位置ヒストグラム生成部108は、図8(b)のような平面座標系におけるエッジ断片群に対し、図8(c)のようなエッジ存在位置ヒストグラムを生成する。
ここでは、エッジ断片の中心位置を3DC=(x,y,z)、その始点と終点を結ぶベクトルを3DSとし、3次元の垂直軸(Y軸)の単位ベクトルと、水平軸(X軸)の単位ベクトルをそれぞれ、n、nとする。次の式7のように、エッジ断片の“始点と終点を結ぶベクトル”と、“X,Y軸方向単位ベクトル”との内積をw、wとする。
図18に示すように、内積w、wを、それぞれの位置x,yにおけるエッジ断片の重みとする。図18の例では、エッジ断片がX方向(水平方向)に向いて(傾いて)いるため、X方向の重みが大きくなる。図8(c)のように、内積w、wを重みとしたX方向、Y方向の分布を示すヒストグラムをエッジ存在位置ヒストグラムとする。すなわち、エッジ存在位置ヒストグラムは、X軸、Y軸に対するエッジ断片の傾きの分布(傾きに応じた重みの分布)を示している。
続いて、ヒストグラムピーク推定部109は、S108で生成したエッジ存在位置ヒストグラムにおけるエッジ存在位置のピーク位置を推定する(S109)。ヒストグラムピーク推定部109は、任意のピーク検出方法を使用する。例えば、ヒストグラムピーク推定部109は、図8(c)のようなエッジ存在位置ヒストグラムに対し、ピーク検出方法である平均シフト法を用いてX,Y軸方向のピーク位置の集合(P,P)を推定する。図8(c)のX方向、Y方向の分布の山部分(頂点部分)がピーク位置である。
続いて、線分生成部110は、S109で推定したエッジ存在位置ヒストグラムにおけるX,Y軸の各ピーク位置を結ぶ最小線分を生成する(S110)。線分生成部110は、図19に示すように、エッジ存在位置ヒストグラムにおけるX,Y軸の各ピーク位置から交点Iを求め、交点IをX,Y軸方向に接続する最小線分の集合(L、L)を計算する。
以下、S110で生成したL,L内の全ての最小線分について、順次選択し、S111〜S114の処理を繰り返す。まず、近傍エッジ断片抽出部111は、選択した最小線分近傍のエッジ断片群を抽出する(S111)。近傍エッジ断片抽出部111は、2次元画像または3次元画像上において、最小線分とエッジ断片との距離を求め、距離が閾値ピクセル以下に収まっているエッジ断片群Eを全て抽出する。
近傍エッジ断片抽出部111は、2次元画像上で距離を求める場合、最小線分(3次元)を2次元画像へ投影し、2次元画像上の最小線分からの距離が閾値ピクセル以下のエッジ断片を求める。具体的には、例えば、座標系変換部107により、上記式1を用いて、最小線分(始点と終点)の3次元座標を2次元座標へ変換する。次に、図20のように、最小線分と点(エッジ断片中心)の距離を、上記式4の計算方法で計算し、その距離が閾値(例えば8ピクセル)より小さければ、そのエッジ断片を「最小線分の近傍エッジ断片」として抽出する。
また、近傍エッジ断片抽出部111は、3次元画像上で距離を求める場合、エッジ断片群(2次元)を3次元画像へ投影し、3次元画像上の最小線分からの距離が閾値ピクセル以下のエッジ断片を求める。具体的には、例えば、座標系変換部107により、上記式3を用いて、エッジ断片群の2次元座標を3次元座標へ変換する。次に、図21のように、3次元へ変換したエッジ断片中心点と最小線分の距離を、上記式5の計算で求め、その距離が閾値(例えば0.02mm)より小さければ、そのエッジ断片を「最小線分の近傍エッジ断片」として抽出する。
続いて、エッジ照合部112は、S111で抽出したエッジ断片群と最小線分を照合する(S112)。エッジ照合部112は、2次元画像または3次元画像上において、最小線分またはエッジ断片を射影した長さが閾値以上の最小線分を有効と判定する。2次元画像または3次元画像上のいずれにおいて最小線分とエッジ断片を照合してもよいが、3次元的なエッジの傾きも評価するため、3次元画像上において照合することが好ましい。このため、3次元画像の場合について説明する。
なお、S111において2次元画像上で距離を求めた場合には、「最小線分の近傍エッジ断片」として抽出後、エッジ断片中心位置、エッジ断片始点・終点をそれぞれ、座標系変換部107により上記式3の計算を用いて、2次元座標を3次元座標へ座標変換し、変換した座標をエッジ照合部112へ入力する。また、S111において3次元画像上で距離を求めた場合には、抽出した「最小線分の近傍エッジ断片」は既に3次元座標のため、そのままの座標をエッジ照合部112へ入力する。
S112において、エッジ照合部112は、図22に示すように、3次元座標のエッジ断片を最小線分へ射影し、最小線分上のエッジ断片の“射影した長さ”を計算する。最小線分の長さに対し、射影した長さが一定閾値以上であれば、有効な最小線分(エッジが存在する線分)であると判定する。例えば、最小線分の長さを1とし、射影した長さ0.3を閾値とする。
続いて、エッジ照合部112は、S112の照合の結果、線分上にエッジ断片が無ければ、その最小線分を除去する(S113)。続いて、エッジ照合部112は、未照合の最小線分があるか否か判定し(S114)、未照合の最小線分がある場合、次の線分を選択してS111以降の処理を繰り返す。
続いて、全ての最小線分の照合が終了すると、矩形領域検出部113は、残った最小線分に基づいて、4つの最小線分に囲まれた領域を矩形領域として検出する(S115)。
以上のように、本実施の形態では、エッジ画像に基づいてエッジ断片群を検出し、エッジ断片群の分布を示すエッジ存在位置ヒストグラムを生成し、エッジ存在位置ヒストグラムのピークを結ぶ最小線分とエッジ断片群とを照合することで、3次元環境における矩形検出を可能とした。本実施の形態では、直交2軸のヒストグラムのピークを取ることで信頼性高く矩形を検出することができる。
すなわち、対象物を3次元座標件で表すことでエッジ断片を結ぶ線分同士が直交し合い、矩形領域が現れる。また、線分は、エッジ存在位置ヒストグラムのピーク位置を結んでいるため、対象物の模様等を直線として認識することはない。そのため、対象と対面しない位置から画像を取得するような3次元環境であっても、矩形領域を検出でき、また、模様等を直線と認識せずに正確に矩形領域を検出することができる。
(実施の形態2)
以下、図面を参照して実施の形態2について説明する。本実施の形態では、ロボットが家具を操作するために、実施の形態1により検出した矩形領域を家具候補として、家具候補の操作情報を設定可能とする。
図23は、本実施の形態に係る家具モデル処理システムの構成を示している。図23に示すように、本実施の形態に係る家具モデル処理システム2は、実施の形態1の矩形領域検出装置100、距離画像センサ200に加えて、家具モデル生成装置300を備えている。
家具モデル生成装置(3次元モデル生成想定)300は、HMI(Human Machine Interface)部301、操作情報付与部302、操作表示部303、モデル記憶部304を備えている。例えば、家具モデル生成装置300は、PC(パーソナルコンピュータ)、タブレットPC、スマートフォンなどで構成される。家具モデル生成装置300の各機能は、矩形領域検出装置100と同様に、ハードウェア又はソフトウェアによって構成され、各機能を、記憶装置に格納されたプログラムをコンピュータで実行することにより実現してもよい。家具モデル生成装置300は、1つまたは複数の装置で構成され、例えば、HMI部301、操作情報付与部302、操作表示部303をユーザが操作する端末装置に備え、モデル記憶部304をロボットに備えてもよい。
HMI部301は、タッチパネルやマウス等で構成されるユーザインタフェースである。HMI部301は、ユーザへ情報を表示(出力)するとともに、ユーザからの入力操作を受け付ける。
操作情報付与部(動作指定部)302は、HMI部301を介したユーザの操作指示に応じて、家具モデルに操作情報を付与する。操作表示部303は、操作情報付与部302が操作情報を付与した家具モデルを、HMI部301を介してユーザへ表示する。
モデル記憶部304は、メモリやハードディスク等で構成される記憶部であり、家具モデルを記憶する。モデル記憶部304は、操作情報付与部302が操作情報を付与し、操作表示部303が表示した家具モデルを記憶する。家具モデル(家具モデル情報)には、家具(物体)の3次元の位置及び形状、操作情報等が含まれる。
図24は、本実施の形態に係る家具モデル処理システム(家具モデル処理装置)で実行される家具モデル処理方法を示しており、図25は、図24の操作方法指示処理(S203)の詳細を示している。
図24に示すように、まず、矩形領域検出装置100は、実施の形態1と同様に矩形領域を特定する(S201)。ロボットに搭載された距離画像センサ200が、ロボット周辺の3次元環境を計測し、例えば図26のような距離画像を生成する。そして、矩形領域検出装置100が、この距離画像に含まれる矩形領域を検出する。
続いて、S201で検出した矩形領域を家具候補として、HMI部301へ提示する(S202)。3次元環境中において床面に垂直な矩形の平面は家具またはその一部を構成している可能性が高いため、検出した矩形領域を家具候補とする。例えば、矩形領域検出装置100もしくは家具モデル生成装置300は、複数の家具候補(家具テンプレート)を記憶しており、検出した矩形領域と一致する候補を家具候補として選択してもよい。
矩形領域検出装置100は、検出した矩形領域を家具候補として特定し、HMI部301は、図27のように、特定した家具候補400をユーザへ表示する。図26では、矩形領域401、402が、検出された矩形領域である。例えば、矩形領域401は回転扉の平面であり、矩形領域402は引き出しの平面である。ここでは、回転扉である矩形領域401の操作を指定する例について説明する。
続いて、S202で表示した家具(家具候補)の操作方法を、HMI部301を通してユーザが指示し、操作情報付与部302が操作情報を付与する(S203)。
S203の処理では、具体的に図28に示すように、ユーザがHMI部301を通して可動軸を選択する(S211)。例えば、図28のように、マウスクリックやタッチパネルに対しタッチ操作を行うことで、矩形領域401の端(辺)を選択し回転軸401aとして指示する。図28では、一例として、矩形領域401の上下左右4端(4辺)の内、右端(右辺)を選択することで、選択した端(辺)を回転軸401aとして、ヒンジ周りの回転動作することを指示する。
次に、ユーザがHMI部301を通してハンドル位置を指示する(S212)。例えば、図29のように、矩形領域401の左上部分をクリックやタッチ操作により選択することで、選択部分をハンドル位置401bとして指示する。なお、ユーザがハンドル位置401bを選択したときに、ハンドル位置401bにハンドルを表示してもよい。図29のように、回転軸401a及びハンドル位置401bを選択すると、矩形領域401の回転量を指示するための回転リング401cが表示される。
次に、ユーザがHMI部301を通して回転量を指示する(S213)。例えば、図30のように、表示された回転リング401cをドラッグ操作することで“矩形領域401の回転軸401a周りの回転量401d“を指示する(S213)。
図24のS203に続いて、操作量示部303は、S203における“ユーザの操作指示”によって矩形領域がどのように動くかを、HMI部301を介してユーザへ表示する(S204)。例えば、図31のように、ハンドル位置401bを操作すると回転軸401aを軸として、指定した回転量401dで矩形領域401の扉が開放状態となることを表示する。
続いて、ユーザが操作指示を最終確定すると、モデル記憶部304へ“矩形領域の位置・形状”、“ユーザの操作指示情報”を記憶する(S205)。S204で表示された動作を確認したことを示す操作をユーザが行うと、矩形領域401の位置及び形状と、回転軸401a、ハンドル位置401b、回転量401dを、家具モデル(3次元モデル)として記憶する。
その後、ロボットがこの家具モデル情報を使って家具の操作を行う。例えば、ロボットは、制御部や記憶部、アクチュエータ等を備えており、ロボットの記憶部に、生成された家具モデル情報を記憶する。制御部が家具モデル情報にしたがってアクチュエータ等の動作を制御する。例えば、ロボットは、家具モデル情報にしたがい、図31のようにハンドル位置401bのハンドルを操作し矩形領域401の回転扉の開閉を行う。
以上のように、本実施の形態では、入力画像から検出された矩形領域を家具候補とし、HMIを介して家具候補の操作を指示することにより、家具の推定や構造を含む家具モデルの構築を簡易に行うことができる。
近年、社会の高齢化が急速に進んでおり、介護者等を支援するための生活支援ロボットHSR(Human Support Robot)が注目されている。例えば、一般的なロボットにおいて、生活支援のために遠隔操縦で物体操作を行うと、ロボット頭部のカメラ画像だけからでは対象物までの距離、環境物とのスペースがわかりにくいという問題や、家具を認識するためにマーカーを付ける必要があるという問題、物体操作において、ロボットの手先を目標位置に合わせることが困難であるという問題が生じる。
そこで、このようなロボットに本実施の形態を適用することで、家具候補により、ロボット周辺の広範囲な環境情報をわかりやすく提示することができ、矩形検出を用いることにより、マーカーを付けることなく家具を認識することができ、操作情報を付与した家具モデル(インタラクティブ家具モデル)を用いることにより、ロボットが家具を正確に認識して操作することが可能となる。
特に、家具の構造をモデル化するためには人間が家具を動かしてみせたりロボットで実際に動かしたりする必要があるため、家具の構造を遠隔でロボットに教示することは非常に困難である。本実施の形態をロボットに適用することにより、未知の家庭環境における家具配置の推定と構造の教示が容易になり、遠隔操縦の大幅な省力化が可能となる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
1 画像処理システム
2 家具モデル処理システム
100 矩形領域検出装置
101 距離画像取得部
102 平面検出部
103 平面マスク画像生成部
104 平面座標系計算部
105 エッジ検出部
106 エッジ断片検出部
107 座標系変換部
108 エッジ存在位置ヒストグラム生成部
109 ヒストグラムピーク推定部
110 線分生成部
111 近傍エッジ断片抽出部
112 エッジ照合部
113 矩形領域検出部
200 距離画像センサ
300 家具モデル生成装置
301 HMI部
302 操作情報付与部
303 操作表示部
304 モデル記憶部

Claims (17)

  1. 計測画像情報に含まれる3次元平面内の複数のエッジ画素を検出するエッジ画素検出部と、
    前記検出した複数のエッジ画素間を接続する複数のエッジ線分を検出するエッジ線分検出部と、
    前記検出した複数のエッジ線分の座標系を、前記3次元平面の法線方向から見た平面座標系に変換する座標系変換部と、
    前記平面座標系における複数のエッジ線分の分布に基づいて、前記3次元平面内の矩形領域を検出する矩形領域検出部と、
    を備える画像処理装置。
  2. 前記計測画像情報には、計測点から前記3次元平面を撮像した画像情報と、前記計測点から前記3次元平面までの距離情報とが含まれる、
    請求項1に記載の画像処理装置。
  3. 前記計測画像情報に含まれる前記3次元平面を検出する平面検出部を備え、
    前記エッジ画素検出部は、前記検出した3次元平面に基づいて前記複数のエッジ画素を検出する、
    請求項1または2に記載の画像処理装置。
  4. 前記計測画像情報の中から、前記検出した3次元平面領域の画像を抽出した抽出画像を生成する抽出画像生成部を備え、
    前記エッジ画素検出部は、前記生成した抽出画像に対してエッジ検出処理を行い、前記複数のエッジ画素を検出する、
    請求項3に記載の画像処理装置。
  5. 前記エッジ線分検出部は、前記複数のエッジ画素に対して確率的ハフ変換を行い、前記複数のエッジ線分を検出する、
    請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 前記平面座標系における複数のエッジ線分の位置の分布を示すヒストグラムを生成するヒストグラム生成部を備え、
    前記矩形領域検出部は、前記生成されたヒストグラムに基づいて、前記矩形領域を検出する、
    請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記ヒストグラムは、前記平面座標系の軸方向に対する前記複数のエッジ線分の傾きを重みとする分布である、
    請求項6に記載の画像処理装置。
  8. 前記ヒストグラムの重みは、前記複数のエッジ線分と前記平面座標系の軸方向の単位ベクトルとの内積である、
    請求項7に記載の画像処理装置。
  9. 前記ヒストグラムの複数のピーク位置を検出するピーク検出部と、
    前記検出した複数のピーク位置間を、前記平面座標系の軸方向へ接続する複数のピーク線分を生成するピーク線分生成部と、を備え、
    前記矩形領域検出部は、前記生成された複数のピーク線分に基づいて、前記矩形領域を検出する、
    請求項6乃至8のいずれか一項に記載の画像処理装置。
  10. 前記矩形領域検出部は、前記生成された複数のピーク線分のうち、前記複数のエッジ線分に対応するピーク線分に基づいて、前記矩形領域を検出する、
    請求項9に記載の画像処理装置。
  11. 前記生成された複数のピーク線分と前記複数のエッジ線分とを照合するエッジ照合部と、
    前記矩形領域検出部は、前記照合が成功した前記ピーク線分に基づいて、前記矩形領域を検出する、
    請求項9または10に記載の画像処理装置。
  12. 前記複数のエッジ線分から、前記生成された複数のピーク線分近傍のエッジ線分を抽出する近傍エッジ線分抽出部を備え、
    前記エッジ照合部は、前記複数のピーク線分と前記抽出されたエッジ線分とを照合する、
    請求項11に記載の画像処理装置。
  13. 前記検出された矩形領域の一辺を回転軸として回転可能な3次元モデルを生成する3次元モデル生成部を備える、
    請求項1乃至12のいずれか一項に記載の画像処理装置。
  14. ユーザの入力操作に応じて、前記矩形領域に対して前記回転軸と回転動作を指定する動作指定部を備える、
    請求項13に記載の画像処理装置。
  15. 前記3次元モデル生成部は、前記検出された矩形領域を家具候補として認識し、前記3次元モデルとして家具モデルを生成する、
    請求項13または14に記載の画像処理装置。
  16. 計測画像情報に含まれる3次元平面内の複数のエッジ画素を検出し、
    前記検出した複数のエッジ画素間を接続する複数のエッジ線分を検出し、
    前記検出した複数のエッジ線分の座標系を、前記3次元平面の法線方向から見た平面座標系に変換し、
    前記平面座標系における複数のエッジ線分の分布に基づいて、前記3次元平面内の矩形領域を検出する、
    画像処理方法。
  17. 計測画像情報に含まれる3次元平面内の複数のエッジ画素を検出し、
    前記検出した複数のエッジ画素間を接続する複数のエッジ線分を検出し、
    前記検出した複数のエッジ線分の座標系を、前記3次元平面の法線方向から見た平面座標系に変換し、
    前記平面座標系における複数のエッジ線分の分布に基づいて、前記3次元平面内の矩形領域を検出する、
    画像処理方法をコンピュータに実行させるための画像処理プログラム。
JP2013181938A 2013-09-03 2013-09-03 画像処理装置、画像処理方法及び画像処理プログラム Active JP6054831B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013181938A JP6054831B2 (ja) 2013-09-03 2013-09-03 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013181938A JP6054831B2 (ja) 2013-09-03 2013-09-03 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015049776A true JP2015049776A (ja) 2015-03-16
JP6054831B2 JP6054831B2 (ja) 2016-12-27

Family

ID=52699718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013181938A Active JP6054831B2 (ja) 2013-09-03 2013-09-03 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6054831B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017087317A (ja) * 2015-11-04 2017-05-25 トヨタ自動車株式会社 操作対象物の状態推定装置
JP2018041142A (ja) * 2016-09-05 2018-03-15 国立大学法人 東京大学 矩形領域検出方法、矩形領域検出装置及びプログラム
JP2019016066A (ja) * 2017-07-04 2019-01-31 Necソリューションイノベータ株式会社 地物形状抽出装置、地物形状抽出方法、及びプログラム
US10672142B2 (en) 2017-12-25 2020-06-02 Fujitsu Limited Object recognition apparatus, method for recognizing object, and non-transitory computer-readable storage medium for storing program
WO2021192782A1 (ja) * 2020-03-24 2021-09-30 パナソニックIpマネジメント株式会社 寸法計測方法及び寸法計測装置
WO2022227939A1 (zh) * 2021-04-26 2022-11-03 深圳市优必选科技股份有限公司 地面障碍物检测方法以及使用该方法的移动机器
CN117053687A (zh) * 2023-08-17 2023-11-14 广州市西克传感器有限公司 一种基于激光线扫3d相机的电芯高度段差检测方法
JP7449506B2 (ja) 2020-08-06 2024-03-14 株式会社イクシス 計測システム
JP7452797B2 (ja) 2020-08-06 2024-03-19 株式会社イクシス 計測システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124670A (ja) * 1996-10-18 1998-05-15 Nippon Telegr & Teleph Corp <Ntt> 図面認識方法
JP2007058634A (ja) * 2005-08-25 2007-03-08 Ricoh Co Ltd 画像処理方法及び装置、デジタルカメラ装置、並びに画像処理プログラムを記録した記録媒体
JP2008090590A (ja) * 2006-10-02 2008-04-17 Dainippon Printing Co Ltd 正則画像への画像変換方法および装置
JP2011523742A (ja) * 2008-05-20 2011-08-18 本田技研工業株式会社 Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124670A (ja) * 1996-10-18 1998-05-15 Nippon Telegr & Teleph Corp <Ntt> 図面認識方法
JP2007058634A (ja) * 2005-08-25 2007-03-08 Ricoh Co Ltd 画像処理方法及び装置、デジタルカメラ装置、並びに画像処理プログラムを記録した記録媒体
JP2008090590A (ja) * 2006-10-02 2008-04-17 Dainippon Printing Co Ltd 正則画像への画像変換方法および装置
JP2011523742A (ja) * 2008-05-20 2011-08-18 本田技研工業株式会社 Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016042781; 東 馳、外3名: '"対話画面インタフェースでのマルチタッチジェスチャ指示と操作候補提示に基づくロボット遠隔操作システム' 日本ロボット学会誌 Vol.31, No.4, 20130515, pp.91-97, 一般社団法人日本ロボット学会 *
JPN6016042783; 松井 裕司、徐 剛: '"実画像を用いた3次元物体への正面テクスチャマップの作成"' 情報処理学会研究報告 Vol.99, No.3, 19990122, pp.25-32, 社団法人情報処理学会 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017087317A (ja) * 2015-11-04 2017-05-25 トヨタ自動車株式会社 操作対象物の状態推定装置
JP2018041142A (ja) * 2016-09-05 2018-03-15 国立大学法人 東京大学 矩形領域検出方法、矩形領域検出装置及びプログラム
JP2019016066A (ja) * 2017-07-04 2019-01-31 Necソリューションイノベータ株式会社 地物形状抽出装置、地物形状抽出方法、及びプログラム
US10672142B2 (en) 2017-12-25 2020-06-02 Fujitsu Limited Object recognition apparatus, method for recognizing object, and non-transitory computer-readable storage medium for storing program
WO2021192782A1 (ja) * 2020-03-24 2021-09-30 パナソニックIpマネジメント株式会社 寸法計測方法及び寸法計測装置
JP7449506B2 (ja) 2020-08-06 2024-03-14 株式会社イクシス 計測システム
JP7452797B2 (ja) 2020-08-06 2024-03-19 株式会社イクシス 計測システム
WO2022227939A1 (zh) * 2021-04-26 2022-11-03 深圳市优必选科技股份有限公司 地面障碍物检测方法以及使用该方法的移动机器
CN117053687A (zh) * 2023-08-17 2023-11-14 广州市西克传感器有限公司 一种基于激光线扫3d相机的电芯高度段差检测方法
CN117053687B (zh) * 2023-08-17 2024-06-07 广东西克智能科技有限公司 一种基于激光线扫3d相机的电芯高度段差检测方法

Also Published As

Publication number Publication date
JP6054831B2 (ja) 2016-12-27

Similar Documents

Publication Publication Date Title
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US10762386B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
CN108875133B (zh) 确定建筑布局
US10456918B2 (en) Information processing apparatus, information processing method, and program
US10469829B2 (en) Information processor and information processing method
KR101410273B1 (ko) 증강현실 응용을 위한 환경 모델링 방법 및 장치
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
EP2774379A1 (en) Surface segmentation from rgb and depth images
JP2011095797A (ja) 画像処理装置、画像処理方法及びプログラム
JP2012526335A (ja) 物体認識方法、物体認識装置、自律移動ロボット
CN112150551A (zh) 物体位姿的获取方法、装置和电子设备
JP2014235634A (ja) 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
TW201616451A (zh) 點雲套索選取系統及方法
JP6185385B2 (ja) 空間構造推定装置、空間構造推定方法及び空間構造推定プログラム
KR101330531B1 (ko) 3차원 카메라를 이용한 가상 터치 방법 및 장치
JP2022517050A (ja) 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラム
JP2015184054A (ja) 同定装置、方法及びプログラム
US20180114339A1 (en) Information processing device and method, and program
JP6237122B2 (ja) ロボット、画像処理方法及びロボットシステム
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP2015132544A (ja) 画像処理装置および3次元空間情報取得方法
JP7161857B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20210023663A (ko) 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム
CN113297952B (zh) 一种复杂环境下绳驱柔性机器人的测量方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161201

R150 Certificate of patent or registration of utility model

Ref document number: 6054831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250