JP2019015553A - 情報処理装置、情報処理方法および個体撮像装置 - Google Patents
情報処理装置、情報処理方法および個体撮像装置 Download PDFInfo
- Publication number
- JP2019015553A JP2019015553A JP2017131634A JP2017131634A JP2019015553A JP 2019015553 A JP2019015553 A JP 2019015553A JP 2017131634 A JP2017131634 A JP 2017131634A JP 2017131634 A JP2017131634 A JP 2017131634A JP 2019015553 A JP2019015553 A JP 2019015553A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- size
- unit
- information processing
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/03—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/022—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】必要な画像のフレーム数を低減しつつ、撮像範囲および投光に課される制約を緩和して、被写体の形状の限定なく被写体のサイズを自動的に測定することが可能な技術が提供されることが望まれる。
【解決手段】奥行き情報を取得する奥行き情報取得部と、前記奥行き情報を3次元データに変換するデータ変換部と、前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、情報処理装置が提供される。
【選択図】図2
【解決手段】奥行き情報を取得する奥行き情報取得部と、前記奥行き情報を3次元データに変換するデータ変換部と、前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、情報処理装置が提供される。
【選択図】図2
Description
本開示は、情報処理装置、情報処理方法および個体撮像装置に関する。
近年、被写体のサイズを測定する技術が存在する。例えば、直方体形状の被写体がカメラによって撮像されて画面に表示され、ユーザによって、直方体形状の被写体の3辺が集まる頂点と、当該頂点に集まる3辺それぞれの両端のうち、当該頂点とは反対側の各他端との合計4点の位置が画面上において指定されると、この指定位置に基づいて被写体のサイズを測定する技術が開示されている(例えば、特許文献1参照。)。
また、直方体形状の被写体の3辺が集まる頂点付近に幾何学的形状の光パターンを投光する投光部と、被写体によって反射された光パターンを撮像する2つのカメラと、2つのカメラそれぞれによって撮像された画像から得られる視差情報に基づいて、被写体のサイズを測定する測定部とを有するサイズ測定装置に関する技術が開示されている(例えば、特許文献2参照。)。かかるサイズ測定装置は、幾何学的形状の光パターンを投光する投光部および2つのカメラを有するアクティブステレオカメラを前提として有している。
さらに、周期的に距離画像を取得する画像取得部と、複数フレームの距離画像に基づいて距離画像ごとに形状データを生成する形状データ生成部と、複数フレームの距離画像に基づいて、距離画像ごとに位置および角度を推定する推定部と、形状データと位置および角度とに基づいて、被写体を検出する検出部と、検出された被写体のサイズを測定する測定部とを有する測定装置に関する技術が開示されている(例えば、特許文献3参照。)。
しかし、被写体のサイズを測定するために、ユーザによる位置指定が必要である場合、位置指定のための手間がユーザに掛かってしまい、被写体の形状も直方体形状に限定されてしまう。また、直方体形状の被写体の3辺が集まる頂点付近に幾何学的形状の光パターンを投光する必要がある場合、撮像範囲および投光に制約が課されてしまう。さらに、距離画像を複数フレーム撮像する必要がある場合、距離画像を複数フレーム撮像するための時間を要してしまう。
そこで、必要な画像のフレーム数を低減しつつ、撮像範囲および投光に課される制約を緩和して、被写体の形状の限定なく被写体のサイズを自動的に測定することが可能な技術が提供されることが望まれる。
本開示によれば、奥行き情報を取得する奥行き情報取得部と、前記奥行き情報を3次元データに変換するデータ変換部と、前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、情報処理装置が提供される。
本開示によれば、奥行き情報を取得することと、前記奥行き情報を3次元データに変換することと、前記3次元データに基づいて被写体が存在する被写体領域を抽出することと、前記被写体領域に基づいて前記被写体のサイズを測定することと、を含み、プロセッサにより、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定することを含む、情報処理方法が提供される。
本開示によれば、奥行き情報を取得する奥行き情報取得部と、前記奥行き情報を3次元データに変換するデータ変換部と、前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、個体撮像装置が提供される。
以上説明したように本開示によれば、必要な画像のフレーム数を低減しつつ、撮像範囲および投光に課される制約を緩和して、被写体の形状の限定なく被写体のサイズを自動的に測定することが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
0.概要
1.第1の実施形態
1.1.情報処理装置の機能構成例
1.2.情報処理装置の機能詳細
1.2.1.撮像方向の例
1.2.2.3次元データの取得
1.2.3.重力方向の算出
1.2.4.被写体の抽出
1.2.5.基準平面の算出
1.2.6.サイズの測定
1.2.7.サイズに基づく表示
1.2.8.センサの構成例
1.2.9.被写体が複数の場合
1.2.10.動作例
1.2.11.奥行き情報を複数回得る場合
1.2.12.奥行き情報を複数回得る場合の動作例
1.2.13.第1の実施形態のまとめ
2.第2の実施形態
2.1.情報処理装置の機能構成例
2.2.情報処理装置の機能詳細
2.2.1.被写体の自動的な選択
2.2.2.ユーザ操作に基づく被写体の選択
2.2.3.被写体を選択する場合の動作例
2.2.4.第2の実施形態のまとめ
3.ハードウェア構成例
4.むすび
0.概要
1.第1の実施形態
1.1.情報処理装置の機能構成例
1.2.情報処理装置の機能詳細
1.2.1.撮像方向の例
1.2.2.3次元データの取得
1.2.3.重力方向の算出
1.2.4.被写体の抽出
1.2.5.基準平面の算出
1.2.6.サイズの測定
1.2.7.サイズに基づく表示
1.2.8.センサの構成例
1.2.9.被写体が複数の場合
1.2.10.動作例
1.2.11.奥行き情報を複数回得る場合
1.2.12.奥行き情報を複数回得る場合の動作例
1.2.13.第1の実施形態のまとめ
2.第2の実施形態
2.1.情報処理装置の機能構成例
2.2.情報処理装置の機能詳細
2.2.1.被写体の自動的な選択
2.2.2.ユーザ操作に基づく被写体の選択
2.2.3.被写体を選択する場合の動作例
2.2.4.第2の実施形態のまとめ
3.ハードウェア構成例
4.むすび
<0.概要>
近年、被写体のサイズを測定する技術が存在する。例えば、直方体形状の被写体がカメラによって撮像されて画面に表示され、ユーザによって、直方体形状の被写体の3辺が集まる頂点と、当該頂点に集まる3辺それぞれの両端のうち、当該頂点とは反対側の各他端との合計4点の位置が画面上において指定されると、この指定位置に基づいて被写体のサイズを測定する技術が開示されている。
近年、被写体のサイズを測定する技術が存在する。例えば、直方体形状の被写体がカメラによって撮像されて画面に表示され、ユーザによって、直方体形状の被写体の3辺が集まる頂点と、当該頂点に集まる3辺それぞれの両端のうち、当該頂点とは反対側の各他端との合計4点の位置が画面上において指定されると、この指定位置に基づいて被写体のサイズを測定する技術が開示されている。
しかし、被写体のサイズを測定するために、ユーザによる位置指定が必要である場合、位置指定のための手間がユーザに掛かってしまい、被写体の形状も直方体形状に限定されてしまう。
また、直方体形状の被写体の3辺が集まる頂点付近に幾何学的形状の光パターンを投光する投光部と、被写体によって反射された光パターンを撮像する2つのカメラと、2つのカメラそれぞれによって撮像された画像から得られる視差情報に基づいて、被写体のサイズを測定する測定部とを有するサイズ測定装置に関する技術が開示されている。かかるサイズ測定装置は、幾何学的形状の光パターンを投光する投光部および2つのカメラを有するアクティブステレオカメラを前提として有している。
しかし、被写体のサイズを測定するために、直方体形状の被写体の3辺が集まる頂点付近に幾何学的形状の光パターンを投光する必要がある場合、撮像範囲および投光に制約が課されてしまう。
さらに、周期的に距離画像を取得する画像取得部と、複数フレームの距離画像に基づいて距離画像ごとに形状データを生成する形状データ生成部と、複数フレームの距離画像に基づいて、距離画像ごとに位置および角度を推定する推定部と、形状データと位置および角度とに基づいて、被写体を検出する検出部と、検出された被写体のサイズを測定する測定部とを有する測定装置に関する技術が開示されている。
しかし、被写体のサイズを測定するために、距離画像を複数フレーム撮像する必要がある場合、距離画像を複数フレーム撮像するための時間を要してしまう。
図1は、本開示の実施形態に係る情報処理装置が利用される様子を示す図である。図1に示すように、平面40には被写体30が載置されている。ただし、被写体30は、平面40の上とは異なる場所に存在していてもよい。また、ユーザは、情報処理装置10を保持している。情報処理装置10には図示しないカメラが設けられており、かかるカメラを被写体30に向けると、カメラによって撮像された被写体30が情報処理装置10の表示部160によって表示され、被写体30のサイズが測定される。
本開示の実施形態に係る情報処理装置10によれば、必要な画像のフレーム数を低減しつつ、撮像範囲および投光に課される制約を緩和して、被写体の形状の限定なく自動的に被写体30のサイズを測定することが可能である。以下では、かかる情報処理装置10の詳細について説明する。
以上、本開示の一実施形態の概要について説明した。
<1.第1の実施形態>
続いて、本開示の第1の実施形態について説明する。
続いて、本開示の第1の実施形態について説明する。
[1.1.情報処理装置の機能構成例]
続いて、本開示の第1の実施形態に係る情報処理装置の機能構成例について説明する。図2は、本開示の第1の実施形態に係る情報処理装置の機能構成例を示すブロック図である。図2に示したように、本開示の第1の実施形態に係る情報処理装置10Aは、制御部110、奥行き情報検出部121、加速度検出部122、操作部130、通信部140、記憶部150、および、表示部160を備える。
続いて、本開示の第1の実施形態に係る情報処理装置の機能構成例について説明する。図2は、本開示の第1の実施形態に係る情報処理装置の機能構成例を示すブロック図である。図2に示したように、本開示の第1の実施形態に係る情報処理装置10Aは、制御部110、奥行き情報検出部121、加速度検出部122、操作部130、通信部140、記憶部150、および、表示部160を備える。
本開示の第1の実施形態において、制御部110は、奥行き情報取得部111、データ変換部112、基準平面算出部113、被写体抽出部114、サイズ測定部115、表示制御部116、加速度取得部117および重力方向算出部118を有する。以下、情報処理装置10Aが備えるこれらの機能ブロックについて説明する。
なお、本開示の実施形態に係る情報処理装置10Aは、各種の電子機器に適用され得る。例えば、情報処理装置10Aが適用される電子機器は、スマートフォンであってもよいし、携帯電話であってもよいし、タブレット端末であってもよいし、ヘッドマウントディスプレイであってもよい。あるいは、情報処理装置10Aが適用される電子機器は、撮像装置(例えば、個体撮像装置)であってもよい。撮像装置は、デジタルカメラ、車両に搭載される車載カメラなどであってよい。
制御部110は、例えば、1または複数のCPU(Central Processing Unit;中央演算処理装置)などといった処理装置によって構成されてよい。これらのブロックがCPUなどといった処理装置によって構成される場合、かかる処理装置は電子回路によって構成されてよい。これらのブロックについては、後に詳細に説明する。
奥行き情報検出部121は、奥行き情報を検出するセンサによって構成される。本開示の第1の実施形態においては、奥行き情報検出部121が、TOF(Time Of Flight)センサによって構成される場合を主に想定する。奥行き情報検出部121がTOFセンサによって構成される場合には、幾つかのメリットが享受される。
例えば、被写体のサイズ測定は光量が不十分な環境(例えば、室内などの暗い環境)において行われる可能性もあり、模様がない被写体(例えば、段ボールなど)に対してサイズ測定が行われる可能性もある。そのため、被写体のサイズ測定に利用される奥行き情報を高精度に得ることは有用である。TOFセンサによれば、アクティブ方式によって(光の照射によって)光量が不十分な環境においても被写体の奥行き情報を高精度に得ることが可能である。また、TOFセンサによれば、模様がない被写体の奥行き情報も高精度に得ることが可能である。
しかし、奥行き情報検出部121は、TOFセンサ以外のセンサによって構成されてもよい。例えば、奥行き情報検出部121は、Structured Light法による距離画像センサによって構成されてもよいし、ステレオカメラによって構成されてもよい。
加速度検出部122は、加速度センサによって構成される。例えば、加速度検出部122によって検出された加速度は、制御部110に提供され、制御部110による重力方向の算出に用いられる。なお、制御部110によって重力方向が利用されない場合などには、情報処理装置10Aは、加速度検出部122を有していなくてもよい。
操作部130は、ユーザによる操作の入力を受け付ける機能を有する。本開示の第1の実施形態においては、操作部130が、タッチパネルおよびボタンを含む場合を主に想定する。しかし、操作部130は、マウス、キーボード、スイッチおよびレバーなどを含んでもよい。また、操作部130は、ユーザの音声を検出するマイクロフォンを含んでもよい。
通信部140は、通信回路を含んで構成され、通信ネットワークを介して通信ネットワークに接続された他の装置からのデータの取得および当該他の装置へのデータの提供を行う機能を有する。例えば、通信部140は、通信インターフェースにより構成される。
記憶部150は、メモリを含んで構成され、制御部110によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録媒体である。また、記憶部150は、制御部110による演算のためにデータを一時的に記憶する。例えば、記憶部150は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または、光磁気記憶デバイスにより構成される。
表示部160は、各種の情報を出力する。例えば、表示部160は、ユーザに視認可能な表示を行うことが可能なディスプレイを含んでよい。このとき、ディスプレイは、液晶ディスプレイであってもよいし、有機EL(Electro−Luminescence)ディスプレイであってもよい。なお、情報表示の必要がない場合などには、情報処理装置10Aは、表示部160を有していなくてもよい。
なお、本開示の第1の実施形態においては、奥行き情報検出部121、加速度検出部122、操作部130、通信部140、記憶部150および表示部160が情報処理装置10Aの内部に存在する場合を主に想定する。しかし、奥行き情報検出部121、加速度検出部122、操作部130、通信部140、記憶部150および表示部160の少なくともいずれか一つは、情報処理装置10Aの外部に存在していてもよい。
以上、本開示の第1の実施形態に係る情報処理装置10Aの機能構成例について説明した。
[1.2.情報処理装置の機能詳細]
続いて、本開示の第1の実施形態に係る情報処理装置10Aの機能詳細について説明する。まず、ユーザは、奥行き情報検出部121によって被写体30が撮像されるように、情報処理装置10の位置および姿勢を調整する。
続いて、本開示の第1の実施形態に係る情報処理装置10Aの機能詳細について説明する。まず、ユーザは、奥行き情報検出部121によって被写体30が撮像されるように、情報処理装置10の位置および姿勢を調整する。
(1.2.1.撮像方向の例)
図3は、奥行き情報検出部121の撮像方向の例について説明するための第1の図である。図3を参照すると、平面40の上に被写体30が載置されている。ここで、奥行き情報検出部121は、少なくとも被写体30の上面を検出可能な位置に配置されるのがよい。被写体30の上面が検出されれば、被写体30の上面の形状および位置に基づいて、被写体領域に外接する6平面を容易に検出することが可能となる。
図3は、奥行き情報検出部121の撮像方向の例について説明するための第1の図である。図3を参照すると、平面40の上に被写体30が載置されている。ここで、奥行き情報検出部121は、少なくとも被写体30の上面を検出可能な位置に配置されるのがよい。被写体30の上面が検出されれば、被写体30の上面の形状および位置に基づいて、被写体領域に外接する6平面を容易に検出することが可能となる。
図3を参照すると、被写体30の上面を検出可能な位置に配置された奥行き情報検出部121の例として、奥行き情報検出部121−1および奥行き情報検出部121−2が示されている。また、被写体30の上面を検出可能な位置は、撮像方向と平面40の法線方向とのなす角度が90度よりも大きい位置に相当し得る。あるいは、被写体30の上面を検出可能な位置は、撮像方向と重力方向とのなす角度が90度よりも小さい位置に相当し得る。
図4は、奥行き情報検出部121の撮像方向の例について説明するための第2の図である。図4を参照すると、被写体30が載置されている平面40の法線方向51が示されている。このとき、奥行き情報検出部121は、撮像方向と平面40の法線方向51とのなす角度が90度よりも大きくなるように配置されるとよい。そうすれば、奥行き情報検出部121によって、少なくとも被写体30の上面が検出され得る。図4を参照すると、撮像方向と平面40の法線方向51とのなす角度が90度よりも大きくなるように配置された奥行き情報検出部121の例として、奥行き情報検出部121−1および奥行き情報検出部121−2が示されている。
図5は、奥行き情報検出部121の撮像方向の例について説明するための第3の図である。図5を参照すると、重力方向52が示されている。このとき、奥行き情報検出部121は、撮像方向と重力方向52とのなす角度が90度よりも小さくなるように配置されるとよい。そうすれば、奥行き情報検出部121によって、少なくとも被写体30の上面が検出され得る。図5を参照すると、撮像方向と重力方向52とのなす角度が90度よりも小さくなるように配置された奥行き情報検出部121の例として、奥行き情報検出部121−1および奥行き情報検出部121−2が示されている。
(1.2.2.3次元データの取得)
図2に戻って説明を続ける。奥行き情報取得部111は、奥行き情報検出部121によって検出された奥行き情報を取得する。データ変換部112は、奥行き情報取得部111によって取得された奥行き情報を3次元データに変換する。より具体的には、データ変換部112は、奥行き情報を構成する画素ごとの距離情報を実空間における3次元座標に変換する。
図2に戻って説明を続ける。奥行き情報取得部111は、奥行き情報検出部121によって検出された奥行き情報を取得する。データ変換部112は、奥行き情報取得部111によって取得された奥行き情報を3次元データに変換する。より具体的には、データ変換部112は、奥行き情報を構成する画素ごとの距離情報を実空間における3次元座標に変換する。
(1.2.3.重力方向の算出)
加速度取得部117は、加速度検出部122によって検出された加速度を取得する。重力方向算出部118は、加速度取得部117によって取得された加速度に基づいて重力方向を算出する。なお、制御部110によって重力方向が利用されない場合などには、制御部110は、加速度取得部117および重力方向算出部118を有していなくてもよい。
加速度取得部117は、加速度検出部122によって検出された加速度を取得する。重力方向算出部118は、加速度取得部117によって取得された加速度に基づいて重力方向を算出する。なお、制御部110によって重力方向が利用されない場合などには、制御部110は、加速度取得部117および重力方向算出部118を有していなくてもよい。
(1.2.4.被写体の抽出)
被写体抽出部114は、データ変換部112によって得られた3次元データに基づいて被写体が存在する被写体領域を抽出する。ここで、被写体領域はどのようにして抽出されてもよい。例えば、サイズ測定対象の被写体は、撮像範囲(画面)の中心または中心に近い位置に存在する可能性がある。そのため、被写体抽出部114は、3次元データに基づいて、クラスタリングによって3次元点群の塊を物体領域として決定し、撮像範囲(画面)の中心から所定の距離以内にある物体領域を被写体領域として抽出してもよい。
被写体抽出部114は、データ変換部112によって得られた3次元データに基づいて被写体が存在する被写体領域を抽出する。ここで、被写体領域はどのようにして抽出されてもよい。例えば、サイズ測定対象の被写体は、撮像範囲(画面)の中心または中心に近い位置に存在する可能性がある。そのため、被写体抽出部114は、3次元データに基づいて、クラスタリングによって3次元点群の塊を物体領域として決定し、撮像範囲(画面)の中心から所定の距離以内にある物体領域を被写体領域として抽出してもよい。
あるいは、サイズ測定対象の被写体は、撮像範囲(画面)の中に大きく写っている可能性がある。そのため、被写体抽出部114は、3次元データに基づいて、画面占有率が所定の割合よりも大きい物体領域を被写体領域として抽出してもよい。あるいは、サイズ測定対象の被写体は、奥行き情報検出部121の最も近くに存在している可能性がある。そのため、被写体抽出部114は、奥行き情報検出部121に最も近い物体領域を被写体領域として抽出してもよい。
あるいは、サイズ測定対象の被写体の形状があらかじめ分かっている場合も想定される。典型的には、サイズ測定対象の被写体の形状が直方体形状であると分かっている場合が想定されるが、サイズ測定対象の被写体の形状は直方体形状に限定されない。かかる場合には、被写体抽出部114は、あらかじめ把握されている形状(所定の形状)を有する物体領域を被写体領域として抽出してもよい。
サイズ測定対象の被写体の形状が直方体形状と決められている場合が想定される。かかる場合には、被写体抽出部114は、3次元データに基づいて、3平面に囲まれた頂点のうち撮像範囲(画面)の中心から所定の距離以内にある頂点と、その頂点を囲む3平面とを含む3次元点群の塊を被写体領域として抽出してもよい。このとき、被写体抽出部114は、単に3平面に囲まれた頂点を検出するのではなく、3平面に囲まれた頂点のうち、撮像範囲(画面)に凸形状の先端として写る頂点を検出してもよい。
(1.2.5.基準平面の算出)
本開示の第1の実施形態においては、基準平面算出部113が、基準平面を算出し、被写体抽出部114が、基準平面算出部113によって算出された基準平面の上に存在する物体領域を被写体領域として抽出する場合を主に想定する。そうすれば、被写体領域を迅速かつ高精度に見つけることが可能となる。しかし、被写体抽出部114は、基準平面を考慮せずに、被写体領域を抽出してもよい。このとき、制御部110は、基準平面算出部113を有していなくてもよい。
本開示の第1の実施形態においては、基準平面算出部113が、基準平面を算出し、被写体抽出部114が、基準平面算出部113によって算出された基準平面の上に存在する物体領域を被写体領域として抽出する場合を主に想定する。そうすれば、被写体領域を迅速かつ高精度に見つけることが可能となる。しかし、被写体抽出部114は、基準平面を考慮せずに、被写体領域を抽出してもよい。このとき、制御部110は、基準平面算出部113を有していなくてもよい。
図6は、基準平面を算出する例を説明するための図である。図6を参照すると、撮像範囲(画面)の中に平面が3つ存在し、3つの平面それぞれの法線n1〜n3として示されている。ここで、基準平面の上に物体が存在していると仮定すると、基準平面は水平(重力方向に垂直)である可能性が高い。そこで、一例として、基準平面算出部113は、重力方向算出部118によって算出された重力方向Wに基づいて基準平面を検出するとよい。
より具体的には、基準平面算出部113は、重力方向Wとのなす角度が90度に一致または90度に近い平面を基準平面として検出すればよい。図6には、法線をn3とする平面40と重力方向Wとのなす角度が90度であるため、法線をn3とする平面40が基準平面として検出され、その基準平面の上に存在する物体領域が被写体領域として抽出される例が示されている。
なお、本開示の第1の実施形態においては、基準平面算出部113は、重力方向に基づいて基準平面を検出する場合を主に想定するが、基準平面算出部113は、他の手法によって基準平面を検出してもよい。例えば、基準平面算出部113は、データ変換部112によって得られた3次元データに基づいて、支配的な平面を基準平面として検出してもよい。すなわち、基準平面算出部113は、撮像範囲(画面)における占有率が最も大きい平面を基準平面として検出してもよい。
あるいは、平面の上に被写体が存在している場合には、被写体が存在する平面と被写体の上面との法線方向が一致または類似することが想定される。しかし、被写体が存在する平面は、被写体の上面よりも奥行き情報検出部121からの距離が近いことが想定される。そこで、基準平面算出部113は、データ変換部112によって得られた3次元データに基づいて、法線方向が一致または類似する複数の平面のうち、奥行き情報検出部121からの距離がより遠い平面を基準平面として検出してもよい。
(1.2.6.サイズの測定)
サイズ測定部115は、被写体領域に基づいて被写体のサイズを測定する。このとき、サイズ測定部115は、被写体領域に外接する6平面を検出し、6平面に基づいて、被写体のサイズを測定する。
サイズ測定部115は、被写体領域に基づいて被写体のサイズを測定する。このとき、サイズ測定部115は、被写体領域に外接する6平面を検出し、6平面に基づいて、被写体のサイズを測定する。
かかる構成によれば、必要な画像のフレーム数を低減しつつ、撮像範囲および投光に課される制約を緩和して、自動的に被写体のサイズを測定することが可能となる。なお、本開示の第1の実施形態においては、被写体領域に外接する6平面それぞれが、長方形であり、被写体領域に外接する6平面によって囲まれる立体が、直方体である場合を主に想定する。すなわち、サイズ測定部115は、被写体領域に外接する直方体の6平面を検出し、6平面に基づいて、被写体のサイズを測定する。
6平面は、上面、下面および4側面に分けられる。上面、下面および4側面の検出の例について説明する。
図7は、上面および下面の算出の例について説明するための図である。図7を参照すると、被写体30と重力方向Wとが示されている。図7に示すように、サイズ測定部115は、被写体領域(被写体30が存在する領域)に外接する上下方向(重力方向W)に垂直な2平面のうち、被写体領域(被写体30が存在する領域)の上側に外接する平面を上面42として検出する。また、サイズ測定部115は、被写体領域の下側に外接する平面を下面41として検出する。
ここで、上下方向はどのようにして検出されてもよい。本開示の第1の実施形態においては、サイズ測定部115は、重力方向Wを上下方向として検出する場合を主に想定する。しかし、サイズ測定部115は、他の手法によって上下方向を検出してもよい。
図8は、上面および下面の算出の他の例について説明するための図である。図8を参照すると、被写体が存在する平面の法線方向51が示されている。サイズ測定部115は、被写体が存在する平面の法線方向51を上下方向として検出してもよい。被写体が存在する平面の法線方向は、基準平面算出部113によって算出された基準平面の法線方向でもよい。
このようにして、サイズ測定部115は、上面および下面を算出すると、上面に垂直であり、かつ、向かい合う平行な2つの平面2組からなる4側面を算出する。そして、サイズ測定部115は、6平面(上面、下面および4側面)において、向かい合う平行な2つの平面3組それぞれの距離を被写体30のサイズとして測定する。なお、サイズ測定部115は、3平面に囲まれた頂点から伸びる3辺それぞれの長さに基づいて、被写体30のサイズを測定してもよい。
被写体領域に外接する6平面としては、1通りの6平面だけが検出されてもよいが、サイズ測定部115によって複数通りの6平面が検出された上で、サイズ測定部115によって複数通りの6平面からサイズ測定に最適な6平面が決定されるのが望ましい。サイズ測定に最適な6平面は、被写体30のサイズの体積に最も体積が近づく6平面(すなわち、体積が最小となる6平面)であってよい。
すなわち、サイズ測定部115は、被写体領域(被写体30が存在する領域)に外接する複数通りの6平面を検出し、複数通りの6平面から、囲まれる体積が最小となる6平面を検出し、体積が最小となる6平面に基づいて、被写体30のサイズを測定するとよい。
図9は、サイズ測定の例について説明するための図である。図9を参照すると、サイズ測定部115によって、4側面として、側面43−1、側面44−1、側面45−1、側面46−1が検出された例が示されている。また、サイズ測定部115によって、これらの4側面が上下方向を軸にして回転された4側面として、側面43−2、側面44−2、側面45−2、側面46−2が検出された例が示されている。
このようにして、サイズ測定部115は、4側面を回転しながら複数通りの6平面を検出し、複数通りの6平面から、囲まれる体積が最小となる6平面を検出すればよい。サイズ測定部115は、囲まれる体積が最小となる6平面(上面、下面および4側面)において、向かい合う平行な2つの平面3組それぞれの距離を被写体30のサイズとして測定する。
図10は、向かい合う平行な2つの平面3組それぞれの距離の例を示す図である。図10を参照すると、被写体領域(被写体30が存在する領域)に外接する体積最小となる6平面が示されている。また、図10を参照すると、かかる6平面のうち、向かい合う平行な2つの平面3組それぞれの距離が、Lx、Ly、Lzとして示されている。一例として、サイズ測定部115は、検出した6平面のうち向かい合う平行な2つの平面3組それぞれの距離Lx、Ly、Lzを被写体30のサイズとして測定してよい。
図11は、被写体の一例としての箱に対するサイズ測定の結果の例を示す図である。図11を参照すると、被写体の一例としての箱30−1に外接する6平面が検出され、この6平面のうち、向かい合う平行な2つの平面3組それぞれの距離が「110mm」「190mm」「260mm」として示されている。この例に示されるように、本開示の第1の実施形態によれば、直方体形状の被写体のサイズを測定することが可能である。
図12は、被写体の他の一例としての紙袋に対するサイズ測定の結果の例を示す図である。図12を参照すると、被写体の他の一例としての紙袋30−2に外接する6平面が検出され、この6平面のうち、向かい合う平行な2つの平面3組それぞれの距離が「153mm」「272mm」「263mm」として示されている。この例に示されるように、本開示の第1の実施形態によれば、直方体形状以外の形状の被写体に対しても、サイズを測定することが可能である。
(1.2.7.サイズに基づく表示)
サイズ測定部115によって被写体30のサイズが測定されると、表示制御部116は、被写体30のサイズに基づく所定の表示が、撮像画像に重畳されて表示されるように制御する。ここでは、表示制御部116が、撮像画像として、奥行き情報検出部121によって検出された距離画像の表示を制御する場合を主に想定する。しかし、撮像画像はかかる例に限定されない。例えば、表示制御部116は、撮像画像として、奥行き情報検出部121とは異なるイメージセンサによって撮像された画像の表示を制御してもよい。そうすれば、被写体30の視認性が向上することが期待される。
サイズ測定部115によって被写体30のサイズが測定されると、表示制御部116は、被写体30のサイズに基づく所定の表示が、撮像画像に重畳されて表示されるように制御する。ここでは、表示制御部116が、撮像画像として、奥行き情報検出部121によって検出された距離画像の表示を制御する場合を主に想定する。しかし、撮像画像はかかる例に限定されない。例えば、表示制御部116は、撮像画像として、奥行き情報検出部121とは異なるイメージセンサによって撮像された画像の表示を制御してもよい。そうすれば、被写体30の視認性が向上することが期待される。
図13は、被写体のサイズに基づく表示の第1の例を示す図である。図13を参照すると、表示制御部116は、奥行き情報検出部121によって検出された被写体30の表示部160による表示を制御している。また、図13を参照すると、表示制御部116は、被写体30のサイズに基づく表示の例として、被写体30のサイズ「(縦×横×高さ=)Amm×Bmm×Cmm」の表示を制御している。
図14は、被写体のサイズに基づく表示の第2の例を示す図である。図14を参照すると、表示制御部116は、被写体30のサイズに基づく表示の例として、被写体30のサイズ(図14に示した例では、縦、横、高さそれぞれのサイズ)に対応する画面上の範囲の表示(図14に示した例では、両方向の矢印)を制御している。また、図14には、表示制御部116が、被写体のサイズ(「Amm」「Bmm」「Cmm」)の各範囲(縦、横、高さの範囲)に対応する位置への表示を制御する例が示されている。
図15は、被写体のサイズに基づく表示の第3の例を示す図である。図15を参照すると、表示制御部116は、被写体30のサイズに基づく表示の例として、被写体領域に外接する6平面の表示を制御している。また、図15には、表示制御部116が、被写体30のサイズ(「Amm」「Bmm」「Cmm」)と被写体30のサイズに対応する画面上の範囲(両方向の矢印)の表示を制御する例が示されている。
図16は、被写体のサイズに基づく表示の第4の例を示す図である。図16を参照すると、表示制御部116は、被写体30のサイズに基づく表示の例として、被写体30のサイズの合計(「Dmm」)の表示を制御している。この被写体30のサイズの合計は、被写体領域に外接する直方体の1つの頂点に集まる3辺(縦と横と高さ)それぞれの長さ(「Amm」と「Bmm」と「Cmm」)の合計であってよい。また、図16には、表示制御部116が、被写体30のサイズ(「Amm」「Bmm」「Cmm」)の表示を制御する例が示されている。
図17は、被写体のサイズに基づく表示の第5の例を示す図である。図17を参照すると、表示制御部116は、被写体30のサイズに基づく表示の例として、被写体30のサイズに対応する価格(「¥XXX」)の表示を制御している。例えば、価格は、運送会社による輸送に掛かる金額であってよく、サイズと価格との対応関係は、あらかじめ決められていてよい。また、図17には、表示制御部116が、被写体30のサイズ(「Amm」「Bmm」「Cmm」)と被写体30のサイズの合計(「Dmm」)の表示を制御する例が示されている。
上記では、被写体のサイズに基づく表示の例について説明した。このとき、どの物体のサイズに基づく表示がなされているのかをユーザが把握できるようにするのが望ましい。すなわち、表示制御部116は、被写体領域と他の領域とを区別可能に表示制御するのが望ましい。
図18は、被写体領域の表示の第1の例を示す図である。図18に示すように、表示制御部116は、被写体領域(被写体30が存在する領域)と他の領域(例えば、床面)とが異なる色で表示されるように表示制御してもよい。被写体領域(被写体30が存在する領域)および他の領域(例えば、床面)それぞれの色は限定されない。
図19は、被写体領域の表示の第2の例を示す図である。図19に示すように、表示制御部116は、被写体領域(被写体30が存在する領域)と他の領域(例えば、床面)とが異なる明るさで表示されるように表示制御してもよい。例えば、表示制御部116は、被写体領域(被写体30が存在する領域)の明るさが、他の領域(例えば、床面)の明るさよりも高くなるように表示制御してもよい。
(1.2.8.センサの構成例)
続いて、センサの構成例について説明する。ここで、上記では、奥行き情報検出部121および制御部110それぞれについて説明したが、奥行き情報検出部121と制御部110の少なくとも一部とは、積層イメージセンサを構成してもよい。例えば、積層イメージセンサは、TOFセンサであってもよい。例えば、積層イメージセンサは、2層の積層イメージセンサを構成してもよい。
続いて、センサの構成例について説明する。ここで、上記では、奥行き情報検出部121および制御部110それぞれについて説明したが、奥行き情報検出部121と制御部110の少なくとも一部とは、積層イメージセンサを構成してもよい。例えば、積層イメージセンサは、TOFセンサであってもよい。例えば、積層イメージセンサは、2層の積層イメージセンサを構成してもよい。
図20は、2層の積層イメージセンサの構成例を示す図である。図21は、2層の積層イメージセンサの詳細構成例を示す図である。図20を参照すると、2層の積層イメージセンサにおいては、画素領域1211と信号処理回路領域1212とが積層されている。また、図21に示すように、信号処理回路領域1212には、データ変換部112、被写体抽出部114、サイズ測定部115、カメラ信号処理部1191などが含まれていてよい。なお、信号処理回路領域1212には、制御部110が有する他の構成がさらに含まれてもよい。
画素領域1211によって検出された画素ごとの距離情報は、データ変換部112およびカメラ信号処理部1191に出力される。上記したように、データ変換部112は、画素ごとの距離情報を3次元データに変換し、被写体抽出部114は、3次元データに基づいて被写体領域を抽出し、サイズ測定部115は、被写体領域に基づいて被写体のサイズを測定して出力する。一方、カメラ信号処理部1191は、画素ごとの距離情報を処理して、表示可能な撮像画像として出力する。
あるいは、積層イメージセンサは、3層の積層イメージセンサを構成してもよい。
図22は、3層の積層イメージセンサの構成例を示す図である。図23は、3層の積層イメージセンサの詳細構成例を示す図である。図22を参照すると、3層の積層イメージセンサにおいては、画素領域1211および信号処理回路領域1212の他に、メモリ領域が積層されている。また、図23に示すように、メモリ領域1213には、データ変換部112によって得られた3次元データを保持する3次元データ保持部151が含まれていてよい。
被写体抽出部114は、3次元データ保持部151から3次元データを取得し、取得した3次元データに基づいて被写体領域を抽出する。また、サイズ測定部115は、3次元データ保持部151から3次元データを取得し、取得した3次元データと被写体抽出部114によって抽出された被写体領域を示す情報とに基づいて被写体のサイズを測定して出力する。3層の積層イメージセンサにおける他の構成については、図21および図22を参照しながら既に説明した通りである。
(1.2.9.被写体が複数の場合)
上記では、1つの被写体のサイズを測定する場合を主に説明した。しかし、サイズ測定対象の被写体の数は特に限定されない。例えば、上記したような1つの被写体に対するサイズ測定を、複数の被写体に対して行うことによって、複数の被写体それぞれのサイズを測定することが可能である。すなわち、サイズ測定部115は、複数の被写体領域が抽出された場合、複数の被写体領域に基づいて複数の被写体それぞれのサイズを測定することが可能である。
上記では、1つの被写体のサイズを測定する場合を主に説明した。しかし、サイズ測定対象の被写体の数は特に限定されない。例えば、上記したような1つの被写体に対するサイズ測定を、複数の被写体に対して行うことによって、複数の被写体それぞれのサイズを測定することが可能である。すなわち、サイズ測定部115は、複数の被写体領域が抽出された場合、複数の被写体領域に基づいて複数の被写体それぞれのサイズを測定することが可能である。
このとき、表示制御部116は、複数の被写体それぞれのサイズに基づく所定の表示が撮像画像に重畳されて表示されるように制御すればよい。
図24は、複数の被写体それぞれのサイズに基づく所定の表示の例を示す図である。図24を参照すると、撮像範囲(画面)に複数の被写体30が存在している。特に、図24に示した例では、撮像範囲(画面)に、被写体30−3、被写体30−4および被写体30−5が存在している(被写体30が撮像範囲(画面)に3つ存在している)。しかし、撮像範囲(画面)に存在する被写体30の数は、3つに限定されない。
図24を参照すると、表示制御部116は、被写体30−3のサイズに基づく表示の例として、被写体30−3のサイズ「(縦×横×高さ=)ax×ay×az」、被写体30−3のサイズの合計「a」、および、被写体30−3のサイズに対応する価格「¥aaa」が、被写体30−3の位置に対応する位置に表示されるように制御している。
また、図24を参照すると、表示制御部116は、被写体30−4のサイズに基づく表示の例として、被写体30−4のサイズ「(縦×横×高さ=)bx×by×bz」、被写体30−4のサイズの合計「b」、および、被写体30−4のサイズに対応する価格「¥bbb」が、被写体30−4の位置に対応する位置に表示されるように制御している。
また、図24を参照すると、表示制御部116は、被写体30−5のサイズに基づく表示の例として、被写体30−5のサイズ「(縦×横×高さ=)cx×cy×cz」、被写体30−5のサイズの合計「c」、および、被写体30−5のサイズに対応する価格「¥ccc」が、被写体30−5の位置に対応する位置に表示されるように制御している。
また、図24を参照すると、表示制御部116は、被写体30−3のサイズに対応する価格「¥aaa」と被写体30−4のサイズに対応する価格「¥bbb」と被写体30−5のサイズに対応する価格「¥ccc」との合計「¥ddd」が表示されるように制御している。
なお、表示制御部116は、被写体30−3、被写体30−4および被写体30−5に基づく他の表示を制御してもよい。
例えば、表示制御部116は、被写体30−3、被写体30−4および被写体30−5それぞれのサイズに対応する画面上の範囲の表示を制御してもよい。あるいは、表示制御部116は、被写体30−3、被写体30−4および被写体30−5それぞれのサイズの合計の表示を制御してもよい。あるいは、表示制御部116は、被写体30−3、被写体30−4および被写体30−5それぞれの領域(被写体領域)に外接する6平面の表示を制御してもよい。
(1.2.10.動作例)
図25は、本開示の第1の実施形態に係る情報処理装置10Aの動作の例を示すフローチャートである。なお、図25に示した動作の例は、本開示の第1の実施形態に係る情報処理装置10Aの動作の一例を示したに過ぎない。したがって、本開示の第1の実施形態に係る情報処理装置10Aの動作は、図25に示した動作に限定されない。
図25は、本開示の第1の実施形態に係る情報処理装置10Aの動作の例を示すフローチャートである。なお、図25に示した動作の例は、本開示の第1の実施形態に係る情報処理装置10Aの動作の一例を示したに過ぎない。したがって、本開示の第1の実施形態に係る情報処理装置10Aの動作は、図25に示した動作に限定されない。
図25に示すように、加速度取得部117は、加速度検出部122によって検出された加速度を取得する。重力方向算出部118は、加速度取得部117によって取得された加速度に基づいて、重力方向を算出する(S110)。また、奥行き情報取得部111は、奥行き情報検出部121によって検出された奥行き情報を取得する(S120)。データ変換部112は、奥行き情報取得部111によって取得された奥行き情報を3次元データに変換する(S130)。
基準平面算出部113は、重力方向算出部118によって算出された重力方向に基づいて基準平面を算出する(S140)。被写体抽出部114は、データ変換部112によって得られた3次元データに基づいて、被写体領域を算出する(S150)。サイズ測定部115は、被写体に外接する平面(例えば、6平面)を算出する(S160)。被写体に外接する平面の算出については、図26を参照しながら詳細に説明する。
図26は、被写体に外接する平面の算出の動作の詳細を示すフローチャートである。なお、図26に示した動作の例は、被写体に外接する平面の算出の動作の一例を示したに過ぎない。したがって、被写体に外接する平面の算出の動作は、図26に示した動作に限定されない。
図26に示したように、サイズ測定部115は、被写体の上下方向を算出する(S161)。続いて、サイズ測定部115は、被写体の下側に外接する平面(下面)を算出する(S162)、被写体の上側に外接する平面(上面)を算出する(S163)。続いて、サイズ測定部115は、被写体に外接する、ある4側面(隣同士が直交)を選び(S164)、被写体に外接する6平面(上面、下面、4側面)の体積を算出する(S165)。
続いて、サイズ測定部115は、算出した体積が最小であるか否かを判断する(S166)。サイズ測定部115は、算出した体積が最小ではない場合(S166において「No」)、S164に戻る。一方、サイズ測定部115は、算出した体積が最小である場合(S166において「Yes」)、体積が最小となる外接平面から被写体のサイズを算出する(S164)。
図25に戻って説明を続ける。サイズ測定部115は、被写体に外接する平面の算出が終わると、被写体に外接する平面から被写体のサイズを算出する(S170)。そして、表示制御部116は、被写体のサイズが撮像画像に重畳されて表示されるように表示部160を制御する。表示部160は、表示制御部116による表示制御に従って、被写体のサイズを撮像画像に重畳させて表示する(S180)。
(1.2.11.奥行き情報を複数回得る場合)
上記では、1回の撮像によって得られた奥行き情報に基づいて被写体のサイズを測定する場合を主に想定した。しかし、1回の撮像によって得られた奥行き情報だけからは被写体のサイズを高精度に測定できない場合も想定される。かかる場合には、奥行き情報を複数回取得し、複数回得られた奥行き情報に基づいて被写体のサイズを測定するのがよい。以下では、かかる場合について詳細に説明する。
上記では、1回の撮像によって得られた奥行き情報に基づいて被写体のサイズを測定する場合を主に想定した。しかし、1回の撮像によって得られた奥行き情報だけからは被写体のサイズを高精度に測定できない場合も想定される。かかる場合には、奥行き情報を複数回取得し、複数回得られた奥行き情報に基づいて被写体のサイズを測定するのがよい。以下では、かかる場合について詳細に説明する。
図27は、複数回奥行き情報を得る第1の例を説明するための図である。図27を参照すると、奥行き情報検出部121によって1回目に撮像が行われる位置に奥行き情報検出部121−1が示されている。しかし、被写体30−6の形状が単純な形状ではないため、奥行き情報検出部121−1によって撮像される範囲からだけでは、被写体30−6の死角に当たる部分の形状を推測するのが難しい。
そこで、このような場合には、奥行き情報検出部121によって2回目の撮像も行われるようにするのがよい。図27を参照すると、奥行き情報検出部121によって2回目に撮像が行われる位置に奥行き情報検出部121−2が示されている。奥行き情報検出部121−2によって撮像される範囲には、奥行き情報検出部121−1によって撮像される範囲には含まれなかった部分が含まれるようになっている。
このとき、データ変換部112は、奥行き情報検出部121−1および奥行き情報検出部121−2それぞれによって検出された奥行き情報が奥行き情報取得部111によって取得され、それぞれの奥行き情報に対応する3次元データを得た場合、これらの3次元データを合成すればよい。そして、被写体抽出部114は、合成後の3次元データに基づいて被写体領域を抽出すればよい。
図28は、複数回奥行き情報を得る第2の例を説明するための図である。図28を参照すると、奥行き情報検出部121によって1回目に撮像が行われる位置に奥行き情報検出部121−1が示されている。しかし、被写体30−7が細長いため、奥行き情報検出部121−1によって撮像される範囲に、被写体30−7がある程度以上の大きさで収まるようにしながら、被写体30−7の全体を収めるのは難しい。
そこで、このような場合には、奥行き情報検出部121によって2回目の撮像も行われるようにするのがよい。図28を参照すると、奥行き情報検出部121によって2回目に撮像が行われる位置に奥行き情報検出部121−2が示されている。奥行き情報検出部121−2によって撮像される範囲には、奥行き情報検出部121−1によって撮像される範囲には含まれなかった部分が含まれるようになっている。
このとき、データ変換部112は、奥行き情報検出部121−1および奥行き情報検出部121−2それぞれによって検出された奥行き情報が奥行き情報取得部111によって取得され、それぞれの奥行き情報に対応する3次元データを得た場合、これらの3次元データを合成すればよい。そして、被写体抽出部114は、合成後の3次元データに基づいて被写体領域を抽出すればよい。
(1.2.12.奥行き情報を複数回得る場合の動作例)
図29は、本開示の第1の実施形態に係る情報処理装置10Aの奥行き情報を複数回得る場合の動作の例を示すフローチャートである。なお、図29に示した動作の例は、奥行き情報を複数回得る場合の動作の一例を示したに過ぎない。したがって、奥行き情報を複数回得る場合の動作は、図29に示した動作に限定されない。
図29は、本開示の第1の実施形態に係る情報処理装置10Aの奥行き情報を複数回得る場合の動作の例を示すフローチャートである。なお、図29に示した動作の例は、奥行き情報を複数回得る場合の動作の一例を示したに過ぎない。したがって、奥行き情報を複数回得る場合の動作は、図29に示した動作に限定されない。
図29に示すように、加速度取得部117は、加速度検出部122によって検出された加速度を取得する。重力方向算出部118は、加速度取得部117によって取得された加速度に基づいて、重力方向を算出する(S110)。また、奥行き情報取得部111は、奥行き情報検出部121によって複数回検出された奥行き情報を取得する(S120)。データ変換部112は、奥行き情報取得部111によって取得された複数の奥行き情報それぞれを3次元データに変換する(S130)。
データ変換部112は、複数の奥行き情報それぞれに対応する3次元データを合成する(S210)。
基準平面算出部113は、重力方向算出部118によって算出された重力方向に基づいて基準平面を算出する(S140)。被写体抽出部114は、データ変換部112によって得られた3次元データに基づいて、被写体領域を算出する(S150)。サイズ測定部115は、被写体に外接する平面(例えば、6平面)を算出する(S160)。被写体に外接する平面の算出については、図26に示した通りである。
サイズ測定部115は、被写体に外接する平面の算出が終わると、被写体に外接する平面から被写体のサイズを算出する(S170)。そして、表示制御部116は、被写体のサイズが撮像画像に重畳されて表示されるように表示部160を制御する。表示部160は、表示制御部116による表示制御に従って、被写体のサイズを撮像画像に重畳させて表示する(S180)。
(1.2.13.第1の実施形態のまとめ)
本開示の第1の実施形態によれば、奥行き情報を取得する奥行き情報取得部111と、奥行き情報を3次元データに変換するデータ変換部112と、3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部114と、被写体領域に基づいて被写体のサイズを測定するサイズ測定部115と、を備え、サイズ測定部115は、被写体領域に外接する6平面を検出し、6平面に基づいて、被写体のサイズを測定する、情報処理装置10Aが提供される。
本開示の第1の実施形態によれば、奥行き情報を取得する奥行き情報取得部111と、奥行き情報を3次元データに変換するデータ変換部112と、3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部114と、被写体領域に基づいて被写体のサイズを測定するサイズ測定部115と、を備え、サイズ測定部115は、被写体領域に外接する6平面を検出し、6平面に基づいて、被写体のサイズを測定する、情報処理装置10Aが提供される。
かかる構成によれば、必要な画像のフレーム数を低減しつつ、撮像範囲および投光に課される制約を緩和して、被写体の形状の限定なく被写体のサイズを自動的に測定することが可能となる。
以上、本開示の第1の実施形態について説明した。
<2.第2の実施形態>
続いて、本開示の第2の実施形態について説明する。
続いて、本開示の第2の実施形態について説明する。
[2.1.情報処理装置の機能構成例]
続いて、本開示の第2の実施形態に係る情報処理装置の機能構成例について説明する。図30は、本開示の第2の実施形態に係る情報処理装置の機能構成例を示すブロック図である。図30に示したように、本開示の第2の実施形態に係る情報処理装置10Bは、本開示の第1の実施形態に係る情報処理装置10Aと同様に、制御部110、奥行き情報検出部121、加速度検出部122、操作部130、通信部140、記憶部150、および、表示部160を備える。
続いて、本開示の第2の実施形態に係る情報処理装置の機能構成例について説明する。図30は、本開示の第2の実施形態に係る情報処理装置の機能構成例を示すブロック図である。図30に示したように、本開示の第2の実施形態に係る情報処理装置10Bは、本開示の第1の実施形態に係る情報処理装置10Aと同様に、制御部110、奥行き情報検出部121、加速度検出部122、操作部130、通信部140、記憶部150、および、表示部160を備える。
ただし、本開示の第2の実施形態に係る情報処理装置10Bは、制御部110が被写体選択部119を有している点において、本開示の第1の実施形態に係る情報処理装置10Aと主に異なる。そこで、以下では、情報処理装置10Bが有する各機能のうち、被写体選択部119が有する機能について主に説明し、他の機能についての詳細な説明は省略する。
以上、本開示の第2の実施形態に係る情報処理装置10Bの機能構成例について説明した。
[2.2.情報処理装置の機能詳細]
本開示の第1の実施形態においては、被写体抽出部114によって1つの被写体領域が抽出される場合を主に想定した。本開示の第2の実施形態においては、被写体抽出部114によって複数の被写体領域が抽出される場合を主に想定する。かかる場合、被写体選択部119は、複数の被写体から、ユーザ操作に基づいて、または、自動的に、1つの被写体を選択すればよい。そして、サイズ測定部115は、選択された1つの被写体のサイズを測定すればよい。
本開示の第1の実施形態においては、被写体抽出部114によって1つの被写体領域が抽出される場合を主に想定した。本開示の第2の実施形態においては、被写体抽出部114によって複数の被写体領域が抽出される場合を主に想定する。かかる場合、被写体選択部119は、複数の被写体から、ユーザ操作に基づいて、または、自動的に、1つの被写体を選択すればよい。そして、サイズ測定部115は、選択された1つの被写体のサイズを測定すればよい。
(2.2.1.被写体の自動的な選択)
図31は、複数の被写体から自動的に1つの被写体を選択する第1の例を説明するための図である。図31を参照すると、被写体抽出部114によって抽出された複数の被写体30の例として、被写体30−8、被写体30−9および被写体30−10が表示部160によって表示されている。なお、図31に示した例では、3つの被写体30が抽出されているが、抽出される被写体30の数は3つに限定されない。
図31は、複数の被写体から自動的に1つの被写体を選択する第1の例を説明するための図である。図31を参照すると、被写体抽出部114によって抽出された複数の被写体30の例として、被写体30−8、被写体30−9および被写体30−10が表示部160によって表示されている。なお、図31に示した例では、3つの被写体30が抽出されているが、抽出される被写体30の数は3つに限定されない。
このとき、サイズ測定対象の被写体は、撮像範囲(画面)の中心に最も近い(奥行き情報検出部121の光軸に最も近い)位置に存在する可能性がある。そのため、被写体選択部119は、撮像範囲(画面)の中心に最も近い位置に存在する被写体を選択すればよい。図31に示した例では、被写体30−9が撮像範囲(画面)の中心に最も近い位置に存在するため、被写体選択部119は、被写体30−9を選択すればよい。
なお、選択された被写体と選択されていない被写体と被写体以外の領域とは区別可能に表示されるのがよい。すなわち、表示制御部116は、選択された被写体30−9に対応する被写体領域と選択されていない被写体30−8および被写体30−10に対応する被写体領域とを区別可能に表示制御し、被写体30−8、被写体30−9および被写体30−10に対応する被写体領域と他の領域とを区別可能に表示制御するのがよい。
例えば、図31に示すように、表示制御部116は、選択された被写体30−9に対応する被写体領域と選択されていない被写体30−8および被写体30−10に対応する被写体領域とが異なる色で表示されるように表示制御してもよい。選択された被写体30−9に対応する被写体領域と選択されていない被写体30−8および被写体30−10に対応する被写体領域それぞれの色は限定されない。
あるいは、表示制御部116は、選択された被写体30−9に対応する被写体領域と選択されていない被写体30−8および被写体30−10に対応する被写体領域とが異なる明るさで表示されるように表示制御してもよい。例えば、表示制御部116は、選択された被写体30−9に対応する被写体領域の明るさが、選択されていない被写体30−8および被写体30−10に対応する被写体領域の明るさよりも高くなるように表示制御してもよい。
また、図31に示すように、表示制御部116は、被写体30−8、被写体30−9および被写体30−10に対応する被写体領域と被写体以外の領域とが異なる色で表示されるように表示制御してもよい。被写体30−8、被写体30−9および被写体30−10に対応する被写体領域と被写体以外の領域それぞれの色は限定されない。
あるいは、表示制御部116は、被写体30−8、被写体30−9および被写体30−10に対応する被写体領域と被写体以外の領域とが異なる明るさで表示されるように表示制御してもよい。例えば、表示制御部116は、被写体30−8、被写体30−9および被写体30−10に対応する被写体領域の明るさが、被写体以外の領域の明るさよりも高くなるように表示制御してもよい。
図32は、複数の被写体から自動的に1つの被写体を選択する第2の例を説明するための図である。図32を参照すると、被写体抽出部114によって抽出された複数の被写体30の例として、被写体30−11、被写体30−12および被写体30−13が表示部160によって表示されている。なお、図32に示した例では、3つの被写体30が抽出されているが、抽出される被写体30の数は3つに限定されない。
このとき、サイズ測定対象の被写体は、撮像範囲(画面)における占有率が最も高い可能性がある。そのため、被写体選択部119は、撮像範囲(画面)における占有率が最も高い被写体を選択すればよい。図32に示した例では、被写体30−13が撮像範囲(画面)における占有率が最も高いため、被写体選択部119は、被写体30−13を選択すればよい。
図33は、複数の被写体から自動的に1つの被写体を選択する第3の例を説明するための図である。図33を参照すると、被写体抽出部114によって抽出された複数の被写体30の例として、被写体30−14、被写体30−15および被写体30−16が表示部160によって表示されている。なお、図33に示した例では、3つの被写体30が抽出されているが、抽出される被写体30の数は3つに限定されない。
このとき、サイズ測定対象の被写体は、奥行き情報検出部121から最も近くに存在する可能性がある。そのため、被写体選択部119は、奥行き情報に基づいて奥行き情報検出部121から最も近くに存在する被写体を選択すればよい。図33に示した例では、被写体30−14が奥行き情報検出部121から最も近くに存在するため、被写体選択部119は、被写体30−14を選択すればよい。
図34は、複数の被写体から自動的に1つの被写体を選択する第4の例を説明するための図である。図34を参照すると、被写体抽出部114によって抽出された複数の被写体30の例として、被写体30−17、被写体30−18および被写体30−19が表示部160によって表示されている。なお、図34に示した例では、3つの被写体30が抽出されているが、抽出される被写体30の数は3つに限定されない。
例えば、選択すべき被写体の形状があらかじめ登録されているとき、被写体選択部119は、あらかじめ登録された形状を有する被写体を選択するのがよい。図34に示した例では、選択すべき被写体の形状として「直方体」があらかじめ登録されているため、被写体選択部119は、直方体形状を有する被写体30−17を選択すればよい。
(2.2.2.ユーザ操作に基づく被写体の選択)
図35は、複数の被写体からユーザ操作に基づいて1つの被写体を選択する第1の例を説明するための図である。図35を参照すると、被写体抽出部114によって抽出された複数の被写体30の例として、被写体30−21および被写体30−22が表示部160によって表示されている。なお、図35に示した例では、2つの被写体30が抽出されているが、抽出される被写体30の数は2つに限定されない。
図35は、複数の被写体からユーザ操作に基づいて1つの被写体を選択する第1の例を説明するための図である。図35を参照すると、被写体抽出部114によって抽出された複数の被写体30の例として、被写体30−21および被写体30−22が表示部160によって表示されている。なお、図35に示した例では、2つの被写体30が抽出されているが、抽出される被写体30の数は2つに限定されない。
例えば、図35に示すように、操作部130がボタンによって構成されている場合、被写体選択部119は、ユーザによって押下されたボタンに基づいて被写体を選択するのがよい。図35に示した例では、ユーザによって左側を示すボタンが押下されたため、被写体選択部119は、左側に存在する被写体30−21を選択すればよい。
図36は、複数の被写体からユーザ操作に基づいて1つの被写体を選択する第2の例を説明するための図である。図36を参照すると、被写体抽出部114によって抽出された複数の被写体30の例として、被写体30−21および被写体30−22が表示部160によって表示されている。なお、図36に示した例では、2つの被写体30が抽出されているが、抽出される被写体30の数は2つに限定されない。
例えば、図36に示すように、操作部130がタッチパネルによって構成されている場合、被写体選択部119は、ユーザによってタッチされた位置に基づいて被写体を選択するのがよい。図36に示した例では、ユーザによって被写体30−21が表示されている位置がタッチされているため、被写体選択部119は、ユーザによってタッチされた位置に存在する被写体30−21を選択すればよい。
(2.2.3.被写体を選択する場合の動作例)
図37は、本開示の第2の実施形態に係る情報処理装置10Bの被写体を選択する場合の動作の例を示すフローチャートである。なお、図37に示した動作の例は、被写体を選択する場合の動作の一例を示したに過ぎない。したがって、被写体を選択する場合の動作は、図37に示した動作に限定されない。
図37は、本開示の第2の実施形態に係る情報処理装置10Bの被写体を選択する場合の動作の例を示すフローチャートである。なお、図37に示した動作の例は、被写体を選択する場合の動作の一例を示したに過ぎない。したがって、被写体を選択する場合の動作は、図37に示した動作に限定されない。
図37に示すように、加速度取得部117は、加速度検出部122によって検出された加速度を取得する。重力方向算出部118は、加速度取得部117によって取得された加速度に基づいて、重力方向を算出する(S110)。また、奥行き情報取得部111は、奥行き情報検出部121によって検出された奥行き情報を取得する(S120)。データ変換部112は、奥行き情報取得部111によって取得された奥行き情報を3次元データに変換する(S130)。
基準平面算出部113は、重力方向算出部118によって算出された重力方向に基づいて基準平面を算出する(S140)。被写体抽出部114は、データ変換部112によって得られた3次元データに基づいて、複数の被写体領域を算出する(S150)。被写体選択部119は、複数の被写体から1つの被写体を選択する(S220)。サイズ測定部115は、被写体に外接する平面(例えば、6平面)を算出する(S160)。被写体に外接する平面の算出については、図26に示した通りである。
サイズ測定部115は、被写体に外接する平面の算出が終わると、被写体に外接する平面から被写体のサイズを算出する(S170)。そして、表示制御部116は、被写体のサイズが撮像画像に重畳されて表示されるように表示部160を制御する。表示部160は、表示制御部116による表示制御に従って、被写体のサイズを撮像画像に重畳させて表示する(S180)。
(2.2.4.第2の実施形態のまとめ)
本開示の第2の実施形態によれば、第1の実施形態に係る情報処理装置10Bに追加して、複数の被写体から、ユーザ操作に基づいて、または、自動的に、1つの被写体を選択する被写体選択部119をさらに備える、情報処理装置10Bが提供される。そして、サイズ測定部115は、被写体選択部119によって選択された1つの被写体のサイズを測定する。
本開示の第2の実施形態によれば、第1の実施形態に係る情報処理装置10Bに追加して、複数の被写体から、ユーザ操作に基づいて、または、自動的に、1つの被写体を選択する被写体選択部119をさらに備える、情報処理装置10Bが提供される。そして、サイズ測定部115は、被写体選択部119によって選択された1つの被写体のサイズを測定する。
かかる構成によれば、第1の実施形態と同様に、必要な画像のフレーム数を低減しつつ、撮像範囲および投光に課される制約を緩和して、被写体の形状の限定なく被写体のサイズを自動的に測定することが可能となる。さらに、かかる構成によれば、複数の被写体が抽出された場合であっても、複数の被写体から所望の被写体を選択して、選択した被写体のサイズを測定することが可能となる。
以上、本開示の第2の実施形態について説明した。
<3.ハードウェア構成例>
次に、図38を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図38は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
次に、図38を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図38は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図38に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、ボタンなど、ユーザによって操作される装置である。入力装置915は、マウス、キーボード、タッチパネル、スイッチおよびレバーなどを含んでもよい。また、入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro−Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音出力装置などであり得る。また、出力装置917は、PDP(Plasma Display Panel)、プロジェクタ、ホログラム、プリンタ装置などを含んでもよい。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続されるネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、振動センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
<4.むすび>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
奥行き情報を取得する奥行き情報取得部と、
前記奥行き情報を3次元データに変換するデータ変換部と、
前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、
前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、
前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、
情報処理装置。
(2)
前記サイズ測定部は、向かい合う平行な2つの平面3組それぞれの距離を前記被写体のサイズとして測定する、
前記(1)に記載の情報処理装置。
(3)
前記サイズ測定部は、前記被写体領域に外接する複数通りの6平面を検出し、前記複数通りの6平面から、囲まれる体積が最小となる6平面を検出し、体積が最小となる6平面に基づいて、前記被写体のサイズを測定する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記サイズ測定部は、前記被写体領域に外接する上下方向に垂直な2平面のうち、前記被写体領域の上側に外接する平面を上面として検出するとともに、前記被写体領域の下側に外接する平面を下面として検出し、前記上面に垂直であり、かつ、向かい合う平行な2つの平面2組からなる4側面を算出する、
前記(1)〜(3)のいずれか一項に記載の情報処理装置。
(5)
前記サイズ測定部は、重力方向または記被写体が存在する平面の法線方向を前記上下方向として検出する、
前記(4)に記載の情報処理装置。
(6)
前記被写体抽出部は、前記3次元データに基づいて、画面中心から所定の距離以内にある物体領域、画面占有率が所定の割合よりも大きい物体領域、前記奥行き情報を検出するセンサに最も近い物体領域、および、所定の形状を有する物体領域の少なくともいずれか一つを前記被写体領域として抽出する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記情報処理装置は、基準平面を算出する基準平面算出部を備え、
前記被写体抽出部は、前記3次元データに基づいて、前記基準平面の上に存在する物体領域を前記被写体領域として抽出する、
前記(1)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記基準平面算出部は、重力方向に基づいて前記基準平面を検出し、または、前記3次元データに基づいて、画面における占有率が最も大きい平面を前記基準平面として検出し、または、法線方向が一致または類似する複数の平面のうち、前記奥行き情報を検出するセンサからの距離がより遠い平面を前記基準平面として検出する、
前記(7)に記載の情報処理装置。
(9)
前記情報処理装置は、前記被写体のサイズに基づく所定の表示が撮像画像に重畳されて表示されるように制御する表示制御部を備え、
前記所定の表示は、前記被写体のサイズ、前記被写体のサイズに対応する画面上の範囲、前記被写体領域に外接する6平面、前記被写体のサイズの合計、および、前記被写体のサイズに対応する価格のうち、少なくともいずれか一つを含む、
前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記撮像画像は、前記奥行き情報を検出するセンサによって撮像された画像、または、前記奥行き情報を検出するセンサとは異なるイメージセンサによって撮像された画像である、
前記(9)に記載の情報処理装置。
(11)
前記表示制御部は、前記被写体領域と他の領域とを区別可能に表示制御する、
前記(9)または(10)に記載の情報処理装置。
(12)
前記サイズ測定部は、複数の被写体領域が抽出された場合、前記複数の被写体領域に基づいて複数の被写体それぞれのサイズを測定する、
前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記情報処理装置は、前記複数の被写体それぞれのサイズに基づく所定の表示が撮像画像に重畳されて表示されるように制御する表示制御部を備え、
前記所定の表示は、前記複数の被写体それぞれのサイズ、前記複数の被写体それぞれのサイズに対応する画面上の範囲、前記複数の被写体領域それぞれに外接する6平面、前記複数の被写体それぞれのサイズの合計、および、前記複数の被写体のサイズそれぞれに対応する価格の合計のうち、少なくともいずれか一つを含む、
前記(12)に記載の情報処理装置。
(14)
前記表示制御部は、前記複数の被写体に対応する被写体領域のうち、選択された前記1の被写体に対応する被写体領域と選択されていない他の被写体に対応する被写体領域とを区別可能に表示制御し、前記複数の被写体に対応する被写体領域と他の領域とを区別可能に表示制御する、
前記(13)に記載の情報処理装置。
(15)
前記情報処理装置は、前記複数の被写体から、ユーザ操作に基づいて、または、自動的に、1の被写体を選択する被写体選択部を備え、
前記サイズ測定部は、選択された前記1の被写体のサイズを測定する、
前記(13)または(14)に記載の情報処理装置。
(16)
前記奥行き情報取得部は、TOFセンサ、Structured Light法による距離画像センサ、および、ステレオカメラの少なくともいずれか一つによって検出された前記奥行き情報を取得する、
前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記奥行き情報を検出するセンサは、少なくとも前記被写体の上面を検出可能な位置に配置される、
前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記データ変換部は、複数の奥行き情報が取得され、前記複数の奥行き情報それぞれに対応する3次元データを得た場合、前記複数の奥行き情報それぞれに対応する3次元データを合成し、
前記被写体抽出部は、合成後の3次元データに基づいて前記被写体領域を抽出する、
前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
奥行き情報を取得することと、
前記奥行き情報を3次元データに変換することと、
前記3次元データに基づいて被写体が存在する被写体領域を抽出することと、
前記被写体領域に基づいて前記被写体のサイズを測定することと、を含み、
プロセッサにより、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定することを含む、
情報処理方法。
(20)
奥行き情報を取得する奥行き情報取得部と、
前記奥行き情報を3次元データに変換するデータ変換部と、
前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、
前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、
前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、
個体撮像装置。
(1)
奥行き情報を取得する奥行き情報取得部と、
前記奥行き情報を3次元データに変換するデータ変換部と、
前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、
前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、
前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、
情報処理装置。
(2)
前記サイズ測定部は、向かい合う平行な2つの平面3組それぞれの距離を前記被写体のサイズとして測定する、
前記(1)に記載の情報処理装置。
(3)
前記サイズ測定部は、前記被写体領域に外接する複数通りの6平面を検出し、前記複数通りの6平面から、囲まれる体積が最小となる6平面を検出し、体積が最小となる6平面に基づいて、前記被写体のサイズを測定する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記サイズ測定部は、前記被写体領域に外接する上下方向に垂直な2平面のうち、前記被写体領域の上側に外接する平面を上面として検出するとともに、前記被写体領域の下側に外接する平面を下面として検出し、前記上面に垂直であり、かつ、向かい合う平行な2つの平面2組からなる4側面を算出する、
前記(1)〜(3)のいずれか一項に記載の情報処理装置。
(5)
前記サイズ測定部は、重力方向または記被写体が存在する平面の法線方向を前記上下方向として検出する、
前記(4)に記載の情報処理装置。
(6)
前記被写体抽出部は、前記3次元データに基づいて、画面中心から所定の距離以内にある物体領域、画面占有率が所定の割合よりも大きい物体領域、前記奥行き情報を検出するセンサに最も近い物体領域、および、所定の形状を有する物体領域の少なくともいずれか一つを前記被写体領域として抽出する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記情報処理装置は、基準平面を算出する基準平面算出部を備え、
前記被写体抽出部は、前記3次元データに基づいて、前記基準平面の上に存在する物体領域を前記被写体領域として抽出する、
前記(1)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記基準平面算出部は、重力方向に基づいて前記基準平面を検出し、または、前記3次元データに基づいて、画面における占有率が最も大きい平面を前記基準平面として検出し、または、法線方向が一致または類似する複数の平面のうち、前記奥行き情報を検出するセンサからの距離がより遠い平面を前記基準平面として検出する、
前記(7)に記載の情報処理装置。
(9)
前記情報処理装置は、前記被写体のサイズに基づく所定の表示が撮像画像に重畳されて表示されるように制御する表示制御部を備え、
前記所定の表示は、前記被写体のサイズ、前記被写体のサイズに対応する画面上の範囲、前記被写体領域に外接する6平面、前記被写体のサイズの合計、および、前記被写体のサイズに対応する価格のうち、少なくともいずれか一つを含む、
前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記撮像画像は、前記奥行き情報を検出するセンサによって撮像された画像、または、前記奥行き情報を検出するセンサとは異なるイメージセンサによって撮像された画像である、
前記(9)に記載の情報処理装置。
(11)
前記表示制御部は、前記被写体領域と他の領域とを区別可能に表示制御する、
前記(9)または(10)に記載の情報処理装置。
(12)
前記サイズ測定部は、複数の被写体領域が抽出された場合、前記複数の被写体領域に基づいて複数の被写体それぞれのサイズを測定する、
前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記情報処理装置は、前記複数の被写体それぞれのサイズに基づく所定の表示が撮像画像に重畳されて表示されるように制御する表示制御部を備え、
前記所定の表示は、前記複数の被写体それぞれのサイズ、前記複数の被写体それぞれのサイズに対応する画面上の範囲、前記複数の被写体領域それぞれに外接する6平面、前記複数の被写体それぞれのサイズの合計、および、前記複数の被写体のサイズそれぞれに対応する価格の合計のうち、少なくともいずれか一つを含む、
前記(12)に記載の情報処理装置。
(14)
前記表示制御部は、前記複数の被写体に対応する被写体領域のうち、選択された前記1の被写体に対応する被写体領域と選択されていない他の被写体に対応する被写体領域とを区別可能に表示制御し、前記複数の被写体に対応する被写体領域と他の領域とを区別可能に表示制御する、
前記(13)に記載の情報処理装置。
(15)
前記情報処理装置は、前記複数の被写体から、ユーザ操作に基づいて、または、自動的に、1の被写体を選択する被写体選択部を備え、
前記サイズ測定部は、選択された前記1の被写体のサイズを測定する、
前記(13)または(14)に記載の情報処理装置。
(16)
前記奥行き情報取得部は、TOFセンサ、Structured Light法による距離画像センサ、および、ステレオカメラの少なくともいずれか一つによって検出された前記奥行き情報を取得する、
前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記奥行き情報を検出するセンサは、少なくとも前記被写体の上面を検出可能な位置に配置される、
前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記データ変換部は、複数の奥行き情報が取得され、前記複数の奥行き情報それぞれに対応する3次元データを得た場合、前記複数の奥行き情報それぞれに対応する3次元データを合成し、
前記被写体抽出部は、合成後の3次元データに基づいて前記被写体領域を抽出する、
前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
奥行き情報を取得することと、
前記奥行き情報を3次元データに変換することと、
前記3次元データに基づいて被写体が存在する被写体領域を抽出することと、
前記被写体領域に基づいて前記被写体のサイズを測定することと、を含み、
プロセッサにより、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定することを含む、
情報処理方法。
(20)
奥行き情報を取得する奥行き情報取得部と、
前記奥行き情報を3次元データに変換するデータ変換部と、
前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、
前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、
前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、
個体撮像装置。
10(10A、10B) 情報処理装置
30 被写体
40 平面
51 法線方向
52 重力方向
110 制御部
111 奥行き情報取得部
112 データ変換部
113 基準平面算出部
114 被写体抽出部
115 サイズ測定部
116 表示制御部
117 加速度取得部
118 重力方向算出部
119 被写体選択部
121 奥行き情報検出部
122 加速度検出部
130 操作部
140 通信部
150 記憶部
151 3次元データ保持部
160 表示部
30 被写体
40 平面
51 法線方向
52 重力方向
110 制御部
111 奥行き情報取得部
112 データ変換部
113 基準平面算出部
114 被写体抽出部
115 サイズ測定部
116 表示制御部
117 加速度取得部
118 重力方向算出部
119 被写体選択部
121 奥行き情報検出部
122 加速度検出部
130 操作部
140 通信部
150 記憶部
151 3次元データ保持部
160 表示部
Claims (20)
- 奥行き情報を取得する奥行き情報取得部と、
前記奥行き情報を3次元データに変換するデータ変換部と、
前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、
前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、
前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、
情報処理装置。 - 前記サイズ測定部は、向かい合う平行な2つの平面3組それぞれの距離を前記被写体のサイズとして測定する、
請求項1に記載の情報処理装置。 - 前記サイズ測定部は、前記被写体領域に外接する複数通りの6平面を検出し、前記複数通りの6平面から、囲まれる体積が最小となる6平面を検出し、体積が最小となる6平面に基づいて、前記被写体のサイズを測定する、
請求項1に記載の情報処理装置。 - 前記サイズ測定部は、前記被写体領域に外接する上下方向に垂直な2平面のうち、前記被写体領域の上側に外接する平面を上面として検出するとともに、前記被写体領域の下側に外接する平面を下面として検出し、前記上面に垂直であり、かつ、向かい合う平行な2つの平面2組からなる4側面を算出する、
請求項1に記載の情報処理装置。 - 前記サイズ測定部は、重力方向または記被写体が存在する平面の法線方向を前記上下方向として検出する、
請求項4に記載の情報処理装置。 - 前記被写体抽出部は、前記3次元データに基づいて、画面中心から所定の距離以内にある物体領域、画面占有率が所定の割合よりも大きい物体領域、前記奥行き情報を検出するセンサに最も近い物体領域、および、所定の形状を有する物体領域の少なくともいずれか一つを前記被写体領域として抽出する、
請求項1に記載の情報処理装置。 - 前記情報処理装置は、基準平面を算出する基準平面算出部を備え、
前記被写体抽出部は、前記3次元データに基づいて、前記基準平面の上に存在する物体領域を前記被写体領域として抽出する、
請求項1に記載の情報処理装置。 - 前記基準平面算出部は、重力方向に基づいて前記基準平面を検出し、または、前記3次元データに基づいて、画面における占有率が最も大きい平面を前記基準平面として検出し、または、法線方向が一致または類似する複数の平面のうち、前記奥行き情報を検出するセンサからの距離がより遠い平面を前記基準平面として検出する、
請求項7に記載の情報処理装置。 - 前記情報処理装置は、前記被写体のサイズに基づく所定の表示が撮像画像に重畳されて表示されるように制御する表示制御部を備え、
前記所定の表示は、前記被写体のサイズ、前記被写体のサイズに対応する画面上の範囲、前記被写体領域に外接する6平面、前記被写体のサイズの合計、および、前記被写体のサイズに対応する価格のうち、少なくともいずれか一つを含む、
請求項1に記載の情報処理装置。 - 前記撮像画像は、前記奥行き情報を検出するセンサによって撮像された画像、または、前記奥行き情報を検出するセンサとは異なるイメージセンサによって撮像された画像である、
請求項9に記載の情報処理装置。 - 前記表示制御部は、前記被写体領域と他の領域とを区別可能に表示制御する、
請求項9に記載の情報処理装置。 - 前記サイズ測定部は、複数の被写体領域が抽出された場合、前記複数の被写体領域に基づいて複数の被写体それぞれのサイズを測定する、
請求項1に記載の情報処理装置。 - 前記情報処理装置は、前記複数の被写体それぞれのサイズに基づく所定の表示が撮像画像に重畳されて表示されるように制御する表示制御部を備え、
前記所定の表示は、前記複数の被写体それぞれのサイズ、前記複数の被写体それぞれのサイズに対応する画面上の範囲、前記複数の被写体領域それぞれに外接する6平面、前記複数の被写体それぞれのサイズの合計、および、前記複数の被写体のサイズそれぞれに対応する価格の合計のうち、少なくともいずれか一つを含む、
請求項12に記載の情報処理装置。 - 前記表示制御部は、前記複数の被写体に対応する被写体領域のうち、選択された前記1の被写体に対応する被写体領域と選択されていない他の被写体に対応する被写体領域とを区別可能に表示制御し、前記複数の被写体に対応する被写体領域と他の領域とを区別可能に表示制御する、
請求項13に記載の情報処理装置。 - 前記情報処理装置は、前記複数の被写体から、ユーザ操作に基づいて、または、自動的に、1の被写体を選択する被写体選択部を備え、
前記サイズ測定部は、選択された前記1の被写体のサイズを測定する、
請求項13に記載の情報処理装置。 - 前記奥行き情報取得部は、TOFセンサ、Structured Light法による距離画像センサ、および、ステレオカメラの少なくともいずれか一つによって検出された前記奥行き情報を取得する、
請求項1に記載の情報処理装置。 - 前記奥行き情報を検出するセンサは、少なくとも前記被写体の上面を検出可能な位置に配置される、
請求項1に記載の情報処理装置。 - 前記データ変換部は、複数の奥行き情報が取得され、前記複数の奥行き情報それぞれに対応する3次元データを得た場合、前記複数の奥行き情報それぞれに対応する3次元データを合成し、
前記被写体抽出部は、合成後の3次元データに基づいて前記被写体領域を抽出する、
請求項1に記載の情報処理装置。 - 奥行き情報を取得することと、
前記奥行き情報を3次元データに変換することと、
前記3次元データに基づいて被写体が存在する被写体領域を抽出することと、
前記被写体領域に基づいて前記被写体のサイズを測定することと、を含み、
プロセッサにより、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定することを含む、
情報処理方法。 - 奥行き情報を取得する奥行き情報取得部と、
前記奥行き情報を3次元データに変換するデータ変換部と、
前記3次元データに基づいて被写体が存在する被写体領域を抽出する被写体抽出部と、
前記被写体領域に基づいて前記被写体のサイズを測定するサイズ測定部と、を備え、
前記サイズ測定部は、前記被写体領域に外接する6平面を検出し、前記6平面に基づいて、前記被写体のサイズを測定する、
個体撮像装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017131634A JP2019015553A (ja) | 2017-07-05 | 2017-07-05 | 情報処理装置、情報処理方法および個体撮像装置 |
US16/615,236 US10964045B2 (en) | 2017-07-05 | 2018-04-12 | Information processing device, information processing method, and individual imaging device for measurement of a size of a subject |
PCT/JP2018/015399 WO2019008861A1 (ja) | 2017-07-05 | 2018-04-12 | 情報処理装置、情報処理方法および個体撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017131634A JP2019015553A (ja) | 2017-07-05 | 2017-07-05 | 情報処理装置、情報処理方法および個体撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019015553A true JP2019015553A (ja) | 2019-01-31 |
Family
ID=64950770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017131634A Pending JP2019015553A (ja) | 2017-07-05 | 2017-07-05 | 情報処理装置、情報処理方法および個体撮像装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10964045B2 (ja) |
JP (1) | JP2019015553A (ja) |
WO (1) | WO2019008861A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020147336A (ja) * | 2019-03-14 | 2020-09-17 | 大日本印刷株式会社 | 紙容器の検査方法、内容物入り紙容器の製造方法、内容物充填システムおよび内容物入り紙容器の製造装置 |
JP2021068099A (ja) * | 2019-10-21 | 2021-04-30 | Kyoto Robotics株式会社 | 移載対象ワーク向き認識システム |
JP2021076494A (ja) * | 2019-11-11 | 2021-05-20 | 沖電気工業株式会社 | 寸法測定システム、寸法測定装置および寸法測定方法 |
WO2023281736A1 (ja) * | 2021-07-09 | 2023-01-12 | マクセル株式会社 | 拡張現実表示装置及び拡張現実表示システム |
Family Cites Families (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1253620A (en) | 1985-04-30 | 1989-05-02 | Jon Claesson | Method relating to three dimensional measurement of objects |
US5220536A (en) | 1989-09-01 | 1993-06-15 | Quantronix, Inc. | Measuring method and apparatus |
US5105392A (en) * | 1989-09-01 | 1992-04-14 | Quantronix, Inc. | Measuring method and apparatus |
US5042015A (en) | 1989-09-01 | 1991-08-20 | Quantronix, Inc. | Measuring method and apparatus |
US20050226532A1 (en) * | 2004-04-01 | 2005-10-13 | Thompson Robert L | System and method for determining the size of an object |
CA2737169C (en) | 2006-04-28 | 2014-04-01 | Global Sensor Systems Inc. | Device for measuring package size |
JP5109803B2 (ja) * | 2007-06-06 | 2012-12-26 | ソニー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
EP2071515A1 (en) * | 2007-12-11 | 2009-06-17 | Honda Research Institute Europe GmbH | Visually tracking an object in real world using 2D appearance and multicue depth estimations |
US20110187704A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Generating and displaying top-down maps of reconstructed 3-d scenes |
US10739460B2 (en) * | 2010-08-11 | 2020-08-11 | Apple Inc. | Time-of-flight detector with single-axis scan |
US9934427B2 (en) * | 2010-09-23 | 2018-04-03 | Stryker Corporation | Video monitoring system |
KR101074678B1 (ko) * | 2011-03-03 | 2011-10-18 | 배상모 | 휴대단말기에 구비된 카메라를 이용한 물체의 실제 크기 측정 방법 |
JP5592308B2 (ja) * | 2011-05-19 | 2014-09-17 | 富士重工業株式会社 | 環境認識装置 |
JP5095850B1 (ja) * | 2011-08-31 | 2012-12-12 | 株式会社東芝 | オブジェクト探索装置、映像表示装置およびオブジェクト探索方法 |
JP6102930B2 (ja) * | 2011-10-14 | 2017-03-29 | オムロン株式会社 | 射影空間監視のための方法および装置 |
US9964643B2 (en) * | 2011-12-08 | 2018-05-08 | Conduent Business Services, Llc | Vehicle occupancy detection using time-of-flight sensor |
KR20130098042A (ko) * | 2012-02-27 | 2013-09-04 | 삼성전자주식회사 | 깊이 정보 생성 장치 및 이를 포함하는 촬영 장치 |
JP5921271B2 (ja) | 2012-03-19 | 2016-05-24 | 株式会社東芝 | 物体測定装置、及び物体測定方法 |
JP2013253799A (ja) | 2012-06-05 | 2013-12-19 | Panasonic Corp | サイズ測定装置 |
WO2014006832A1 (ja) | 2012-07-02 | 2014-01-09 | パナソニック株式会社 | サイズ測定装置及びサイズ測定方法 |
US9841311B2 (en) * | 2012-10-16 | 2017-12-12 | Hand Held Products, Inc. | Dimensioning system |
US20140104416A1 (en) * | 2012-10-16 | 2014-04-17 | Hand Held Products, Inc. | Dimensioning system |
US9691163B2 (en) * | 2013-01-07 | 2017-06-27 | Wexenergy Innovations Llc | System and method of measuring distances related to an object utilizing ancillary objects |
US9424461B1 (en) * | 2013-06-27 | 2016-08-23 | Amazon Technologies, Inc. | Object recognition for three-dimensional bodies |
US10089739B2 (en) * | 2013-06-28 | 2018-10-02 | Texas Instruments Incorporated | Structured light depth imaging under various lighting conditions |
US9483829B2 (en) * | 2013-09-04 | 2016-11-01 | International Business Machines Corporation | Efficient visual surface finding |
JP5906224B2 (ja) * | 2013-09-27 | 2016-04-20 | 富士重工業株式会社 | 車外環境認識装置 |
US9619884B2 (en) * | 2013-10-03 | 2017-04-11 | Amlogic Co., Limited | 2D to 3D image conversion device and method |
EP2871843B1 (en) * | 2013-11-12 | 2019-05-29 | LG Electronics Inc. -1- | Digital device and method for processing three dimensional image thereof |
US20150172637A1 (en) * | 2013-12-12 | 2015-06-18 | Electronics And Telecommunications Research Institute | Apparatus and method for generating three-dimensional output data |
US9280825B2 (en) * | 2014-03-10 | 2016-03-08 | Sony Corporation | Image processing system with registration mechanism and method of operation thereof |
JP5961207B2 (ja) * | 2014-03-28 | 2016-08-02 | 富士重工業株式会社 | 車外環境認識装置 |
KR102335045B1 (ko) * | 2014-10-07 | 2021-12-03 | 주식회사 케이티 | 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치 |
US9998724B2 (en) * | 2014-12-15 | 2018-06-12 | Canon Kabushiki Kaisha | Image processing apparatus and method for processing three-dimensional data that describes a space that includes physical objects |
CN105787919B (zh) * | 2014-12-23 | 2019-04-30 | 清华大学 | 一种安检ct三维图像的操作方法和装置 |
JP6456156B2 (ja) * | 2015-01-20 | 2019-01-23 | キヤノン株式会社 | 法線情報生成装置、撮像装置、法線情報生成方法および法線情報生成プログラム |
US20160225180A1 (en) * | 2015-01-29 | 2016-08-04 | Siemens Medical Solutions Usa, Inc. | Measurement tools with plane projection in rendered ultrasound volume imaging |
KR102264591B1 (ko) * | 2015-02-27 | 2021-06-15 | 삼성전자주식회사 | 영상 처리 방법 및 이를 지원하는 전자 장치 |
CN106152947B (zh) * | 2015-03-31 | 2019-11-29 | 北京京东尚科信息技术有限公司 | 测量物体尺寸的设备、方法和装置 |
CN106296721B (zh) * | 2015-05-14 | 2019-01-25 | 株式会社理光 | 基于立体视觉的对象聚集检测方法和装置 |
KR102114969B1 (ko) * | 2015-06-08 | 2020-06-08 | 삼성전자주식회사 | 광학 장치 및 깊이 정보 생성 방법 |
EP3309505A4 (en) | 2015-06-11 | 2018-04-25 | Panasonic Intellectual Property Management Co., Ltd. | Dimension measurement device and dimension measurement method |
KR20180094835A (ko) * | 2015-08-03 | 2018-08-24 | 모하메드 엠. 헤피다 | 2d에서 3d로의 비디오 프레임 변환 |
CA2994508C (en) * | 2015-08-06 | 2020-07-14 | Accenture Global Services Limited | Vegetation management for power line corridor monitoring using computer vision |
KR102457724B1 (ko) * | 2015-09-22 | 2022-10-24 | 삼성전자주식회사 | 영상 처리를 수행하기 위한 방법 및 그 전자 장치 |
CN108139475A (zh) * | 2015-09-30 | 2018-06-08 | 索尼公司 | 信号处理设备、信号处理方法和程序 |
US9940730B2 (en) * | 2015-11-18 | 2018-04-10 | Symbol Technologies, Llc | Methods and systems for automatic fullness estimation of containers |
WO2017110071A1 (ja) * | 2015-12-25 | 2017-06-29 | パナソニックIpマネジメント株式会社 | 寸法測定装置、宅配ボックス装置、寸法測定方法 |
EP3188033B1 (en) * | 2015-12-31 | 2024-02-14 | Dassault Systèmes | Reconstructing a 3d modeled object |
CN108475439B (zh) * | 2016-02-16 | 2022-06-17 | 乐天集团股份有限公司 | 三维模型生成系统、三维模型生成方法和记录介质 |
US20170272728A1 (en) * | 2016-03-16 | 2017-09-21 | Aquifi, Inc. | System and method of three-dimensional scanning for customizing footwear |
JP6728865B2 (ja) * | 2016-03-25 | 2020-07-22 | 富士ゼロックス株式会社 | 手上げ検出装置及び手上げ検出プログラム |
US10262222B2 (en) | 2016-04-13 | 2019-04-16 | Sick Inc. | Method and system for measuring dimensions of a target object |
KR101788269B1 (ko) * | 2016-04-22 | 2017-10-19 | 주식회사 에스원 | 이상 상황을 감지하는 장치 및 방법 |
CN108541322B (zh) * | 2016-08-29 | 2021-09-14 | 北京清影机器视觉技术有限公司 | 三维视觉测量数据的处理方法和装置 |
TWI607412B (zh) * | 2016-09-10 | 2017-12-01 | 財團法人工業技術研究院 | 多維度尺寸量測系統及其方法 |
US10109055B2 (en) * | 2016-11-21 | 2018-10-23 | Seiko Epson Corporation | Multiple hypotheses segmentation-guided 3D object detection and pose estimation |
US10089750B2 (en) * | 2017-02-02 | 2018-10-02 | Intel Corporation | Method and system of automatic object dimension measurement by using image processing |
US10679408B2 (en) * | 2017-02-02 | 2020-06-09 | Adobe Inc. | Generating a three-dimensional model from a scanned object |
ES2747387B1 (es) * | 2017-02-06 | 2021-07-27 | Photonic Sensors & Algorithms S L | Dispositivo y metodo para obtener informacion de profundidad a partir de una escena. |
-
2017
- 2017-07-05 JP JP2017131634A patent/JP2019015553A/ja active Pending
-
2018
- 2018-04-12 US US16/615,236 patent/US10964045B2/en active Active
- 2018-04-12 WO PCT/JP2018/015399 patent/WO2019008861A1/ja active Application Filing
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020147336A (ja) * | 2019-03-14 | 2020-09-17 | 大日本印刷株式会社 | 紙容器の検査方法、内容物入り紙容器の製造方法、内容物充填システムおよび内容物入り紙容器の製造装置 |
JP7255251B2 (ja) | 2019-03-14 | 2023-04-11 | 大日本印刷株式会社 | 紙容器の検査方法、内容物入り紙容器の製造方法、内容物充填システムおよび内容物入り紙容器の製造装置 |
JP2021068099A (ja) * | 2019-10-21 | 2021-04-30 | Kyoto Robotics株式会社 | 移載対象ワーク向き認識システム |
JP7385424B2 (ja) | 2019-10-21 | 2023-11-22 | 株式会社日立オートメーション | 移載対象ワーク向き認識システム |
JP2021076494A (ja) * | 2019-11-11 | 2021-05-20 | 沖電気工業株式会社 | 寸法測定システム、寸法測定装置および寸法測定方法 |
WO2023281736A1 (ja) * | 2021-07-09 | 2023-01-12 | マクセル株式会社 | 拡張現実表示装置及び拡張現実表示システム |
Also Published As
Publication number | Publication date |
---|---|
US10964045B2 (en) | 2021-03-30 |
US20200167944A1 (en) | 2020-05-28 |
WO2019008861A1 (ja) | 2019-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11348326B2 (en) | Display control device, display control method, and recording medium | |
US11188187B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP6981106B2 (ja) | 撮像装置、画像表示システム、操作方法、プログラム | |
JP5573238B2 (ja) | 情報処理装置、情報処理法方法およびプログラム | |
JP6121647B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US10964045B2 (en) | Information processing device, information processing method, and individual imaging device for measurement of a size of a subject | |
US20100045869A1 (en) | Entertainment Device, System, and Method | |
US9480917B2 (en) | System and method of imaging | |
JP2016006627A (ja) | 画像処理装置と画像処理方法 | |
US11062422B2 (en) | Image processing apparatus, image communication system, image processing method, and recording medium | |
JPWO2014016862A1 (ja) | 表示制御プログラム、表示制御方法及び表示制御装置 | |
JP2017211811A (ja) | 表示制御プログラム、表示制御方法および表示制御装置 | |
TW201142746A (en) | Information processing device, information processing method, and program | |
JP2020052719A (ja) | データ生成方法、装置およびプログラム | |
US11195295B2 (en) | Control system, method of performing analysis and storage medium | |
JP6065084B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2017184025A (ja) | 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム | |
JP2017162014A (ja) | 通信端末、画像通信システム、表示方法、及びプログラム | |
JP5714961B2 (ja) | 監視検知装置 | |
JP7434825B2 (ja) | 中継装置、通信システム、通信方法、及びプログラム | |
JP6950548B2 (ja) | 送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置 | |
CN102194050B (zh) | 信息处理设备和信息处理方法 |