JP7120365B1 - IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE - Google Patents

IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE Download PDF

Info

Publication number
JP7120365B1
JP7120365B1 JP2021048022A JP2021048022A JP7120365B1 JP 7120365 B1 JP7120365 B1 JP 7120365B1 JP 2021048022 A JP2021048022 A JP 2021048022A JP 2021048022 A JP2021048022 A JP 2021048022A JP 7120365 B1 JP7120365 B1 JP 7120365B1
Authority
JP
Japan
Prior art keywords
unit
display
image
information
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021048022A
Other languages
Japanese (ja)
Other versions
JP2022146970A (en
Inventor
寛太 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021048022A priority Critical patent/JP7120365B1/en
Priority to PCT/JP2022/013038 priority patent/WO2022202775A1/en
Priority to EP22720071.4A priority patent/EP4315247A1/en
Priority to JP2022064332A priority patent/JP2022151877A/en
Application granted granted Critical
Publication of JP7120365B1 publication Critical patent/JP7120365B1/en
Publication of JP2022146970A publication Critical patent/JP2022146970A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】表示画像に含まれる特定の対象を容易に識別すること。【解決手段】撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13(受光部の一例)と、距離情報取得部13の出力と、撮像部11の出力との両方に基づき高反射物があるかを判断する判断部160と、高反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。【選択図】図15An object of the present invention is to easily identify a specific object included in a displayed image. An imaging device 1 includes an imaging unit 11 for imaging an object, a projection unit 12 for projecting light onto the object, and a distance information acquisition unit 13 (an example of a light receiving unit) for receiving light reflected from the object. , a determination unit 160 that determines whether there is a highly reflective object based on both the output of the distance information acquisition unit 13 and the output of the imaging unit 11; and a display control unit 170 for displaying. [Selection drawing] Fig. 15

Description

本発明は、撮像装置、撮像方法および情報処理装置に関する。 The present invention relates to an imaging device, an imaging method, and an information processing device.

特許文献1には、物体までの距離を安定して精度良く測定することができる測距装置が記載されている。 Patent Literature 1 describes a distance measuring device capable of stably and accurately measuring the distance to an object.

特許文献2には、指などの写り込みが発生した場合に、写り込みの影響を少なくする画像処理を行う撮像装置が記載されている。 Japanese Patent Application Laid-Open No. 2002-200002 describes an image pickup apparatus that performs image processing to reduce the influence of the reflection of a finger or the like when the reflection occurs.

特許文献3には、計測データの密度が所定の閾値よりも低いブロックを抽出し、当該抽出した前記ブロックの範囲にある座標を、三次元計測装置を設置すべき位置である提示計測位置として提示する計測位置提示部と、を有する三次元合成処理システムが記載されている。 In Patent Document 3, a block whose measurement data density is lower than a predetermined threshold is extracted, and the coordinates within the range of the extracted block are presented as the presented measurement position where the three-dimensional measurement device should be installed. A three-dimensional synthesis processing system is described that has a measurement position presentation unit that performs measurement.

特開2018‐077071号公報JP 2018-077071 A 特許第5423287号公報Japanese Patent No. 5423287 特許第6192938号公報Japanese Patent No. 6192938

本発明は、表示画像に含まれる特定の対象を容易に識別できる撮像装置、撮像方法および情報処理装置を提供することを目的とする。 An object of the present invention is to provide an imaging device, an imaging method, and an information processing device that can easily identify a specific object included in a display image.

本発明に係る撮像装置は、対象を撮像する撮像部と、対象に振幅変調した光を投射する投射部と、対象から反射してきた光を、投射部による光の投射に同期して受光する受光部と、を備え、受光部の出力に基づいて対象までの距離情報を取得する撮像装置であって、高反射物があるかを、受光部が受光した光による画素の蓄電量が所定値以上である場合に、撮像部が撮像した画像情報における画素に対応する領域に基づいて判断する判断部と、高反射物があると判断された場合に、画像情報と、高反射物を識別する識別情報と、を含む表示画像を表示部に表示させることで、表示部に高反射物が無いと判断された場合と異なる表示をさせる表示制御部と、を備える。

An imaging apparatus according to the present invention includes an imaging unit for imaging an object, a projection unit for projecting amplitude-modulated light onto the object, and a light receiving unit for receiving light reflected from the object in synchronization with the projection of the light by the projection unit. and acquiring distance information to an object based on the output of the light-receiving unit, wherein the presence of a highly reflective object is determined when the amount of charge in a pixel due to light received by the light-receiving unit is equal to or greater than a predetermined value. a determination unit that determines based on an area corresponding to a pixel in the image information captured by the imaging unit; and if it is determined that there is a highly reflective object, the image information and an identification that identifies the highly reflective object. and a display control unit that displays a display image including information on the display unit so as to display a different image than when it is determined that there is no highly reflective object on the display unit.

本発明によれば、表示画像に含まれる特定の対象を容易に識別できる撮像装置、撮像方法および情報処理装置を提供することができる。 According to the present invention, it is possible to provide an imaging device, an imaging method, and an information processing device that can easily identify a specific object included in a display image.

本発明の実施形態に係る撮像装置の外観の一例を示す図である。It is a figure showing an example of the appearance of the imaging device concerning the embodiment of the present invention. 同実施形態における撮像装置の構成を説明するための図である。It is a figure for demonstrating the structure of the imaging device in the same embodiment. 同実施形態における撮像装置の使用状況を説明するための図である。It is a figure for demonstrating the usage condition of the imaging device in the same embodiment. 同実施形態における処理回路の処理ブロックの構成の一例を示す図である。It is a figure which shows an example of a structure of the processing block of the processing circuit in the same embodiment. 同実施形態における撮像装置の処理回路の動作の一例を示すフロー図である。FIG. 4 is a flow chart showing an example of the operation of the processing circuit of the imaging device in the same embodiment; 同実施形態における全天球画像データ生成フロー図である。FIG. 4 is a flow chart for generating omnidirectional image data in the same embodiment; 同実施形態における近接物判断フロー図である。FIG. 10 is a flow chart for judging an approaching object in the same embodiment; 同実施形態における表示部の表示内容を説明するための図である。It is a figure for demonstrating the display content of the display part in the same embodiment. 同実施形態の変形例に係る撮像装置の外観を示す図である。It is a figure which shows the external appearance of the imaging device which concerns on the modification of the same embodiment. 変形例における処理回路の処理ブロックの構成を示す図である。It is a figure which shows the structure of the processing block of the processing circuit in a modification. 本発明の実施形態の第2の変形例に係る撮像装置の外観を示す図である。It is a figure which shows the external appearance of the imaging device based on the 2nd modification of embodiment of this invention. 第2の変形例における処理回路の処理ブロックの構成を示す図である。FIG. 10 is a diagram showing the configuration of processing blocks of a processing circuit in a second modified example; 第2の変形例における近接物判断フロー図である。FIG. 11 is a flow chart for judging an approaching object in the second modified example; 本発明の実施形態の第3の変形例に係る撮像装置の構成を説明するための図である。It is a figure for demonstrating the structure of the imaging device based on the 3rd modification of embodiment of this invention. 本発明の実施形態における高反射物の判断フロー図である。FIG. 4 is a flowchart for determining a highly reflective object according to the embodiment of the present invention; 同実施形態における遠方物および低反射物の判断フロー図である。FIG. 10 is a flowchart for determining a distant object and a low-reflection object in the same embodiment; 同実施形態における画像のぶれの判断フロー図である。FIG. 10 is a flowchart for determining blurring of an image in the same embodiment; 本発明の実施形態の第4の変形例における判断フロー図である。It is a judgment flow figure in the 4th modification of the embodiment of the present invention. 本発明の実施形態の第5の変形例における処理回路の処理ブロックの構成の一例を示す図である。It is a figure which shows an example of a structure of the processing block of the processing circuit in the 5th modification of embodiment of this invention. 本発明の実施形態の第6の変形例における情報処理システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the information processing system in the 6th modification of embodiment of this invention. 本発明の実施形態の第7の変形例における情報処理システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the information processing system in the 7th modification of embodiment of this invention. 第5~第7の変形例における表示部の表示内容を説明するための図である。FIG. 14 is a diagram for explaining display contents of a display unit in fifth to seventh modifications; 本発明の実施形態における表示部が表示する三次元画像を説明するための図である。FIG. 4 is a diagram for explaining a three-dimensional image displayed by a display unit according to the embodiment of the present invention; FIG. 第5~第7の変形例における判断フロー図である。FIG. 11 is a flowchart for judgment in fifth to seventh modifications; 第5~第7の変形例における表示部の表示内容を説明するための他の図である。FIG. 14 is another diagram for explaining display contents of the display unit in the fifth to seventh modifications; 第5~第7の変形例における処理を説明するフロー図である。FIG. 11 is a flow diagram illustrating processing in fifth to seventh modifications; 第5~第7の変形例における処理を説明する他のフロー図である。FIG. 12 is another flow diagram for explaining the processing in the fifth to seventh modifications;

以下に添付図面を参照して、撮像装置および撮像処理方法の実施の形態を詳細に説明する。 Exemplary embodiments of an imaging device and an imaging processing method will be described in detail below with reference to the accompanying drawings.

図1は、本発明の実施形態に係る撮像装置の外観の一例を示す図である。図2は、撮像装置の構成を説明するための図である。図2には、図1の撮像装置の内部の構成を示している。 FIG. 1 is a diagram showing an example of the appearance of an imaging device according to an embodiment of the present invention. FIG. 2 is a diagram for explaining the configuration of the imaging device. FIG. 2 shows the internal configuration of the imaging apparatus of FIG.

撮像装置1は、受光した光に基づいて決定される3次元情報を出力する情報処理装置の一例であり、撮像部(カメラ)11と、可視光以外の光を投射する投射部(距離センサの発光部に相当する部分)12と、投射部12が投射した光に基づいて距離情報を取得する距離情報取得部(距離センサの受光部に相当する部分)13とを筐体10に対して一体に設けたものである。各部は、筐体10内部の処理回路14と同期信号線Lにより電気的に接続されており、それぞれ同期して動作する。 The imaging device 1 is an example of an information processing device that outputs three-dimensional information determined based on received light. A portion corresponding to a light emitting portion) 12 and a distance information acquisition portion (a portion corresponding to a light receiving portion of a distance sensor) 13 for acquiring distance information based on the light projected by the projection portion 12 are integrated with the housing 10. It is set in Each part is electrically connected to the processing circuit 14 inside the housing 10 by a synchronization signal line L, and operates in synchronization with each other.

撮影スイッチ15は、ユーザが処理回路14に撮影指示信号を入力するためのものである。表示部20は、処理回路14の出力信号に応じた内容を表示するものであり、液晶画面等により構成される。表示部20は、タッチパネル等により構成され、ユーザの操作入力を受け付けるようにしてもよい。撮影指示に基づき処理回路14は各部を制御してRGB画像や距離情報のデータを取得し、取得した距離情報のデータをRGB画像や距離情報のデータに基づいて高密度3次元点群データに再構築する処理を行う。 A photographing switch 15 is used by the user to input a photographing instruction signal to the processing circuit 14 . The display unit 20 displays the content according to the output signal of the processing circuit 14, and is configured by a liquid crystal screen or the like. The display unit 20 is configured by a touch panel or the like, and may receive user's operation input. Based on the photographing instruction, the processing circuit 14 controls each part to acquire the RGB image and distance information data, and reproduces the acquired distance information data into high-density three-dimensional point cloud data based on the RGB image and the distance information data. Do the process to build.

距離情報のデータは、そのまま使用しても3次元点群データを構築することが可能だが、その場合、3次元点群データの精度が距離情報取得部13の画素数(解像度)に制限される。本例では、それを高密度の3次元点群データに再構築する場合の処理についても示す。再構築したデータは可搬型の記録媒体や通信などを介して外部のPCなどに出力され、3次元復元モデルの表示に利用される。 Although it is possible to construct 3D point cloud data by using the distance information data as it is, in that case, the accuracy of the 3D point cloud data is limited to the number of pixels (resolution) of the distance information acquisition unit 13. . This example also shows the processing for reconstructing it into high-density three-dimensional point cloud data. The reconstructed data is output to an external PC or the like via a portable recording medium or communication, and used to display the three-dimensional reconstruction model.

各部や処理回路14には、筐体10内部に収容されるバッテリから電力が供給される。この他にも、筐体10の外部から接続コードにより電力供給を受ける構成としてもよい。 Power is supplied to each unit and the processing circuit 14 from a battery housed inside the housing 10 . In addition to this, a configuration in which power is supplied from the outside of the housing 10 through a connection cord may be employed.

撮像部11は、2次元画像情報を撮像し、撮像素子11a、11Aや、魚眼レンズ(広角レンズ)11b、11Bなどを有する。投射部12は、光源部12a、12Aや広角レンズ12b、12Bなどを有する。距離情報取得部13は、TOF(Time Of Fright)センサ13a、13Aや広角レンズ13b、13Bなどを有する。なお、各部は、図示を省略しているがプリズムやレンズ群などの光学系を構成してよい。 The imaging unit 11 captures two-dimensional image information, and includes imaging elements 11a and 11A, fisheye lenses (wide-angle lenses) 11b and 11B, and the like. The projection unit 12 includes light source units 12a and 12A, wide-angle lenses 12b and 12B, and the like. The distance information acquisition unit 13 includes TOF (Time Of Flight) sensors 13a, 13A, wide-angle lenses 13b, 13B, and the like. Although not shown, each part may constitute an optical system such as a prism and a lens group.

例えば、撮像部11に、魚眼レンズ11b、11Bが集めた光を撮像素子11a、11Aに結像するための光学系を構成してよい。また、投射部12に、光源部12a、12Aの光を広角レンズ12b、12Bに導く光学系を構成してよい。また、距離情報取得部13に広角レンズ13b、13Bが集めた光をTOFセンサ13a、13Aに結像するための光学系を構成してよい。各光学系については、撮像素子11a、11A、光源部12a、12A、TOFセンサ13a、13Aなどの構成や配置に応じて適宜決めてよいものとし、ここでは、プリズムやレンズ群などの光学系については省略して説明する。 For example, the imaging unit 11 may be configured with an optical system for forming images of the light collected by the fisheye lenses 11b and 11B on the imaging elements 11a and 11A. Further, the projection section 12 may be configured with an optical system that guides the light from the light source sections 12a and 12A to the wide-angle lenses 12b and 12B. Further, an optical system may be configured in the distance information acquisition section 13 to image the light collected by the wide-angle lenses 13b and 13B on the TOF sensors 13a and 13A. Each optical system may be appropriately determined according to the configuration and arrangement of the imaging elements 11a, 11A, light source units 12a, 12A, TOF sensors 13a, 13A, etc. Here, optical systems such as prisms and lens groups are described. are omitted in the description.

撮像素子11a、11A、光源部12a、12A、およびTOFセンサ13a、13Aは、筐体10の内部に一体的に収められている。魚眼レンズ11bと、広角レンズ12bと、広角レンズ13bと、表示部20とは、それぞれ筐体10の正面側の第1の面に設けられている。第1の面において、魚眼レンズ11b、広角レンズ12b、および広角レンズ13bのぞれぞれの内側の範囲は開口している。 The imaging elements 11a and 11A, the light sources 12a and 12A, and the TOF sensors 13a and 13A are housed inside the housing 10 integrally. The fisheye lens 11b, the wide-angle lens 12b, the wide-angle lens 13b, and the display unit 20 are provided on the first surface on the front side of the housing 10, respectively. On the first surface, the inner ranges of the fisheye lens 11b, the wide-angle lens 12b, and the wide-angle lens 13b are open.

魚眼レンズ11Bと、広角レンズ12Bと、広角レンズ13Bと、撮影スイッチ15とは、それぞれ筐体10の背面側の第2の面に設けられている。第2の面において、魚眼レンズ11B、広角レンズ12B、および広角レンズ13Bのぞれぞれの内側の範囲は開口している。 The fisheye lens 11B, the wide-angle lens 12B, the wide-angle lens 13B, and the shooting switch 15 are provided on the second surface on the back side of the housing 10, respectively. On the second surface, the inner ranges of the fisheye lens 11B, the wide-angle lens 12B, and the wide-angle lens 13B are open.

撮像素子11a、11Aは、2次元解像度のイメージセンサ(エリアセンサ)である。撮像素子11a、11Aは、2次元方向に各画素の受光素子(フォトダイオード)が多数配列された撮像エリアを有する。撮像エリアには可視光を受光するためにベイヤ配列等のR(Red)とG(Green)とB(Blue)のカラーフィルタが設けられており、カラーフィルタを通過した光がフォトダイオードに蓄電される。ここでは、広角(例えば図2に示す撮像方向を正面とする周囲180度の半天球の範囲など)の2次元画像を高解像度で取得することができるように画素数の多いイメージセンサを使用する。 The imaging elements 11a and 11A are two-dimensional resolution image sensors (area sensors). The imaging elements 11a and 11A have an imaging area in which a large number of light receiving elements (photodiodes) for each pixel are arranged in two-dimensional directions. In the imaging area, R (red), G (green), and B (blue) color filters such as a Bayer array are provided to receive visible light, and light passing through the color filters is stored in photodiodes. be. Here, an image sensor with a large number of pixels is used so that a wide-angle (for example, the range of a 180-degree hemispherical sphere with the imaging direction shown in FIG. 2 as the front) can be acquired with high resolution. .

撮像素子11a、11Aは、その撮像エリアに結像した光を各画素の画素回路で電気信号に変換して高解像度のRGB画像を出力する。魚眼レンズ11b、11Bは、広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)から光を集め、その光を撮像素子11a、11Aの撮像エリアに結像する。 The imaging elements 11a and 11A convert the light imaged on the imaging area into an electric signal by the pixel circuit of each pixel and output a high-resolution RGB image. The fisheye lenses 11b and 11B collect light from a wide angle (for example, a 180-degree hemispherical range with the imaging direction shown in FIG. 2 as the front) and form an image of the light on the imaging areas of the imaging elements 11a and 11A.

光源部12a、12Aは、半導体レーザであり、距離の計測に用いる可視光領域以外(ここでは一例として赤外とする)の波長帯のレーザ光を出射する。光源部12a、12Aには、1つの半導体レーザを用いてもよいし、複数の半導体レーザを組み合わせて使用してもよい。また、半導体レーザとして例えばVCSEL(Vertical Cavity Surface Emitting LASER)などの面発光型の半導体レーザを使用してもよい。 The light source units 12a and 12A are semiconductor lasers, and emit laser light in a wavelength band other than the visible light range used for distance measurement (infrared as an example here). One semiconductor laser may be used for the light source units 12a and 12A, or a plurality of semiconductor lasers may be used in combination. As the semiconductor laser, a surface emitting semiconductor laser such as a VCSEL (Vertical Cavity Surface Emitting LASER) may be used.

また、半導体レーザの光を光学レンズにより縦に長くなるように成形し、縦長にした光を、MEMS(Micro Electro Mechanical Systems)ミラーなどの光偏向素子で計測範囲の一次元方向に走査するような構成にしてもよい。本実施の形態では、光源部12a、12Aとして、半導体レーザLAの光をMEMSミラーなどの光偏向素子を使用せずに広角レンズ12b、12Bを介して広角の範囲に広げる形態を示している。 In addition, the light of a semiconductor laser is formed by an optical lens so as to be vertically elongated, and the vertically elongated light is scanned in a one-dimensional direction of the measurement range by an optical deflection element such as a MEMS (Micro Electro Mechanical Systems) mirror. may be configured. In this embodiment, the light sources 12a and 12A are configured to spread the light from the semiconductor laser LA over a wide angle range through wide-angle lenses 12b and 12B without using an optical deflection element such as a MEMS mirror.

光源部12a、12Aの広角レンズ12b、12Bは、光源部12a、12Aが出射した光を広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)の範囲に広げる機能を有する。 The wide-angle lenses 12b and 12B of the light source units 12a and 12A have a function of widening the light emitted from the light source units 12a and 12A into a wide-angle range (for example, a 180-degree hemispherical range with the imaging direction shown in FIG. 2 as the front). have

距離情報取得部13の広角レンズ13b、13Bは、投射部12により投射された光源部12a、12Aの光の反射光を、計測範囲である広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)の各方向から取り込み、それらの光をTOFセンサ13a、13Aの受光エリアに結像する。計測範囲には一つまたは複数の被投射物(例えば建物など)が含まれており、被投射物で反射した光(反射光)が広角レンズ13b、13Bに入射する。反射光は、例えば広角レンズ13b、13Bの表面全体に赤外領域の波長以上の光をカットするフィルタを設けるなどして取り込んでよい。なお、これに限らず、受光エリアに赤外領域の光が入射すればよいため、広角レンズ13b、13Bから受光エリアまでの光路にフィルタなど赤外領域の波長の光を通す手段を設けてもよい。 The wide-angle lenses 13b and 13B of the distance information acquisition unit 13 convert the light reflected from the light sources 12a and 12A projected by the projection unit 12 into a wide-angle measurement range (for example, a circumference with the imaging direction shown in FIG. 2 as the front). 180-degree hemispheric range, etc.), and the light is imaged on the light receiving areas of the TOF sensors 13a and 13A. The measurement range includes one or more projection objects (for example, buildings), and light reflected by the projection objects (reflected light) enters wide-angle lenses 13b and 13B. The reflected light may be captured by, for example, providing a filter that cuts off light having wavelengths in the infrared region or higher on the entire surfaces of the wide-angle lenses 13b and 13B. In addition to this, since light in the infrared region may be incident on the light-receiving area, a means such as a filter for passing light in the infrared region may be provided in the optical path from the wide-angle lenses 13b and 13B to the light-receiving area. good.

TOFセンサ13a、13Aは、2次元解像度の光センサである。TOFセンサ13a、13Aは多数の受光素子(フォトダイオード)が2次元方向に配列された受光エリアを有する。この意味で「第2の撮像受光手段 」と言えるである。TOFセンサ13a、13Aは、計測範囲の各エリア(各エリアを位置とも言う)の反射光を、各エリアに対応する受光素子で受光し、各受光素子で検出した光に基づき各エリアまでの距離を計測(算出)する。 The TOF sensors 13a and 13A are optical sensors with two-dimensional resolution. The TOF sensors 13a and 13A have light receiving areas in which a large number of light receiving elements (photodiodes) are arranged two-dimensionally. In this sense, it can be said that it is a "second imaging light receiving means". The TOF sensors 13a and 13A receive reflected light from each area (each area is also referred to as a position) in the measurement range with a light receiving element corresponding to each area, and the distance to each area is determined based on the light detected by each light receiving element. is measured (calculated).

本実施形態では、位相差検出方式で距離を計測する。位相差検出方式では、基本周波数で振幅変調したレーザ光を計測範囲に照射し、その反射光を受光して照射光と反射光との位相差を測定することで時間を求め、その時間に光速をかけて距離を算出する。この方式では、ある程度の解像度が見込めることが強みである。 In this embodiment, the distance is measured by the phase difference detection method. In the phase difference detection method, a measurement range is irradiated with a laser beam amplitude-modulated at the fundamental frequency, the reflected light is received, and the time is obtained by measuring the phase difference between the irradiated light and the reflected light. to calculate the distance. The strength of this method is that a certain degree of resolution can be expected.

TOFセンサ13a、13Aは、投射部12による光の照射に同期して駆動し、各受光素子(画素に対応)で反射光との位相差から各画素に対応する距離を算出し、画素情報に計測範囲内の各エリアまでの距離を示す情報を対応付けた距離情報画像データ(後において「距離画像」や「TOF画像」とも言う)を出力する。TOFセンサ13a、13Aは、画素情報に位相情報を対応付けた位相情報画像データを出力し、後処理にて位相情報画像データに基づき距離情報画像データを取得してもよい。 The TOF sensors 13a and 13A are driven in synchronization with the irradiation of light by the projection unit 12, and the distance corresponding to each pixel is calculated from the phase difference between the light receiving element (corresponding to the pixel) and the reflected light, and the pixel information is obtained. Distance information image data (hereinafter also referred to as "distance image" or "TOF image") associated with information indicating the distance to each area within the measurement range is output. The TOF sensors 13a and 13A may output phase information image data in which phase information is associated with pixel information, and acquire distance information image data based on the phase information image data in post-processing.

なお、測定範囲を分割することができるエリア数は、受光エリアの解像度によって決まる。従って、小型化のため解像度が低いものを使用した場合、距離画像データの画素情報の数が減少するため、3次元点群の数も少なくなる。 The number of areas into which the measurement range can be divided is determined by the resolution of the light receiving areas. Therefore, if a low-resolution image is used for miniaturization, the number of pixel information in the distance image data is reduced, so the number of three-dimensional point groups is also reduced.

なお、他の形態として、位相差検出方式に代えて、パルス方式で距離を計測してもよい。その場合、例えば、光源部12a、12Aで、立ち上がり時間が数ナノ秒(ns)で且つ光ピークパワーが強い超短パルスの照射パルスP1を出射し、これに同期してTOFセンサ13a、13Aにより、光源部12a、12Aが出射した照射パルスP1の反射光である反射パルスP2の受光までにかかる時間(t)を計測する。 As another form, the distance may be measured by a pulse method instead of the phase difference detection method. In that case, for example, the light source units 12a and 12A emit an ultrashort irradiation pulse P1 having a rise time of several nanoseconds (ns) and a high optical peak power. , the time (t) required to receive the reflected pulse P2, which is the reflected light of the irradiation pulse P1 emitted by the light source units 12a and 12A.

この方式を採用する場合、例えばTOFセンサ13a、13Aとして、受光素子の出力側に時間の計測を行う回路などを実装したものを使用する。各回路では、受光素子毎に、光源部12a、12Aが照射パルスP1を出射してから反射パルスP2を受光するまでにかかる時間を距離に換算し、各エリアまでの距離を得る。 When this method is adopted, for example, the TOF sensors 13a and 13A are used, in which a circuit for measuring time is mounted on the output side of the light receiving element. Each circuit converts the time required for the light source units 12a and 12A from emitting the irradiation pulse P1 to receiving the reflected pulse P2 for each light-receiving element into a distance, and obtains the distance to each area.

この方式は、ピーク光を使用し強力な光を出力することができるので、撮像装置1の広角化に適している。また、MEMSミラーなどを使用して光を振る(走査する)構成にした場合には、強力な光を、広がりを抑えつつ遠くまで照射することができるため、測定距離の拡大に繋がる。この場合、光源部12a、12Aから出射されたレーザ光を、MEMSミラーにより広角レンズ12b、12Bへ向けて走査(偏向)するような配置関係とする。 This method is suitable for widening the angle of view of the imaging device 1 because it can output strong light using peak light. In addition, when a MEMS mirror or the like is used to wave (scan) light, it is possible to irradiate strong light to a long distance while suppressing spread, which leads to an increase in measurement distance. In this case, the arrangement relationship is such that the laser beams emitted from the light source units 12a and 12A are scanned (deflected) toward the wide-angle lenses 12b and 12B by the MEMS mirrors.

なお、撮像部11の有効画角と距離情報取得部13の有効画角は例えば180度以上で一致していることが望ましいが、必ずしも一致していなくてもよい。必要に応じて撮像部11の有効画角と距離情報取得部13の有効画角とをそれぞれ減じてもよい。本実施形態では、撮像部11および距離情報取得部13は画角に撮像装置1本体や距離情報取得部13などが含まれないようにないように例えば100度~180度の範囲内などに有効画素を減じている。 Although it is desirable that the effective angle of view of the imaging unit 11 and the effective angle of view of the distance information acquisition unit 13 match, for example, 180 degrees or more, they do not necessarily have to match. The effective angle of view of the imaging unit 11 and the effective angle of view of the distance information acquisition unit 13 may be reduced as necessary. In this embodiment, the imaging unit 11 and the distance information acquisition unit 13 are effective within a range of, for example, 100 degrees to 180 degrees so that the angle of view does not include the main body of the imaging device 1, the distance information acquisition unit 13, etc. reducing pixels.

また、TOFセンサ13a、13Aの解像度は、撮像装置1の小型化を優先して撮像素子11a、11Aの解像度よりも低く設定してよい。TOFセンサ13a、13Aを撮像素子11a、11Aよりも低解像度のものとすることにより、受光エリアのサイズ拡大を抑えることができるため、撮像装置1の小型化に繋げることができる。このためTOFセンサ13a、13Aは低解像度になり、TOFセンサ13a、13Aで得られる3次元点群は低密度となるが、「取得手段」である処理回路14を設けているため高密度の3次元点群に変換することができる。処理回路14において高密度の3次元点群に変換する処理については後述する。 Further, the resolution of the TOF sensors 13a and 13A may be set lower than the resolution of the imaging elements 11a and 11A in order to prioritize miniaturization of the imaging apparatus 1. FIG. By setting the TOF sensors 13a and 13A to have a resolution lower than that of the imaging elements 11a and 11A, it is possible to suppress an increase in the size of the light-receiving area. Therefore, the TOF sensors 13a and 13A have a low resolution, and the three-dimensional point cloud obtained by the TOF sensors 13a and 13A has a low density. It can be transformed into a dimensional point cloud. The process of converting into a high-density three-dimensional point group in the processing circuit 14 will be described later.

本実施の形態では、一例として、撮像素子11aと、光源部12aと、TOFセンサ13aとは筐体10の長手方向に直線上に並ぶように設けている。同様に、撮像素子11Aと、光源部12Aと、TOFセンサ13Aとは筐体10の長手方向に直線上に並ぶように設けている。以下、撮像素子11aと、光源部12aと、TOFセンサ13aの例で説明する。 In the present embodiment, as an example, the imaging element 11a, the light source section 12a, and the TOF sensor 13a are provided so as to line up in a straight line in the longitudinal direction of the housing 10. FIG. Similarly, the imaging element 11A, the light source section 12A, and the TOF sensor 13A are arranged in a straight line in the longitudinal direction of the housing 10. As shown in FIG. An example of the imaging device 11a, the light source unit 12a, and the TOF sensor 13a will be described below.

撮像素子11aの撮像エリア(撮像面)やTOFセンサ13aの受光エリア(受光面)は、図2に示すように長手方向に直交する方向に向けて配置してもよいし、光の直進方向(光路)を90度変換して入射させるプリズムなどを設けることで長手方向に向けて配置してもよい。この他にも、構成に応じて任意の向きに配置してもよい。つまりは、撮像素子11aと、光源部12aと、TOFセンサ13aとは、同じ計測範囲が対象となるように配置される。撮像部11と、投射部12と、距離情報取得部13とが筐体10の一面側から、その測定範囲に向けて配置される。 The imaging area (imaging surface) of the imaging element 11a and the light receiving area (light receiving surface) of the TOF sensor 13a may be arranged in a direction perpendicular to the longitudinal direction as shown in FIG. It may be arranged in the longitudinal direction by providing a prism or the like that converts the optical path by 90 degrees and enters the light. In addition, they may be arranged in any direction depending on the configuration. That is, the imaging element 11a, the light source unit 12a, and the TOF sensor 13a are arranged so as to cover the same measurement range. An imaging unit 11, a projection unit 12, and a distance information acquisition unit 13 are arranged from one side of the housing 10 toward the measurement range.

この際に、撮像素子11aとTOFセンサ13aとを、平行ステレオ化するように同一基線上に配置できればよい。平行ステレオ化するように配置することにより、撮像素子11aが1つであっても、TOFセンサ13aの出力を利用して視差データを得ることが可能になる。光源部12aは、TOFセンサ13aの計測範囲に光を照射することができるように構成する。 In this case, the imaging device 11a and the TOF sensor 13a should be arranged on the same base line so as to achieve parallel stereo. By arranging for parallel stereo, even if there is only one imaging device 11a, it is possible to obtain parallax data using the output of the TOF sensor 13a. The light source unit 12a is configured to irradiate the measurement range of the TOF sensor 13a with light.

(処理回路)
続いて、処理回路14の処理について説明する。TOFセンサ13a、13Aだけで得たTOF画像は、そのままでは解像度が低い。このため、本例では処理回路14により高解像度化し、高密度の3次元点群データを再構築する例を示す。なお、処理回路14における「情報処理手段」としての以下に示す処理の一部または全ては、外部装置で行ってもよい。
(processing circuit)
Next, processing of the processing circuit 14 will be described. The TOF images obtained only by the TOF sensors 13a and 13A have low resolution as they are. Therefore, in this example, an example of reconstructing high-density three-dimensional point group data by increasing the resolution by the processing circuit 14 is shown. Part or all of the processing described below as the "information processing means" in the processing circuit 14 may be performed by an external device.

前述したように、撮像装置1で再構築された3次元点群データは、可搬型の記録媒体や通信などを介してPCなどの外部装置に出力され、3次元復元モデルの表示に利用される。 As described above, the 3D point cloud data reconstructed by the imaging device 1 is output to an external device such as a PC via a portable recording medium or communication, and used to display a 3D restored model. .

これにより、撮像装置1自体が3次元復元モデルの表示を行う場合に比べて、高速化、小型化、軽量化により携帯性に優れた撮像装置1を提供することができる。 As a result, compared to the case where the imaging device 1 itself displays a three-dimensional restored model, it is possible to provide the imaging device 1 that is superior in portability due to speeding up, downsizing, and weight reduction.

しかしながら、3次元情報を取得する現場から離れて、外部装置により3次元情報を復元した後に、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことに気づく場合があり、その場合、3次元情報を取得する現場を再訪問する手間がかかる。 However, after the 3D information is restored by an external device away from the site where the 3D information is acquired, the 3D information is acquired in a desired layout, such as the reflection of the photographer himself or a tripod in the captured image. It may be found that there is not, in which case revisiting the site from which the 3D information is to be obtained is troublesome.

これを解決するには、現場にPCなどの外部装置を持ち込むことが考えられるが、そうすると、高速化、小型化、軽量化というメリットがなくなってしまう。 In order to solve this problem, it is conceivable to bring an external device such as a PC to the site, but then the merits of speeding up, downsizing, and weight reduction will be lost.

また、取得した3次元情報を通信回線により外部装置に送信し、復元された3次元情報を受信することも考えられるが、高速化のメリットが無くなるのと、そもそも3次元情報は情報量が多いので、撮影者自身や三脚等の撮像画像への写り込みを目視で確認するのは困難である。 It is also conceivable to transmit the acquired three-dimensional information to an external device via a communication line and receive the restored three-dimensional information. Therefore, it is difficult to visually check whether the photographer himself or the tripod is reflected in the captured image.

特に全天球3次元情報の場合は、撮影者自身や三脚等の撮像画像への写り込みを目視で確認するのは極めて困難である。 In particular, in the case of omnidirectional three-dimensional information, it is extremely difficult to visually check whether the photographer himself or a tripod is reflected in the captured image.

本実施形態は、以上の課題に鑑み、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことをリアルタイムで容易に確認できる撮像装置1を提供することを目的とする。 In view of the above problems, the present embodiment provides an imaging apparatus 1 that can easily check in real time whether the photographer himself or a tripod is reflected in the captured image, or whether the three-dimensional information of the desired layout has not been acquired. intended to provide

図3は、同実施形態における撮像装置の使用状況を説明するための図である。 FIG. 3 is a diagram for explaining the usage status of the imaging device according to the embodiment.

図3(a)に示す状態では、撮影者Mおよび撮像装置1を支持する自撮り棒1Aは、全天球撮像範囲Rに含まれておらず、撮影者Mおよび自撮り棒1Aが、全天球の撮像画像に写りこむことはない。 In the state shown in FIG. 3(a), the photographer M and the selfie stick 1A supporting the imaging device 1 are not included in the omnidirectional imaging range R, and the photographer M and the selfie stick 1A are not included in the omnidirectional imaging range R. It does not appear in captured images of the celestial sphere.

図3(b)に示す状態では、撮影者Mが全天球撮像範囲Rに含まれており、撮影者Mが、全天球の撮像画像に写りこんでしまう。 In the state shown in FIG. 3B, the photographer M is included in the omnidirectional imaging range R, and the photographer M appears in the omnidirectional captured image.

図3(c)に示す状態では、撮像装置1を支持する三脚1Bが全天球撮像範囲Rに含まれており、三脚1Bが、全天球の撮像画像に写りこんでしまう。 In the state shown in FIG. 3C, the tripod 1B supporting the imaging device 1 is included in the omnidirectional imaging range R, and the tripod 1B appears in the omnidirectional captured image.

図3(d)に示す状態では、撮影者Mおよび撮像装置1を支持する自撮り棒1Aは、全天球撮像範囲Rに含まれておらず、撮影者Mおよび自撮り棒1Aが、全天球の撮像画像に写りこむことはないが、外光(例えば太陽や照明など)が強いため、写りこみを誤判定する可能性がある。 In the state shown in FIG. 3(d), the photographer M and the selfie stick 1A supporting the imaging device 1 are not included in the omnidirectional imaging range R, and the photographer M and the selfie stick 1A are not included in the omnidirectional imaging range R. Although it will not be reflected in the captured image of the celestial sphere, there is a possibility that it will be erroneously determined to be reflected due to the strong external light (for example, the sun or lighting).

また、図3(b)および図3(c)に示す状態では、写りこむ物体の色や種類、およびその見え方が多様であるため、一律に写りこみの有無を判断するのは困難であった。 In the states shown in FIGS. 3(b) and 3(c), it is difficult to uniformly judge whether or not there is an object in the image, because the color, type, and appearance of the object in the image vary. rice field.

以上の状況に対して、TOFセンサ13a、13Aから出力される距離情報画像データに基づき、撮影者自身や三脚等の特定の対象物(近接物)の有無を判断する場合、本当に特定の対象物が存在するのか、外光が強すぎるのか、区別することが困難であった。 In the above situation, when determining the presence or absence of a specific object (proximity object) such as the photographer himself or a tripod based on the distance information image data output from the TOF sensors 13a and 13A, the actual specific object It was difficult to distinguish between the existence of a large amount of light and whether the outside light was too strong.

すなわち、TOFセンサ13a、13Aの特定の画素の蓄電量が飽和している場合、特定の対象物が存在しているのが原因なのか、外光の強度が強すぎるのか、TOFセンサ13a、13Aの出力からだけでは、区別することが困難であった。 That is, when the amount of electricity stored in a specific pixel of the TOF sensor 13a, 13A is saturated, whether the cause is the presence of a specific object or the intensity of outside light is too strong, the TOF sensor 13a, 13A It was difficult to distinguish just from the output of

本実施形態は、以上の課題に鑑み、外光の影響と区別して、撮影者自身や三脚等の特定の対象物の撮像画像への写り込みの有無を正確に確認することができる撮像装置1を提供することを他の目的とする。また、本実施形態は、近接物に限られず、高反射物、遠方物、低反射物、画像のぶれ等の対象が画像に含まれることを確認できることも目的とする。 In view of the above problems, the present embodiment is an imaging apparatus 1 capable of accurately confirming whether or not a specific object such as a photographer or a tripod is reflected in a captured image by distinguishing it from the influence of external light. for the other purpose of providing Another object of the present embodiment is to make it possible to confirm that objects such as highly reflective objects, distant objects, low reflective objects, and image blur are included in the image, in addition to the near objects.

図4は、処理回路14の処理ブロックの構成の一例を示す図である。図4に示す処理回路14は、制御部141と、RGB画像データ取得部142と、モノクロ処理部143と、TOF画像データ取得部144と、高解像度化部145と、マッチング処理部146と、再投影処理部147と、セマンティックセグメンテーション部148と、視差計算部149と、3次元再構成処理部150と、判断部160と、出力部の一例である表示制御部170と、出力部の一例である送受信部180とを有する。なお、図4において、実線矢印は信号の流れを示し、破線矢印はデータの流れを示している。 FIG. 4 is a diagram showing an example of a configuration of processing blocks of the processing circuit 14. As shown in FIG. Processing circuit 14 shown in FIG. A projection processing unit 147, a semantic segmentation unit 148, a parallax calculation unit 149, a three-dimensional reconstruction processing unit 150, a determination unit 160, a display control unit 170 as an example of an output unit, and an example of an output unit. and a transmitting/receiving unit 180 . In FIG. 4, solid line arrows indicate the flow of signals, and broken line arrows indicate the flow of data.

制御部141は、撮影スイッチ15からON信号(撮影開始信号)を受けると撮像素子11a、11A、光源部12a、12A、およびTOFセンサ13a、13Aに同期信号を出力し、処理回路14全体を制御する。制御部141は、先ず光源部12a、12Aに超短パルスの出射を指示する信号を出力し、これと同じタイミングでTOFセンサ13a、13AにTOF画像データの生成を指示する信号を出力する。さらに、制御部141は、撮像素子11a、11Aに撮像を指示する信号を出力する。なお、撮像素子11a、11Aにおける撮像は、光源部12a、12Aから出射されている期間でもよいし、その前後の直近の期間でもよい。 When the control unit 141 receives an ON signal (shooting start signal) from the shooting switch 15, it outputs a synchronization signal to the image sensors 11a and 11A, the light source units 12a and 12A, and the TOF sensors 13a and 13A, thereby controlling the processing circuit 14 as a whole. do. The control unit 141 first outputs signals instructing the light source units 12a and 12A to emit ultrashort pulses, and at the same timing outputs signals instructing the TOF sensors 13a and 13A to generate TOF image data. Further, the control unit 141 outputs signals instructing imaging to the imaging elements 11a and 11A. The imaging by the imaging devices 11a and 11A may be performed during the period during which light is emitted from the light source units 12a and 12A, or during the most recent period before or after that period.

RGB画像データ取得部142は、制御部141による撮像指示に基づき、撮像素子11a、11Aが撮像したRGB画像データを取得して、全天球のRGB画像データを出力する。モノクロ処理部143は、TOFセンサ13a、13Aから得られるTOF画像データとのマッチング処理のためにデータ種を揃えるための処理を行う。この例では、モノクロ処理部143は、全天球のRGB画像データを全天球のモノクロ画像に変換する処理を行う。 The RGB image data acquisition unit 142 acquires RGB image data captured by the image sensors 11a and 11A based on an image capturing instruction from the control unit 141, and outputs omnidirectional RGB image data. The monochrome processing unit 143 performs processing for aligning data types for matching processing with the TOF image data obtained from the TOF sensors 13a and 13A. In this example, the monochrome processing unit 143 performs processing for converting omnidirectional RGB image data into an omnidirectional monochrome image.

TOF画像データ取得部144は、制御部141によるTOF画像データの生成指示に基づき、TOFセンサ13a、13Aが生成したTOF画像データを取得して、全天球のTOF画像データを出力する。 The TOF image data acquisition unit 144 acquires the TOF image data generated by the TOF sensors 13a and 13A based on the TOF image data generation instruction from the control unit 141, and outputs omnidirectional TOF image data.

高解像度化部145は、全天球のTOF画像データをモノクロ画像に見立て、その解像度を高解像度化する。具体的に、高解像度化部145は、全天球のTOF画像データの各画素に対応付けられている距離の値を、全天球のモノクロ画像の値(グレースケール値)に置き換えて使用する。さらに、高解像度化部145は、全天球のモノクロ画像の解像度を撮像素子11a、11Aから得られた全天球のRGB画像データの解像度まで高解像度化する。高解像度への変換は、例えば通常のアップコンバート処理を施すことにより行う。その他の変換方法としては、例えば連続して生成された全天球のTOF画像データを複数フレーム取得し、それらを利用して隣接する地点の距離を追加して超解像度処理を施すなどしてもよい。 The resolution enhancement unit 145 treats the omnidirectional TOF image data as a monochrome image and enhances its resolution. Specifically, the resolution enhancement unit 145 replaces the value of the distance associated with each pixel of the omnidirectional TOF image data with the value (grayscale value) of the omnidirectional monochrome image. . Furthermore, the resolution enhancement unit 145 enhances the resolution of the omnidirectional monochrome image to the resolution of the omnidirectional RGB image data obtained from the imaging elements 11a and 11A. Conversion to high resolution is performed, for example, by performing normal up-conversion processing. As another conversion method, for example, multiple frames of omnidirectional TOF image data generated continuously are acquired, and the distances between adjacent points are added using them to perform super-resolution processing. good.

マッチング処理部146は、全天球のTOF画像データを高解像度化した全天球のモノクロ画像と、全天球のRGB画像データの全天球のモノクロ画像とについて、テクスチャのある部分の特徴量を抽出し、抽出した特徴量によりマッチング処理を行う。例えば、マッチング処理部146は、各モノクロ画像からエッジを抽出し、抽出したエッジ情報同士でマッチング処理を行う。この他の方法として、例えばSIFT等のテクスチャの変化を特徴量化した手法でマッチング処理を行ってもよい。ここでマッチング処理とは、対応画素の探索のことを意味する。 The matching processing unit 146 calculates the feature quantity of the textured portion of the omnidirectional monochrome image obtained by increasing the resolution of the omnidirectional TOF image data and the omnidirectional monochrome image of the omnidirectional RGB image data. is extracted, and matching processing is performed using the extracted feature amount. For example, the matching processing unit 146 extracts edges from each monochrome image and performs matching processing between the extracted edge information. As another method, for example, matching processing may be performed by a method such as SIFT, which converts changes in texture into features. Here, matching processing means searching for corresponding pixels.

マッチング処理の具体的な手法として、例えばブロックマッチングがある。ブロックマッチングは、参照する画素の周辺で、M×M(Mは正の整数)ピクセルサイズのブロックとして切り出される画素値と、もう一方の画像のうち、探索の中心となる画素の周辺で、同じくM×Mピクセルのブロックとして切り出される画素値の類似度を計算し、最も類似度が高くなる中心画素を対応画素とする方法である。 As a specific method of matching processing, there is block matching, for example. Block matching consists of pixel values cut out as M×M (M is a positive integer) pixel size blocks around the reference pixel, and In this method, the similarity of pixel values cut out as a block of M×M pixels is calculated, and the central pixel with the highest similarity is taken as the corresponding pixel.

類似度の計算方法は様々である。例えば、正規化自己相関係数NCC(Normalized Correlation Coefficient)を示す式を用いても良い。正規化自己相関係数CNCCは数値が高いほど類似度が高いことを示し、ブロックの画素値が完全に一致していれる場合に1となる。 There are various methods of calculating similarity. For example, an equation representing a normalized autocorrelation coefficient NCC (Normalized Correlation Coefficient) may be used. The higher the normalized autocorrelation coefficient CNCC, the higher the degree of similarity.

また、全天球のTOF画像データからテクスチャレス領域の距離のデータも得られるため、領域に応じてマッチング処理に重みをつけてもよい。例えばCNCCを示す式の計算において、エッジ以外の箇所(テクスチャレス領域)に重みをかける計算を行ってもよい。 Further, since the distance data of the textureless area can be obtained from the omnidirectional TOF image data, the matching process may be weighted according to the area. For example, in the calculation of the formula representing CNCC, calculation may be performed to weight portions other than edges (textureless regions).

また、NCCを示す式の代わりに、選択的正規化相関(SCC:Selective Correlation Coefficient)などを用いてもよい。 Alternatively, selective normalization correlation (SCC) or the like may be used instead of the formula representing the NCC.

再投影処理部147は、計測範囲の各位置の距離を示す全天球のTOF画像データを撮像部11の2次元座標(スクリーン座標系)に再投影する処理を行う。再投影するとは、TOFセンサ13a、13Aが算出する3次元点が、撮像素子11a、11Aの画像ではどの座標に写るかを求めることである。全天球のTOF画像データは、距離情報取得部13(主に広角レンズ13b、13B)を中心とする座標系における3次元点の位置を示す。従って、全天球のTOF画像データが示す3次元点を、撮像部11(主に魚眼レンズ11b、11B)を中心とする座標系に再投影する。 The reprojection processing unit 147 performs a process of reprojecting the omnidirectional TOF image data indicating the distance of each position in the measurement range onto the two-dimensional coordinates (screen coordinate system) of the imaging unit 11 . To re-project is to find out at which coordinates the three-dimensional points calculated by the TOF sensors 13a and 13A appear in the images of the imaging devices 11a and 11A. The omnidirectional TOF image data indicates the positions of three-dimensional points in a coordinate system centered on the distance information acquisition section 13 (mainly the wide-angle lenses 13b and 13B). Therefore, the three-dimensional point indicated by the omnidirectional TOF image data is reprojected onto the coordinate system centered on the imaging unit 11 (mainly the fisheye lenses 11b and 11B).

例えば、再投影処理部147は、全天球のTOF画像データの3次元点の座標を、撮像部11を中心とする3次元点の座標に平行移動し、平行移動後に、全天球のTOF画像データの3次元点の座標を全天球のRGB画像データが示す2次元の座標系(スクリーン座標系)に変換する処理を施す。これにより、全天球のTOF画像データの3次元点の座標と、撮像部11により撮像された全天球の2次元画像情報の座標が、互いに対応付けられる。再投影処理部147は、全天球のTOF画像データの3次元点の座標と、撮像部11により撮像された全天球の2次元画像情報の座標を互いに対応付ける。 For example, the reprojection processing unit 147 translates the coordinates of the 3D point of the omnidirectional TOF image data to the coordinates of the 3D point centered on the imaging unit 11, and after the translation, performs the omnidirectional TOF A process of converting the coordinates of the three-dimensional points of the image data into a two-dimensional coordinate system (screen coordinate system) indicated by the omnidirectional RGB image data is performed. As a result, the coordinates of the three-dimensional point of the omnidirectional TOF image data and the coordinates of the omnidirectional two-dimensional image information captured by the imaging unit 11 are associated with each other. The reprojection processing unit 147 associates the coordinates of the three-dimensional point of the omnidirectional TOF image data with the coordinates of the omnidirectional two-dimensional image information captured by the imaging unit 11 .

視差計算部149は、マッチング処理により得られた対応画素との距離のズレから各位置の視差を計算する。なお、視差のマッチング処理は、再投影処理部147が変換した再投影座標を利用して、再投影座標の位置の周辺画素を探索することで、処理時間の短縮や、より詳細で高解像度な距離情報を取得することが可能になる。 The parallax calculator 149 calculates the parallax of each position from the difference in distance from the corresponding pixel obtained by the matching process. In the parallax matching process, the reprojection coordinates converted by the reprojection processing unit 147 are used to search for pixels around the position of the reprojection coordinates. It becomes possible to acquire distance information.

また、視差のマッチング処理にセマンティックセグメンテーション部148のセマンティックセグメンテーション処理により得られたセグメンテーションデータを利用してもよい。その場合、さらに詳細で高解像度の距離情報を取得することができるようになる。 Further, segmentation data obtained by the semantic segmentation processing of the semantic segmentation unit 148 may be used for the parallax matching processing. In that case, more detailed and high-resolution distance information can be obtained.

また、エッジのみや、強い特徴量のある部分のみ、視差のマッチング処理を行い、その他の部分は、全天球のTOF画像データも利用し、例えば全天球のRGB画像特徴や確率的な手法を利用し、伝搬処理を行ってもよい。 In addition, parallax matching processing is performed only for edges and only parts with strong feature amounts, and for other parts, omnidirectional TOF image data is also used. may be used for propagation processing.

セマンティックセグメンテーション部148は、深層学習を利用して、計測範囲の入力画像に対して対象物を示すセグメンテーションラベルを付与する。これにより、全天球のTOF画像データの各画素を、距離毎に分けた複数の距離領域の何れかに拘束させることができるので、計算の信頼性がさらに高まる。 The semantic segmentation unit 148 uses deep learning to assign a segmentation label indicating an object to the input image of the measurement range. As a result, each pixel of the omnidirectional TOF image data can be constrained to one of a plurality of distance areas divided by distance, thereby further increasing the reliability of calculation.

3次元再構成処理部150は、RGB画像データ取得部142から全天球のRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて全天球の3次元データを再構成し、各3次元点に色情報を付加した全天球の高密度3次元点群を出力する。3次元再構成処理部150は、3次元情報を決定する3次元情報決定部の一例である。 The three-dimensional reconstruction processing unit 150 acquires omnidirectional RGB image data from the RGB image data acquisition unit 142 and reconstructs omnidirectional three-dimensional data based on the distance information output by the parallax calculation unit 149. , outputs a high-density 3D point cloud of the sphere with color information added to each 3D point. The 3D reconstruction processing unit 150 is an example of a 3D information determination unit that determines 3D information.

判断部160は、RGB画像データ取得部142から全天球のRGB画像データを取得するとともに、再投影処理部147から全天球のRGB画像データが示す2次元の座標系に変換された全天球のTOF画像データを取得し、これらのデータに基づき、特定の対象物の撮像画像への写り込みの有無を判断し、判断結果を表示制御部170へ出力する。 The determination unit 160 acquires the omnidirectional RGB image data from the RGB image data acquisition unit 142, and from the reprojection processing unit 147, converts the omnidirectional RGB image data into a two-dimensional coordinate system indicated by the omnidirectional RGB image data. The TOF image data of the sphere is acquired, and based on these data, it is determined whether or not the specific object is reflected in the captured image, and the determination result is output to the display control unit 170 .

表示制御部170は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示部20に表示させる。また、表示制御部170は、判断部160から取得した判断結果を示す情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる。 The display control unit 170 acquires omnidirectional RGB image data from the RGB image data acquiring unit 142 and causes the display unit 20 to display two-dimensional image information based on the acquired omnidirectional RGB image data. Further, the display control unit 170 causes the display unit 20 to display a display image including information indicating the determination result acquired from the determination unit 160 and two-dimensional image information.

表示制御部170は、3次元情報とは別に撮像部11により撮像された2次元画像情報を出力する出力部の一例であり、表示部20は、2次元画像情報を出力する出力先の一例である。 The display control unit 170 is an example of an output unit that outputs two-dimensional image information captured by the imaging unit 11 separately from the three-dimensional information, and the display unit 20 is an example of an output destination for outputting the two-dimensional image information. be.

表示制御部170は、3次元再構成処理部150から全天球の3次元データを取得し、3次元情報を表示部20に表示させてもよい。具体的には、表示制御部170は、2次元画像情報を表示部20に表示させる場合と、3次元情報を表示部20に表示させる場合を所定の条件に従って選択してもよい。これにより、表示制御部170は、3次元情報とは別に2次元画像情報を出力することができる。 The display control unit 170 may acquire omnidirectional three-dimensional data from the three-dimensional reconstruction processing unit 150 and cause the display unit 20 to display the three-dimensional information. Specifically, the display control unit 170 may select between displaying two-dimensional image information on the display unit 20 and displaying three-dimensional information on the display unit 20 according to a predetermined condition. Thereby, the display control section 170 can output the two-dimensional image information separately from the three-dimensional information.

送受信部180は、有線または無線技術により外部装置と通信を行うものであり、3次元再構成処理部150から出力される全天球の3次元データおよびRGB画像データ取得部142から出力される全天球の2次元画像情報をネットワーク400経由で3次元復元処理を行う外部装置300へ送信(出力)する。 The transmitting/receiving unit 180 communicates with an external device by a wired or wireless technology, and is used to receive omnidirectional 3D data output from the 3D reconstruction processing unit 150 and omnidirectional data output from the RGB image data acquisition unit 142 . The two-dimensional image information of the celestial sphere is transmitted (output) via the network 400 to the external device 300 that performs the three-dimensional restoration processing.

本実施形態においては、撮像部11により撮像された2次元画像情報は、「表示用の2次元画像データ」を作成するための「元の2次元画像情報」である場合、または、「表示用の2次元画像データ」を意味する。例えば、撮像装置1の内部で「表示用の2次元画像データ」を「元の2次元画像情報」から作成する場合、または、撮像装置1から外部装置に「元の2次元画像情報」を送信して、外部装置で「元の2次元画像情報」から「表示用の2次元画像データ」を作成する場合がある。 In the present embodiment, the two-dimensional image information captured by the imaging unit 11 is "original two-dimensional image information" for creating "two-dimensional image data for display", or "for display". two-dimensional image data of". For example, when "two-dimensional image data for display" is created from "original two-dimensional image information" inside the imaging device 1, or when "original two-dimensional image information" is transmitted from the imaging device 1 to an external device Then, an external device may create "two-dimensional image data for display" from the "original two-dimensional image information".

送受信部180は、3次元情報を出力する出力部の一例であり、外部装置300は、3次元情報を出力する出力先の一例である。 The transmitting/receiving unit 180 is an example of an output unit that outputs 3D information, and the external device 300 is an example of an output destination that outputs 3D information.

送受信部180は、全天球の2次元画像情報は送信せず、全天球の3次元データのみ送信してもよい。また、送受信部180は、SDカード等の可搬型の記憶媒体やパーソナルコンピュータなどとのインターフェース回路により構成されてもよい。 The transmitting/receiving unit 180 may transmit only omnidirectional 3D data without transmitting omnidirectional 2D image information. Further, the transmission/reception unit 180 may be configured by an interface circuit with a portable storage medium such as an SD card or a personal computer.

(処理回路の動作)
図5は、撮像装置1の処理回路14の動作の一例を示すフロー図である。処理回路14の制御部141は、ユーザにより撮影スイッチ15がONされ、撮影指示信号が入力されると、次のような方法で高密度3次元点群を生成する動作を行う(撮像処理方法および情報処理方法の一例)。
(Operation of processing circuit)
FIG. 5 is a flow chart showing an example of the operation of the processing circuit 14 of the imaging device 1. As shown in FIG. When the user turns on the photographing switch 15 and receives a photographing instruction signal, the control unit 141 of the processing circuit 14 performs an operation of generating a high-density three-dimensional point cloud by the following method (imaging processing method and an example of an information processing method).

先ず、制御部141は、光源部12a、12Aと、TOFセンサ13a、13Aと、撮像素子11a、11Aとを駆動して計測範囲を撮影する(ステップS1)。制御部141による駆動により、光源部12a、12Aが赤外光を照射し(投射ステップの一例)、その反射光をTOFセンサ13a、13Aが受光する(受光ステップの一例)。また、撮像素子11a、11Aが、光源部12a、12Aの駆動開始のタイミングあるいはその直近の期間に計測範囲を撮像する(撮像ステップの一例)。 First, the control section 141 drives the light source sections 12a and 12A, the TOF sensors 13a and 13A, and the imaging elements 11a and 11A to photograph the measurement range (step S1). By being driven by the controller 141, the light sources 12a and 12A emit infrared light (an example of a projecting step), and the TOF sensors 13a and 13A receive the reflected light (an example of a light receiving step). In addition, the imaging elements 11a and 11A capture images of the measurement range at the timing when the light source units 12a and 12A start to be driven or in the period immediately preceding it (an example of the imaging step).

次に、RGB画像データ取得部142が、撮像素子11a、11Aから計測範囲のRGB画像データを取得する(ステップS2)。そして、表示制御部170は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示部20に表示させる(表示ステップの一例)(ステップS3)。 Next, the RGB image data acquisition unit 142 acquires RGB image data of the measurement range from the imaging devices 11a and 11A (step S2). Then, the display control unit 170 acquires the omnidirectional RGB image data from the RGB image data acquiring unit 142, and causes the display unit 20 to display two-dimensional image information based on the acquired omnidirectional RGB image data (display An example of steps) (step S3).

表示制御部170は、取得した全天球のRGB画像データのうちの一部の領域の2次元画像情報を表示部20に表示させ、ユーザの各種入力により、表示部20に表示される2次元画像情報の領域を変更する。ユーザの各種入力は、撮影スイッチ15以外の操作スイッチを設けることや、表示部20をタッチパネル等の入力部として構成することにより、実現できる。 The display control unit 170 causes the display unit 20 to display two-dimensional image information of a partial region of the acquired omnidirectional RGB image data, and according to various user inputs, the two-dimensional image information displayed on the display unit 20 is displayed. Change the image information area. Various inputs by the user can be realized by providing an operation switch other than the photographing switch 15 or configuring the display section 20 as an input section such as a touch panel.

この段階で、撮影者は、表示部20に表示された2次元画像情報により、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの2次元画像情報が取得されていないことを確認することができる。 At this stage, from the two-dimensional image information displayed on the display unit 20, the photographer can confirm that the two-dimensional image information of the desired layout has not been obtained, and that the photographer himself, the tripod, etc. have not been reflected in the captured image. can be confirmed.

次に、TOF画像データ取得部144が、TOFセンサ13a、13Aから2次元領域の各位置の距離を示すTOF画像データを取得する(ステップS4)。 Next, the TOF image data acquisition unit 144 acquires TOF image data indicating the distance of each position in the two-dimensional area from the TOF sensors 13a and 13A (step S4).

次に、モノクロ処理部143が、RGB画像データをモノクロ画像へ変換する(ステップS5)。TOF画像データとRGB画像データとでは、それぞれが距離データとRGBデータとでデータ種が異なり、そのままではマッチングを行うことができない。従って、先ず一旦、それぞれのデータをモノクロ画像に変換する。TOF画像データについては、高解像度化部145が高解像度化の前に各画素の距離を示す値を、そのままモノクロ画像の値に置き換えることで変換する。 Next, the monochrome processing unit 143 converts the RGB image data into a monochrome image (step S5). The TOF image data and the RGB image data are different in data type between the distance data and the RGB data, respectively, and matching cannot be performed as they are. Therefore, each data is first converted into a monochrome image. As for the TOF image data, before the resolution is increased, the resolution increasing unit 145 converts the value indicating the distance of each pixel by replacing it with the value of the monochrome image.

次に、高解像度化部145がTOF画像データの解像度を高解像度化する(ステップS6)。次に、マッチング処理部146が、各モノクロ画像についてテクスチャのある部分の特徴量を抽出し、抽出した特徴量でマッチング処理を行う(ステップS7)。 Next, the resolution enhancement unit 145 enhances the resolution of the TOF image data (step S6). Next, the matching processing unit 146 extracts feature amounts of textured portions of each monochrome image, and performs matching processing using the extracted feature amounts (step S7).

次に、視差計算部149が、対応画素の距離のズレから各位置の視差を計算して距離を計算する(ステップS8)。 Next, the parallax calculator 149 calculates the distance by calculating the parallax of each position from the distance deviation of the corresponding pixels (step S8).

次に、判断部160は、RGB画像データ取得部142から全天球のRGB画像データを取得するとともに、再投影処理部147からRGB画像データが示す2次元の座標系に変換された全天球のTOF画像データを取得し、これらのデータに基づき、特定の対象としての近接物の撮像画像への写り込みの有無を判断し、判断結果を表示制御部170へ出力する(判断ステップの一例)。 Next, the determination unit 160 acquires omnidirectional RGB image data from the RGB image data acquisition unit 142, and omnidirectional coordinates converted into a two-dimensional coordinate system indicated by the RGB image data from the reprojection processing unit 147. TOF image data is acquired, based on these data, it is determined whether or not a nearby object as a specific target is reflected in the captured image, and the determination result is output to the display control unit 170 (an example of the determination step) .

表示制御部170は、判断部160から取得した判断結果を示す情報を2次元画像情報に重畳させたり、含ませたりして表示部20に表示させる(表示ステップの一例)(ステップS9)。ステップS9において、判断部160は、特定の対象として近接物だけでなく、高反射物、遠方物、低反射物および画像のぶれ等の有無を判断し、判断結果を表示制御部170へ出力する。 The display control unit 170 causes the display unit 20 to display the information indicating the determination result acquired from the determination unit 160 by superimposing or including the information on the two-dimensional image information (an example of a display step) (step S9). In step S<b>9 , the determination unit 160 determines whether or not there are not only near objects but also highly reflective objects, distant objects, low reflective objects, image blur, and the like as specific objects, and outputs the determination result to the display control unit 170 . .

そして、3次元再構成処理部150が、RGB画像データ取得部142からRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて3次元データを再構成し、各3次元点に色情報を付加した高密度3次元点群を出力する(ステップS10)。 Then, the three-dimensional reconstruction processing unit 150 acquires the RGB image data from the RGB image data acquisition unit 142, reconstructs the three-dimensional data based on the distance information output by the parallax calculation unit 149, and converts each three-dimensional point into A high-density three-dimensional point group to which color information is added is output (step S10).

次に、送受信部180は、3次元再構成処理部150から出力される3次元データおよびRGB画像データ取得部142から出力される2次元画像情報をネットワーク400経由で3次元復元処理を行う外部装置300へ送信する(3次元情報出力ステップの一例)(ステップS11)。 Next, the transmission/reception unit 180 performs 3D reconstruction processing on the 3D data output from the 3D reconstruction processing unit 150 and the 2D image information output from the RGB image data acquisition unit 142 via the network 400. 300 (an example of a three-dimensional information output step) (step S11).

送受信部180は、RGB画像データ取得部142から出力される2次元画像情報は送信することなく、3次元再構成処理部150から出力される3次元データを送信してもよい。 The transmission/reception unit 180 may transmit the three-dimensional data output from the three-dimensional reconstruction processing unit 150 without transmitting the two-dimensional image information output from the RGB image data acquisition unit 142 .

以上説明したように、撮像装置1は、撮像部11と、3次元情報とは別に撮像部11により撮像された2次元画像情報を出力する表示制御部170備える。 As described above, the image capturing apparatus 1 includes the image capturing unit 11 and the display control unit 170 that outputs two-dimensional image information captured by the image capturing unit 11 separately from three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認することなく、2次元画像情報から容易に確認することが可能になる。 As a result, it is possible to easily check from the two-dimensional image information whether the photographer himself or the tripod is reflected in the captured image, or whether the three-dimensional information of the desired layout has not been acquired, without checking the three-dimensional information. it becomes possible to

したがって、3次元情報を取得する現場に居ながら、3次元情報再取得することが可能になり、3次元情報を取得する現場から離れた後で、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことに気づく場合に比べて、再度、3次元情報を取得する現場を訪問する手間が低減される。 Therefore, it is possible to reacquire the 3D information while staying at the site where the 3D information is to be acquired. This reduces the trouble of visiting the site to acquire the three-dimensional information again, compared with the case where the user finds that the three-dimensional information of the desired layout has not been acquired.

3次元情報は、全天球3次元情報を含む。この場合、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、確認することが困難な全天球3次元情報においても、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、撮像部11により撮像された2次元画像情報から容易に確認することが可能になる。 The three-dimensional information includes omnidirectional three-dimensional information. In this case, even with omnidirectional 3D information, where it is difficult to confirm that the photographer himself or his tripod is reflected in the captured image, or that 3D information with a desired layout is not acquired, the photographer can It is possible to easily confirm from the two-dimensional image information imaged by the imaging unit 11 that the user himself or a tripod is reflected in the imaged image and that the three-dimensional information of the desired layout is not acquired.

表示制御部170は、ステップS11で送受信部180が3次元情報を送信(出力)する前に、ステップS3で2次元画像情報Gを出力する。表示制御部170は、ステップS10で3次元再構成処理部150が3次元情報を決定する前に、ステップS3で2次元画像情報Gを出力する。 The display control unit 170 outputs the two-dimensional image information G in step S3 before the transmitting/receiving unit 180 transmits (outputs) the three-dimensional information in step S11. The display control unit 170 outputs the two-dimensional image information G in step S3 before the three-dimensional reconstruction processing unit 150 determines the three-dimensional information in step S10.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認する前に、2次元画像情報から確認することが可能になる。 As a result, it is possible to check from the two-dimensional image information before checking the three-dimensional information whether the photographer himself or the tripod is reflected in the captured image, or whether the three-dimensional information of the desired layout has not been acquired. becomes possible.

表示制御部170は、表示部20に2次元画像情報を表示させる。撮像装置1は、表示部20を備える。 The display control unit 170 causes the display unit 20 to display two-dimensional image information. The imaging device 1 includes a display section 20 .

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、表示部20に表示される2次元画像情報から容易に確認することが可能になる。 As a result, it is possible to easily confirm from the two-dimensional image information displayed on the display unit 20 that the photographer himself or the tripod is reflected in the captured image and that the three-dimensional information of the desired layout is not acquired. becomes possible.

表示制御部170は、送受信部180が3次元情報を出力する外部装置300とは異なる表示部20へ、2次元画像情報を出力する。 The display control unit 170 outputs the two-dimensional image information to the display unit 20 different from the external device 300 to which the transmitting/receiving unit 180 outputs the three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、外部装置300に出力される3次元情報を確認することなく、外部装置300とは異なる表示部20に出力される2次元画像情報から確認することが可能になる。 As a result, it is possible to check the three-dimensional information output to the external device 300 without checking the three-dimensional information output to the external device 300, such as whether the photographer himself or the tripod is reflected in the captured image, or whether the three-dimensional information of the desired layout has not been acquired. It is possible to confirm from the two-dimensional image information output to the display unit 20 different from the device 300 .

撮像装置1は、距離情報取得部13の出力に基づき3次元情報を決定する3次元再構成処理部150を備える。3次元再構成処理部150は、距離情報取得部13の出力と、2次元画像情報に基づき、3次元情報を決定する。 The imaging device 1 includes a three-dimensional reconstruction processing section 150 that determines three-dimensional information based on the output of the distance information acquisition section 13 . The 3D reconstruction processing unit 150 determines 3D information based on the output of the distance information acquisition unit 13 and the 2D image information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元再構成処理部150で決定される3次元情報を確認することなく、撮像部11により撮像された2次元画像情報から確認することが可能になる。 As a result, the three-dimensional information determined by the three-dimensional reconstruction processing unit 150 is checked to confirm that the photographer himself or the tripod is reflected in the captured image, or that the three-dimensional information of the desired layout has not been acquired. It is possible to confirm from the two-dimensional image information imaged by the imaging unit 11 without having to remove the image.

図6は、同実施形態における全天球画像データ生成フロー図である。 FIG. 6 is a flow chart of omnidirectional image data generation in the same embodiment.

図6(a)は、図5で説明したステップS2に対応する全天球のRGB画像データの生成処理を示すフローチャートである。 FIG. 6A is a flow chart showing the process of generating omnidirectional RGB image data corresponding to step S2 described in FIG.

RGB画像データ取得部142は、魚眼画像形式の2つのRGB画像データを入力する(ステップS201)。 The RGB image data acquisition unit 142 inputs two pieces of RGB image data in the fisheye image format (step S201).

RGB画像データ取得部142は、各RGB画像データを正距円筒画像形式に変換する(ステップS202)。RGB画像データ取得部142は、2つのRGB画像データを同じ座標系に基づいて正距円筒画像形式に変換することで、次のステップでの画像結合を容易にする。なお、RGB画像データは、必要に応じて正距円筒画像フォーマット以外の1つまたは複数の画像フォーマット形式を使用して画像データに変換できる。例えば、任意の面に透視投影した画像や、任意の多面体の各面に透視投影した画像の座標に変換することもできる。 The RGB image data acquisition unit 142 converts each RGB image data into an equirectangular image format (step S202). The RGB image data acquisition unit 142 converts the two RGB image data into an equirectangular image format based on the same coordinate system, thereby facilitating image combination in the next step. Note that the RGB image data can be converted to image data using one or more image formats other than the equirectangular image format, if desired. For example, it is possible to convert the coordinates of an image perspectively projected onto an arbitrary surface or an image perspectively projected onto each surface of an arbitrary polyhedron.

ここで、正距円筒画像形式について説明する。正距円筒画像形式は、全天球画像を表現可能な方式であり、正距円筒図法を用いて作成される画像(正距円筒画像)の形式である。正距円筒図法とは、地球儀の緯度経度のような、2変数で3次元の方向を表し、緯度経度が直交するように平面表示した図法である。従って、正距円筒画像は、正距円筒図法を用いて生成された画像であり、球面座標系の2つの角度変数を2軸とする座標で表現されている。 The equirectangular image format will now be described. The equirectangular image format is a format capable of expressing an omnidirectional image, and is a format of an image (equirectangular image) created using the equirectangular projection method. The equirectangular projection is a projection that expresses a three-dimensional direction with two variables, such as the latitude and longitude of a globe, and displays it on a plane so that the latitude and longitude are orthogonal. Therefore, the equirectangular image is an image generated using the equirectangular projection method, and is represented by coordinates having two angular variables of the spherical coordinate system as two axes.

RGB画像データ取得部142は、ステップS202で生成された2つのRGB画像データを結合し、1枚の全天球RGB画像データを生成する(ステップS203)。入力された2つのRGB画像データは、全画角180度超の領域をカバーしている。このため、この2つのRGB画像データを適切に繋ぐことで生成された全天球RGB画像データは、全天球領域をカバーすることができる。 The RGB image data acquisition unit 142 combines the two RGB image data generated in step S202 to generate one omnidirectional RGB image data (step S203). The two pieces of input RGB image data cover an area with an angle of view exceeding 180 degrees. Therefore, the omnidirectional RGB image data generated by appropriately connecting the two RGB image data can cover the omnidirectional area.

なお、ステップS203における結合処理は、複数画像を繋ぐための既存の技術を用いることができ、特に方法を限定しない。 Note that the combining process in step S203 can use an existing technique for connecting a plurality of images, and the method is not particularly limited.

図6(b)は、図5で説明したステップS4に対応する全天球のTOF画像データの生成処理を示すフローチャートである。 FIG. 6(b) is a flow chart showing the process of generating omnidirectional TOF image data corresponding to step S4 described in FIG.

TOF画像データ取得部144は、魚眼画像形式の2つの距離画像データを取得する(ステップS401)。 The TOF image data acquisition unit 144 acquires two distance image data in the fisheye image format (step S401).

TOF画像データ取得部144は、魚眼画像形式の2つのTOF画像データをそれぞれ正距円筒画像形式に変換する(ステップS402)。正距円筒画像形式は、上述の通り、全天球画像を表現可能な方式である。本ステップS402において、2つのTOF画像データを同じ座標系に基づいて正距円筒画像形式に変換することで、次のステップS403での画像結合を容易にする。 The TOF image data acquisition unit 144 converts the two pieces of TOF image data in the fisheye image format into the equirectangular image format (step S402). The equirectangular image format is, as described above, a format capable of representing an omnidirectional image. In this step S402, the two TOF image data are converted into the equirectangular image format based on the same coordinate system, thereby facilitating the image combination in the next step S403.

TOF画像データ取得部144は、ステップS402で生成された2つのTOF画像データを結合し、1枚の全天球TOF画像データを生成する(ステップS403)。入力された2つのTOF画像データは、全画角180度超の領域をカバーしている。このため、この2つのTOF画像データを適切に繋ぐことで生成された全天球TOF画像データは、全天球領域をカバーすることができる。 The TOF image data acquisition unit 144 combines the two TOF image data generated in step S402 to generate one omnidirectional TOF image data (step S403). The two pieces of input TOF image data cover an area with an angle of view exceeding 180 degrees. Therefore, the omnidirectional TOF image data generated by appropriately connecting the two pieces of TOF image data can cover the omnidirectional area.

なお、ステップS403における結合処理は、複数画像を繋ぐための既存の技術を用いることができ、特に方法を限定しない。 Note that the combining process in step S403 can use an existing technique for connecting multiple images, and the method is not particularly limited.

図7は、同実施形態における近接物判断フロー図である。 FIG. 7 is a flow chart for judging an approaching object in the same embodiment.

図7は、図5で説明したステップS9に対応する近接物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 7 is a flowchart showing the process of determining whether or not a nearby object is included in the captured image corresponding to step S9 described in FIG.

判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が所定値以上である画素の一例として蓄電量が飽和している画素があるか判断する(ステップS801)。 Based on the omnidirectional TOF image data acquired from the re-projection processing unit 147, the determination unit 160 determines whether the omnidirectional TOF image data has a saturated amount of electricity as an example of a pixel whose amount of electricity storage is equal to or greater than a predetermined value. It is determined whether or not there is a pixel in which the number of pixels is 0 (step S801).

判断部160は、ステップS801で蓄電量が飽和している画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS801で蓄電量が飽和していた画素と同一座標の画素について、蓄電量が所定値以上である一例として蓄電量が飽和しているか判断する(ステップS802)。 If there is a pixel with a saturated charge amount in step S801, the determining unit 160 determines, based on the omnidirectional RGB image data acquired from the RGB image data acquiring unit 142, among the omnidirectional RGB image data, For pixels at the same coordinates as the pixel with the saturated charged amount in step S801, it is determined whether the charged amount is saturated as an example of the charged amount being equal to or greater than a predetermined value (step S802).

判断部160は、ステップS802で蓄電量が飽和している場合、ステップS801で蓄電量が飽和している画素は、外光(例えば太陽や照明など)によるものであると判断し、エラー情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得したエラー情報に基づき、エラー情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる(ステップS803)。 If the amount of stored electricity is saturated in step S802, the determining unit 160 determines that the pixels in which the amount of stored electricity is saturated in step S801 are due to external light (for example, the sun or illumination), and outputs error information. Output to the display control unit 170 . The display control unit 170 causes the display unit 20 to display a display image including the error information and the two-dimensional image information based on the error information acquired from the determination unit 160 (step S803).

判断部160は、ステップS802で蓄電量が飽和していない場合、ステップS801で蓄電量が飽和している画素は、近接物の存在によるものであると判断し、ステップS801で蓄電量が飽和していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる(ステップS804)。 If the amount of stored electricity is not saturated in step S802, the determination unit 160 determines that the pixels in which the amount of stored electricity is saturated in step S801 are due to the presence of a nearby object, and the amount of stored electricity is saturated in step S801. The coordinate position information of the pixel that has been displayed is output to display control section 170 . The display control unit 170 causes the display unit 20 to display a display image including identification information for identifying a nearby object and two-dimensional image information based on the pixel coordinate position information acquired from the determination unit 160 (step S804). .

判断部160は、ステップS801で蓄電量が飽和している画素がなかった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、0.5m以下の距離情報を示す画素があるか判断する(ステップS805)。 If there is no pixel in which the amount of stored electricity is saturated in step S801, the determination unit 160 determines 0 It is determined whether there is a pixel indicating distance information of 5 m or less (step S805).

判断部160は、ステップS805で0.5m以下の距離情報を示す画素がない場合、処理を終了する。 If there is no pixel indicating distance information of 0.5 m or less in step S805, the determination unit 160 ends the process.

判断部160は、ステップS805で0.5m以下の距離情報を示す画素がある場合、前述したステップS804へ移行し、ステップS805で0.5m以下の距離情報を示す画素は、近接物の存在によるものであると判断し、ステップS805で0.5m以下の距離情報を示していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる。 If there is a pixel indicating distance information of 0.5 m or less in step S805, the determination unit 160 proceeds to the above-described step S804. and output the coordinate position information of the pixel indicating the distance information of 0.5 m or less to the display control unit 170 in step S805. The display control unit 170 causes the display unit 20 to display a display image including identification information for identifying a nearby object and two-dimensional image information based on the pixel coordinate position information acquired from the determination unit 160 .

以上説明したように、表示制御部170は、近接物が存在すると判断した場合には識別情報を2次元画像情報に重畳または含ませ、近接物が存在すると判断しない場合には識別情報を2次元画像情報に重畳または含ませない。 As described above, the display control unit 170 superimposes or includes the identification information on the two-dimensional image information when it determines that there is a nearby object, and when it determines that there is no nearby object, the display control unit 170 superimposes the identification information on the two-dimensional image information. Do not superimpose or include image information.

すなわち、表示制御部170は、近接物の存在の有無に応じて、表示部20に異なる表示をさせる。 That is, the display control unit 170 causes the display unit 20 to display differently depending on whether or not there is a nearby object.

また、表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる。 Further, the display control unit 170 causes the display unit 20 to display a display image including identification information for identifying a nearby object and two-dimensional image information based on the pixel coordinate position information acquired from the determination unit 160 .

すなわち、表示制御部170は、近接物の位置に応じた表示部20の位置に異なる表示をさせる。 That is, the display control unit 170 causes the display unit 20 to perform different displays depending on the position of the nearby object.

図8は、同実施形態における表示部の表示内容を説明するための図である。 FIG. 8 is a diagram for explaining display contents of the display unit in the embodiment.

図8は、図5に示したステップS2、図7に示したステップS803およびステップS804に対応する説明図である。 FIG. 8 is an explanatory diagram corresponding to step S2 shown in FIG. 5 and steps S803 and S804 shown in FIG.

表示部20には、表示制御部170により、2次元画像情報Gが表示されている。また、表示部20には、表示制御部170により、近接物等の対象を識別する識別情報G1、G2(例えば、指、三脚)およびエラー情報G3と、2次元画像情報Gと、を含む表示画像が表示されている。エラー情報G3は、図8に示すように、「太陽、照明」などのマークを使用して示すことができる。 Two-dimensional image information G is displayed on the display unit 20 by the display control unit 170 . Further, the display control unit 170 causes the display unit 20 to display identification information G1 and G2 (for example, a finger and a tripod) for identifying objects such as nearby objects, error information G3, and two-dimensional image information G. An image is displayed. The error information G3 can be indicated using a mark such as "sun, lighting", as shown in FIG.

以上説明したように、撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13と、距離情報取得部13の出力と、撮像部11の出力と、に基づき判断される近接物等の対象の有無に応じて、表示部20に異なる表示をさせる表示制御部170と、を備える。 As described above, the imaging device 1 includes the imaging unit 11 that images an object, the projection unit 12 that projects light onto the object, the distance information acquisition unit 13 that receives light reflected from the object, and the distance information acquisition unit. A display control unit 170 that causes the display unit 20 to display differently according to the presence or absence of an object such as a nearby object determined based on the output of the unit 13 and the output of the imaging unit 11 .

これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately check whether or not the photographer himself or a nearby object such as a tripod is reflected in the captured image, distinguishing it from the influence of external light.

撮像装置1は、表示部20を備える。これにより、撮影者は、近接物の撮像画像への写り込みの有無を確実に確認することができる。 The imaging device 1 includes a display section 20 . As a result, the photographer can reliably confirm whether or not a nearby object is included in the captured image.

表示制御部170は、近接物の位置に応じた表示部20の位置に異なる表示をさせる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確認することができる。 The display control unit 170 causes the display unit 20 to perform different displays depending on the position of the nearby object. As a result, the photographer can confirm the position at which the nearby object is reflected in the captured image.

表示制御部170は、撮像部11が撮像した画像情報Gを表示部20に表示させるとともに、近接物を識別する識別情報G1、G2と、画像情報と、を含む表示画像を表示部20に表示させる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確実に確認することができる。 The display control unit 170 causes the display unit 20 to display the image information G captured by the imaging unit 11, and displays a display image including the image information and the identification information G1 and G2 for identifying nearby objects on the display unit 20. Let As a result, the photographer can reliably confirm the position at which the nearby object is reflected in the captured image.

撮像装置1は、距離情報取得部13が受光した光による蓄電量が所定値以上である画素の一例として蓄電量が飽和しており、かつ撮像部11の画素の蓄電量が所定値以下である一例として蓄電量が飽和していない場合、近接物があると判断する判断部160を備える。 In the imaging device 1, the amount of stored electricity is saturated as an example of a pixel in which the amount of stored electricity due to the light received by the distance information acquisition unit 13 is equal to or greater than a predetermined value, and the amount of stored electricity of the pixel of the imaging unit 11 is equal to or less than the predetermined value. As an example, it includes a determination unit 160 that determines that there is an approaching object when the amount of stored electricity is not saturated.

これにより、撮影者は、外光の影響と区別して、近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately check whether or not a nearby object is reflected in the captured image, distinguishing it from the influence of external light.

図9は、同実施形態の変形例に係る撮像装置の外観を示す図である。図10は、変形例における処理回路の処理ブロックの構成を示す図である。 FIG. 9 is a diagram showing the appearance of an imaging device according to a modification of the embodiment. FIG. 10 is a diagram showing a configuration of processing blocks of a processing circuit in a modified example.

本変形例において、表示制御部170は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示装置500の表示部520に表示させる。表示部520は、2次元画像情報を出力する出力先の一例である。 In this modification, the display control unit 170 acquires omnidirectional RGB image data from the RGB image data acquisition unit 142, and displays two-dimensional image information based on the acquired omnidirectional RGB image data on the display device 500. 520 to display. The display unit 520 is an example of an output destination for outputting two-dimensional image information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、表示部520に表示される2次元画像情報から容易に確認することが可能になる。 As a result, it is possible to easily confirm from the two-dimensional image information displayed on the display unit 520 that the photographer himself or the tripod is reflected in the captured image and that the three-dimensional information of the desired layout is not acquired. becomes possible.

表示制御部170は、送受信部180が3次元情報を出力する外部装置300とは異なる表示部520へ、2次元画像情報を出力する。 The display control unit 170 outputs the two-dimensional image information to the display unit 520 different from the external device 300 to which the transmitting/receiving unit 180 outputs the three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、外部装置300に出力される3次元情報を確認することなく、外部装置300とは異なる表示部520に出力される2次元画像情報から確認することが可能になる。 As a result, it is possible to check the three-dimensional information output to the external device 300 without checking the three-dimensional information output to the external device 300, such as whether the photographer himself or the tripod is reflected in the captured image, or whether the three-dimensional information of the desired layout has not been acquired. It is possible to confirm from the two-dimensional image information output to the display unit 520 different from the device 300 .

表示制御部170は、3次元再構成処理部150から全天球の3次元データを取得し、3次元情報を表示部520に表示させてもよい。具体的には、表示制御部170は、2次元画像情報を表示部520に表示させる場合と、3次元情報を表示部520に表示させる場合を所定の条件に従って選択してもよい。これにより、表示制御部170は、3次元情報とは別に2次元画像情報を出力することができる。 The display control unit 170 may acquire omnidirectional three-dimensional data from the three-dimensional reconstruction processing unit 150 and cause the display unit 520 to display the three-dimensional information. Specifically, the display control unit 170 may select, according to a predetermined condition, to display two-dimensional image information on the display unit 520 or to display three-dimensional information on the display unit 520 . Thereby, the display control section 170 can output the two-dimensional image information separately from the three-dimensional information.

表示制御部170は、判断部160から取得したエラー情報に基づき、エラー情報と、2次元画像情報と、を含む表示画像を表示部520に表示させる Based on the error information acquired from the determination unit 160, the display control unit 170 causes the display unit 520 to display a display image including the error information and the two-dimensional image information.

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部520に表示させる The display control unit 170 causes the display unit 520 to display a display image including identification information for identifying a nearby object and two-dimensional image information based on the pixel coordinate position information acquired from the determination unit 160 .

すなわち、表示制御部170は、距離情報取得部13の出力と、撮像部11の出力と、に基づき判断される近接物の有無に応じて、表示部520に異なる表示をさせる。 That is, the display control unit 170 causes the display unit 520 to display differently depending on whether or not there is a nearby object determined based on the output of the distance information acquisition unit 13 and the output of the imaging unit 11 .

これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately check whether or not the photographer himself or a nearby object such as a tripod is reflected in the captured image, distinguishing it from the influence of external light.

表示制御部170は、近接物の位置に応じた表示部520の位置に異なる表示をさせる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確認することができる。 The display control section 170 causes the position of the display section 520 to display differently according to the position of the nearby object. As a result, the photographer can confirm the position at which the nearby object is reflected in the captured image.

表示制御部170は、撮像部11が撮像した画像情報を表示部520に表示させるとともに、近接物を識別する識別情報と、画像情報と、を含む表示画像を表示部520に表示させる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確実に確認することができる。 The display control unit 170 causes the display unit 520 to display image information captured by the imaging unit 11, and also causes the display unit 520 to display a display image including image information and identification information for identifying a nearby object. As a result, the photographer can reliably confirm the position at which the nearby object is reflected in the captured image.

図11は、本発明の実施形態の第2の変形例に係る撮像装置の外観を示す図である。図12は、第2の変形例における処理回路の処理ブロックの構成を示す図である。 FIG. 11 is a diagram showing the appearance of an imaging device according to a second modification of the embodiment of the present invention. FIG. 12 is a diagram showing the configuration of processing blocks of a processing circuit in the second modification.

図11に示す第2の変形例において、撮像装置1は、図1に示した表示部20に代えて、複数の表示部20A、20aを備える。表示部20A、20aは、LED等により構成され、処理回路14の出力信号に応じ点滅または点灯する。 In a second modification shown in FIG. 11, an imaging device 1 includes a plurality of display units 20A and 20a instead of the display unit 20 shown in FIG. The display units 20A and 20a are composed of LEDs or the like, and flash or light up according to the output signal of the processing circuit 14. FIG.

表示部20aは、筐体10の正面側の第1の面に設けられ、表示部20Aは、筐体10の背面側の第2の面に設けられている。 The display unit 20 a is provided on the first surface on the front side of the housing 10 , and the display unit 20 A is provided on the second surface on the rear side of the housing 10 .

図12に示す第2の変形例において、表示制御部170は、判断部160から取得した判断結果を示す情報を表示部20A、20aに表示させる。例えば、表示部20aおよび20bは、撮像装置1のそれぞれの側に近接する物体がある場合、赤く点滅し得る。 In the second modification shown in FIG. 12, the display control unit 170 causes the display units 20A and 20a to display information indicating the determination result acquired from the determination unit 160. FIG. For example, the displays 20a and 20b may flash red when there is an object close to either side of the imaging device 1 .

また、送受信部180は、RGB画像データ取得部142から出力される全天球の2次元画像情報をネットワーク400経由で表示装置500へ送信(出力)する。表示装置500は、2次元画像情報を出力する出力先の一例である。 Further, the transmission/reception unit 180 transmits (outputs) the omnidirectional two-dimensional image information output from the RGB image data acquisition unit 142 to the display device 500 via the network 400 . The display device 500 is an example of an output destination for outputting two-dimensional image information.

すなわち、第2の変形例では、図5に示したステップS3において、送受信部180は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示装置500へ送信(出力)する。 That is, in the second modification, in step S3 shown in FIG. 5, the transmission/reception unit 180 acquires omnidirectional RGB image data from the RGB image data acquisition unit 142, to the display device 500 (output).

表示装置500の送受信部510は、撮像装置1の送受信部180から送信された2次元画像情報を受信する。 The transmitting/receiving unit 510 of the display device 500 receives the two-dimensional image information transmitted from the transmitting/receiving unit 180 of the imaging device 1 .

表示装置500の表示制御部530は、送受信部510が受信した2次元画像情報を表示部520へ表示させる。表示制御部530を備える表示装置500は、情報処理装置の一例である。 The display control unit 530 of the display device 500 causes the display unit 520 to display the two-dimensional image information received by the transmission/reception unit 510 . A display device 500 including a display control unit 530 is an example of an information processing device.

以上説明したように、撮像装置1は、撮像部11と、3次元情報とは別に撮像部11により撮像された2次元画像情報を出力する送受信部180を備える。 As described above, the image capturing apparatus 1 includes the image capturing unit 11 and the transmitting/receiving unit 180 that outputs two-dimensional image information captured by the image capturing unit 11 separately from three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認することなく、2次元画像情報から容易に確認することが可能になる。 As a result, it is possible to easily check from the two-dimensional image information whether the photographer himself or the tripod is reflected in the captured image, or whether the three-dimensional information of the desired layout has not been acquired, without checking the three-dimensional information. it becomes possible to

したがって、3次元情報を取得する現場に居ながら、3次元情報再取得することが可能になり、3次元情報を取得する現場から離れた後で、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことに気づく場合に比べて、再度、3次元情報を取得する現場を訪問する手間が低減される。 Therefore, it is possible to reacquire the 3D information while staying at the site where the 3D information is to be acquired. This reduces the trouble of visiting the site to acquire the three-dimensional information again, compared with the case where the user finds that the three-dimensional information of the desired layout has not been acquired.

送受信部180は、ステップS11で3次元情報を送信(出力)する前に、ステップS3で2次元画像情報Gを送信(出力)する。送受信部180は、ステップS10で3次元再構成処理部150が3次元情報を決定する前に、ステップS3で2次元画像情報Gを送信(出力)する。 The transmitting/receiving unit 180 transmits (outputs) the two-dimensional image information G in step S3 before transmitting (outputting) the three-dimensional information in step S11. The transmitting/receiving unit 180 transmits (outputs) the two-dimensional image information G in step S3 before the three-dimensional reconstruction processing unit 150 determines the three-dimensional information in step S10.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認する前に、2次元画像情報から確認することが可能になる。 As a result, it is possible to check from the two-dimensional image information before checking the three-dimensional information whether the photographer himself or the tripod is reflected in the captured image, or whether the three-dimensional information of the desired layout has not been acquired. becomes possible.

送受信部180は、表示装置500に2次元画像情報を送信し、表示装置500は表示部520に2次元画像情報を表示させる。 The transmitting/receiving unit 180 transmits the two-dimensional image information to the display device 500, and the display device 500 causes the display unit 520 to display the two-dimensional image information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、表示部520に表示される2次元画像情報から容易に確認することが可能になる。 As a result, it is possible to easily confirm from the two-dimensional image information displayed on the display unit 520 that the photographer himself or the tripod is reflected in the captured image and that the three-dimensional information of the desired layout is not acquired. becomes possible.

送受信部180は、3次元情報を出力する外部装置300とは異なる表示装置500へ、2次元画像情報を送信する。 The transmitting/receiving unit 180 transmits the two-dimensional image information to the display device 500 different from the external device 300 that outputs the three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、外部装置300に出力される3次元情報を確認することなく、外部装置300とは異なる表示装置500の表示部520に出力される2次元画像情報から確認することが可能になる。 As a result, it is possible to check the three-dimensional information output to the external device 300 without checking the three-dimensional information output to the external device 300, such as whether the photographer himself or the tripod is reflected in the captured image, or whether the three-dimensional information of the desired layout has not been acquired. It is possible to confirm from the two-dimensional image information output to the display unit 520 of the display device 500 different from the device 300 .

送受信部180は、3次元情報を表示装置500へ送信してもよい。具体的には、送受信部180は、2次元画像情報を表示装置500へ送信する場合と、3次元情報を表示装置500へ送信する場合を所定の条件に従って選択してもよい。これにより、送受信部180は、表示装置500に対して3次元情報とは別に2次元画像情報を送信することができる。 The transmitting/receiving unit 180 may transmit the 3D information to the display device 500 . Specifically, the transmitting/receiving unit 180 may select a case of transmitting two-dimensional image information to the display device 500 and a case of transmitting three-dimensional information to the display device 500 according to a predetermined condition. Thereby, the transmitting/receiving section 180 can transmit the two-dimensional image information to the display device 500 separately from the three-dimensional information.

図13は、第2の変形例における近接物判断フロー図である。 FIG. 13 is a flow chart for judging an approaching object in the second modified example.

図13は、第2の変形例における図5で説明したステップS9に対応する近接物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 13 is a flowchart showing the process of determining whether or not a nearby object is reflected in the captured image corresponding to step S9 described in FIG. 5 in the second modification.

判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が所定値以上である画素の一例として蓄電量が飽和している画素があるか判断する(ステップS811)。 Based on the omnidirectional TOF image data acquired from the re-projection processing unit 147, the determination unit 160 determines whether the omnidirectional TOF image data has a saturated amount of electricity as an example of a pixel whose amount of electricity storage is equal to or greater than a predetermined value. It is determined whether or not there is a pixel in which the number of pixels is 0 (step S811).

判断部160は、ステップS811で蓄電量が飽和している画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS811で蓄電量が飽和していた画素と同一座標の画素について、蓄電量が所定値以上である一例として蓄電量が飽和しているか判断する(ステップS812)。 If there is a pixel with a saturated charge amount in step S811, the determining unit 160 determines, based on the omnidirectional RGB image data acquired from the RGB image data acquiring unit 142, among the omnidirectional RGB image data, As an example of a pixel having the same coordinates as the pixel whose charged amount is saturated in step S811, it is determined whether the charged amount is saturated (step S812).

判断部160は、ステップS812で蓄電量が飽和している場合、ステップS811で蓄電量が飽和している画素は、外光によるものであると判断し、エラー情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得したエラー情報に基づき、エラー情報を表示部20A、20aに表示させる(ステップS813)。 If the amount of stored electricity is saturated in step S812, the determination unit 160 determines that the pixels in which the amount of stored electricity is saturated in step S811 are caused by external light, and outputs error information to the display control unit 170. . The display control unit 170 causes the display units 20A and 20a to display the error information based on the error information acquired from the determination unit 160 (step S813).

判断部160は、ステップS812で蓄電量が飽和していない場合、ステップS811で蓄電量が飽和している画素は、近接物の存在によるものであると判断し、ステップS811で蓄電量が飽和していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、座標位置情報が筐体10の正面側であるか判断する(ステップS814)。 If the amount of stored electricity is not saturated in step S812, the determination unit 160 determines that the pixels in which the amount of stored electricity is saturated in step S811 are due to the presence of a nearby object, and the amount of stored electricity is saturated in step S811. The coordinate position information of the pixel that has been displayed is output to display control section 170 . Based on the pixel coordinate position information acquired from the determination unit 160, the display control unit 170 determines whether the coordinate position information indicates the front side of the housing 10 (step S814).

判断部160は、ステップS811で蓄電量が飽和している画素がなかった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、0.5m以下の距離情報を示す画素があるか判断する(ステップS815)。 If there is no pixel in which the amount of stored electricity is saturated in step S811, the determination unit 160 determines 0 It is determined whether there is a pixel indicating distance information of 5 m or less (step S815).

判断部160は、ステップS815で0.5m以下の距離情報を示す画素がない場合、処理を終了する。 If there is no pixel indicating distance information of 0.5 m or less in step S815, the determination unit 160 ends the process.

判断部160は、ステップS815で0.5m以下の距離情報を示す画素がある場合、前述したステップS814へ移行し、ステップS815で0.5m以下の距離情報を示す画素は、近接物の存在によるものであると判断し、ステップS815で0.5m以下の距離情報を示していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、座標位置情報が筐体10の正面側であるか判断する。 If there is a pixel indicating distance information of 0.5 m or less in step S815, the determining unit 160 proceeds to the above-described step S814. and output the coordinate position information of the pixel indicating the distance information of 0.5 m or less to the display control unit 170 in step S815. Based on the pixel coordinate position information acquired from the determination unit 160 , the display control unit 170 determines whether the coordinate position information indicates the front side of the housing 10 .

表示制御部170は、ステップS814で正面側であると判断した場合には、筐体10の正面側に配置された表示部20aを点滅させる(ステップS816)。 If the display control unit 170 determines in step S814 that it is on the front side, it blinks the display unit 20a arranged on the front side of the housing 10 (step S816).

表示制御部170は、ステップS814で正面側であると判断しなかった場合には、筐体10の背面側に配置された表示部20Aを点滅させる(ステップS817)。 If the display control unit 170 does not determine in step S814 that it is on the front side, it blinks the display unit 20A arranged on the back side of the housing 10 (step S817).

以上説明したように、表示制御部170は、近接物が存在すると判断した場合には表示部20aまたは表示部20Aを点滅させ、近接物が存在すると判断しない場合には表示部20aおよび表示部20Aを点滅させない。 As described above, the display control unit 170 blinks the display unit 20a or the display unit 20A when it determines that there is a nearby object, and blinks the display unit 20a or 20A when it determines that there is no nearby object. do not flash.

すなわち、表示制御部170は、近接物の存在の有無に応じて、表示部20aおよび表示部20Aに異なる表示をさせる。 That is, the display control unit 170 causes the display unit 20a and the display unit 20A to display differently depending on the presence or absence of the nearby object.

これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately check whether or not the photographer himself or a nearby object such as a tripod is reflected in the captured image, distinguishing it from the influence of external light.

また、表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、表示部20aまたは表示部20Aを点滅させる。 Further, the display control unit 170 blinks the display unit 20a or the display unit 20A based on the pixel coordinate position information acquired from the determination unit 160 .

すなわち、表示制御部170は、近接物の位置に応じた表示部の位置、すなわち表示部20aおよび表示部20Aの何れかに異なる表示をさせる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確認することができる。 That is, the display control unit 170 causes the position of the display unit according to the position of the nearby object, that is, the display unit 20a or the display unit 20A to display differently. As a result, the photographer can confirm the position at which the nearby object is reflected in the captured image.

そして、表示制御部170は、表示部20A、20aのうち、近接物に近い側の表示部に、近接物の有無に応じて異なる表示をさせる。これにより、撮影者は、特定の対象物の撮像画像への写り込みの位置を確実に確認することができる。 Then, the display control unit 170 causes the display unit closer to the nearby object, of the display units 20A and 20a, to display differently according to the presence or absence of the nearby object. As a result, the photographer can reliably confirm the position where the specific object is reflected in the captured image.

図14は、本発明の実施形態の第3の変形例に係る撮像装置の構成を説明するための図である。 FIG. 14 is a diagram for explaining the configuration of an imaging device according to a third modification of the embodiment of the invention.

図14に示す第3の変形例において、撮像装置1は、図2に示した構成に加えて、他の撮像素子111a、111Aや、他の魚眼レンズ(広角レンズ)111b、111Bなどを有する他の撮像部111を備える。 In a third modified example shown in FIG. 14, the imaging apparatus 1 includes other imaging elements 111a and 111A, other fisheye lenses (wide-angle lenses) 111b and 111B, etc. in addition to the configuration shown in FIG. An imaging unit 111 is provided.

第3の変形例では、RGBの撮像部11と他の撮像部111を同一基線上に設けている。この場合、処理回路14において多眼での処理が可能になる。つまり、一面において所定距離離して設けた撮像部11と他の撮像部111を同時に駆動することにより2つの視点のRGB画像が得られる。このため、2つのRGB画像に基づいて計算した視差の使用が可能になり、さらに測定範囲全体の距離精度を向上させることができる。 In the third modification, the RGB imaging unit 11 and another imaging unit 111 are provided on the same base line. In this case, multi-view processing becomes possible in the processing circuit 14 . In other words, RGB images of two viewpoints can be obtained by simultaneously driving the image pickup section 11 and the other image pickup section 111 which are provided on one side with a predetermined distance therebetween. This allows the use of parallax calculated based on the two RGB images, further improving distance accuracy over the entire measurement range.

具体的には、RGBの撮像部11と他の撮像部111設けた場合、従来の視差計算のように、SSDを使ったマルチベースラインステレオ(MSB)やEPI処理などが利用可能になる。このため、これを利用することで視差の信頼度があがり、高い空間解像度と精度を実現することが可能になる。 Specifically, when the RGB image capturing unit 11 and another image capturing unit 111 are provided, multi-baseline stereo (MSB) using an SSD, EPI processing, and the like can be used like conventional parallax calculation. Therefore, by using this, the reliability of parallax is increased, and high spatial resolution and accuracy can be achieved.

以上のように、撮像装置1は、他の撮像部111を備え、3次元再構成処理部150は、距離情報取得部13の出力と、2次元画像情報と、他の撮像部111により撮像された他の2次元画像情報と、に基づき3次元情報を決定する。 As described above, the imaging apparatus 1 includes another imaging unit 111, and the three-dimensional reconstruction processing unit 150 uses the output of the distance information acquisition unit 13, the two-dimensional image information, and the image captured by the other imaging unit 111. 3D information is determined based on the other 2D image information.

撮像装置1は、距離情報取得部13の出力によらずに、他の撮像部111と、2次元画像情報と他の撮像部111により撮像された他の2次元画像情報とに基づき3次元情報を決定する3次元情報決定部と、を備えてもよい。 The imaging device 1 obtains three-dimensional information based on the other imaging unit 111, the two-dimensional image information, and the other two-dimensional image information imaged by the other imaging unit 111, without depending on the output of the distance information acquisition unit 13. and a three-dimensional information determination unit that determines the .

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、2次元画像情報に基づき3次元再構成処理部150で決定される3次元情報を確認することなく、撮像部11により撮像された2次元画像情報から確認することが可能になる。 As a result, the three-dimensional reconstruction processing unit 150 determines based on the two-dimensional image information that the photographer himself or the tripod is reflected in the captured image, or that the three-dimensional information of the desired layout has not been acquired. It is possible to confirm from the two-dimensional image information captured by the imaging unit 11 without confirming the three-dimensional information.

図15は、本発明の実施形態における高反射物の判断フロー図であり、図5で説明したステップS9に対応する高反射物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 15 is a flow chart for determining a highly reflective object according to the embodiment of the present invention, and is a flowchart showing the process of determining whether or not a highly reflective object is reflected in the captured image corresponding to step S9 described in FIG. .

判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が所定値以上である画素の一例として蓄電量が飽和している画素があるか判断する(ステップS21)。 Based on the omnidirectional TOF image data acquired from the re-projection processing unit 147, the determination unit 160 determines whether the omnidirectional TOF image data has a saturated amount of electricity as an example of a pixel whose amount of electricity storage is equal to or greater than a predetermined value. It is determined whether or not there is a pixel in which the number of pixels is 0 (step S21).

判断部160は、ステップS21で蓄電量が飽和している画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS21で蓄電量が飽和していた画素と同一座標の画素を含むRGB画像データについて、高反射物を示す基準情報と一致するか判定する(ステップS22)。高反射物を示す基準情報として、モデル画像を用いて、画像認識によりRGB画像データとモデル画像の一致度を判定しても良い。また、高反射物を示す基準情報およびRGB画像データとして、スペクトル、色味等のパラメータを用いて、所定の閾値により一致度を判定しても良い。さらに、基準情報は、テーブルに記憶されたものでもよく、学習モデルを用いてもよい。 If there is a pixel with a saturated charge amount in step S21, the determining unit 160 determines, based on the omnidirectional RGB image data acquired from the RGB image data acquiring unit 142, of the omnidirectional RGB image data, It is determined whether or not the RGB image data including the pixels at the same coordinates as the pixels whose charged amount is saturated in step S21 matches the reference information indicating the highly reflective object (step S22). A model image may be used as reference information indicating a highly reflective object, and the degree of matching between the RGB image data and the model image may be determined by image recognition. Further, parameters such as spectrum and color may be used as the reference information indicating the highly reflective object and the RGB image data, and the degree of matching may be determined based on a predetermined threshold value. Furthermore, the reference information may be stored in a table or may use a learning model.

処理回路14は、モデル画像情報として、金属や鏡等の高反射物の画像を記憶しており、判断部160は、ステップS22において、AI等の判定器を用いて、取得した画像が記憶された高反射物の画像と一致するかを判定する。 The processing circuit 14 stores images of highly reflective objects such as metals and mirrors as model image information. It is determined whether the image matches the image of the highly reflective object.

判断部160は、ステップS22で取得した画像が記憶された高反射物の画像と一致すると判断した場合、ステップS22で判断した画素の座標位置情報を表示制御部170へ出力する(ステップS23)。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、高反射物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS24)、処理を終了する。 If the determination unit 160 determines that the image acquired in step S22 matches the stored image of the highly reflective object, the determination unit 160 outputs the coordinate position information of the pixel determined in step S22 to the display control unit 170 (step S23). The display control unit 170 causes the display units 20 and 520 to display a display image including identification information for identifying a highly reflective object and two-dimensional image information based on the pixel coordinate position information acquired from the determination unit 160 ( Step S24), the process ends.

ステップS22およびステップS23は、判断ステップの一例であり、ステップS24は、表示ステップの一例である。 Steps S22 and S23 are examples of determination steps, and step S24 is an example of display steps.

判断部160は、ステップS22で取得した画像が記憶された高反射物の画像と一致しないと判断した場合、近接物の判断に移行し(ステップS23)、図7に示した近接物判断フローを実行する(ステップS25)。 If the judgment unit 160 judges that the image acquired in step S22 does not match the stored image of the highly reflective object, the judging unit 160 shifts to judgment of a nearby object (step S23), and performs the close object judgment flow shown in FIG. Execute (step S25).

以上説明したように、撮像装置1は、距離情報取得部13の出力と、撮像部11の出力との両方に基づき高反射物があるかを判断する判断部160と、高反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the imaging apparatus 1 includes the determination unit 160 that determines whether or not there is a highly reflective object based on both the output of the distance information acquisition unit 13 and the output of the imaging unit 11, and and a display control unit 170 that causes the display units 20 and 520 to display differently accordingly.

これにより、撮影者は、近接物や外光の影響と区別して、鏡等の高反射物が撮像画像に含まれることを正確に確認することができる。 As a result, the photographer can accurately confirm that a highly reflective object such as a mirror is included in the captured image by distinguishing it from the effects of nearby objects and external light.

撮像装置1は、表示部20を備える。これにより、撮影者は、高反射物が撮像画像に含まれることを確実に確認することができる。 The imaging device 1 includes a display section 20 . This allows the photographer to reliably confirm that the highly reflective object is included in the captured image.

表示制御部170は、高反射物の位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、高反射物の位置を確認することができる。 The display control unit 170 causes the display units 20 and 520 to display differently according to the position of the highly reflective object. This allows the photographer to confirm the position of the highly reflective object.

図13に示した近接物と同様に、表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、高反射物に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、高反射物の位置を確実に確認することができる。 Similar to the near object shown in FIG. 13, the display unit 20 includes a plurality of display units 20A and 20a. display differently depending on the presence or absence of an object. This allows the photographer to reliably confirm the position of the highly reflective object.

図3に示した近接物と同様に、表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、高反射物を識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、高反射物の位置を確実に確認することができる。 3, the display control unit 170 causes the display units 20 and 520 to display the image information G captured by the imaging unit 11, and the identification information for identifying the highly reflective object and the image information G and a display image including and are displayed on the display unit 20 or 520 . This allows the photographer to reliably confirm the position of the highly reflective object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が所定値以上である画素の一例として蓄電量が飽和しており、かつ撮像部が撮像した画像情報が、高反射物を示す基準情報の一例であるモデル画像情報と一致する場合、高反射物があると判断する。 The determining unit 160 determines that the amount of stored electricity is saturated as an example of a pixel in which the amount of stored electricity due to the light received by the distance information acquisition unit 13 is equal to or greater than a predetermined value, and that the image information captured by the imaging unit is a highly reflective object. If it matches the model image information, which is an example of the reference information indicating , it is determined that there is a highly reflective object.

これにより、撮影者は、近接物や外光の影響と区別して、高反射物が撮像画像に含まれることを正確に確認することができる。 Accordingly, the photographer can accurately confirm that the highly reflective object is included in the captured image by distinguishing it from the effects of nearby objects and external light.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、近接物や外光ではなく、高反射物であることを確認することができる。 The imaging device 1 acquires distance information to an object based on the light received by the distance information acquiring section 13 . In this case, the photographer can confirm that the reason why the desired distance information is not acquired is not the nearby object or external light but the highly reflective object.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、近接物や外光ではなく、高反射物であることを確認することができる。 The imaging device 1 includes a transmission/reception section 180 that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition section 13 . In this case, the photographer can confirm that the reason why the desired three-dimensional information is not acquired is not a nearby object or external light but a highly reflective object.

図16は、本実施形態における遠方物および低反射物の判断フロー図であり、図5で説明したステップS9に対応する遠方物および低反射物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 16 is a flowchart for determining distant objects and low-reflectance objects in this embodiment. It is a flow chart showing.

判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が距離情報取得可能な閾値以下の画素があるか判断する(ステップS41)。 Based on the omnidirectional TOF image data acquired from the reprojection processing unit 147, the determination unit 160 determines whether or not there is a pixel in the omnidirectional TOF image data whose charge amount is equal to or less than a threshold for obtaining distance information. (Step S41).

判断部160は、ステップS41で蓄電量が閾値以下の画素がなかった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、10m以上の距離情報を示す画素があるか判断し、10m以上の距離情報を示す画素がある場合、遠方物であると判断し、画素の座標位置情報を表示制御部170へ出力する(ステップS42)。 If it is determined in step S41 that there is no pixel with the amount of stored electricity equal to or less than the threshold value, the determining unit 160 determines whether the omnidirectional TOF image data is If there is a pixel indicating distance information of 10 m or more, it is determined that the object is a distant object, and the coordinate position information of the pixel is output to the display control unit 170 (step S42).

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、遠方物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させて(ステップS43)、処理を終了する。 Based on the pixel coordinate position information acquired from the determination unit 160, the display control unit 170 causes the display units 20 and 520 to display a display image including identification information for identifying distant objects and two-dimensional image information ( Step S43), the process ends.

判断部160は、ステップS42で10m以上の距離情報を示す画素がない場合、処理を終了する。 If there is no pixel indicating distance information of 10 m or more in step S42, the determination unit 160 ends the process.

判断部160は、ステップS41で蓄電量が閾値以下の画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS41で蓄電量が閾値以下の画素と同一座標の画素について、蓄電量が物体認識可能な閾値以下か判断する(ステップS44)。 If in step S41 there is a pixel in which the amount of stored electricity is equal to or less than the threshold, the determining unit 160 determines, based on the omnidirectional RGB image data acquired from the RGB image data acquiring unit 142, the omnidirectional RGB image data, step It is determined whether or not the stored electricity amount is equal to or less than the threshold at which the object can be recognized, for pixels at the same coordinates as the pixels whose accumulated electricity amount is equal to or less than the threshold value in S41 (step S44).

判断部160は、ステップS44で蓄電量が物体認識可能な閾値以下であると判断した場合、低反射物であると判断し、画素の座標位置情報を表示制御部170へ出力する。 If determination unit 160 determines in step S<b>44 that the amount of stored electricity is equal to or less than the object recognizable threshold, determination unit 160 determines that the object is a low-reflection object, and outputs the coordinate position information of the pixel to display control unit 170 .

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、低反射物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示し(ステップS45)、処理を終了する。 The display control unit 170 displays, on the display units 20 and 520, a display image including identification information for identifying a low-reflection object and two-dimensional image information based on the pixel coordinate position information acquired from the determination unit 160 ( Step S45), the process ends.

判断部160は、ステップS44で蓄電量が物体認識可能な閾値以下ではないと判断した場合、ステップS44で判断した画素を含むRGB画像データについて、画像と距離を対応付けた基準情報の一例であるモデル情報に基づき、距離を判定する(ステップS46)。基準情報としてモデル画像を用いた場合、画像認識によりRGB画像データとモデル画像の一致度を判定しても良い。また、基準情報およびRGB画像データとして、パラメータを用いて、所定の閾値により一致度を判定しても良い。さらに、基準情報は、テーブルに記憶されたものでもよく、学習モデルを用いてもよい。 If the judgment unit 160 judges in step S44 that the amount of stored electricity is not equal to or less than the object recognizable threshold, it is an example of reference information in which the image and the distance are associated with each other regarding the RGB image data including the pixels judged in step S44. A distance is determined based on the model information (step S46). When a model image is used as the reference information, the matching degree between the RGB image data and the model image may be determined by image recognition. Further, the degree of matching may be determined based on a predetermined threshold using parameters as the reference information and the RGB image data. Furthermore, the reference information may be stored in a table or may use a learning model.

処理回路14は、モデル情報として、距離と対応付けられた画像を複数の距離のそれぞれの距離毎に記憶しており、判断部160は、ステップS46において、AI等の判定器を用いて、取得した画像が記憶された距離毎の画像と一致するかを判定する。 The processing circuit 14 stores, as model information, an image associated with a distance for each of a plurality of distances, and the determination unit 160 uses a determination device such as AI in step S46 to acquire It is determined whether the obtained image matches the stored image for each distance.

判断部160は、ステップS46で取得した画像と一致した画像に対応付けられた距離が10m以上であるか判断し、10m以上の場合、遠方物であると判断し、画素の座標位置情報を表示制御部170へ出力して(ステップS47)、ステップS43に移行する。 The determination unit 160 determines whether the distance associated with the image that matches the image acquired in step S46 is 10 m or more. It outputs to the control unit 170 (step S47), and proceeds to step S43.

判断部160は、ステップS46で取得した画像と一致した画像に対応付けられた距離が10m以上でない場合、低反射物であると判断し、画素の座標位置情報を表示制御部170へ出力して(ステップS47)、ステップS45に移行する。 If the distance associated with the image that matches the image acquired in step S46 is not 10 m or more, the determination unit 160 determines that the object is a low-reflection object, and outputs the coordinate position information of the pixel to the display control unit 170. (Step S47), the process proceeds to step S45.

ステップS41、S42、S44、およびS47は、判断ステップの一例であり、ステップS43およびS45は、表示ステップの一例である。 Steps S41, S42, S44, and S47 are examples of determination steps, and steps S43 and S45 are examples of display steps.

以上説明したように、撮像装置1は、距離情報取得部13の出力と、撮像部11の出力との両方に基づき遠方物または低反射物があるかを判断する判断部160と、遠方物または低反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the imaging apparatus 1 includes the determination unit 160 that determines whether there is a distant object or a low-reflection object based on both the output of the distance information acquisition unit 13 and the output of the imaging unit 11; and a display control unit 170 that causes the display units 20 and 520 to display differently depending on the presence or absence of the low-reflection object.

これにより、撮影者は、遠方物または黒色等の低反射物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a distant object or a low-reflection object such as black is included in the captured image.

撮像装置1は、表示部20を備える。これにより、撮影者は遠方物または低反射物が撮像画像に含まれることを確実に確認することができる。 The imaging device 1 includes a display section 20 . This allows the photographer to reliably confirm that a distant object or a low-reflection object is included in the captured image.

表示制御部170は、遠方物または低反射物の位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、遠方物または低反射物の位置を確認することができる。 The display control unit 170 causes the display units 20 and 520 to display differently according to the position of the distant object or the low-reflection object. This allows the photographer to confirm the position of a distant object or a low-reflection object.

図13に示した近接物と同様に、表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、遠方物または低反射物に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、遠方物または低反射物の位置を確実に確認することができる。 Similar to the near object shown in FIG. 13, the display unit 20 includes a plurality of display units 20A and 20a. The display section of is made to display differently according to the presence or absence of an object. This allows the photographer to reliably confirm the position of the distant object or the low-reflectance object.

図3に示した近接物と同様に、表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、遠方物または低反射物を識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、遠方物または低反射物の位置を確実に確認することができる。 3, the display control unit 170 causes the display units 20 and 520 to display the image information G captured by the imaging unit 11, and identification information for identifying a distant object or a low-reflection object; A display image including the image information G is displayed on the display unit 20 or 520 . This allows the photographer to reliably confirm the position of the distant object or the low-reflectance object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下である場合、撮像部11の出力に基づき、低反射物か、遠方物かを判断する。これにより、撮影者は、低反射物、遠方物の何れが撮像画像に含まれることを正確に確認することができる。 The determining unit 160 determines whether the object is a low-reflective object or a distant object based on the output of the imaging unit 11 when the amount of charge in the pixel due to the light received by the distance information acquiring unit 13 is equal to or less than a threshold. As a result, the photographer can accurately confirm which of the low-reflection object and the distant object is included in the captured image.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下で、かつ撮像部11の画素の蓄電量が閾値以下である場合、低反射物があると判断する。
これにより、撮影者は、低反射物が撮像画像に含まれることを正確に確認することができる。
The determination unit 160 determines that there is a low-reflection object when the amount of charge in the pixel due to the light received by the distance information acquisition unit 13 is equal to or less than the threshold and the amount of charge in the pixel of the imaging unit 11 is equal to or less than the threshold.
This allows the photographer to accurately confirm that the low-reflection object is included in the captured image.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下で、撮像部11の画素の蓄電量が閾値以上であり、かつ画素に基づき判断される距離が閾値以上の場合、遠方物あると判断する。 The determining unit 160 determines whether the amount of electricity stored in the pixels due to the light received by the distance information acquisition unit 13 is equal to or less than the threshold, the amount of electricity stored in the pixels of the imaging unit 11 is equal to or greater than the threshold, and the distance determined based on the pixels is equal to or greater than the threshold. If so, it is determined that there is a distant object.

これにより、撮影者は、遠方物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the distant object is included in the captured image.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、遠方物または低反射物であることを確認することができる。 The imaging device 1 acquires distance information to an object based on the light received by the distance information acquiring section 13 . In this case, the photographer can confirm that the reason why the desired distance information is not acquired is the distant object or the low-reflection object.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、遠方物または低反射物であることを確認することができる。 The imaging device 1 includes a transmission/reception section 180 that is an example of an output section that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition section 13 . In this case, the photographer can confirm that the reason why the desired three-dimensional information is not acquired is the distant object or the low-reflection object.

図17は、本実施形態における画像のぶれの判断フロー図であり、図5で説明したステップS9に対応する撮像画像における画像のぶれの有無の判断処理を示すフローチャートである。 FIG. 17 is a flow chart for judging image blur in this embodiment, and is a flow chart showing the process for judging the presence or absence of image blur in a captured image corresponding to step S9 described with reference to FIG.

判断部160は、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像の中にエッジ周辺領域を含む画像の画素があるか判断する(ステップS51)。 Based on the omnidirectional RGB image data acquired from the RGB image data acquiring unit 142, the determination unit 160 determines whether or not there is a pixel of an image including an edge peripheral region in the omnidirectional RGB image (step S51). .

ここで、判断部160は、画素における輝度値の変化や、その一次、二次微分値等を閾値と比較することにより、画像に含まれるエッジを検出し、エッジ周辺領域を含む画像の画素を特定するが、他の方法によりエッジを検出してもよい。 Here, the determination unit 160 detects edges included in the image by comparing changes in luminance values of pixels, primary and secondary differential values thereof, and the like with threshold values, and detects pixels of the image including edge peripheral regions. Although specified, other methods may be used to detect edges.

次に、ステップS51でエッジ周辺領域を含む画像の画素があった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、ステップS51でエッジ周辺領域を含むと判断された画像の画素と同一座標の画素を含むTOF画像データについて、TOF位相画像のエッジがずれているか判断し、エッジがずれていると判断した場合には、ステップS51で判断した画素の座標位置情報を表示制御部170へ出力する(ステップS52)。 Next, if there is a pixel of the image including the edge peripheral region in step S51, based on the omnidirectional TOF image data acquired from the reprojection processing unit 147, out of the omnidirectional TOF image data, in step S51 It is determined whether the edge of the TOF phase image is displaced with respect to the TOF image data including the pixel of the same coordinate as the pixel of the image determined to include the edge peripheral region. If it is determined that the edge is deviated, step S51. The coordinate position information of the pixel determined in 1 is output to the display control unit 170 (step S52).

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、画像のぶれを識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS53)、処理を終了する。 The display control unit 170 causes the display units 20 and 520 to display a display image including identification information for identifying image blur and two-dimensional image information based on the pixel coordinate position information acquired from the determination unit 160 ( Step S53), the process ends.

ステップS51およびS52は、判断ステップの一例であり、ステップS53は、表示ステップの一例である。 Steps S51 and S52 are examples of determination steps, and step S53 is an example of a display step.

判断部160は、ステップS51でエッジ周辺領域を含む画像の画素が無い場合、およびステップS52で、TOF位相画像のエッジがずれていない場合、処理を終了する。 If there is no pixel of the image including the edge peripheral region in step S51, and if the edge of the TOF phase image is not shifted in step S52, the determination unit 160 ends the process.

本実施形態では、位相差検出方式で距離を計測しており、撮像装置1は、0°、90°、180°および270°の位相毎に、同じ位相のTOF位相画像をN枚取得して加算する。 In the present embodiment, the distance is measured by a phase difference detection method, and the imaging device 1 acquires N TOF phase images of the same phase for each phase of 0°, 90°, 180°, and 270°. to add.

このように、同じ位相の位相画像をN枚加算することで、その位相の位相画像のダイナミックレンジが拡大される。また、各位相の加算するN枚の位相画像の撮像に要する時間は短縮されており、ぶれ等の影響の少ない位置精度の優れた位相画像を得るようになっている。このため、ダイナミックレンジが拡大された位相画像により、以下に示す画像のずれ量の検出処理も精度良く実行できる。 By adding N phase images of the same phase in this manner, the dynamic range of the phase images of the phase is expanded. In addition, the time required to pick up N phase images to be added for each phase is shortened, so that phase images with excellent positional accuracy and less influence of blurring can be obtained. Therefore, by using the phase image with the expanded dynamic range, it is possible to accurately perform the image shift amount detection processing described below.

判断部160は、位相毎の画素のずれ量を、一般的なオプティカルフローを求める処理、又は、以下の参考論文で開示されている機械学習の手法で算出し、位相毎の画素のずれ量を全ての位相で加算した値を閾値と比較して、画像のぶれの有無を最終判断するが、他の方法により画像のぶれの有無を判断してもよい。 The determination unit 160 calculates the amount of pixel shift for each phase using a process for obtaining a general optical flow or the machine learning method disclosed in the following reference paper, and calculates the amount of pixel shift for each phase. The value added in all phases is compared with a threshold value to finally determine whether or not there is blurring in the image, but other methods may be used to determine whether or not there is blurring in the image.

論文名
Tackling 3D ToF Artifacts Through Learning and the FLAT Dataset
著者
Qi Guo (SEAS, Harvard University)、
Iuri Frosio
Orazio Gallo
Todd Zickler(SEAS, Harvard University)
Jan Kautz
公開日
Monday,September 10, 2018
公開元
ECCV(European Conference on Computer Vision) 2018
URL(Uniform Resource Locator)
https://research.nvidia.com/publication/2018-09_Tackling-3D-ToF
Paper title Tackling 3D ToF Artifacts Through Learning and the FLAT Dataset
Author Qi Guo (SEAS, Harvard University),
Iuri Frosio
Orazio Gallo
Todd Zickler (SEAS, Harvard University)
Jan Kautz
release date
Monday, September 10, 2018
Publisher
ECCV (European Conference on Computer Vision) 2018
URLs (Uniform Resource Locators)
https://research. nvidia. com/publication/2018-09_Tackling-3D-ToF

以上説明したように、撮像装置1は、距離情報取得部13の出力と、撮像部11の出力との両方に基づき画像のぶれがあるかを判断する判断部160と、画像のぶれの有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the imaging apparatus 1 includes the determination unit 160 that determines whether or not there is image blur based on both the output of the distance information acquisition unit 13 and the output of the imaging unit 11, and the and a display control unit 170 that causes the display units 20 and 520 to display differently accordingly.

これにより、撮影者は、画像のぶれが撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the image blur is included in the captured image.

撮像装置1は、表示部20を備える。これにより、撮影者は、画像のぶれが撮像画像に含まれることを確実に確認することができる。 The imaging device 1 includes a display section 20 . This allows the photographer to reliably confirm that the image blur is included in the captured image.

表示制御部170は、画像のぶれの位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、画像のぶれの位置を確認することができる。 The display control unit 170 causes the positions of the display units 20 and 520 to display differently according to the position of the image blur. This allows the photographer to confirm the position of the image blur.

図13に示した近接物と同様に、表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、画像のぶれの位置に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、画像のぶれの位置を確実に確認することができる。 13, the display unit 20 includes a plurality of display units 20A and 20a. A display unit is made to display differently according to the presence or absence of an object. As a result, the photographer can reliably confirm the location of the image blurring.

図3に示した近接物と同様に、表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、画像のぶれを識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、画像のぶれの位置を確実に確認することができる。 Similar to the close object shown in FIG. and a display image including and are displayed on the display unit 20 or 520 . As a result, the photographer can reliably confirm the location of the image blurring.

判断部160は、撮像部11が撮像した画像情報に基づき画像のエッジを検出し、かつ距離情報取得部13が受光した光による画素にずれが生じている場合、画像のぶれがあると判断する The determination unit 160 detects an edge of the image based on the information of the image captured by the imaging unit 11, and determines that the image blurs when the light received by the distance information acquisition unit 13 causes pixel displacement.

これにより、撮影者は、画像のぶれが撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the image blur is included in the captured image.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、画像のぶれであることを確認することができる。 The imaging device 1 acquires distance information to an object based on the light received by the distance information acquiring section 13 . In this case, the photographer can confirm that the reason why the desired distance information is not acquired is the blurring of the image.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、画像のぶれであることを確認することができる。 The imaging device 1 includes a transmission/reception section 180 that is an example of an output section that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition section 13 . In this case, the photographer can confirm that the reason why the desired three-dimensional information is not acquired is the blurring of the image.

図18は、本発明の実施形態の第4の変形例における判断フロー図である。 FIG. 18 is a decision flow diagram in the fourth modification of the embodiment of the invention.

図5で説明したステップS9では、判断部160が、近接物等の特定の対象の有無を判断し、表示制御部170が、特定の対象物の有無に応じて、表示部20、520に異なる表示をさせていたが、第4の変形例では、判断部160が、特定の対象の有無を判断せず、表示制御部170は、特定の対象物の有無に応じて、表示部20、520に異なる表示をさせないが、ユーザが特定に対象物を認識できるようにしている。 In step S9 described with reference to FIG. 5, the determination unit 160 determines whether or not there is a specific object such as a nearby object, and the display control unit 170 controls the display units 20 and 520 to display different images depending on the presence or absence of the specific object. However, in the fourth modification, the determination unit 160 does not determine the presence or absence of the specific target, and the display control unit 170 controls the display units 20 and 520 according to the presence or absence of the specific target. does not allow the display to be different, but allows the user to recognize a particular object.

図18(a)に示すフローにおいて、判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が所定値以上である画素の一例として蓄電量が飽和しており、距離情報を取得可能な閾値以上である画素があるか判断し、蓄電量が閾値以上である画素があった場合、画素の座標位置情報を表示制御部170へ出力する(ステップS31)。 In the flow shown in FIG. 18( a ), the determination unit 160 determines whether the amount of charge in the omnidirectional TOF image data is equal to or greater than a predetermined value based on the omnidirectional TOF image data acquired from the reprojection processing unit 147 . As an example of a certain pixel, it is determined whether or not there is a pixel in which the amount of stored electricity is saturated and is equal to or greater than a threshold for obtaining distance information. Output to the control unit 170 (step S31).

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、図3に示した近接物と同様に、当該位置を識別する位置識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS32)、処理を終了する。 Based on the coordinate position information of the pixel acquired from the determination unit 160, the display control unit 170 performs display including position identification information for identifying the position and two-dimensional image information, similar to the proximity object shown in FIG. The image is displayed on the display unit 20, 520 (step S32), and the process ends.

判断部160は、ステップS31で蓄電量が閾値以上でない場合、処理を終了する。 Judgment part 160 ends processing, when the amount of accumulation of electricity is not more than a threshold in Step S31.

図18(b)に示すフローにおいて、判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が距離情報を取得可能な閾値以下である画素があるか判断し、蓄電量が閾値以下である画素があった場合、画素の座標位置情報を表示制御部170へ出力する(ステップS33)。 In the flow shown in FIG. 18B, the determination unit 160 acquires the amount of stored electricity and the distance information from the omnidirectional TOF image data based on the omnidirectional TOF image data acquired from the reprojection processing unit 147. It is determined whether there is a pixel whose charge amount is below the threshold, and if there is a pixel whose charge amount is below the threshold, coordinate position information of the pixel is output to the display control unit 170 (step S33).

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、図3に示した近接物と同様に、当該位置を識別する位置識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS34)、処理を終了する。 Based on the coordinate position information of the pixel acquired from the determination unit 160, the display control unit 170 performs display including position identification information for identifying the position and two-dimensional image information, similar to the proximity object shown in FIG. The image is displayed on the display unit 20, 520 (step S34), and the process ends.

判断部160は、ステップS33で蓄電量が閾値以下でない場合、処理を終了する。 Judgment part 160 ends processing, when the amount of accumulation of electricity is not below a threshold in Step S33.

図18(c)に示すフローにおいて、判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中にTOF位相画像がずれており距離情報を取得できない画素があるか判断し、TOF位相画像がずれている画素があった場合、画素の座標位置情報を表示制御部170へ出力する(ステップS35)。 In the flow shown in FIG. 18(c), the determination unit 160 determines whether the TOF phase image is shifted in the omnidirectional TOF image data based on the omnidirectional TOF image data acquired from the reprojection processing unit 147. It is determined whether there is a pixel for which distance information cannot be obtained, and if there is a pixel for which the TOF phase image is shifted, the coordinate position information of the pixel is output to the display control unit 170 (step S35).

ここで、判断部160は、図17のステップS52で説明した方法と同様の方法で、TOF位相画像のずれを判断する。 Here, the judgment unit 160 judges the deviation of the TOF phase image by a method similar to the method described in step S52 of FIG.

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、図3に示した近接物と同様に、当該位置を識別する位置識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS36)、処理を終了する。 Based on the coordinate position information of the pixel acquired from the determination unit 160, the display control unit 170 performs display including position identification information for identifying the position and two-dimensional image information, similar to the proximity object shown in FIG. The image is displayed on the display unit 20, 520 (step S36), and the process ends.

判断部160は、TOF位相画像がずれている画素が無い場合、処理を終了する。 If there is no pixel for which the TOF phase image is shifted, the determination unit 160 ends the process.

以上説明したように、撮像装置1は、距離情報取得部13の出力が閾値以上または閾値以下であるかを判断部160により判断された位置を示す位置情報に基づき、位置を識別する位置識別情報と、対象を撮像する撮像部11が撮像した2次元画像情報Gと、を含む表示画像を表示部20、520に表示させる表示制御部170を備える。 As described above, the imaging device 1 determines whether the output of the distance information acquisition unit 13 is equal to or greater than the threshold value or equal to or less than the threshold value based on the position information indicating the position determined by the determination unit 160. , and two-dimensional image information G captured by the imaging unit 11 that captures an image of the target, and a display control unit 170 that causes the display units 20 and 520 to display a display image including the above.

これにより、距離情報取得部13の出力が閾値以上または閾値以下である位置、すなわち距離情報取得部13の出力が強すぎたり弱すぎたりして所望の出力が得られない位置を2次元画像Gで確認することにより、所望の出力が得られない要因を確認することができる。 As a result, a position where the output of the distance information acquisition unit 13 is equal to or greater than the threshold value or less than or equal to the threshold value, that is, a position where the output of the distance information acquisition unit 13 is too strong or too weak and a desired output cannot be obtained is displayed in the two-dimensional image G By confirming with , it is possible to confirm the cause of the failure to obtain the desired output.

また、撮像装置1は、距離情報取得部13の出力に基づき対象までの距離情報を取得できないと判断部160により判断された位置を示す位置情報に基づき、位置を識別する位置識別情報と、対象を撮像する撮像部11が撮像した2次元画像情報Gと、を含む表示画像を表示部20、520に表示させる表示制御部170を備える。 In addition, the imaging device 1 obtains position identification information for identifying the position based on the position information indicating the position determined by the determination unit 160 that the distance information to the object cannot be acquired based on the output of the distance information acquisition unit 13, and the object and the two-dimensional image information G captured by the imaging unit 11 that captures .

これにより、対象までの距離情報を取得できない位置を2次元画像Gで確認することにより、対象までの距離情報を取得できない要因を確認することができる。 Accordingly, by confirming the position where the distance information to the object cannot be obtained in the two-dimensional image G, it is possible to confirm the cause of the inability to obtain the distance information to the object.

対象までの距離情報を取得できないと判断部160、560、660が判断するのは、距離情報取得部13の出力が閾値以上または閾値以下である場合以外に、距離情報取得部13の出力により画像のぶれを検出した場合も含む。 The determination units 160, 560, and 660 determine that the distance information to the object cannot be acquired when the output of the distance information acquisition unit 13 is not equal to or greater than the threshold value or the threshold value or less. It also includes cases where blurring is detected.

図19は、本発明の実施形態の第5の変形例における処理回路の処理ブロックの構成の一例を示す図である。 FIG. 19 is a diagram showing an example of a configuration of processing blocks of a processing circuit in the fifth modification of the embodiment of the invention.

図19に示す第5の変形例における処理回路の処理ブロックは、図4に示した本実施形態の処理回路14の処理ブロックに対して、判断部160が、判断結果を送受信部180へ出力する点と、判断部160が、3次元再構成処理部150から全天球の3次元データを取得する点と、判断結果を送受信部180へ出力する点と、表示制御部170が、3次元再構成処理部150から全天球の3次元データを取得する点が加わっている。 The processing blocks of the processing circuit in the fifth modification shown in FIG. determination unit 160 acquires spherical three-dimensional data from three-dimensional reconstruction processing unit 150; outputs determination results to transmission/reception unit 180; display control unit 170 performs three-dimensional reconstruction; A point of acquiring omnidirectional three-dimensional data from the configuration processing unit 150 is added.

送受信部180は、3次元再構成処理部150から出力される全天球の3次元データおよびRGB画像データ取得部142から出力される全天球の2次元画像情報に加えて、判断部160の判断結果をネットワーク400経由で3次元復元処理を行う外部装置300へ送信(出力)する。 In addition to the omnidirectional three-dimensional data output from the three-dimensional reconstruction processing unit 150 and the omnidirectional two-dimensional image information output from the RGB image data acquisition unit 142, the transmitting/receiving unit 180 receives the data from the determination unit 160. The judgment result is transmitted (output) via the network 400 to the external device 300 that performs the three-dimensional restoration processing.

表示制御部170は、3次元再構成処理部150から取得した全天球の3次元データに基づき、3次元画像を表示部20に表示させるとともに、撮像部11の出力と、距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部160による判断結果に基づき、特定の対象を識別する識別情報と、3次元画像と、を含む表示画像を表示部20に表示をさせる。特定の対象は、近接物、高反射物、遠方物、低反射物および画像のぶれ領域も含む。 The display control unit 170 causes the display unit 20 to display a three-dimensional image based on the omnidirectional three-dimensional data acquired from the three-dimensional reconstruction processing unit 150. A display image including identification information for identifying a specific target and a three-dimensional image is displayed on the display unit 20 based on the determination result of the determination unit 160 that determines whether there is a specific target based on both the output of Let Specific objects include near objects, highly reflective objects, distant objects, low reflective objects and also image blur regions.

これにより、所望の3次元画像3Gが表示されない要因が、近接物、高反射物、遠方物、低反射物および画像のぶれの何れであるかを、3次元画像3Gを観て確認することができる。 Accordingly, it is possible to confirm, by viewing the 3D image 3G, which of the nearby object, the high reflective object, the distant object, the low reflective object, and the blurring of the image is the reason why the desired 3D image 3G is not displayed. can.

図20は、本発明の実施形態の第6の変形例における情報処理システムの構成の一例を示す図である。 FIG. 20 is a diagram showing an example of the configuration of an information processing system according to the sixth modification of the embodiment of the invention.

図20に示す第6の変形例にかかる情報処理システムは、撮像装置1と、表示装置500を備える。 An information processing system according to the sixth modification shown in FIG. 20 includes an imaging device 1 and a display device 500 .

図20に示す撮像装置1は、撮像素子11a、11A、TOFセンサ13a、13A、光源部12a、12A、および撮影スイッチ15を備え、これらは図4に示したものと同様に構成される。 The image pickup apparatus 1 shown in FIG. 20 includes image pickup elements 11a and 11A, TOF sensors 13a and 13A, light source sections 12a and 12A, and a photographing switch 15, which are configured similarly to those shown in FIG.

図20に示す撮像装置1における処理回路4は、制御部141と、RGB画像データ取得部142と、TOF画像データ取得部144と、送受信部180とを有する。制御部141は、図4に示したものと同様に構成される。 The processing circuit 4 in the imaging device 1 shown in FIG. The control unit 141 is configured similarly to that shown in FIG.

RGB画像データ取得部142は、図4と同様に、制御部141による撮像指示に基づき、撮像素子11a、11Aが撮像したRGB画像データを取得して、全天球のRGB画像データを出力するが、出力先が送受信部180である点が図4と異なる。 Similar to FIG. 4, the RGB image data acquisition unit 142 acquires the RGB image data captured by the image sensors 11a and 11A based on the image capturing instruction from the control unit 141, and outputs the omnidirectional RGB image data. , in that the output destination is the transmission/reception unit 180. FIG.

TOF画像データ取得部144は、図4と同様に、制御部141によるTOF画像データの生成指示に基づき、TOFセンサ13a、13Aが生成したTOF画像データを取得して、全天球のTOF画像データを出力するが、出力先が送受信部180である点が図4と異なる。 As in FIG. 4, the TOF image data acquisition unit 144 acquires the TOF image data generated by the TOF sensors 13a and 13A based on the TOF image data generation instruction from the control unit 141, and obtains omnidirectional TOF image data. , but differs from FIG. 4 in that the output destination is the transmission/reception unit 180 .

送受信部180は、図4と異なり、RGB画像データ取得部142から出力される全天球のRGB画像データおよびTOF画像データ取得部144から出力される全天球のTOF画像データを表示装置500へ送信(出力)する。 4, the transmitting/receiving unit 180 transmits the omnidirectional RGB image data output from the RGB image data obtaining unit 142 and the omnidirectional TOF image data output from the TOF image data obtaining unit 144 to the display device 500. Send (output).

図20に示す表示装置500は、図12に示した第2の変形例と同様に、送受信部510と、表示部520と、表示制御部530と、を備えるとともに、
RGB画像データ取得部542と、モノクロ処理部543と、TOF画像データ取得部544と、高解像度化部545と、マッチング処理部546と、再投影処理部547と、セマンティックセグメンテーション部548と、視差計算部549と、3次元再構成処理部550と、判断部560と、をさらに備える。
A display device 500 shown in FIG. 20 includes a transmitting/receiving unit 510, a display unit 520, and a display control unit 530, similarly to the second modification shown in FIG.
RGB image data acquisition unit 542, monochrome processing unit 543, TOF image data acquisition unit 544, resolution enhancement unit 545, matching processing unit 546, reprojection processing unit 547, semantic segmentation unit 548, and parallax calculation It further includes a unit 549 , a three-dimensional reconstruction processing unit 550 and a determination unit 560 .

送受信部180は、撮像装置1から送信された全天球のRGB画像データおよび全天球のTOF画像データを受信する。 The transmitting/receiving unit 180 receives the omnidirectional RGB image data and the omnidirectional TOF image data transmitted from the imaging device 1 .

RGB画像データ取得部542は、送受信部180から全天球のRGB画像データを取得し、TOF画像データ取得部544は、送受信部180から全天球のRGB画像データを取得するが、それ以外は、それぞれ、図4に示したRGB画像データ取得部142およびTOF画像データ取得部144と同様に構成される。 The RGB image data acquisition unit 542 acquires omnidirectional RGB image data from the transmission/reception unit 180, and the TOF image data acquisition unit 544 acquires omnidirectional RGB image data from the transmission/reception unit 180. , are configured similarly to the RGB image data acquisition unit 142 and the TOF image data acquisition unit 144 shown in FIG.

モノクロ処理部543と、TOF画像データ取得部544と、高解像度化部545と、マッチング処理部546と、再投影処理部547と、セマンティックセグメンテーション部548と、視差計算部549と、3次元再構成処理部550と、および判断部560は、図4に示したモノクロ処理部143と、TOF画像データ取得部144と、高解像度化部145と、マッチング処理部146と、再投影処理部147と、セマンティックセグメンテーション部148と、視差計算部149と、3次元再構成処理部150と、および判断部160と同様に構成される。 A monochrome processing unit 543, a TOF image data acquisition unit 544, a resolution enhancement unit 545, a matching processing unit 546, a reprojection processing unit 547, a semantic segmentation unit 548, a parallax calculation unit 549, and three-dimensional reconstruction. The processing unit 550 and the determination unit 560 include the monochrome processing unit 143, the TOF image data acquisition unit 144, the resolution enhancement unit 145, the matching processing unit 146, the reprojection processing unit 147, and It is configured in the same manner as the semantic segmentation unit 148 , parallax calculation unit 149 , 3D reconstruction processing unit 150 and determination unit 160 .

表示制御部530は、RGB画像データ取得部542から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像を表示部520に表示させてもよく、3次元再構成処理部545から全天球の3次元データを取得し、3次元画像報を表示部520に表示させてもよい。 The display control unit 530 may acquire the omnidirectional RGB image data from the RGB image data acquiring unit 542 and cause the display unit 520 to display a two-dimensional image based on the acquired omnidirectional RGB image data. The three-dimensional data of the sphere may be acquired from the dimensional reconstruction processing unit 545 and the three-dimensional image information may be displayed on the display unit 520 .

表示制御部530は、判断部160から取得した判断結果を示す情報と、2次元画像または3次元画像と、を含む表示画像を表示部520に表示させる。 Display control unit 530 causes display unit 520 to display a display image including information indicating the determination result acquired from determination unit 160 and a two-dimensional image or a three-dimensional image.

以上説明したように、表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力を受信する受信部の一例である送受信部510と、送受信部510が受信した距離情報取得部13の出力と、撮像部11の出力との両方に基づき特定の対象物があるかを判断する判断部560と、判断部560の判断結果に基づき、特定の対象の有無に応じて、表示部に異なる表示をさせる表示制御部530と、を備える。 As described above, the display device 500 includes the output of the imaging unit 11 that captures an image of the target, and the receiving unit that receives the output of the distance information acquisition unit 13 that projects light onto the target and receives the light reflected from the target. A transmitting/receiving unit 510 which is an example, a determining unit 560 which determines whether or not there is a specific object based on both the output of the distance information acquiring unit 13 received by the transmitting/receiving unit 510 and the output of the imaging unit 11; and a display control unit 530 that causes the display unit to display differently according to the presence or absence of a specific target based on the determination result of the unit 560 .

特定の対象は、近接物、高反射物、遠方物、低反射物および画像のぶれ領域を含む。 Specific objects include near objects, highly reflective objects, distant objects, low reflective objects and blurred areas of the image.

また、表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部560による判断結果に基づき、特定の対象を識別する識別情報と、3次元再構成処理部550により決定される3次元画像3Gと、を含む表示画像を表示部520に表示をさせる表示制御部530を備える。 Further, the display device 500 detects a specific target based on both the output of the imaging unit 11 that captures an image of the target and the output of the distance information acquisition unit 13 that projects light onto the target and receives light reflected from the target. Based on the result of determination by determination unit 560 that determines whether there is A display control unit 530 for displaying is provided.

図21は、本発明の実施形態の第7の変形例における情報処理システムの構成の一例を示す図である。 FIG. 21 is a diagram showing an example of the configuration of an information processing system according to the seventh modification of the embodiment of the invention.

図21に示す第7の変形例にかかる情報処理システムは、撮像装置1と、表示装置500と、サーバ600と、を備える。 The information processing system according to the seventh modification shown in FIG. 21 includes an imaging device 1 , a display device 500 and a server 600 .

図21に示す撮像装置1は、図20に示した撮像装置1と同様に構成され、図21に示す表示装置500は、図12に示した表示装置500と同様に構成される。 The imaging device 1 shown in FIG. 21 is configured similarly to the imaging device 1 shown in FIG. 20, and the display device 500 shown in FIG. 21 is configured similarly to the display device 500 shown in FIG.

図21に示すサーバ600は、受信部610と、RGB画像データ取得部642と、モノクロ処理部643と、TOF画像データ取得部644と、高解像度化部645と、マッチング処理部646と、再投影処理部647と、セマンティックセグメンテーション部648と、視差計算部649と、3次元再構成処理部650と、判断部660と、送信部680と、を備える。 The server 600 shown in FIG. 21 includes a reception unit 610, an RGB image data acquisition unit 642, a monochrome processing unit 643, a TOF image data acquisition unit 644, a resolution enhancement unit 645, a matching processing unit 646, a reprojection A processing unit 647 , a semantic segmentation unit 648 , a parallax calculation unit 649 , a three-dimensional reconstruction processing unit 650 , a determination unit 660 and a transmission unit 680 are provided.

受信部610は、ネットワーク400経由で撮像装置1から送信された全天球のRGB画像データおよび全天球のTOF画像データを受信する。 The receiving unit 610 receives omnidirectional RGB image data and omnidirectional TOF image data transmitted from the imaging apparatus 1 via the network 400 .

RGB画像データ取得部642は、受信部610から全天球のRGB画像データを取得し、TOF画像データ取得部644は、受信部610から全天球のRGB画像データを取得するが、それ以外は、それぞれ、図4に示したRGB画像データ取得部142およびTOF画像データ取得部144と同様に構成される。 The RGB image data obtaining unit 642 obtains omnidirectional RGB image data from the receiving unit 610, and the TOF image data obtaining unit 644 obtains omnidirectional RGB image data from the receiving unit 610. , are configured similarly to the RGB image data acquisition unit 142 and the TOF image data acquisition unit 144 shown in FIG.

モノクロ処理部643と、TOF画像データ取得部644と、高解像度化部645と、マッチング処理部646と、再投影処理部647と、セマンティックセグメンテーション部648と、視差計算部649と、3次元再構成処理部650と、および判断部660は、図4に示したモノクロ処理部143と、TOF画像データ取得部144と、高解像度化部145と、マッチング処理部146と、再投影処理部147と、セマンティックセグメンテーション部148と、視差計算部149と、3次元再構成処理部150と、および判断部160と同様に構成される。 A monochrome processing unit 643, a TOF image data acquisition unit 644, a resolution enhancement unit 645, a matching processing unit 646, a reprojection processing unit 647, a semantic segmentation unit 648, a parallax calculation unit 649, and three-dimensional reconstruction. The processing unit 650 and the determination unit 660 include the monochrome processing unit 143, the TOF image data acquisition unit 144, the resolution enhancement unit 145, the matching processing unit 146, the reprojection processing unit 147, and It is configured in the same manner as the semantic segmentation unit 148 , parallax calculation unit 149 , 3D reconstruction processing unit 150 and determination unit 160 .

送信部680は、3次元再構成処理部150から出力される全天球の3次元データと、RGB画像データ取得部142から出力される全天球の2次元画像情報と、判断部160の判断結果と、をネットワーク400経由で表示装置500へ送信(出力)する。 The transmission unit 680 receives the spherical three-dimensional data output from the three-dimensional reconstruction processing unit 150, the spherical two-dimensional image information output from the RGB image data acquisition unit 142, and the judgment of the judgment unit 160. , are transmitted (output) to the display device 500 via the network 400 .

表示装置510の送受信部510は、サーバ600から送信された全天球の3次元データと、2次元画像情報と、判断部160の判断結果と、を受信する。 The transmitting/receiving unit 510 of the display device 510 receives the spherical three-dimensional data, the two-dimensional image information, and the determination result of the determination unit 160 transmitted from the server 600 .

表示装置510の表示制御部530は、送受信部510から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像を表示部520に表示させてもよく、送受信部510から全天球の3次元データを取得し、3次元画像報を表示部20に表示させてもよい。 The display control unit 530 of the display device 510 may acquire the omnidirectional RGB image data from the transmitting/receiving unit 510 and cause the display unit 520 to display a two-dimensional image based on the acquired omnidirectional RGB image data. It is also possible to obtain omnidirectional three-dimensional data from the transmitting/receiving unit 510 and display the three-dimensional image information on the display unit 20 .

表示制御部530は、送受信部510から取得した判断結果を示す情報と、2次元画像または3次元画像と、を含む表示画像を表示部520に表示させる。 Display control unit 530 causes display unit 520 to display a display image including information indicating the determination result acquired from transmission/reception unit 510 and a two-dimensional image or a three-dimensional image.

以上説明したように、表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づく特定の対象があるかのサーバ600の判断部660による判断結果を受信する送受信部510と、送受信部510が受信した判断結果に基づき、特定の対象の有無に応じて、表示部520に異なる表示をさせる表示制御部530と、を備える。特定の対象は、近接物、高反射物、遠方物、低反射物および画像のぶれ領域を含む。 As described above, the display device 500 is based on both the output of the imaging unit 11 that captures an image of the target and the output of the distance information acquisition unit 13 that projects light onto the target and receives light reflected from the target. Transmitting/receiving unit 510 that receives the result of determination by determination unit 660 of server 600 as to whether there is a specific target, and based on the determination result received by transmitting/receiving unit 510, different displays are displayed on display unit 520 according to the presence or absence of the specific target. and a display control unit 530 that causes the Specific objects include near objects, highly reflective objects, distant objects, low reflective objects and blurred areas of the image.

また、表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部660による判断結果に基づき、特定の対象を識別する識別情報と、3次元再構成処理部650により決定される3次元画像3Gと、を含む表示画像を表示部520に表示をさせる表示制御部530を備える。 Further, the display device 500 detects a specific target based on both the output of the imaging unit 11 that captures an image of the target and the output of the distance information acquisition unit 13 that projects light onto the target and receives light reflected from the target. Based on the determination result of determination unit 660 that determines whether there is A display control unit 530 for displaying is provided.

図22は、第5~第7の変形例における表示部の表示内容を説明するための図である。 FIG. 22 is a diagram for explaining display contents of the display section in the fifth to seventh modifications.

図22に示すように、表示部520には、表示制御部530により、特定の対象を識別する識別情報3Ga,3Gbおよび3Gcを含む3次元画像3Gが表示されている。3Ga,3Gbおよび3Gcは、特定の対象の位置を識別する位置識別情報であってもよい。 As shown in FIG. 22, the display control unit 530 displays a three-dimensional image 3G including identification information 3Ga, 3Gb, and 3Gc for identifying a specific target on the display unit 520 . 3Ga, 3Gb and 3Gc may be location identification information that identifies the location of a particular object.

図22では、表示部520を示したが、表示部20にも、同様に表示制御部170により、特定の対象を識別する識別情報3Ga,3Gbおよび3Gcを含む3次元画像3Gが表示される。 Although FIG. 22 shows the display unit 520, the display control unit 170 similarly displays a three-dimensional image 3G including identification information 3Ga, 3Gb, and 3Gc for identifying a specific target on the display unit 20 as well.

ここで、識別情報3Gaは死角を示しピンク色等で識別表示され、識別情報3Gbは低反射物を示しオレンジ色等で識別表示され、識別情報3Gcは遠方物を示しモザイク等で識別表示されている。 Here, the identification information 3Ga indicates a blind spot and is identified and displayed in pink or the like, the identification information 3Gb indicates a low reflective object and is identified and displayed in orange or the like, and the identification information 3Gc indicates a distant object and is identified and displayed by mosaic or the like. there is

これらの識別情報3Ga,3Gbおよび3Gcは同時に全て表示されていてもよく、何れか1つまたは2つが表示されていてもよい。 All of these identification information 3Ga, 3Gb and 3Gc may be displayed at the same time, or any one or two of them may be displayed.

図23は、本発明の実施形態における表示部が表示する三次元画像を説明するための図である。 FIG. 23 is a diagram for explaining a three-dimensional image displayed by the display unit according to the embodiment of the present invention;

図23(a)は、全天球画像を三次元の立体球とした場合の仮想カメラおよび所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。 FIG. 23(a) is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the user viewing the omnidirectional image CE displayed as a three-dimensional sphere.

図23(b)は、図23(a)の立体斜視図、図23(c)は、ディスプレイに表示された場合の所定領域画像を表す図である。 FIG. 23(b) is a three-dimensional perspective view of FIG. 23(a), and FIG. 23(c) is a diagram showing a predetermined area image displayed on the display.

図23(b)は、図23(a)に示した全天球画像CEを、三次元の立体球CSで表している。このように生成された全天球画像CEが、立体球CSであるとした場合、図23(a)に示されているように、仮想カメラICは、全天球画像CEの内部に位置している。 FIG. 23(b) represents the omnidirectional image CE shown in FIG. 23(a) with a three-dimensional solid sphere CS. Assuming that the omnidirectional image CE generated in this way is the stereosphere CS, the virtual camera IC is positioned inside the omnidirectional image CE as shown in FIG. ing.

全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮影方向と画角を示す所定領域情報によって特定される。 A predetermined region T in the omnidirectional image CE is a photographing region of the virtual camera IC, and is specified by predetermined region information indicating the photographing direction and angle of view of the virtual camera IC in the three-dimensional virtual space including the omnidirectional image CE. be.

また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。したがって、所定領域Tは、画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる。 Further, the zooming of the predetermined area T can also be expressed by moving the virtual camera IC closer to or farther from the omnidirectional image CE. The predetermined area image Q is an image of the predetermined area T in the omnidirectional image CE. Therefore, the predetermined area T can be specified by the angle of view α and the distance f from the virtual camera IC to the omnidirectional image CE.

すなわち、表示制御部170、530は、3次元画像3Gを見る視点の位置にある仮想カメラICの位置および向きを変更することにより、表示部20、520に表示させる3次元画像3Gの表示領域を変更する。 That is, the display control units 170 and 530 change the position and orientation of the virtual camera IC at the position of the viewpoint for viewing the three-dimensional image 3G, thereby changing the display area of the three-dimensional image 3G to be displayed on the display units 20 and 520. change.

上記では表示部が表示する三次元画像について全天球画像を用いる例で説明したが、3次元点群データを用いる場合も同様である。仮想空間中に三次元点群を配置し、その仮想空間中に仮想カメラを配置する。仮想カメラの視点位置、撮影方向と画角を示す所定領域情報に基づいて、仮想空間中の所定の投影面に3次元点群を投射投影することで三次元画像を得る。また、仮想カメラの視点位置および向きを変更することにより、3次元画像の表示領域を変更する。 In the above description, the three-dimensional image displayed by the display unit is described as an example using a omnidirectional image, but the same applies when using three-dimensional point cloud data. A three-dimensional point group is arranged in a virtual space, and a virtual camera is arranged in the virtual space. A three-dimensional image is obtained by projecting a three-dimensional point group onto a predetermined projection plane in the virtual space based on predetermined area information indicating the virtual camera's viewpoint position, photographing direction, and angle of view. Also, by changing the viewpoint position and orientation of the virtual camera, the display area of the three-dimensional image is changed.

図24は、第5~第7の変形例における判断フロー図である。判断部160、560、660は、3次元再構成処理部150、550、650から取得した全天球の3次元データに基づき、全天球の3次元データの中に点群データの密度が閾値未満の領域(座標)があるか判断する(ステップS61)。 FIG. 24 is a judgment flow diagram in the fifth to seventh modifications. Based on the spherical three-dimensional data acquired from the three-dimensional reconstruction processing units 150, 550, and 650, the determination units 160, 560, and 660 determine the density of point cloud data in the spherical three-dimensional data as a threshold value. It is determined whether there is an area (coordinates) of less than (step S61).

判断部160、560、660は、ステップS61で点群データの密度が閾値未満の領域(座標)があると判断した場合、点群データの密度が閾値未満の領域と同一座標の複数の画素について、図16に示したフローで撮像部11の出力に基づき、遠方物と判断された画素が含まれるか判断し、遠方物と判断された画素が含まれる場合、画素の座標位置情報を表示制御部170、530へ出力する(ステップS62)。 If the determination units 160, 560, and 660 determine in step S61 that there is an area (coordinates) in which the density of the point cloud data is less than the threshold, a plurality of pixels having the same coordinates as the area in which the density of the point cloud data is less than the threshold are determined. , based on the output of the imaging unit 11 in the flow shown in FIG. Output to the units 170 and 530 (step S62).

表示制御部170、530は、判断部160、560、660から取得した画素の座標位置情報に基づき、図22に示したように、遠方物の位置を識別する位置識別情報3Gcと、3次元画像Gと、を含む表示画像を表示部20、520に表示し(ステップS63)、処理を終了する。 Based on the pixel coordinate position information acquired from the determination units 160, 560, and 660, the display control units 170 and 530, as shown in FIG. A display image including G and is displayed on the display unit 20, 520 (step S63), and the process ends.

判断部160、560、660は、ステップS62で、点群データの密度が閾値未満の領域と同一座標の複数の画素について、遠方物と判断された画素が含まれない場合、図16に示したフローで撮像部11の出力に基づき、低反射物と判断された画素が含まれるか判断し、低反射物と判断された画素が含まれる場合、画素の座標位置情報を表示制御部170、530へ出力する(ステップS64)。 In step S62, the determining units 160, 560, and 660 determine that a plurality of pixels having the same coordinates as the area where the density of the point cloud data is less than the threshold do not include pixels determined to be distant objects, as shown in FIG. In the flow, based on the output of the imaging unit 11, it is determined whether a pixel determined as a low-reflectance object is included. (step S64).

表示制御部170、530は、判断部160、560、660から取得した画素の座標位置情報に基づき、図22に示したように、低反射物の位置を識別する位置識別情報3Gbと、3次元画像Gと、を含む表示画像を表示部20、520に表示し(ステップS65)、処理を終了する。 Based on the pixel coordinate position information acquired from the determination units 160, 560, and 660, the display control units 170 and 530, as shown in FIG. A display image including the image G is displayed on the display unit 20, 520 (step S65), and the process ends.

判断部160、560、660は、ステップS64で、点群データの密度が閾値未満の領域と同一座標の複数の画素について、低反射物と判断された画素が含まれない場合、死角であると判断し、画素の座標位置情報を表示制御部170、530へ出力する。 In step S64, the determining units 160, 560, and 660 determine that a plurality of pixels having the same coordinates as the area in which the density of the point cloud data is less than the threshold value are blind spots when pixels determined as low-reflecting objects are not included. Then, the pixel coordinate position information is output to the display control units 170 and 530 .

表示制御部170、530は、判断部160、560、660から取得した画素の座標位置情報に基づき、図22に示したように、死角の位置を識別する位置識別情報3Gaと、3次元画像Gと、を含む表示画像を表示部20、520に表示し(ステップS66)、処理を終了する。ステップS61、S62およびS64は判断ステップの一例であり、ステップS63、S65およびS66は表示ステップの一例である。 Based on the pixel coordinate position information acquired from the determination units 160, 560, and 660, the display control units 170 and 530, as shown in FIG. and is displayed on the display unit 20, 520 (step S66), and the process ends. Steps S61, S62 and S64 are examples of determination steps, and steps S63, S65 and S66 are examples of display steps.

以上説明したように、撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部160、560、660による判断結果に基づき、特定の対象を識別する識別情報3Ga、3Gb、3Gcと、距離情報取得部13の出力に基づき3次元情報決定部の一例である3次元再構成処理部150、550、650により決定される3次元画像3Gと、を含む表示画像を表示部20、520に異なる表示をさせる表示制御部170、530を備える。 As described above, the imaging device 1 and the display device 500 combine the output of the imaging unit 11 that images an object with the output of the distance information acquisition unit 13 that projects light onto the object and receives light reflected from the object. Based on the determination results of the determination units 160, 560, and 660 that determine whether there is a specific target based on both, based on the identification information 3Ga, 3Gb, and 3Gc for identifying the specific target, and based on the output of the distance information acquisition unit 13 A display control unit 170 that causes the display units 20 and 520 to display differently a display image including a three-dimensional image 3G determined by the three-dimensional reconstruction processing units 150, 550, and 650, which are examples of the three-dimensional information determination unit; 530.

特定の対象は、遠方物、低反射物および死角だけでなく、近接物、高反射物、および画像のぶれ領域も含む。 Specific objects include not only distant objects, low reflectivity objects and blind spots, but also close objects, high reflectivity objects and blurred areas of the image.

これにより、所望の3次元画像3Gが表示されない要因が、遠方物、低反射物、死角、近接物、高反射物、および画像のぶれの何れであるかを、3次元画像3Gを観て確認することができる。 As a result, by viewing the 3D image 3G, it is confirmed which of the distant object, the low reflective object, the blind spot, the close object, the high reflective object, and the blurring of the image is the reason why the desired 3D image 3G is not displayed. can do.

また、撮像装置1および表示装置500は、対象に投射されて対象から反射してきた光を受光する距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させる表示制御部170、530を備え、表示制御部170、530は、3次元画像3G中で、対象から反射してきた光を受光したときの距離情報取得部13からの距離が遠い遠方物、投射された光に対する反射率が低い低反射物、および対象から反射してきた光を受光したときの距離情報取得部13に対する死角の少なくとも1つであると判断された位置を示す位置情報に基づき、遠方物、低反射物および死角の少なくとも1つの位置を識別する位置識別情報3Ga、3Gbまたは3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 In addition, the imaging device 1 and the display device 500 cause the display units 20 and 520 to display a three-dimensional image 3G determined based on the output of the distance information acquisition unit 13 that receives light projected onto and reflected from the object. Display control units 170 and 530 are provided, and the display control units 170 and 530 control a distant object, which is far from the distance information acquisition unit 13 when light reflected from the object is received in the three-dimensional image 3G, and a projected object. Based on the position information indicating the position determined to be at least one of the low reflective object with low reflectance for the light reflected from the object and the blind spot with respect to the distance information acquisition unit 13 when the light reflected from the object is received. , position identification information 3Ga, 3Gb or 3Gc for identifying at least one position of a low-reflective object and a blind spot, and a three-dimensional image 3G.

これにより、所望の3次元画像3Gが表示されない要因が、遠方物、低反射物、および死角の何れであるかを、3次元画像3Gを観て確認することができるため、要因に応じて再撮像等の対応をとることが可能になる。 As a result, it is possible to confirm by viewing the three-dimensional image 3G which of the distant object, the low-reflecting object, and the blind spot is the reason why the desired three-dimensional image 3G is not displayed. It becomes possible to take measures such as imaging.

3次元画像3Gは、3次元情報決定部の一例である3次元再構成処理部150、550、650により決定される。 The three-dimensional image 3G is determined by three-dimensional reconstruction processing units 150, 550, and 650, which are examples of three-dimensional information determination units.

表示制御部170、530は、遠方物、低反射物、および死角の何れか1つの位置情報に基づき、位置識別情報3Ga、3Gbおよび3Gcの何れか1つと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させてもよく、遠方物、低反射物、および死角の何れか2つまたは全ての位置情報に基づき、位置識別情報3Ga、3Gbおよび3Gcの何れか2つまたは全てと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させてもよい。 The display control units 170 and 530 display one of the position identification information 3Ga, 3Gb, and 3Gc and the three-dimensional image 3G based on the position information of any one of the distant object, the low-reflection object, and the blind spot. The image may be displayed on the display unit 20, 520, and any two or more of the position identification information 3Ga, 3Gb and 3Gc may be displayed based on the position information of any two or all of the distant object, the low reflective object, and the blind spot. A display image including all and the three-dimensional image 3G may be displayed on the display unit 20, 520. FIG.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、距離情報取得部13および3次元再構成処理部150を備える。 When the information processing device is the imaging device 1, the imaging device 1 includes the distance information acquisition unit 13 and the three-dimensional reconstruction processing unit 150 as shown in FIG.

情報処理装置が表示装置500である場合、図20および図21に示したように、表示装置500は、距離情報取得部13を備えておらず、撮像装置1が、距離情報取得部13を備えて、距離情報取得部13の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, as shown in FIGS. Then, the output of the distance information acquisition unit 13 is transmitted to the display device 500 or the server 600 .

表示装置500は、図20に示したように3次元再構成処理部550を備えてもよく、備えなくてもよい。 The display device 500 may or may not include a three-dimensional reconstruction processing unit 550 as shown in FIG.

表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像を送信してもよく、図21に示したように、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像を送信してもよい。 When the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 may include the three-dimensional reconstruction processing unit 150 and transmit a three-dimensional image to the display device 500, as shown in FIG. Alternatively, the server 600 may include a 3D reconstruction processing unit 650 and transmit the 3D image to the display device 500 .

表示制御部170、530は、3次元画像3Gに含まれる点群データの密度が閾値よりも低く、かつ、遠方物、低反射物、または死角の少なくとも1つであると判断される位置を示す位置情報に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control unit 170, 530 indicates a position where the density of the point cloud data included in the 3D image 3G is lower than the threshold and is determined to be at least one of a distant object, a low reflective object, and a blind spot. Based on the positional information, the display unit 20, 520 is caused to display a display image including the positional identification information 3Ga, 3Gb, 3Gc and the three-dimensional image 3G.

これにより、点群データの密度が閾値よりも低い要因が、遠方物、低反射物、および死角の何れであるかを、3次元画像3Gを観て確認することができる。 With this, it is possible to confirm, by viewing the three-dimensional image 3G, which of the distant object, the low-reflection object, and the blind spot is the cause of the density of the point cloud data being lower than the threshold.

表示制御部170、530は、対象を撮像する撮像部11の出力に基づき、3次元画像3G中で、遠方物、低反射物、または死角の少なくとも1つであると判断される位置を示す位置情報に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 display a position that is determined to be at least one of a distant object, a low-reflection object, and a blind spot in the three-dimensional image 3G based on the output of the imaging unit 11 that images the object. Based on the information, the display unit 20, 520 is caused to display a display image including the position identification information 3Ga, 3Gb, 3Gc and the three-dimensional image 3G.

これにより、所望の3次元画像3Gが表示されない要因を、遠方物、低反射物、および死角の何れであるか、撮像部11の出力に基づき正確に判断することができる。 Accordingly, it is possible to accurately determine whether the cause of not displaying the desired three-dimensional image 3G is a distant object, a low-reflection object, or a blind spot, based on the output of the imaging unit 11 .

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、撮像部11を備える。情報処理装置が表示装置500である場合、表示装置500は、図20および図21に示したように、撮像部11を備えておらず、撮像装置1が、撮像部11を備えて、撮像部11の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the imaging device 1, the imaging device 1 includes an imaging unit 11 as shown in FIG. When the information processing device is the display device 500, the display device 500 does not include the imaging unit 11 as shown in FIGS. 11 to display device 500 or server 600 .

撮像装置1および表示装置500は、3次元画像3G中で、遠方物、低反射物、または死角の少なくとも1つである位置を判断する判断部160、560、660を備え、表示制御部170、530は、判断部160、560、660の判断結果に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The imaging device 1 and the display device 500 include determination units 160, 560, and 660 that determine positions of at least one of a distant object, a low-reflection object, and a blind spot in the three-dimensional image 3G, a display control unit 170, Based on the determination results of the determination units 160, 560, and 660, the 530 causes the display units 20 and 520 to display display images including the position identification information 3Ga, 3Gb, and 3Gc and the three-dimensional image 3G.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、判断部160を備える。 When the information processing device is the imaging device 1, the imaging device 1 is provided with a determination unit 160 as shown in FIG.

情報処理装置が表示装置500である場合、表示装置500は、図20に示したように判断部560を備えてもよく、判断部560を備えなくてもよい。 When the information processing device is the display device 500, the display device 500 may or may not include the determination section 560 as shown in FIG.

表示装置500が判断部560を備えない場合、撮像装置1が判断部160を備えて表示装置500へ判断結果を送信してもよく、図21に示したようにサーバ600が判断部660を備えて表示装置500へ判断結果を送信してもよい。 If the display device 500 does not include the determination unit 560, the imaging device 1 may include the determination unit 160 and transmit the determination result to the display device 500, and the server 600 may include the determination unit 660 as shown in FIG. You may transmit a judgment result to the display apparatus 500 by pressing.

図25は、第5~第7の変形例における表示部の表示内容を説明するための他の図である。 FIG. 25 is another diagram for explaining the display contents of the display section in the fifth to seventh modifications.

図25に示すように、表示部520には、表示制御部530により、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2を含む3次元画像3Gが表示されている。 As shown in FIG. 25, the display unit 520 has a three-dimensional display including position identification information 3G1 and 3G2 for identifying the position of the distance information acquisition unit 13 when the light reflected from the object is received by the display control unit 530. Image 3G is displayed.

3次元画像3Gは、第1の位置に位置する距離情報取得部13の出力および第1の位置とは異なる第2の位置に位置する距離情報取得部13の出力に基づき決定されており、位置識別情報3G1は、第1の位置を識別する第1の位置識別情報の一例であり、位置識別情報3G2は、第2の位置を識別する第1の位置識別情報の一例である。 The three-dimensional image 3G is determined based on the output of the distance information acquisition unit 13 positioned at the first position and the output of the distance information acquisition unit 13 positioned at a second position different from the first position. The identification information 3G1 is an example of first position identification information that identifies a first position, and the position identification information 3G2 is an example of first position identification information that identifies a second position.

図25では、表示部520を示したが、表示部20にも、同様に表示制御部170により、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2を含む3次元画像3Gが表示される。 Although FIG. 25 shows the display unit 520, the display control unit 170 also displays the position identification information for identifying the position of the distance information acquisition unit 13 when the light reflected from the object is received. A three-dimensional image 3G including 3G1 and 3G2 is displayed.

表示制御部170、530は、3次元画像3Gと、図22に示したように、低密度識別情報の一例である識別情報3Ga,3Gbおよび3Gcと、を含む表示画像を表示部20、520に表示させるとともに、図25に示すように、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2を表示画像に含ませてもよい。 The display control units 170 and 530 cause the display units 20 and 520 to display display images including a three-dimensional image 3G and identification information 3Ga, 3Gb and 3Gc, which are examples of low-density identification information, as shown in FIG. Along with the display, as shown in FIG. 25, the display image may include position identification information 3G1 and 3G2 for identifying the position of the distance information acquisition unit 13 when the light reflected from the object is received.

図26は、第5~第7の変形例における処理を説明するフロー図である。 FIG. 26 is a flowchart for explaining processing in the fifth to seventh modifications.

3次元再構成処理部150、550、650は、全天球の高密度3次元点群データを読み込み(ステップS71)、3次元点群データの原点を対象から反射してきた光を受光したときの距離情報取得部13の撮像位置を示す位置情報として取得する(ステップS72)。 The three-dimensional reconstruction processing units 150, 550, and 650 read the omnidirectional high-density three-dimensional point cloud data (step S71), and set the origin of the three-dimensional point cloud data to the light reflected from the object. It is acquired as position information indicating the imaging position of the distance information acquisition unit 13 (step S72).

3次元再構成処理部150、550、650は、事前に読み込まれた3次元点群データがあるか確認し、事前に読み込まれた3次元点群データが無ければ、ステップS71で読み込まれた3次元点群データと、ステップS72で取得した位置情報を表示制御部170、530へ出力する(ステップS73)。 The three-dimensional reconstruction processing units 150, 550, and 650 confirm whether or not there is pre-loaded three-dimensional point cloud data. The dimensional point cloud data and the position information acquired in step S72 are output to the display control units 170 and 530 (step S73).

表示制御部170、530は、3次元再構成処理部150、550、650から取得した3次元点群データと位置情報に基づき、図25に示したように、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1と、3次元画像3Gと、を含む表示画像を表示部20、520に表示し(ステップS74)、処理を終了する。 The display control units 170 and 530 receive the light reflected from the object as shown in FIG. A display image including the position identification information 3G1 for identifying the position of the distance information acquisition unit 13 at that time and the three-dimensional image 3G is displayed on the display units 20 and 520 (step S74), and the process ends.

3次元再構成処理部150、550、650は、ステップS73で、事前に読み込まれた3次元点群データがあれば、ステップS71で読み込まれた3次元点群データと事前に読み込まれた3次元点群データを統合する(ステップS75)。 If there is 3D point cloud data read in advance in step S73, the 3D reconstruction processing units 150, 550, and 650 combine the 3D point cloud data read in step S71 with the 3D data read in advance. The point cloud data are integrated (step S75).

3次元再構成処理部150、550、650は、ステップS71で読み込まれた3次元点群データの原点および事前に読み込まれた3次元点群データの原点のそれぞれについて、ステップS75で統合した3次元点群データ中の座標を撮像位置の位置情報として算出し、ステップS75で統合した3次元点群データおよび算出した複数の位置情報を表示制御部170、530へ出力する(ステップS76)。 The three-dimensional reconstruction processing units 150, 550, and 650 convert the origin of the three-dimensional point cloud data read in step S71 and the origin of the three-dimensional point cloud data read in advance into the integrated three-dimensional data in step S75. The coordinates in the point cloud data are calculated as the position information of the imaging position, and the three-dimensional point cloud data integrated in step S75 and the calculated plurality of position information are output to the display control units 170 and 530 (step S76).

ステップS74において、表示制御部170、530は、3次元再構成処理部150、550、650から取得した3次元点群データと複数の位置情報に基づき、図25に示したように、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する複数の位置識別情報3G1、3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示する。 In step S74, the display control units 170 and 530, based on the three-dimensional point cloud data acquired from the three-dimensional reconstruction processing units 150, 550, and 650 and a plurality of pieces of position information, as shown in FIG. A display image including a plurality of position identification information 3G1 and 3G2 for identifying the position of the distance information acquisition section 13 when receiving the light coming from the display section 20 and the three-dimensional image 3G is displayed on the display sections 20 and 520 .

図27は、第5~第7の変形例における処理を説明する他のフロー図である。 FIG. 27 is another flowchart for explaining the processing in the fifth to seventh modifications.

3次元再構成処理部150、550、650は、全天球の高密度3次元点群データを読み込み(ステップS81)、判断部160、560、660は、3次元再構成処理部150、550、650から取得した全天球の3次元データに基づき、図24に示したフローのステップS61、S62およびS64を実行して点群データの密度が閾値よりも低い低密度部を抽出する(ステップS82)。 The three-dimensional reconstruction processing units 150, 550, and 650 read the high-density three-dimensional point cloud data of the omnisphere (step S81). Based on the spherical three-dimensional data acquired from 650, steps S61, S62, and S64 of the flow shown in FIG. ).

表示制御部170、530は、図23に示す仮想カメラICが、図25に示した位置識別情報3G1または3G2の位置にある場合、図24に示したフローのステップS63、S65およびS66を実行して、図22に示した低密度識別情報の一例である識別情報3Ga,3Gbおよび3Gcの少なくとも1つが表示画像に含まれるように、仮想カメラICの向きを変更する(ステップS83)。 When the virtual camera IC shown in FIG. 23 is at the position of the position identification information 3G1 or 3G2 shown in FIG. Then, the orientation of the virtual camera IC is changed so that at least one of the identification information 3Ga, 3Gb, and 3Gc, which are examples of the low-density identification information shown in FIG. 22, is included in the displayed image (step S83).

以上説明したように、撮像装置1および表示装置500は、距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させる表示制御部170、530を備え、表示制御部170、530は、対象から反射してきた光を受光したときの距離情報取得部13の位置を示す位置情報に基づき、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 As described above, the imaging device 1 and the display device 500 include the display control units 170 and 530 that cause the display units 20 and 520 to display the three-dimensional image 3G determined based on the output of the distance information acquisition unit 13. The control units 170 and 530 determine the position of the distance information acquisition unit 13 when the light reflected from the object is received based on the position information indicating the position of the distance information acquisition unit 13 when the light reflected from the object is received. and a three-dimensional image 3G are displayed on the display units 20 and 520.

これにより、対象から反射してきた光を受光したときの距離情報取得部13の位置を示す撮像位置と、特定の対象との位置関係を、3次元画像3G中で把握できる。 Thereby, the positional relationship between the imaging position indicating the position of the distance information acquisition unit 13 when the light reflected from the target is received and the specific target can be grasped in the three-dimensional image 3G.

3次元画像3Gおよび位置情報は、3次元再構成処理部150、550、650により決定される。 The three-dimensional image 3G and position information are determined by the three-dimensional reconstruction processing units 150, 550, and 650. FIG.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、距離情報取得部13および3次元再構成処理部150を備える。 When the information processing device is the imaging device 1, the imaging device 1 includes the distance information acquisition unit 13 and the three-dimensional reconstruction processing unit 150 as shown in FIG.

情報処理装置が表示装置500である場合、図20および図21に示したように、表示装置500は、距離情報取得部13を備えておらず、撮像装置1が、距離情報取得部13を備えて、距離情報取得部13の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, as shown in FIGS. Then, the output of the distance information acquisition unit 13 is transmitted to the display device 500 or the server 600 .

表示装置500は、図20に示したように3次元再構成処理部550を備えてもよく、備えなくてもよい。 The display device 500 may or may not include a three-dimensional reconstruction processing unit 550 as shown in FIG.

表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像および位置情報を送信してもよく、図21に示したように、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像および位置情報を送信してもよい。 If the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 may include the three-dimensional reconstruction processing unit 150 and transmit the three-dimensional image and the position information to the display device 500. FIG. As indicated, the server 600 may include a 3D reconstruction processor 650 to transmit 3D images and location information to the display device 500 .

表示制御部170、530は、3次元画像3Gにおける点群データの密度が閾値よりも低い領域を示す領域情報に基づき、領域を識別する低密度識別情報の一例である識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 generate identification information 3Ga, 3Gb, and 3Gc, which are examples of low-density identification information for identifying regions, based on region information indicating regions in the three-dimensional image 3G where the density of the point cloud data is lower than the threshold value. , and the three-dimensional image 3G are displayed on the display units 20 and 520 .

この場合、撮像位置と、点群データの密度が閾値よりも低い領域との位置関係を把握できるため、点群データの密度が閾値よりも低い要因を特定することが可能になる。例えば、当該領域が撮像位置より遠方であれば遠方物が要因であり、当該領域が撮像位置の死角にあれば死角が要因であり、遠方物および死角の何れでもなければ低反射物が要因であることが特定できる。 In this case, since the positional relationship between the imaging position and the area where the density of the point cloud data is lower than the threshold can be grasped, it is possible to specify the factor that the density of the point cloud data is lower than the threshold. For example, if the area is far from the imaging position, a distant object is the factor, if the area is in the blind spot of the imaging position, the blind spot is the factor, and if neither the distant object nor the blind spot is the factor, the low reflective object is the factor. One thing can be identified.

表示制御部170、530は、3次元画像3Gを見る視点の位置にある仮想カメラICの位置および向きを変更することにより、表示部20、520に表示させる3次元画像3Gの表示領域を変更する。 The display control units 170 and 530 change the display area of the three-dimensional image 3G to be displayed on the display units 20 and 520 by changing the position and orientation of the virtual camera IC at the position of the viewpoint for viewing the three-dimensional image 3G. .

表示制御部170、530は、仮想カメラICの位置が位置識別情報により識別される位置3G1、3G2にある場合、仮想カメラICの向きを予め定められた向きに変更する。予め定められた向きとしては、低密度点群領域等の再撮像の原因となる箇所や、現場調査の確認箇所等の事前に設定した条件に合う箇所や、撮影者もしくは他の確認者が着目した任意の箇所等が、表示領域に含まれるような領域である。現場調査の確認箇所としては、建設現場の例を挙げると、現場で継続して変化が起こる場所(資材置き場)や、本設(建築物そのもの)の各物体の位置、物体間の空隙距離、新たな設置物のスペース、仮設(物資置き場、足場など、建設プロセスでつけ外しがあるもの)、重機(フォーク、クレーン)の置き場、ワークスペース(旋回可能範囲、搬入経路)、居住者の動線(工事中の迂回路)等が該当する。 The display control units 170 and 530 change the orientation of the virtual camera IC to a predetermined orientation when the position of the virtual camera IC is at the positions 3G1 and 3G2 identified by the position identification information. Predetermined orientations include locations that cause re-imaging such as low-density point cloud regions, locations that meet preset conditions such as locations to be confirmed in field surveys, and locations that the photographer or other confirmation person focuses on. An arbitrary portion or the like is an area that is included in the display area. Examples of sites to be checked in a site survey include, for example, a construction site, where changes occur continuously on the site (material storage area), the position of each object in the permanent structure (the building itself), the gap distance between objects, Space for new installations, temporary facilities (material storage, scaffolding, etc., that are attached and removed during the construction process), storage for heavy machinery (forks, cranes), workspace (rotating range, delivery route), flow line for residents (Detour during construction) etc.

これにより、撮像位置に位置するユーザの視線を、現場で見てほしい特定の対象物へ向けさせることが可能になる。 This makes it possible to direct the line of sight of the user positioned at the imaging position to a specific object that the user wishes to see on site.

表示制御部170、530は、3次元画像3Gにおける予め定められた座標や点群データの密度が閾値よりも低い低密度部が表示領域に含まれるように、仮想カメラICの向きを変更する。予め定められた座標は、画像を特定するものではなく、例えば、図26のステップS75で3次元点群データを統合する前後で予め定められた座標における画像が変化した場合でも、維持される。 The display control units 170 and 530 change the orientation of the virtual camera IC so that the display area includes a low-density portion in which the density of predetermined coordinates and point cloud data in the three-dimensional image 3G is lower than a threshold value. The predetermined coordinates do not specify the image, and are maintained even if the image at the predetermined coordinates changes before and after the three-dimensional point cloud data are integrated in step S75 of FIG. 26, for example.

これにより、撮像位置に位置するユーザの視線を、3次元画像3G中では低密度部となっている特定の対象物へ向けさせることが可能になる。 As a result, it is possible to direct the line of sight of the user positioned at the imaging position to the specific object that is the low-density portion in the three-dimensional image 3G.

表示制御部170、530は、第1の位置に位置する距離情報取得部13の出力および第1の位置とは異なる第2の位置に位置する距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させ、第1の位置を識別する第1の位置識別情報3G1および第2の位置を識別する第2の位置識別情報3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 are determined based on the output of the distance information acquisition unit 13 positioned at the first position and the output of the distance information acquisition unit 13 positioned at a second position different from the first position. The dimensional image 3G is displayed on the display unit 20, 520, the first position identification information 3G1 for identifying the first position, the second position identification information 3G2 for identifying the second position, the three-dimensional image 3G, is displayed on the display unit 20, 520.

これにより、第1の撮像位置および第2の撮像位置と、特定の対象との位置関係を、3次元画像3G中で把握できる。 Thereby, the positional relationship between the first imaging position, the second imaging position, and the specific target can be grasped in the three-dimensional image 3G.

●まとめ●
以上説明したように、本発明の一実施形態に係る撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13(受光部の一例)と、距離情報取得部13の出力と、撮像部11の出力との両方に基づき高反射物があるかを判断する判断部160と、高反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。
●Summary●
As described above, the image capturing apparatus 1 according to the embodiment of the present invention includes the image capturing unit 11 that captures an image of an object, the projection unit 12 that projects light onto the object, and the distance information that receives the light reflected from the object. an acquisition unit 13 (an example of a light receiving unit), a determination unit 160 that determines whether there is a highly reflective object based on both the output of the distance information acquisition unit 13 and the output of the imaging unit 11; and a display control unit 170 that causes the display units 20 and 520 to display differently accordingly.

これにより、撮影者は、近接物や外光の影響と区別して、鏡等の高反射物が撮像画像に含まれることを正確に確認することができる。 As a result, the photographer can accurately confirm that a highly reflective object such as a mirror is included in the captured image by distinguishing it from the effects of nearby objects and external light.

撮像装置1は、表示部20を備える。これにより、撮影者は、高反射物が撮像画像に含まれることを確実に確認することができる。 The imaging device 1 includes a display section 20 . This allows the photographer to reliably confirm that the highly reflective object is included in the captured image.

表示制御部170は、高反射物の位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、高反射物の位置を確認することができる。 The display control unit 170 causes the display units 20 and 520 to display differently according to the position of the highly reflective object. This allows the photographer to confirm the position of the highly reflective object.

表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、高反射物に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、高反射物の位置を確実に確認することができる。 The display unit 20 includes a plurality of display units 20A and 20a, and the display control unit 170 causes the display unit 20A and 20a closer to the highly reflective object to display different images depending on the presence or absence of the object. Let This allows the photographer to reliably confirm the position of the highly reflective object.

表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、高反射物を識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、高反射物の位置を確実に確認することができる。 The display control unit 170 causes the display units 20 and 520 to display the image information G captured by the imaging unit 11, and displays a display image including the image information G and identification information for identifying a highly reflective object on the display units 20 and 520. 520 to display. This allows the photographer to reliably confirm the position of the highly reflective object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が所定値以上である画素の一例として蓄電量が飽和しており、かつ撮像部が撮像した画像情報が、高反射物を示す基準情報の一例としてモデル画像情報と一致する場合、高反射物があると判断する。 The determining unit 160 determines that the amount of stored electricity is saturated as an example of a pixel in which the amount of stored electricity due to the light received by the distance information acquisition unit 13 is equal to or greater than a predetermined value, and that the image information captured by the imaging unit is a highly reflective object. If it matches the model image information as an example of the reference information indicating , it is determined that there is a highly reflective object.

これにより、撮影者は、近接物や外光の影響と区別して、高反射物が撮像画像に含まれることを正確に確認することができる。 Accordingly, the photographer can accurately confirm that the highly reflective object is included in the captured image by distinguishing it from the effects of nearby objects and external light.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、近接物や外光ではなく、高反射物であることを確認することができる。 The imaging device 1 acquires distance information to an object based on the light received by the distance information acquiring section 13 . In this case, the photographer can confirm that the reason why the desired distance information is not acquired is not the nearby object or external light but the highly reflective object.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、近接物や外光ではなく、高反射物であることを確認することができる。 The imaging device 1 includes a transmission/reception section 180 that is an example of an output section that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition section 13 . In this case, the photographer can confirm that the reason why the desired three-dimensional information is not acquired is not a nearby object or external light but a highly reflective object.

本発明の一実施形態に係る撮像処理方法は、対象を撮像部11により撮像する撮像ステップと、対象に投射部12により光を投射する投射ステップと、対象から反射してきた光を距離情報取得部13により受光する受光ステップと、距離情報取得部13の出力と、撮像部11の出力との両方に基づき高反射物があるかを判断部160、560、660により判断する判断ステップと、高反射物の有無に応じて、表示制御部170、530により表示部20、520に異なる表示をさせる表示ステップと、を備える。 An imaging processing method according to an embodiment of the present invention includes an imaging step of imaging an object with an imaging unit 11, a projection step of projecting light onto the object with a projection unit 12, and a distance information acquiring unit that receives light reflected from the object. 13, a determination step of determining whether or not there is a highly reflective object based on both the output of the distance information acquisition unit 13 and the output of the imaging unit 11, and a high reflective and a display step of causing the display units 20 and 520 to perform different displays by the display control units 170 and 530 according to the presence or absence of the object.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき高反射物があるかを判断した判断部160、560、660による判断結果に基づき、高反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170、530を備える。 An imaging device 1 and a display device 500, which are examples of an information processing apparatus according to an embodiment of the present invention, receive an output of an imaging unit 11 that images an object, project light onto the object, and receive light reflected from the object. Based on the judgment results of the judgment units 160, 560, and 660 that judge whether there is a highly reflective object based on both the output of the distance information acquisition unit 13 and the output of the distance information acquisition unit 13, the display units 20 and 520 display It has display control units 170 and 530 that cause different displays.

本発明の一実施形態に係る情報処理装置の一例である表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づく特定の対象があるかの撮像装置1の判断部160またはサーバ600の判断部660による判断結果を受信する受信部の一例である送受信部510と、送受信部510が受信した判断結果に基づき、特定の対象の有無に応じて、表示部520に異なる表示をさせる表示制御部530と、を備える。特定の対象は、近接物、高反射物、遠方物、低反射物、死角および画像のぶれ領域を含む。 A display device 500, which is an example of an information processing device according to an embodiment of the present invention, acquires output of an imaging unit 11 that images an object, and distance information acquisition that projects light onto the object and receives light reflected from the object. A transmitting/receiving unit 510, which is an example of a receiving unit that receives a determination result by the determining unit 160 of the imaging device 1 or the determining unit 660 of the server 600 as to whether there is a specific target based on both the output of the unit 13 and the transmitting/receiving unit 510 and a display control unit 530 that causes the display unit 520 to display differently according to the presence or absence of a specific target based on the determination result received by the. Specific objects include near objects, highly reflective objects, distant objects, low reflective objects, blind spots and image blur areas.

本発明の一実施形態に係る情報処理装置の一例である表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力を受信する受信部の一例である送受信部510と、送受信部510が受信した距離情報取得部13の出力と、撮像部11の出力との両方に基づき特定の対象物があるかを判断する判断部560と、判断部560の判断結果に基づき、特定の対象の有無に応じて、表示部に異なる表示をさせる表示制御部530と、を備える。特定の対象は、近接物、高反射物、遠方物、低反射物、死角および画像のぶれ領域を含む。 A display device 500, which is an example of an information processing device according to an embodiment of the present invention, acquires output of an imaging unit 11 that images an object, and distance information acquisition that projects light onto the object and receives light reflected from the object. Transmitting/receiving unit 510, which is an example of a receiving unit that receives the output of unit 13, and whether there is a specific target based on both the output of distance information acquiring unit 13 received by transmitting/receiving unit 510 and the output of imaging unit 11 and a display control unit 530 that causes the display unit to display differently according to the presence or absence of a specific target based on the determination result of the determination unit 560 . Specific objects include near objects, highly reflective objects, distant objects, low reflective objects, blind spots and image blur areas.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部160、560による判断結果に基づき、特定の対象を識別する識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示をさせる表示制御部170、530を備える。特定の対象は、遠方物、低反射物および死角だけでなく、近接物、高反射物、および画像のぶれ領域も含む。 An imaging device 1 and a display device 500, which are examples of an information processing apparatus according to an embodiment of the present invention, receive an output of an imaging unit 11 that images an object, project light onto the object, and receive light reflected from the object. Identification information 3Ga, 3Gb, and 3Gc for identifying a specific target based on the determination results of determination units 160 and 560 that determine whether there is a specific target based on both the output of the distance information acquisition unit 13 and the three-dimensional and a display control unit 170, 530 for causing the display unit 20, 520 to display a display image including the image 3G. Specific objects include not only distant objects, low reflectivity objects and blind spots, but also close objects, high reflectivity objects and blurred areas of the image.

3次元画像3Gは、3次元情報決定部の一例である3次元再構成処理部150、550、650により、距離情報取得部13の出力に基づき決定される The three-dimensional image 3G is determined by the three-dimensional reconstruction processing units 150, 550, and 650, which are examples of the three-dimensional information determination unit, based on the output of the distance information acquisition unit 13.

これにより、所望の3次元画像3Gが表示されない要因が、遠方物、低反射物、死角、近接物、高反射物、および画像のぶれの何れであるかを、3次元画像3Gを観て確認することができる。 As a result, by viewing the 3D image 3G, it is confirmed which of the distant object, the low reflective object, the blind spot, the close object, the high reflective object, and the blurring of the image is the reason why the desired 3D image 3G is not displayed. can do.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力が閾値以上または閾値以下であるかを判断部160、560により判断された位置を示す位置情報に基づき、位置を識別する位置識別情報と、対象を撮像する撮像部11が撮像した2次元画像情報Gと、を含む表示画像を表示部20、520に表示させる表示制御部170、530を備える。 In the imaging device 1 and the display device 500, which are examples of an information processing device according to an embodiment of the present invention, the output of the distance information acquisition unit 13 that projects light onto an object and receives light reflected from the object is equal to or greater than a threshold. Alternatively, based on the position information indicating the position determined by the determination unit 160 or 560 as to whether it is equal to or less than the threshold, the position identification information for identifying the position, the two-dimensional image information G captured by the imaging unit 11 that captures the image of the target, and display control units 170 and 530 that cause the display units 20 and 520 to display a display image containing

これにより、距離情報取得部13の出力が閾値以上または閾値以下である位置、すなわち距離情報取得部13の出力が強すぎたり弱すぎたりして所望の出力が得られない位置を2次元画像Gで確認することにより、所望の出力が得られない要因を確認することができる。 As a result, a position where the output of the distance information acquisition unit 13 is equal to or greater than the threshold value or less than or equal to the threshold value, that is, a position where the output of the distance information acquisition unit 13 is too strong or too weak and a desired output cannot be obtained is displayed in the two-dimensional image G By confirming with , it is possible to confirm the cause of the failure to obtain the desired output.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力に基づき対象までの距離情報を取得できないと判断部160、560により判断された位置を示す位置情報に基づき、位置を識別する位置識別情報と、対象を撮像する撮像部11が撮像した2次元画像情報Gと、を含む表示画像を表示部20、520に表示させる表示制御部170、530を備える。 An imaging device 1 and a display device 500, which are examples of an information processing device according to an embodiment of the present invention, project light onto a target and receive light reflected from the target based on the output of the distance information acquisition unit 13. Position identification information for identifying the position based on the position information indicating the position determined by the determination unit 160, 560 that the distance information to the target cannot be acquired, and two-dimensional image information G captured by the image capturing unit 11 that captures an image of the target. and display control units 170 and 530 that cause the display units 20 and 520 to display display images including .

これにより、対象までの距離情報を取得できない位置を2次元画像Gで確認することにより、対象までの距離情報を取得できない要因を確認することができる。 Accordingly, by confirming the position where the distance information to the object cannot be obtained in the two-dimensional image G, it is possible to confirm the cause of the inability to obtain the distance information to the object.

対象までの距離情報を取得できないと判断部160、560、660が判断するのは、距離情報取得部13の出力が閾値以上または閾値以下である場合以外に、距離情報取得部13の出力により画像のぶれを検出した場合も含む。 The determination units 160, 560, and 660 determine that the distance information to the object cannot be acquired when the output of the distance information acquisition unit 13 is not equal to or greater than the threshold value or the threshold value or less. It also includes cases where blurring is detected.

以上において、情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、撮像部11、距離情報取得部13、3次元再構成処理部150および判断部160を備える。 In the above, when the information processing device is the imaging device 1, the imaging device 1 includes the imaging unit 11, the distance information acquisition unit 13, the three-dimensional reconstruction processing unit 150, and the determination unit 160, as shown in FIG. .

情報処理装置が表示装置500である場合、図20および図21に示したように、表示装置500は、撮像部11および距離情報取得部13を備えておらず、撮像装置1が、撮像部11、距離情報取得部13を備えて、これらの出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, as shown in FIGS. , the distance information acquisition unit 13, and transmits these outputs to the display device 500 or the server 600. FIG.

表示装置500は、図20に示したように判断部560を備えてもよく、備えなくてもよい。 The display device 500 may or may not include the determination section 560 as shown in FIG.

表示装置500が判断部560を備えない場合、撮像装置1が判断部160を備えて表示装置500へ判断結果を送信してもよく、図21に示したようにサーバ600が判断部660を備えて表示装置500へ判断結果を送信してもよい。 If the display device 500 does not include the determination unit 560, the imaging device 1 may include the determination unit 160 and transmit the determination result to the display device 500, and the server 600 may include the determination unit 660 as shown in FIG. You may transmit a judgment result to the display apparatus 500 by pressing.

同様に、表示装置500は、図20に示したように3次元再構成処理部550を備えてもよく、備えなくてもよい。 Similarly, the display device 500 may or may not include a three-dimensional reconstruction processing unit 550 as shown in FIG.

表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像を送信してもよく、図21に示したように、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像を送信してもよい。 When the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 may include the three-dimensional reconstruction processing unit 150 and transmit a three-dimensional image to the display device 500, as shown in FIG. Alternatively, the server 600 may include the 3D reconstruction processing unit 650 and transmit the 3D image to the display device 500 .

以上説明したように、本発明の一実施形態に係る撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13(受光部の一例)と、距離情報取得部13の出力と、撮像部11の出力との両方に基づき遠方物または低反射物があるかを判断する判断部160と、遠方物または低反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the image capturing apparatus 1 according to the embodiment of the present invention includes the image capturing unit 11 that captures an image of an object, the projection unit 12 that projects light onto the object, and the distance information that receives the light reflected from the object. an acquisition unit 13 (an example of a light receiving unit); a determination unit 160 that determines whether there is a distant object or a low-reflection object based on both the output of the distance information acquisition unit 13 and the output of the imaging unit 11; and a display control unit 170 that causes the display units 20 and 520 to display differently depending on the presence or absence of the low-reflection object.

これにより、撮影者は、遠方物または黒色等の低反射物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a distant object or a low-reflection object such as black is included in the captured image.

撮像装置1は、表示部20を備える。これにより、撮影者は遠方物または低反射物が撮像画像に含まれることを確実に確認することができる。 The imaging device 1 includes a display section 20 . This allows the photographer to reliably confirm that a distant object or a low-reflection object is included in the captured image.

表示制御部170は、遠方物または低反射物の位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、遠方物または低反射物の位置を確認することができる。 The display control unit 170 causes the display units 20 and 520 to display differently according to the position of the distant object or the low-reflection object. This allows the photographer to confirm the position of a distant object or a low-reflection object.

表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、遠方物または低反射物に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、遠方物または低反射物の位置を確実に確認することができる。 The display unit 20 includes a plurality of display units 20A and 20a, and the display control unit 170 controls the display unit closer to a distant object or a low-reflection object among the plurality of display units 20A and 20a according to the presence or absence of an object. display differently. This allows the photographer to reliably confirm the position of the distant object or the low-reflectance object.

表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、遠方物または低反射物を識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、遠方物または低反射物の位置を確実に確認することができる。 The display control unit 170 causes the display units 20 and 520 to display the image information G captured by the imaging unit 11, and displays a display image including identification information for identifying a distant object or a low-reflection object and the image information G. 20, 520 is caused to display. This allows the photographer to reliably confirm the position of the distant object or the low-reflectance object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下である場合、撮像部11の出力に基づき、低反射物か、遠方物かを判断する。これにより、撮影者は、低反射物、遠方物の何れが撮像画像に含まれることを正確に確認することができる。 The determining unit 160 determines whether the object is a low-reflective object or a distant object based on the output of the imaging unit 11 when the amount of charge in the pixel due to the light received by the distance information acquiring unit 13 is equal to or less than a threshold. As a result, the photographer can accurately confirm which of the low-reflection object and the distant object is included in the captured image.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下で、撮像部11の画素の蓄電量が閾値以下である場合、低反射物があると判断する。これにより、撮影者は、低反射物が撮像画像に含まれることを正確に確認することができる。 The determination unit 160 determines that there is a low-reflection object when the amount of charge in the pixel due to the light received by the distance information acquisition unit 13 is equal to or less than the threshold and the amount of charge in the pixel of the imaging unit 11 is equal to or less than the threshold. This allows the photographer to accurately confirm that the low-reflection object is included in the captured image.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下で、撮像部11の画素の蓄電量が閾値以上であり、かつ画素に基づき判断される距離が閾値以上である場合、遠方物があると判断する。 The determination unit 160 determines whether the amount of charge in the pixel due to the light received by the distance information acquisition unit 13 is equal to or less than the threshold, the amount of charge in the pixel of the imaging unit 11 is equal to or greater than the threshold, and the distance determined based on the pixel is equal to or greater than the threshold. If there is, it is determined that there is a distant object.

これにより、撮影者は、遠方物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the distant object is included in the captured image.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、遠方物または低反射物であることを確認することができる。 The imaging device 1 acquires distance information to an object based on the light received by the distance information acquiring section 13 . In this case, the photographer can confirm that the reason why the desired distance information is not acquired is the distant object or the low-reflection object.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、遠方物または低反射物であることを確認することができる。 The imaging device 1 includes a transmission/reception section 180 that is an example of an output section that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition section 13 . In this case, the photographer can confirm that the reason why the desired three-dimensional information is not acquired is the distant object or the low-reflection object.

本発明の一実施形態に係る撮像処理方法は、対象を撮像部11により撮像する撮像ステップと、対象に投射部12により光を投射する投射ステップと、対象から反射してきた光を距離情報取得部13により受光する受光ステップと、距離情報取得部13の出力と、撮像部11の出力との両方に基づき遠方物または低反射物があるかを判断部160、560、660により判断する判断ステップと、遠方物または低反射物の有無に応じて、表示制御部170、530により表示部20、520に異なる表示をさせる表示ステップと、を備える。 An imaging processing method according to an embodiment of the present invention includes an imaging step of imaging an object with an imaging unit 11, a projection step of projecting light onto the object with a projection unit 12, and a distance information acquiring unit that receives light reflected from the object. a light receiving step of receiving light by 13, and a determining step of determining whether there is a distant object or a low-reflecting object by determining units 160, 560, and 660 based on both the output of the distance information acquiring unit 13 and the output of the imaging unit 11; and a display step of causing the display units 20 and 520 to perform different displays by the display control units 170 and 530 according to the presence or absence of a distant object or a low-reflection object.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき遠方物または低反射物があるかを判断した判断部160、560、660による判断結果に基づき、遠方物または低反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170、530を備える。 An imaging device 1 and a display device 500, which are examples of an information processing apparatus according to an embodiment of the present invention, receive an output of an imaging unit 11 that images an object, project light onto the object, and receive light reflected from the object. Based on the judgment results of the judgment units 160, 560, and 660 that judge whether there is a distant object or a low-reflection object based on both the output of the distance information acquisition unit 13 and the presence or absence of a distant object or a low-reflection object, Display control units 170 and 530 are provided to cause the display units 20 and 520 to display different images.

以上説明したように、本発明の一実施形態に係る撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13(受光部の一例)と、距離情報取得部13の出力と、撮像部11の出力との両方に基づき画像のぶれがあるかを判断する判断部160と、画像のぶれの有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the image capturing apparatus 1 according to the embodiment of the present invention includes the image capturing unit 11 that captures an image of an object, the projection unit 12 that projects light onto the object, and the distance information that receives the light reflected from the object. an acquisition unit 13 (an example of a light receiving unit), a determination unit 160 that determines whether there is image blur based on both the output of the distance information acquisition unit 13 and the output of the imaging unit 11, and the presence or absence of image blur. and a display control unit 170 that causes the display units 20 and 520 to display differently accordingly.

これにより、撮影者は、画像のぶれが撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the image blur is included in the captured image.

撮像装置1は、表示部20を備える。これにより、撮影者は、画像のぶれが撮像画像に含まれることを確実に確認することができる。 The imaging device 1 includes a display section 20 . This allows the photographer to reliably confirm that the image blur is included in the captured image.

表示制御部170は、画像のぶれの位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、画像のぶれの位置を確認することができる。 The display control unit 170 causes the positions of the display units 20 and 520 to display differently according to the position of the image blur. This allows the photographer to confirm the position of the image blur.

表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、画像のぶれの位置に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、画像のぶれの位置を確実に確認することができる。 The display unit 20 includes a plurality of display units 20A and 20a, and the display control unit 170 causes the display unit closer to the position of the blurring of the image among the plurality of display units 20A and 20a to display an image depending on the presence or absence of the target object. display differently. As a result, the photographer can reliably confirm the location of the image blurring.

表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、画像のぶれを識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、画像のぶれの位置を確実に確認することができる。 The display control unit 170 causes the display units 20 and 520 to display the image information G captured by the imaging unit 11, and displays a display image including the image information G and identification information for identifying blurring of the image on the display units 20 and 520. 520 to display. As a result, the photographer can reliably confirm the location of the image blurring.

判断部160は、撮像部11が撮像した画像情報に基づき画像のエッジを検出し、かつ距離情報取得部13が受光した光による画素にずれが生じている場合、画像のぶれがあると判断する The determination unit 160 detects an edge of the image based on the information of the image captured by the imaging unit 11, and determines that the image blurs when the light received by the distance information acquisition unit 13 causes pixel displacement.

これにより、撮影者は、画像のぶれが撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the image blur is included in the captured image.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、画像のぶれであることを確認することができる。 The imaging device 1 acquires distance information to an object based on the light received by the distance information acquiring section 13 . In this case, the photographer can confirm that the reason why the desired distance information is not acquired is the blurring of the image.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、画像のぶれであることを確認することができる。 The imaging device 1 includes a transmission/reception section 180 that is an example of an output section that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition section 13 . In this case, the photographer can confirm that the reason why the desired three-dimensional information is not acquired is the blurring of the image.

本発明の一実施形態に係る撮像処理方法は、対象を撮像部11により撮像する撮像ステップと、対象に投射部12により光を投射する投射ステップと、対象から反射してきた光を距離情報取得部13により受光する受光ステップと、距離情報取得部13の出力と、撮像部11の出力との両方に基づき画像のぶれがあるかを判断部160、560、660により判断する判断ステップと、画像のぶれの有無に応じて、表示制御部170、530により表示部20、520に異なる表示をさせる表示ステップと、を備える。 An imaging processing method according to an embodiment of the present invention includes an imaging step of imaging an object with an imaging unit 11, a projection step of projecting light onto the object with a projection unit 12, and a distance information acquiring unit that receives light reflected from the object. 13, a determination step of determining whether or not there is an image blur based on both the output of the distance information acquisition section 13 and the output of the imaging section 11, and and a display step of causing the display units 20 and 520 to display differently depending on the presence or absence of blurring.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき画像のぶれがあるかを判断した判断部160、560、660による判断結果に基づき、画像のぶれの有無に応じて、表示部20、520に異なる表示をさせる表示制御部170、530を備える。 An imaging device 1 and a display device 500, which are examples of an information processing apparatus according to an embodiment of the present invention, receive an output of an imaging unit 11 that images an object, project light onto the object, and receive light reflected from the object. Based on the judgment results of the judgment units 160, 560, and 660 that judge whether there is image blur based on both the output of the distance information acquisition unit 13 and the presence or absence of image blur, the display units 20 and 520 display It has display control units 170 and 530 that cause different displays.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象に投射されて対象から反射してきた光を受光する受光部の一例である距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させる表示制御部170、530を備え、表示制御部170、530は、3次元画像3G中で、対象から反射してきた光を受光したときの距離情報取得部13からの距離が遠い遠方物、投射された光に対する反射率が低い低反射物、および対象から反射してきた光を受光したときの距離情報取得部13に対する死角の少なくとも1つであると判断された位置を示す位置情報に基づき、遠方物、低反射物および死角の少なくとも1つの位置を識別する位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 An imaging device 1 and a display device 500, which are examples of an information processing device according to an embodiment of the present invention, have a distance information acquisition unit 13, which is an example of a light receiving unit that receives light projected onto and reflected from an object. The display control units 170 and 530 are provided to display the three-dimensional image 3G determined based on the output on the display units 20 and 520. The display control units 170 and 530 control the light reflected from the object in the three-dimensional image 3G. Distant objects that are far away from the distance information acquisition unit 13 when light is received, low-reflection objects that have a low reflectance with respect to projected light, and blind spots for the distance information acquisition unit 13 when light reflected from an object is received. position identification information 3Ga, 3Gb, and 3Gc for identifying at least one position of a distant object, a low-reflection object, and a blind spot based on position information indicating at least one position determined to be at least one, and a three-dimensional image 3G; The display image containing the image is displayed on the display unit 20 or 520 .

これにより、所望の3次元画像3Gが表示されない要因が、遠方物、低反射物、および死角の何れであるかを、3次元画像3Gを観て確認することができるため、要因に応じて再撮像等の対応をとることが可能になる。 As a result, it is possible to confirm by viewing the three-dimensional image 3G which of the distant object, the low-reflecting object, and the blind spot is the reason why the desired three-dimensional image 3G is not displayed. It becomes possible to take measures such as imaging.

3次元画像3Gは、3次元情報決定部の一例である3次元再構成処理部150、550、650により決定される。 The three-dimensional image 3G is determined by three-dimensional reconstruction processing units 150, 550, and 650, which are examples of three-dimensional information determination units.

表示制御部170、530は、遠方物、低反射物、および死角の何れか1つの位置情報に基づき、位置識別情報3Ga、3Gbおよび3Gcの何れか1つと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させてもよく、遠方物、低反射物、および死角の何れか2つまたは全ての位置情報に基づき、位置識別情報3Ga、3Gbおよび3Gcの何れか2つまたは全てと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させてもよい。 The display control units 170 and 530 display one of the position identification information 3Ga, 3Gb, and 3Gc and the three-dimensional image 3G based on the position information of any one of the distant object, the low-reflection object, and the blind spot. The image may be displayed on the display unit 20, 520, and any two or more of the position identification information 3Ga, 3Gb and 3Gc may be displayed based on the position information of any two or all of the distant object, the low reflective object, and the blind spot. A display image including all and the three-dimensional image 3G may be displayed on the display unit 20, 520. FIG.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、距離情報取得部13および3次元再構成処理部150を備える。 When the information processing device is the imaging device 1, the imaging device 1 includes the distance information acquisition unit 13 and the three-dimensional reconstruction processing unit 150 as shown in FIG.

情報処理装置が表示装置500である場合、図20および図21に示したように、表示装置500は、距離情報取得部13を備えておらず、撮像装置1が、距離情報取得部13を備えて距離情報取得部13の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, as shown in FIGS. , the output of the distance information acquisition unit 13 is transmitted to the display device 500 or the server 600 .

表示装置500は、3次元再構成処理部550を備えても備えなくてもよく、表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像を送信してもよく、図21に示したように、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像を送信してもよい。 The display device 500 may or may not include the three-dimensional reconstruction processing unit 550. When the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 includes the three-dimensional reconstruction processing unit 150. The server 600 may include a three-dimensional reconstruction processing unit 650 and transmit the three-dimensional image to the display device 500 as shown in FIG. .

表示制御部170、530は、3次元画像3Gに含まれる点群データの密度が閾値よりも低く、かつ、遠方物、低反射物、または死角の少なくとも1つであると判断される位置を示す位置情報に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる The display control unit 170, 530 indicates a position where the density of the point cloud data included in the 3D image 3G is lower than the threshold and is determined to be at least one of a distant object, a low reflective object, and a blind spot. A display image including position identification information 3Ga, 3Gb, and 3Gc and a three-dimensional image 3G is displayed on the display unit 20 or 520 based on the position information.

これにより、点群データの密度が閾値よりも低い要因が、遠方物、低反射物、および死角の何れであるかを、3次元画像3Gを観て確認することができる。 With this, it is possible to confirm, by viewing the three-dimensional image 3G, which of the distant object, the low-reflection object, and the blind spot is the cause of the density of the point cloud data being lower than the threshold.

表示制御部170、530は、対象を撮像する撮像部11の出力に基づき、3次元画像3G中で、遠方物、低反射物、または死角の少なくとも1つであると判断される位置を示す位置情報に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 display a position that is determined to be at least one of a distant object, a low-reflection object, and a blind spot in the three-dimensional image 3G based on the output of the imaging unit 11 that images the object. Based on the information, the display unit 20, 520 is caused to display a display image including the position identification information 3Ga, 3Gb, 3Gc and the three-dimensional image 3G.

これにより、所望の3次元画像3Gが表示されない要因を、遠方物、低反射物、および死角の何れであるか、撮像部11の出力に基づき正確に判断することができる。 Accordingly, it is possible to accurately determine whether the cause of not displaying the desired three-dimensional image 3G is a distant object, a low-reflection object, or a blind spot, based on the output of the imaging unit 11 .

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、撮像部11を備える。情報処理装置が表示装置500である場合、表示装置500は、図20および図21に示したように、撮像部11を備えておらず、撮像装置1が、撮像部11を備えて、撮像部11の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the imaging device 1, the imaging device 1 includes an imaging unit 11 as shown in FIG. When the information processing device is the display device 500, the display device 500 does not include the imaging unit 11 as shown in FIGS. 11 to display device 500 or server 600 .

撮像装置1および表示装置500は、3次元画像3G中で、遠方物、低反射物、または死角の少なくとも1つである位置を判断する判断部160、560を備え、表示制御部170、530は、判断部160、560の判断結果に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gにと、を含む表示画像を表示部20、520に表示させる。 The imaging device 1 and the display device 500 are provided with determination units 160 and 560 that determine the position of at least one of a distant object, a low-reflection object, and a blind spot in the three-dimensional image 3G, and the display control units 170 and 530 , based on the determination results of the determination units 160 and 560, the display units 20 and 520 are caused to display a display image including the position identification information 3Ga, 3Gb, and 3Gc and the three-dimensional image 3G.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、判断部160を備える。 When the information processing device is the imaging device 1, the imaging device 1 is provided with a determination unit 160 as shown in FIG.

情報処理装置が表示装置500である場合、表示装置500は、図20に示したように判断部560を備えてもよく、判断部560を備えなくてもよい。 When the information processing device is the display device 500, the display device 500 may or may not include the determination section 560 as shown in FIG.

表示装置500が判断部560を備えない場合、撮像装置1が判断部160を備えて表示装置500へ判断結果を送信してもよく、図21に示したようにサーバ600が判断部660を備えて表示装置500へ判断結果を送信してもよい。 If the display device 500 does not include the determination unit 560, the imaging device 1 may include the determination unit 160 and transmit the determination result to the display device 500, and the server 600 may include the determination unit 660 as shown in FIG. You may transmit a judgment result to the display apparatus 500 by pressing.

表示制御部170、530は、3次元画像3Gを見る視点の位置にある仮想カメラICの位置および向きを変更することにより、表示部20、520に表示させる3次元画像3Gの表示領域を変更する。 The display control units 170 and 530 change the display area of the three-dimensional image 3G to be displayed on the display units 20 and 520 by changing the position and orientation of the virtual camera IC at the position of the viewpoint for viewing the three-dimensional image 3G. .

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象に投射されて対象から反射してきた光を受光する受光部の一例である距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させる表示制御部170、530を備え、表示制御部170、530は、対象から反射してきた光を受光したときの距離情報取得部13の位置を示す位置情報に基づき、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 An imaging device 1 and a display device 500, which are examples of an information processing device according to an embodiment of the present invention, have a distance information acquisition unit 13, which is an example of a light receiving unit that receives light projected onto and reflected from an object. Display control units 170 and 530 for displaying a three-dimensional image 3G determined based on the output on the display units 20 and 520 are provided, and the display control units 170 and 530 obtain distance information when light reflected from an object is received. A display image including position identification information 3G1 and 3G2 for identifying the position of the distance information acquisition unit 13 when light reflected from the object is received based on position information indicating the position of the unit 13, and a three-dimensional image 3G. is displayed on the display unit 20 or 520 .

これにより、対象から反射してきた光を受光したときの距離情報取得部13の位置を示す撮像位置と、特定の対象との位置関係を、3次元画像3G中で把握できる。すなわち、3次元画像を取得した現場における撮像位置と特定の対象との位置関係と、3次元画像における撮像位置と特定の対象との位置関係と、を容易に比較することができる。 Thereby, the positional relationship between the imaging position indicating the position of the distance information acquisition unit 13 when the light reflected from the target is received and the specific target can be grasped in the three-dimensional image 3G. That is, it is possible to easily compare the positional relationship between the imaging position and the specific target at the site where the three-dimensional image was acquired and the positional relationship between the imaging position and the specific target in the three-dimensional image.

3次元画像3Gおよび位置情報は、3次元情報決定部の一例である3次元再構成処理部150、550、650により決定される。 The three-dimensional image 3G and position information are determined by three-dimensional reconstruction processing units 150, 550, and 650, which are examples of three-dimensional information determination units.

情報処理装置が撮像装置1である場合、撮像装置1は、距離情報取得部13および3次元再構成処理部150を備える。 When the information processing device is the imaging device 1 , the imaging device 1 includes the distance information acquisition unit 13 and the three-dimensional reconstruction processing unit 150 .

情報処理装置が表示装置500である場合、表示装置500は、距離情報取得部13を備えておらず、撮像装置1が、距離情報取得部13を備えて距離情報取得部13の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, the display device 500 does not include the distance information acquisition unit 13, and the imaging device 1 includes the distance information acquisition unit 13 and outputs the output of the distance information acquisition unit 13 to the display device. 500 or server 600.

表示装置500は、3次元再構成処理部550を備えても備えなくてもよく、表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像および位置情報を送信してもよく、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像および位置情報を送信してもよい。 The display device 500 may or may not include the three-dimensional reconstruction processing unit 550. When the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 includes the three-dimensional reconstruction processing unit 150. The server 600 may include the three-dimensional reconstruction processing section 650 and transmit the three-dimensional image and the position information to the display device 500 .

表示制御部170、530は、3次元画像3Gにおける点群データの密度が閾値よりも低い領域を示す領域情報に基づき、領域を識別する低密度識別情報の一例である識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 generate identification information 3Ga, 3Gb, and 3Gc, which are examples of low-density identification information for identifying regions, based on region information indicating regions in the three-dimensional image 3G where the density of the point cloud data is lower than the threshold value. , and the three-dimensional image 3G are displayed on the display units 20 and 520 .

この場合、撮像位置と、点群データの密度が閾値よりも低い領域との位置関係を把握できるため、点群データの密度が閾値よりも低い要因を特定することが可能になる。例えば、当該領域が撮像位置より遠方であれば遠方物が要因であり、当該領域が撮像位置の死角にあれば死角が要因であり、遠方物および死角の何れでもなければ低反射物が要因であることが特定できる。 In this case, since the positional relationship between the imaging position and the area where the density of the point cloud data is lower than the threshold can be grasped, it is possible to specify the factor that the density of the point cloud data is lower than the threshold. For example, if the area is far from the imaging position, a distant object is the factor, if the area is in the blind spot of the imaging position, the blind spot is the factor, and if neither the distant object nor the blind spot is the factor, the low reflective object is the factor. One thing can be identified.

表示制御部170、530は、3次元画像3Gを見る視点の位置にある仮想カメラICの位置および向きを変更することにより、表示部20、520に表示させる3次元画像3Gの表示領域を変更する。 The display control units 170 and 530 change the display area of the three-dimensional image 3G to be displayed on the display units 20 and 520 by changing the position and orientation of the virtual camera IC at the position of the viewpoint for viewing the three-dimensional image 3G. .

表示制御部170、530は、仮想カメラICの位置が位置識別情報により識別される位置3G1、3G2にある場合、仮想カメラICの向きを予め定められた向きに変更する。 The display control units 170 and 530 change the orientation of the virtual camera IC to a predetermined orientation when the position of the virtual camera IC is at the positions 3G1 and 3G2 identified by the position identification information.

これにより、撮像位置に位置するユーザの視線を、現場で見てほしい特定の対象物へ向けさせることが可能になる。 This makes it possible to direct the line of sight of the user positioned at the imaging position to a specific object that the user wishes to see on site.

表示制御部170、530は、予め定められた座標や、3次元画像3Gにおける点群データの密度が閾値よりも低い低密度部が表示領域に含まれるように、仮想カメラICの向きを変更する。 The display control units 170 and 530 change the orientation of the virtual camera IC so that the display area includes predetermined coordinates and a low-density portion in which the density of point cloud data in the three-dimensional image 3G is lower than a threshold value. .

これにより、撮像位置に位置するユーザの視線を、予め定められた座標や、3次元画像3G中では低密度部となっている特定の対象物へ向けさせることが可能になる。 This makes it possible to direct the line of sight of the user positioned at the imaging position to predetermined coordinates or to a specific object that is a low-density portion in the three-dimensional image 3G.

表示制御部170、530は、第1の位置に位置する距離情報取得部13の出力および第1の位置とは異なる第2の位置に位置する距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させ、第1の位置を識別する第1の位置識別情報3G1および第2の位置を識別する第2の位置識別情報3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 are determined based on the output of the distance information acquisition unit 13 positioned at the first position and the output of the distance information acquisition unit 13 positioned at a second position different from the first position. The dimensional image 3G is displayed on the display unit 20, 520, the first position identification information 3G1 for identifying the first position, the second position identification information 3G2 for identifying the second position, the three-dimensional image 3G, is displayed on the display unit 20, 520.

これにより、第1の撮像位置および第2の撮像位置と、特定の対象との位置関係を、3次元画像3G中で把握できる。 Thereby, the positional relationship between the first imaging position, the second imaging position, and the specific target can be grasped in the three-dimensional image 3G.

1 撮像装置(情報処理装置の一例)
3G 3次元画像
3Ga、3Gb、3Gc 識別情報
3G1、3G2 位置識別情報
10 筐体
11 撮像部
11a、11A 撮像素子
11b、11B 魚眼レンズ
12 投射部
12a、12A 光源部
12b、12B 広角レンズ
13 距離情報取得部(受光部の一例)
13a、13A TOFセンサ
13b、13B 広角レンズ
14 処理回路
15 撮影スイッチ
20 表示部
20A、20a 表示部
111 他の撮像部
150、550、650 3次元再構成処理部(3次元情報決定部の一例)
160、560、660 判断部
170 表示制御部(出力部の一例)
180 送受信部(出力部の一例)
300 外部装置(出力先の一例)
500 表示装置(出力先、情報処理装置の一例)
520 表示部(出力先の一例)
530 表示制御部(出力部の一例)
600 サーバ
L 同期信号線
1 imaging device (an example of an information processing device)
3G three-dimensional image 3Ga, 3Gb, 3Gc identification information 3G1, 3G2 position identification information 10 housing 11 imaging unit 11a, 11A imaging device 11b, 11B fisheye lens 12 projection unit 12a, 12A light source unit 12b, 12B wide-angle lens 13 distance information acquisition unit (Example of light receiving part)
13a, 13A TOF sensor 13b, 13B wide-angle lens 14 processing circuit 15 shooting switch 20 display unit 20A, 20a display unit 111 other imaging unit 150, 550, 650 three-dimensional reconstruction processing unit (an example of a three-dimensional information determination unit)
160, 560, 660 judgment unit 170 display control unit (an example of an output unit)
180 Transmitter/receiver (an example of an output unit)
300 external device (example of output destination)
500 display device (output destination, example of information processing device)
520 Display (an example of output destination)
530 Display control unit (an example of an output unit)
600 Server L Synchronization signal line

Claims (6)

対象を撮像する撮像部と、
前記対象に振幅変調した光を投射する投射部と、
前記対象から反射してきた前記光を、前記投射部による前記光の投射に同期して受光する受光部と、を備え、
前記受光部の出力に基づいて前記対象までの距離情報を取得する撮像装置であって、
高反射物があるかを、前記受光部が受光した前記光による画素の蓄電量が所定値以上である場合に、前記撮像部が撮像した画像情報における前記画素に対応する領域に基づいて判断する判断部と、
前記高反射物があると判断された場合に、前記画像情報と、前記高反射物を識別する識別情報と、を含む表示画像を表示部に表示させることで、前記表示部に前記高反射物が無いと判断された場合と異なる表示をさせる表示制御部と、
を備えた撮像装置。
an imaging unit that images an object;
a projection unit that projects amplitude-modulated light onto the target;
a light receiving unit that receives the light reflected from the object in synchronization with the projection of the light by the projecting unit ;
An imaging device that acquires distance information to the object based on the output of the light receiving unit,
Whether or not there is a highly reflective object is determined based on the area corresponding to the pixel in the image information captured by the imaging unit when the amount of charge in the pixel due to the light received by the light receiving unit is equal to or greater than a predetermined value . a judgment unit;
When it is determined that the highly reflective object is present , the display image including the image information and the identification information for identifying the highly reflective object is displayed on the display unit. A display control unit that displays a different display than when it is determined that there is no
imaging device.
前記表示部を備えた請求項1記載の撮像装置。 2. The imaging apparatus according to claim 1, comprising said display unit. 前記判断部は、前記領域が、高反射物を示す基準情報と一致する場合、前記高反射物があると判断する請求項1または2記載の撮像装置。 3. The imaging apparatus according to claim 1, wherein the determination unit determines that the highly reflective object exists when the area matches reference information indicating the highly reflective object. 前記受光部から取得した前記距離情報に基づいて決定された3次元情報を出力する出力部をさらに備える請求項1~3の何れか記載の撮像装置。 4. The imaging apparatus according to any one of claims 1 to 3, further comprising an output section that outputs three-dimensional information determined based on the distance information acquired from the light receiving section. 対象を撮像部により撮像する撮像ステップと、
前記対象に振幅変調した光を投射する投射ステップと、
前記対象から反射してきた前記光を、前記投射ステップによる前記光の投射に同期して受光部により受光する受光ステップと、
前記受光部の出力に基づいて、前記対象までの距離情報を取得する距離情報取得ステップと、
高反射物があるかを、前記受光部が受光した前記光による画素の蓄電量が所定値以上である場合に、前記撮像部が撮像した画像情報における前記画素に対応する領域に基づいて判断する判断ステップと、
前記高反射物があると判断された場合に、前記画像情報と、前記高反射物を識別する識別情報と、を含む表示画像を表示させることで、前記高反射物が無いと判断された場合と異なる表示をさせる表示ステップと、を備えた撮像処理方法。
an imaging step of imaging an object with an imaging unit;
a projecting step of projecting amplitude-modulated light onto the object;
a light receiving step of receiving the light reflected from the object by a light receiving unit in synchronization with the projection of the light by the projecting step;
a distance information acquisition step of acquiring distance information to the object based on the output of the light receiving unit;
Whether or not there is a highly reflective object is determined based on the area corresponding to the pixel in the image information captured by the imaging unit when the amount of charge in the pixel due to the light received by the light receiving unit is equal to or greater than a predetermined value . a decision step;
When it is determined that there is no highly reflective object by displaying a display image including the image information and identification information for identifying the highly reflective object when it is determined that the highly reflective object is present. and a display step of displaying a different image from the image pickup processing method.
高反射物があるかを、対象に振幅変調した光を投射して前記対象から反射してきた前記光を、前記対象までの距離情報を取得するために前記光の投射に同期して受光する受光部が受光した前記光による画素の蓄電量が所定値以上である場合に、前記対象を撮像する撮像部が撮像した画像情報における前記画素に対応する領域に基づいて判断した判断結果に基づき、前記高反射物があると判断された場合に、前記画像情報と、前記高反射物を識別する識別情報と、を含む表示画像を表示部に表示させることで、前記表示部に前記高反射物が無いと判断された場合と異なる表示をさせる表示制御部を備えた情報処理装置。 Light reception for projecting amplitude-modulated light onto an object to determine if there is a highly reflective object, and receiving the light reflected from the object in synchronization with the projection of the light in order to acquire distance information to the object when the amount of charge in a pixel due to the light received by the unit is equal to or greater than a predetermined value , based on the determination result based on the region corresponding to the pixel in the image information captured by the imaging unit that captures the image of the object ; When it is determined that the highly reflective object is present , the display image including the image information and the identification information for identifying the highly reflective object is displayed on the display unit so that the highly reflective object is not detected on the display unit. An information processing apparatus having a display control unit that displays a different display from when it is determined that there is no information.
JP2021048022A 2021-03-23 2021-03-23 IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE Active JP7120365B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021048022A JP7120365B1 (en) 2021-03-23 2021-03-23 IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE
PCT/JP2022/013038 WO2022202775A1 (en) 2021-03-23 2022-03-22 Imaging device, imaging method, and information processing device
EP22720071.4A EP4315247A1 (en) 2021-03-23 2022-03-22 Imaging device, imaging method, and information processing device
JP2022064332A JP2022151877A (en) 2021-03-23 2022-04-08 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021048022A JP7120365B1 (en) 2021-03-23 2021-03-23 IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022064332A Division JP2022151877A (en) 2021-03-23 2022-04-08 Information processing device

Publications (2)

Publication Number Publication Date
JP7120365B1 true JP7120365B1 (en) 2022-08-17
JP2022146970A JP2022146970A (en) 2022-10-06

Family

ID=82850917

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021048022A Active JP7120365B1 (en) 2021-03-23 2021-03-23 IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE
JP2022064332A Pending JP2022151877A (en) 2021-03-23 2022-04-08 Information processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022064332A Pending JP2022151877A (en) 2021-03-23 2022-04-08 Information processing device

Country Status (1)

Country Link
JP (2) JP7120365B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256138A (en) 2009-04-23 2010-11-11 Canon Inc Imaging apparatus and method for controlling the same
US20120092485A1 (en) 2010-10-18 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) sensors as replacement for standard photoelectric sensors
US20170366737A1 (en) 2016-06-15 2017-12-21 Stmicroelectronics, Inc. Glass detection with time of flight sensor
JP2019016275A (en) 2017-07-10 2019-01-31 キヤノン株式会社 Image processing method, image processing program, storage medium, image processing device, and imaging device
JP2019215260A (en) 2018-06-13 2019-12-19 ファナック株式会社 Distance measuring apparatus outputting accuracy information
CN112534303A (en) 2018-07-31 2021-03-19 伟摩有限责任公司 Hybrid time-of-flight and imager module

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256138A (en) 2009-04-23 2010-11-11 Canon Inc Imaging apparatus and method for controlling the same
US20120092485A1 (en) 2010-10-18 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) sensors as replacement for standard photoelectric sensors
US20170366737A1 (en) 2016-06-15 2017-12-21 Stmicroelectronics, Inc. Glass detection with time of flight sensor
JP2019016275A (en) 2017-07-10 2019-01-31 キヤノン株式会社 Image processing method, image processing program, storage medium, image processing device, and imaging device
JP2019215260A (en) 2018-06-13 2019-12-19 ファナック株式会社 Distance measuring apparatus outputting accuracy information
CN112534303A (en) 2018-07-31 2021-03-19 伟摩有限责任公司 Hybrid time-of-flight and imager module

Also Published As

Publication number Publication date
JP2022151877A (en) 2022-10-07
JP2022146970A (en) 2022-10-06

Similar Documents

Publication Publication Date Title
EP1792282B1 (en) A method for automated 3d imaging
US7952606B2 (en) Apparatus for providing omnidirectional stereo image with single camera
JP7409443B2 (en) Imaging device
JPWO2020183711A1 (en) Image processing equipment and 3D measurement system
CN104169795A (en) Image display device, photography device in which image display device is mounted as viewfinder device, and image display method
JP6868167B1 (en) Imaging device and imaging processing method
JP7120365B1 (en) IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE
JP7414090B2 (en) Imaging device and method of controlling the imaging device
JP6966011B1 (en) Imaging device, imaging method and information processing device
JP7031771B1 (en) Imaging device, imaging method and information processing device
JP7040660B1 (en) Information processing equipment and information processing method
JP7006824B1 (en) Information processing equipment
JP2022147012A (en) Information processing apparatus and information processing method
JP2022147124A (en) Information processing apparatus
WO2022202775A1 (en) Imaging device, imaging method, and information processing device
WO2022202536A1 (en) Information processing apparatus and information processing method
JP6868168B1 (en) Imaging device and imaging processing method
CN111899348A (en) Projection-based augmented reality experiment demonstration system and method
KR102660776B1 (en) Information processing devices and information processing methods
JP2021150882A (en) Image capture device and image capture processing method
JP2021150880A (en) Image capture device and image capture processing method
US20230145521A1 (en) Information processing apparatus and method of processing information
AU2005279700B2 (en) A method for automated 3D imaging
Christodoulou Overview: 3D stereo vision camera-sensors-systems, advancements, and technologies

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220408

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220418

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7120365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151