JP6966011B1 - Imaging device, imaging method and information processing device - Google Patents

Imaging device, imaging method and information processing device Download PDF

Info

Publication number
JP6966011B1
JP6966011B1 JP2021048028A JP2021048028A JP6966011B1 JP 6966011 B1 JP6966011 B1 JP 6966011B1 JP 2021048028 A JP2021048028 A JP 2021048028A JP 2021048028 A JP2021048028 A JP 2021048028A JP 6966011 B1 JP6966011 B1 JP 6966011B1
Authority
JP
Japan
Prior art keywords
image
unit
display
information
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021048028A
Other languages
Japanese (ja)
Other versions
JP2022146976A (en
Inventor
寛太 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021048028A priority Critical patent/JP6966011B1/en
Application granted granted Critical
Publication of JP6966011B1 publication Critical patent/JP6966011B1/en
Priority to PCT/JP2022/013038 priority patent/WO2022202775A1/en
Priority to EP22720071.4A priority patent/EP4315247A1/en
Priority to CN202280022744.6A priority patent/CN116997930A/en
Publication of JP2022146976A publication Critical patent/JP2022146976A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】表示画像に含まれる画像のぶれを容易に識別すること。【解決手段】撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13(受光部の一例)と、距離情報取得部13の出力と、撮像部11の出力との両方に基づき画像のぶれがあるかを判断する判断部160と、画像のぶれの有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。【選択図】図17PROBLEM TO BE SOLVED: To easily identify blurring of an image included in a display image. An image pickup device (1) includes an image pickup unit (11) for imaging an object, a projection unit (12) for projecting light on the object, and a distance information acquisition unit (13) (an example of a light receiving unit) for receiving light reflected from the object. The determination unit 160 for determining whether or not there is image blur based on both the output of the distance information acquisition unit 13 and the output of the image pickup unit 11 and the display units 20 and 520 differ depending on the presence or absence of image blur. A display control unit 170 for displaying is provided. [Selection diagram] FIG. 17

Description

本発明は、撮像装置、撮像方法および情報処理装置に関する。 The present invention relates to an imaging device, an imaging method, and an information processing device.

特許文献1には、物体までの距離を安定して精度良く測定することができる測距装置が記載されている。 Patent Document 1 describes a distance measuring device capable of measuring the distance to an object in a stable and accurate manner.

特許文献2には、指などの写り込みが発生した場合に、写り込みの影響を少なくする画像処理を行う撮像装置が記載されている。 Patent Document 2 describes an image pickup apparatus that performs image processing to reduce the influence of the reflection when the reflection of a finger or the like occurs.

特許文献3には、計測データの密度が所定の閾値よりも低いブロックを抽出し、当該抽出した前記ブロックの範囲にある座標を、三次元計測装置を設置すべき位置である提示計測位置として提示する計測位置提示部と、を有する三次元合成処理システムが記載されている。 In Patent Document 3, a block whose measurement data density is lower than a predetermined threshold value is extracted, and the coordinates within the range of the extracted block are presented as a presentation measurement position which is a position where a three-dimensional measurement device should be installed. A three-dimensional synthesis processing system having a measurement position presenting unit and a measurement position presenting unit is described.

特開2018‐077071号公報JP-A-2018-077071 特許第5423287号公報Japanese Patent No. 5423287 特許第6192938号公報Japanese Patent No. 6192938

本発明は、表示画像に含まれる画像のぶれを容易に識別できる撮像装置、撮像方法および情報処理装置を提供することを目的とする。 An object of the present invention is to provide an image pickup apparatus, an imaging method, and an information processing apparatus capable of easily identifying blurring of an image included in a display image.

本発明に係る撮像装置は、対象を撮像する撮像部と、対象に光を投射する投射部と、対象から反射してきた光を受光する受光部と、受光部の出力と、撮像部の出力との両方に基づき画像のぶれがあるかを判断する判断部と、画像のぶれの有無に応じて、表示部に異なる表示をさせる表示制御部と、を備える。 The image pickup apparatus according to the present invention includes an image pickup unit that images an object, a projection unit that projects light onto the target, a light receiving unit that receives light reflected from the target, an output of the light receiving unit, and an output of the image pickup unit. It is provided with a determination unit for determining whether or not there is image blurring based on both of the above, and a display control unit for causing the display unit to display differently depending on the presence or absence of image blurring.

本発明によれば、表示画像に含まれる画像のぶれを容易に識別できる撮像装置、撮像方法および情報処理装置を提供することができる。 According to the present invention, it is possible to provide an imaging device, an imaging method, and an information processing device that can easily identify blurring of an image included in a display image.

本発明の実施形態に係る撮像装置の外観の一例を示す図である。It is a figure which shows an example of the appearance of the image pickup apparatus which concerns on embodiment of this invention. 同実施形態における撮像装置の構成を説明するための図である。It is a figure for demonstrating the structure of the image pickup apparatus in the same embodiment. 同実施形態における撮像装置の使用状況を説明するための図である。It is a figure for demonstrating the usage situation of the image pickup apparatus in the same embodiment. 同実施形態における処理回路の処理ブロックの構成の一例を示す図である。It is a figure which shows an example of the structure of the processing block of the processing circuit in the same embodiment. 同実施形態における撮像装置の処理回路の動作の一例を示すフロー図である。It is a flow chart which shows an example of the operation of the processing circuit of the image pickup apparatus in the same embodiment. 同実施形態における全天球画像データ生成フロー図である。It is a omnidirectional image data generation flow diagram in the same embodiment. 同実施形態における近接物判断フロー図である。It is a proximity object judgment flow chart in the same embodiment. 同実施形態における表示部の表示内容を説明するための図である。It is a figure for demonstrating the display content of the display part in the same embodiment. 同実施形態の変形例に係る撮像装置の外観を示す図である。It is a figure which shows the appearance of the image pickup apparatus which concerns on the modification of this embodiment. 変形例における処理回路の処理ブロックの構成を示す図である。It is a figure which shows the structure of the processing block of the processing circuit in the modification. 本発明の実施形態の第2の変形例に係る撮像装置の外観を示す図である。It is a figure which shows the appearance of the image pickup apparatus which concerns on the 2nd modification of embodiment of this invention. 第2の変形例における処理回路の処理ブロックの構成を示す図である。It is a figure which shows the structure of the processing block of the processing circuit in the 2nd modification. 第2の変形例における近接物判断フロー図である。It is a close object judgment flow figure in the 2nd modification. 本発明の実施形態の第3の変形例に係る撮像装置の構成を説明するための図である。It is a figure for demonstrating the structure of the image pickup apparatus which concerns on the 3rd modification of embodiment of this invention. 本発明の実施形態における高反射物の判断フロー図である。It is a judgment flow figure of a highly reflective object in embodiment of this invention. 同実施形態における遠方物および低反射物の判断フロー図である。It is a judgment flow chart of a distant object and a low reflection object in the same embodiment. 同実施形態における画像のぶれの判断フロー図である。It is a judgment flow figure of image blur in the same embodiment. 本発明の実施形態の第4の変形例における判断フロー図である。It is a judgment flow diagram in the 4th modification of embodiment of this invention. 本発明の実施形態の第5の変形例における処理回路の処理ブロックの構成の一例を示す図である。It is a figure which shows an example of the structure of the processing block of the processing circuit in the 5th modification of the embodiment of this invention. 本発明の実施形態の第6の変形例における情報処理システムの構成の一例を示す図である。It is a figure which shows an example of the structure of the information processing system in the 6th modification of the embodiment of this invention. 本発明の実施形態の第7の変形例における情報処理システムの構成の一例を示す図である。It is a figure which shows an example of the structure of the information processing system in the 7th modification of the embodiment of this invention. 第5〜第7の変形例における表示部の表示内容を説明するための図である。It is a figure for demonstrating the display content of the display part in 5th to 7th modification. 本発明の実施形態における表示部が表示する三次元画像を説明するための図である。It is a figure for demonstrating the 3D image displayed by the display part in embodiment of this invention. 第5〜第7の変形例における判断フロー図である。It is a judgment flow chart in the 5th to 7th modification. 第5〜第7の変形例における表示部の表示内容を説明するための他の図である。It is another figure for demonstrating the display content of the display part in 5th to 7th modification. 第5〜第7の変形例における処理を説明するフロー図である。It is a flow figure explaining the process in 5th to 7th modification. 第5〜第7の変形例における処理を説明する他のフロー図である。It is another flow diagram explaining the process in 5th to 7th modification.

以下に添付図面を参照して、撮像装置および撮像処理方法の実施の形態を詳細に説明する。 Hereinafter, embodiments of the imaging apparatus and the imaging processing method will be described in detail with reference to the accompanying drawings.

図1は、本発明の実施形態に係る撮像装置の外観の一例を示す図である。図2は、撮像装置の構成を説明するための図である。図2には、図1の撮像装置の内部の構成を示している。 FIG. 1 is a diagram showing an example of the appearance of the image pickup apparatus according to the embodiment of the present invention. FIG. 2 is a diagram for explaining the configuration of the image pickup apparatus. FIG. 2 shows the internal configuration of the image pickup apparatus of FIG.

撮像装置1は、受光した光に基づいて決定される3次元情報を出力する情報処理装置の一例であり、撮像部(カメラ)11と、可視光以外の光を投射する投射部(距離センサの発光部に相当する部分)12と、投射部12が投射した光に基づいて距離情報を取得する距離情報取得部(距離センサの受光部に相当する部分)13とを筐体10に対して一体に設けたものである。各部は、筐体10内部の処理回路14と同期信号線Lにより電気的に接続されており、それぞれ同期して動作する。 The image pickup device 1 is an example of an information processing device that outputs three-dimensional information determined based on the received light, and is an image pickup unit (camera) 11 and a projection unit (distance sensor) that projects light other than visible light. A portion (12) corresponding to a light emitting unit and a distance information acquisition unit (a portion corresponding to a light receiving portion of a distance sensor) 13 that acquires distance information based on the light projected by the projection unit 12 are integrated with the housing 10. It is provided in. Each part is electrically connected to the processing circuit 14 inside the housing 10 by a synchronization signal line L, and operates in synchronization with each other.

撮影スイッチ15は、ユーザが処理回路14に撮影指示信号を入力するためのものである。表示部20は、処理回路14の出力信号に応じた内容を表示するものであり、液晶画面等により構成される。表示部20は、タッチパネル等により構成され、ユーザの操作入力を受け付けるようにしてもよい。撮影指示に基づき処理回路14は各部を制御してRGB画像や距離情報のデータを取得し、取得した距離情報のデータをRGB画像や距離情報のデータに基づいて高密度3次元点群データに再構築する処理を行う。 The shooting switch 15 is for the user to input a shooting instruction signal to the processing circuit 14. The display unit 20 displays the contents corresponding to the output signal of the processing circuit 14, and is composed of a liquid crystal screen or the like. The display unit 20 may be configured by a touch panel or the like and may accept a user's operation input. The processing circuit 14 controls each part based on the shooting instruction to acquire RGB image and distance information data, and reconverts the acquired distance information data into high-density three-dimensional point cloud data based on the RGB image and distance information data. Perform the process of building.

距離情報のデータは、そのまま使用しても3次元点群データを構築することが可能だが、その場合、3次元点群データの精度が距離情報取得部13の画素数(解像度)に制限される。本例では、それを高密度の3次元点群データに再構築する場合の処理についても示す。再構築したデータは可搬型の記録媒体や通信などを介して外部のPCなどに出力され、3次元復元モデルの表示に利用される。 It is possible to construct 3D point cloud data by using the distance information data as it is, but in that case, the accuracy of the 3D point cloud data is limited to the number of pixels (resolution) of the distance information acquisition unit 13. .. In this example, the processing when reconstructing it into high-density three-dimensional point cloud data is also shown. The reconstructed data is output to an external PC or the like via a portable recording medium or communication, and is used for displaying a three-dimensional restoration model.

各部や処理回路14には、筐体10内部に収容されるバッテリから電力が供給される。この他にも、筐体10の外部から接続コードにより電力供給を受ける構成としてもよい。 Electric power is supplied to each part and the processing circuit 14 from a battery housed inside the housing 10. In addition to this, a configuration in which power is supplied from the outside of the housing 10 by a connection cord may be used.

撮像部11は、2次元画像情報を撮像し、撮像素子11a、11Aや、魚眼レンズ(広角レンズ)11b、11Bなどを有する。投射部12は、光源部12a、12Aや広角レンズ12b、12Bなどを有する。距離情報取得部13は、TOF(Time Of Fright)センサ13a、13Aや広角レンズ13b、13Bなどを有する。なお、各部は、図示を省略しているがプリズムやレンズ群などの光学系を構成してよい。 The image pickup unit 11 captures two-dimensional image information and includes image pickup elements 11a and 11A, fisheye lenses (wide-angle lenses) 11b and 11B, and the like. The projection unit 12 includes light source units 12a and 12A, wide-angle lenses 12b and 12B, and the like. The distance information acquisition unit 13 includes TOF (Time Of Fright) sensors 13a and 13A, wide-angle lenses 13b and 13B, and the like. Although not shown, each part may constitute an optical system such as a prism or a lens group.

例えば、撮像部11に、魚眼レンズ11b、11Bが集めた光を撮像素子11a、11Aに結像するための光学系を構成してよい。また、投射部12に、光源部12a、12Aの光を広角レンズ12b、12Bに導く光学系を構成してよい。また、距離情報取得部13に広角レンズ13b、13Bが集めた光をTOFセンサ13a、13Aに結像するための光学系を構成してよい。各光学系については、撮像素子11a、11A、光源部12a、12A、TOFセンサ13a、13Aなどの構成や配置に応じて適宜決めてよいものとし、ここでは、プリズムやレンズ群などの光学系については省略して説明する。 For example, the image pickup unit 11 may be configured with an optical system for forming an image of the light collected by the fisheye lenses 11b and 11B on the image pickup devices 11a and 11A. Further, the projection unit 12 may be configured with an optical system that guides the light of the light source units 12a and 12A to the wide-angle lenses 12b and 12B. Further, the distance information acquisition unit 13 may be configured with an optical system for forming an image of the light collected by the wide-angle lenses 13b and 13B on the TOF sensors 13a and 13A. Each optical system may be appropriately determined according to the configuration and arrangement of the image pickup elements 11a and 11A, the light source units 12a and 12A, the TOF sensors 13a and 13A, and the like. Will be omitted for explanation.

撮像素子11a、11A、光源部12a、12A、およびTOFセンサ13a、13Aは、筐体10の内部に一体的に収められている。魚眼レンズ11bと、広角レンズ12bと、広角レンズ13bと、表示部20とは、それぞれ筐体10の正面側の第1の面に設けられている。第1の面において、魚眼レンズ11b、広角レンズ12b、および広角レンズ13bのぞれぞれの内側の範囲は開口している。 The image pickup elements 11a and 11A, the light source units 12a and 12A, and the TOF sensors 13a and 13A are integrally housed inside the housing 10. The fisheye lens 11b, the wide-angle lens 12b, the wide-angle lens 13b, and the display unit 20 are each provided on the first surface on the front side of the housing 10. On the first surface, the inner range of each of the fisheye lens 11b, the wide-angle lens 12b, and the wide-angle lens 13b is open.

魚眼レンズ11Bと、広角レンズ12Bと、広角レンズ13Bと、撮影スイッチ15とは、それぞれ筐体10の背面側の第2の面に設けられている。第2の面において、魚眼レンズ11B、広角レンズ12B、および広角レンズ13Bのぞれぞれの内側の範囲は開口している。 The fisheye lens 11B, the wide-angle lens 12B, the wide-angle lens 13B, and the photographing switch 15 are each provided on the second surface on the back side of the housing 10. On the second surface, the inner range of each of the fisheye lens 11B, the wide-angle lens 12B, and the wide-angle lens 13B is open.

撮像素子11a、11Aは、2次元解像度のイメージセンサ(エリアセンサ)である。撮像素子11a、11Aは、2次元方向に各画素の受光素子(フォトダイオード)が多数配列された撮像エリアを有する。撮像エリアには可視光を受光するためにベイヤ配列等のR(Red)とG(Green)とB(Blue)のカラーフィルタが設けられており、カラーフィルタを通過した光がフォトダイオードに蓄電される。ここでは、広角(例えば図2に示す撮像方向を正面とする周囲180度の半天球の範囲など)の2次元画像を高解像度で取得することができるように画素数の多いイメージセンサを使用する。 The image sensors 11a and 11A are two-dimensional resolution image sensors (area sensors). The image pickup elements 11a and 11A have an image pickup area in which a large number of light receiving elements (photodiodes) of each pixel are arranged in a two-dimensional direction. R (Red), G (Green), and B (Blue) color filters such as a bayer array are provided in the imaging area to receive visible light, and the light that has passed through the color filters is stored in the photodiode. NS. Here, an image sensor having a large number of pixels is used so that a wide-angle (for example, a range of a hemispherical sphere with a circumference of 180 degrees with the imaging direction as the front as shown in FIG. 2) can be acquired with high resolution. ..

撮像素子11a、11Aは、その撮像エリアに結像した光を各画素の画素回路で電気信号に変換して高解像度のRGB画像を出力する。魚眼レンズ11b、11Bは、広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)から光を集め、その光を撮像素子11a、11Aの撮像エリアに結像する。 The image pickup elements 11a and 11A convert the light imaged in the image pickup area into an electric signal by the pixel circuit of each pixel and output a high-resolution RGB image. The fisheye lenses 11b and 11B collect light from a wide angle (for example, a hemispherical range of 180 degrees around the image pickup direction shown in FIG. 2), and image the light in the image pickup areas of the image pickup elements 11a and 11A.

光源部12a、12Aは、半導体レーザであり、距離の計測に用いる可視光領域以外(ここでは一例として赤外とする)の波長帯のレーザ光を出射する。光源部12a、12Aには、1つの半導体レーザを用いてもよいし、複数の半導体レーザを組み合わせて使用してもよい。また、半導体レーザとして例えばVCSEL(Vertical Cavity Surface Emitting LASER)などの面発光型の半導体レーザを使用してもよい。 The light source units 12a and 12A are semiconductor lasers, and emit laser light in a wavelength band other than the visible light region (here, infrared is used as an example) used for distance measurement. One semiconductor laser may be used for the light source units 12a and 12A, or a plurality of semiconductor lasers may be used in combination. Further, as the semiconductor laser, for example, a surface emitting type semiconductor laser such as VCSEL (Vertical Cavity Surface Emitting LASER) may be used.

また、半導体レーザの光を光学レンズにより縦に長くなるように成形し、縦長にした光を、MEMS(Micro Electro Mechanical Systems)ミラーなどの光偏向素子で計測範囲の一次元方向に走査するような構成にしてもよい。本実施の形態では、光源部12a、12Aとして、半導体レーザLAの光をMEMSミラーなどの光偏向素子を使用せずに広角レンズ12b、12Bを介して広角の範囲に広げる形態を示している。 Further, the light of the semiconductor laser is molded by an optical lens so as to be vertically long, and the vertically long light is scanned in a one-dimensional direction of the measurement range by an optical deflection element such as a MEMS (Micro Electro Mechanical Systems) mirror. It may be configured. In the present embodiment, the light sources 12a and 12A show a form in which the light of the semiconductor laser LA is spread over a wide-angle range through the wide-angle lenses 12b and 12B without using a light deflection element such as a MEMS mirror.

光源部12a、12Aの広角レンズ12b、12Bは、光源部12a、12Aが出射した光を広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)の範囲に広げる機能を有する。 The wide-angle lenses 12b and 12B of the light source units 12a and 12A have a function of expanding the light emitted by the light source units 12a and 12A to a wide-angle range (for example, a hemispherical range of 180 degrees around the imaging direction shown in FIG. 2). Has.

距離情報取得部13の広角レンズ13b、13Bは、投射部12により投射された光源部12a、12Aの光の反射光を、計測範囲である広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)の各方向から取り込み、それらの光をTOFセンサ13a、13Aの受光エリアに結像する。計測範囲には一つまたは複数の被投射物(例えば建物など)が含まれており、被投射物で反射した光(反射光)が広角レンズ13b、13Bに入射する。反射光は、例えば広角レンズ13b、13Bの表面全体に赤外領域の波長以上の光をカットするフィルタを設けるなどして取り込んでよい。なお、これに限らず、受光エリアに赤外領域の光が入射すればよいため、広角レンズ13b、13Bから受光エリアまでの光路にフィルタなど赤外領域の波長の光を通す手段を設けてもよい。 The wide-angle lenses 13b and 13B of the distance information acquisition unit 13 measure the reflected light of the light sources 12a and 12A projected by the projection unit 12 with respect to the wide-angle lens 13b and 13B whose front is the imaging direction shown in FIG. It is taken in from each direction (such as a 180-degree hemispherical range), and the light is imaged in the light receiving area of the TOF sensors 13a and 13A. The measurement range includes one or more projectiles (for example, a building), and the light reflected by the projectile (reflected light) is incident on the wide-angle lenses 13b and 13B. The reflected light may be captured, for example, by providing a filter that cuts light having a wavelength in the infrared region or higher on the entire surface of the wide-angle lenses 13b and 13B. Not limited to this, since it is sufficient that the light in the infrared region is incident on the light receiving area, a means for passing light having a wavelength in the infrared region such as a filter may be provided in the optical path from the wide-angle lenses 13b and 13B to the light receiving area. good.

TOFセンサ13a、13Aは、2次元解像度の光センサである。TOFセンサ13a、13Aは多数の受光素子(フォトダイオード)が2次元方向に配列された受光エリアを有する。この意味で「第2の撮像受光手段 」と言えるである。TOFセンサ13a、13Aは、計測範囲の各エリア(各エリアを位置とも言う)の反射光を、各エリアに対応する受光素子で受光し、各受光素子で検出した光に基づき各エリアまでの距離を計測(算出)する。 The TOF sensors 13a and 13A are two-dimensional resolution optical sensors. The TOF sensors 13a and 13A have a light receiving area in which a large number of light receiving elements (photodiodes) are arranged in a two-dimensional direction. In this sense, it can be said to be a "second image receiving / receiving means". The TOF sensors 13a and 13A receive the reflected light of each area of the measurement range (each area is also called a position) by the light receiving element corresponding to each area, and the distance to each area based on the light detected by each light receiving element. Is measured (calculated).

本実施形態では、位相差検出方式で距離を計測する。位相差検出方式では、基本周波数で振幅変調したレーザ光を計測範囲に照射し、その反射光を受光して照射光と反射光との位相差を測定することで時間を求め、その時間に光速をかけて距離を算出する。この方式では、ある程度の解像度が見込めることが強みである。 In this embodiment, the distance is measured by the phase difference detection method. In the phase difference detection method, the measurement range is irradiated with laser light amplitude-modulated at the basic frequency, the reflected light is received and the phase difference between the irradiation light and the reflected light is measured to obtain the time, and the speed of light is obtained at that time. To calculate the distance. The strength of this method is that a certain level of resolution can be expected.

TOFセンサ13a、13Aは、投射部12による光の照射に同期して駆動し、各受光素子(画素に対応)で反射光との位相差から各画素に対応する距離を算出し、画素情報に計測範囲内の各エリアまでの距離を示す情報を対応付けた距離情報画像データ(後において「距離画像」や「TOF画像」とも言う)を出力する。TOFセンサ13a、13Aは、画素情報に位相情報を対応付けた位相情報画像データを出力し、後処理にて位相情報画像データに基づき距離情報画像データを取得してもよい。 The TOF sensors 13a and 13A are driven in synchronization with the irradiation of light by the projection unit 12, and each light receiving element (corresponding to a pixel) calculates the distance corresponding to each pixel from the phase difference with the reflected light and converts it into pixel information. It outputs distance information image data (later also referred to as "distance image" or "TOF image") associated with information indicating the distance to each area within the measurement range. The TOF sensors 13a and 13A may output phase information image data in which phase information is associated with pixel information, and may acquire distance information image data based on the phase information image data in post-processing.

なお、測定範囲を分割することができるエリア数は、受光エリアの解像度によって決まる。従って、小型化のため解像度が低いものを使用した場合、距離画像データの画素情報の数が減少するため、3次元点群の数も少なくなる。 The number of areas in which the measurement range can be divided is determined by the resolution of the light receiving area. Therefore, when a low-resolution image is used for miniaturization, the number of pixel information of the distance image data is reduced, so that the number of three-dimensional point clouds is also reduced.

なお、他の形態として、位相差検出方式に代えて、パルス方式で距離を計測してもよい。その場合、例えば、光源部12a、12Aで、立ち上がり時間が数ナノ秒(ns)で且つ光ピークパワーが強い超短パルスの照射パルスP1を出射し、これに同期してTOFセンサ13a、13Aにより、光源部12a、12Aが出射した照射パルスP1の反射光である反射パルスP2の受光までにかかる時間(t)を計測する。 As another form, the distance may be measured by the pulse method instead of the phase difference detection method. In that case, for example, the light source units 12a and 12A emit an ultrashort pulse irradiation pulse P1 having a rise time of several nanoseconds (ns) and a strong optical peak power, and the TOF sensors 13a and 13A synchronize with this. The time (t) required to receive the reflected pulse P2, which is the reflected light of the irradiation pulse P1 emitted by the light source units 12a and 12A, is measured.

この方式を採用する場合、例えばTOFセンサ13a、13Aとして、受光素子の出力側に時間の計測を行う回路などを実装したものを使用する。各回路では、受光素子毎に、光源部12a、12Aが照射パルスP1を出射してから反射パルスP2を受光するまでにかかる時間を距離に換算し、各エリアまでの距離を得る。 When this method is adopted, for example, TOF sensors 13a and 13A on which a circuit for measuring time or the like is mounted on the output side of the light receiving element is used. In each circuit, the time required for the light source units 12a and 12A to receive the reflection pulse P2 after emitting the irradiation pulse P1 is converted into a distance for each light receiving element, and the distance to each area is obtained.

この方式は、ピーク光を使用し強力な光を出力することができるので、撮像装置1の広角化に適している。また、MEMSミラーなどを使用して光を振る(走査する)構成にした場合には、強力な光を、広がりを抑えつつ遠くまで照射することができるため、測定距離の拡大に繋がる。この場合、光源部12a、12Aから出射されたレーザ光を、MEMSミラーにより広角レンズ12b、12Bへ向けて走査(偏向)するような配置関係とする。 This method is suitable for widening the angle of the image pickup apparatus 1 because it can output strong light by using peak light. Further, when the light is shaken (scanned) by using a MEMS mirror or the like, strong light can be irradiated to a long distance while suppressing the spread, which leads to an increase in the measurement distance. In this case, the arrangement is such that the laser light emitted from the light source units 12a and 12A is scanned (deflected) toward the wide-angle lenses 12b and 12B by the MEMS mirror.

なお、撮像部11の有効画角と距離情報取得部13の有効画角は例えば180度以上で一致していることが望ましいが、必ずしも一致していなくてもよい。必要に応じて撮像部11の有効画角と距離情報取得部13の有効画角とをそれぞれ減じてもよい。本実施形態では、撮像部11および距離情報取得部13は画角に撮像装置1本体や距離情報取得部13などが含まれないようにないように例えば100度〜180度の範囲内などに有効画素を減じている。 It is desirable that the effective angle of view of the imaging unit 11 and the effective angle of view of the distance information acquisition unit 13 match, for example, at 180 degrees or more, but they do not necessarily have to match. If necessary, the effective angle of view of the imaging unit 11 and the effective angle of view of the distance information acquisition unit 13 may be reduced. In the present embodiment, the image pickup unit 11 and the distance information acquisition unit 13 are effective, for example, within the range of 100 degrees to 180 degrees so that the image angle does not include the image pickup device 1 main body, the distance information acquisition unit 13, and the like. The number of pixels is reduced.

また、TOFセンサ13a、13Aの解像度は、撮像装置1の小型化を優先して撮像素子11a、11Aの解像度よりも低く設定してよい。TOFセンサ13a、13Aを撮像素子11a、11Aよりも低解像度のものとすることにより、受光エリアのサイズ拡大を抑えることができるため、撮像装置1の小型化に繋げることができる。このためTOFセンサ13a、13Aは低解像度になり、TOFセンサ13a、13Aで得られる3次元点群は低密度となるが、「取得手段」である処理回路14を設けているため高密度の3次元点群に変換することができる。処理回路14において高密度の3次元点群に変換する処理については後述する。 Further, the resolutions of the TOF sensors 13a and 13A may be set lower than the resolutions of the image pickup devices 11a and 11A in order to prioritize the miniaturization of the image pickup device 1. By making the TOF sensors 13a and 13A have a lower resolution than the image pickup elements 11a and 11A, it is possible to suppress an increase in the size of the light receiving area, which can lead to a miniaturization of the image pickup device 1. Therefore, the TOF sensors 13a and 13A have a low resolution, and the three-dimensional point cloud obtained by the TOF sensors 13a and 13A has a low density. It can be converted into a dimensional point cloud. The process of converting to a high-density three-dimensional point cloud in the processing circuit 14 will be described later.

本実施の形態では、一例として、撮像素子11aと、光源部12aと、TOFセンサ13aとは筐体10の長手方向に直線上に並ぶように設けている。同様に、撮像素子11Aと、光源部12Aと、TOFセンサ13Aとは筐体10の長手方向に直線上に並ぶように設けている。以下、撮像素子11aと、光源部12aと、TOFセンサ13aの例で説明する。 In the present embodiment, as an example, the image sensor 11a, the light source unit 12a, and the TOF sensor 13a are provided so as to be aligned in a straight line in the longitudinal direction of the housing 10. Similarly, the image sensor 11A, the light source unit 12A, and the TOF sensor 13A are provided so as to be aligned in a straight line in the longitudinal direction of the housing 10. Hereinafter, an example of the image sensor 11a, the light source unit 12a, and the TOF sensor 13a will be described.

撮像素子11aの撮像エリア(撮像面)やTOFセンサ13aの受光エリア(受光面)は、図2に示すように長手方向に直交する方向に向けて配置してもよいし、光の直進方向(光路)を90度変換して入射させるプリズムなどを設けることで長手方向に向けて配置してもよい。この他にも、構成に応じて任意の向きに配置してもよい。つまりは、撮像素子11aと、光源部12aと、TOFセンサ13aとは、同じ計測範囲が対象となるように配置される。撮像部11と、投射部12と、距離情報取得部13とが筐体10の一面側から、その測定範囲に向けて配置される。 The image pickup area (imaging surface) of the image pickup device 11a and the light receiving area (light receiving surface) of the TOF sensor 13a may be arranged in a direction orthogonal to the longitudinal direction as shown in FIG. The optical path) may be arranged in the longitudinal direction by providing a prism or the like that converts the light path by 90 degrees to cause an incident. In addition to this, it may be arranged in any direction depending on the configuration. That is, the image sensor 11a, the light source unit 12a, and the TOF sensor 13a are arranged so as to cover the same measurement range. The imaging unit 11, the projection unit 12, and the distance information acquisition unit 13 are arranged from one side of the housing 10 toward the measurement range.

この際に、撮像素子11aとTOFセンサ13aとを、平行ステレオ化するように同一基線上に配置できればよい。平行ステレオ化するように配置することにより、撮像素子11aが1つであっても、TOFセンサ13aの出力を利用して視差データを得ることが可能になる。光源部12aは、TOFセンサ13aの計測範囲に光を照射することができるように構成する。 At this time, the image sensor 11a and the TOF sensor 13a may be arranged on the same baseline so as to be parallel stereo. By arranging them in parallel stereo, parallax data can be obtained by using the output of the TOF sensor 13a even if there is only one image sensor 11a. The light source unit 12a is configured so that the measurement range of the TOF sensor 13a can be irradiated with light.

(処理回路)
続いて、処理回路14の処理について説明する。TOFセンサ13a、13Aだけで得たTOF画像は、そのままでは解像度が低い。このため、本例では処理回路14により高解像度化し、高密度の3次元点群データを再構築する例を示す。なお、処理回路14における「情報処理手段」としての以下に示す処理の一部または全ては、外部装置で行ってもよい。
(Processing circuit)
Subsequently, the processing of the processing circuit 14 will be described. The TOF image obtained only by the TOF sensors 13a and 13A has a low resolution as it is. Therefore, in this example, an example in which the resolution is increased by the processing circuit 14 and high-density three-dimensional point cloud data is reconstructed is shown. In addition, a part or all of the following processing as "information processing means" in the processing circuit 14 may be performed by an external device.

前述したように、撮像装置1で再構築された3次元点群データは、可搬型の記録媒体や通信などを介してPCなどの外部装置に出力され、3次元復元モデルの表示に利用される。 As described above, the 3D point cloud data reconstructed by the image pickup device 1 is output to an external device such as a PC via a portable recording medium or communication, and is used for displaying the 3D restoration model. ..

これにより、撮像装置1自体が3次元復元モデルの表示を行う場合に比べて、高速化、小型化、軽量化により携帯性に優れた撮像装置1を提供することができる。 As a result, it is possible to provide the image pickup device 1 which is excellent in portability by speeding up, downsizing, and weight reduction as compared with the case where the image pickup device 1 itself displays the three-dimensional restoration model.

しかしながら、3次元情報を取得する現場から離れて、外部装置により3次元情報を復元した後に、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことに気づく場合があり、その場合、3次元情報を取得する現場を再訪問する手間がかかる。 However, after moving away from the site where the 3D information is acquired and restoring the 3D information by an external device, the image is reflected in the captured image of the photographer himself or the tripod, and the 3D information of the desired layout is acquired. You may notice that there is no such thing, and in that case, it takes time and effort to revisit the site where the 3D information is acquired.

これを解決するには、現場にPCなどの外部装置を持ち込むことが考えられるが、そうすると、高速化、小型化、軽量化というメリットがなくなってしまう。 To solve this, it is conceivable to bring an external device such as a PC to the site, but doing so eliminates the merits of speeding up, downsizing, and weight reduction.

また、取得した3次元情報を通信回線により外部装置に送信し、復元された3次元情報を受信することも考えられるが、高速化のメリットが無くなるのと、そもそも3次元情報は情報量が多いので、撮影者自身や三脚等の撮像画像への写り込みを目視で確認するのは困難である。 It is also conceivable to send the acquired 3D information to an external device via a communication line and receive the restored 3D information, but the merit of speeding up is lost and the 3D information has a large amount of information in the first place. Therefore, it is difficult to visually confirm the reflection on the captured image of the photographer himself or the tripod.

特に全天球3次元情報の場合は、撮影者自身や三脚等の撮像画像への写り込みを目視で確認するのは極めて困難である。 In particular, in the case of spherical three-dimensional information, it is extremely difficult to visually confirm the reflection on the captured image of the photographer himself or a tripod.

本実施形態は、以上の課題に鑑み、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことをリアルタイムで容易に確認できる撮像装置1を提供することを目的とする。 In view of the above problems, the present embodiment provides an image pickup device 1 that can easily confirm in real time that the image is reflected in a captured image of the photographer himself or a tripod, and that the three-dimensional information of a desired layout is not acquired. The purpose is to provide.

図3は、同実施形態における撮像装置の使用状況を説明するための図である。 FIG. 3 is a diagram for explaining a usage situation of the image pickup apparatus in the same embodiment.

図3(a)に示す状態では、撮影者Mおよび撮像装置1を支持する自撮り棒1Aは、全天球撮像範囲Rに含まれておらず、撮影者Mおよび自撮り棒1Aが、全天球の撮像画像に写りこむことはない。 In the state shown in FIG. 3A, the photographer M and the selfie stick 1A supporting the image pickup device 1 are not included in the global celestial imaging range R, and the photographer M and the selfie stick 1A are all included. It does not appear in the captured image of the celestial sphere.

図3(b)に示す状態では、撮影者Mが全天球撮像範囲Rに含まれており、撮影者Mが、全天球の撮像画像に写りこんでしまう。 In the state shown in FIG. 3B, the photographer M is included in the spherical imaging range R, and the photographer M is reflected in the captured image of the spherical image.

図3(c)に示す状態では、撮像装置1を支持する三脚1Bが全天球撮像範囲Rに含まれており、三脚1Bが、全天球の撮像画像に写りこんでしまう。 In the state shown in FIG. 3C, the tripod 1B supporting the imaging device 1 is included in the spherical imaging range R, and the tripod 1B is reflected in the captured image of the spherical image.

図3(d)に示す状態では、撮影者Mおよび撮像装置1を支持する自撮り棒1Aは、全天球撮像範囲Rに含まれておらず、撮影者Mおよび自撮り棒1Aが、全天球の撮像画像に写りこむことはないが、外光(例えば太陽や照明など)が強いため、写りこみを誤判定する可能性がある。 In the state shown in FIG. 3D, the photographer M and the selfie stick 1A supporting the image pickup device 1 are not included in the global imaging range R, and the photographer M and the selfie stick 1A are all included. Although it does not appear in the captured image of the celestial sphere, it may be misjudged because the outside light (for example, the sun or lighting) is strong.

また、図3(b)および図3(c)に示す状態では、写りこむ物体の色や種類、およびその見え方が多様であるため、一律に写りこみの有無を判断するのは困難であった。 Further, in the states shown in FIGS. 3B and 3C, it is difficult to uniformly determine the presence or absence of reflection because the colors and types of the reflected objects and their appearance are various. rice field.

以上の状況に対して、TOFセンサ13a、13Aから出力される距離情報画像データに基づき、撮影者自身や三脚等の特定の対象物(近接物)の有無を判断する場合、本当に特定の対象物が存在するのか、外光が強すぎるのか、区別することが困難であった。 In response to the above situation, when determining the presence or absence of a specific object (proximity object) such as the photographer himself or a tripod based on the distance information image data output from the TOF sensors 13a and 13A, a truly specific object It was difficult to distinguish whether there was an image or the outside light was too strong.

すなわち、TOFセンサ13a、13Aの特定の画素の蓄電量が飽和している場合、特定の対象物が存在しているのが原因なのか、外光の強度が強すぎるのか、TOFセンサ13a、13Aの出力からだけでは、区別することが困難であった。 That is, when the amount of electricity stored in the specific pixels of the TOF sensors 13a and 13A is saturated, it may be due to the presence of a specific object, or the intensity of the external light is too strong, or the TOF sensors 13a, 13A. It was difficult to distinguish from the output of.

本実施形態は、以上の課題に鑑み、外光の影響と区別して、撮影者自身や三脚等の特定の対象物の撮像画像への写り込みの有無を正確に確認することができる撮像装置1を提供することを他の目的とする。また、本実施形態は、近接物に限られず、高反射物、遠方物、低反射物、画像のぶれ等の対象が画像に含まれることを確認できることも目的とする。 In view of the above problems, the present embodiment can accurately confirm whether or not a specific object such as the photographer or a tripod is reflected in the captured image by distinguishing it from the influence of external light. The other purpose is to provide. Another object of the present embodiment is to be able to confirm that the image includes an object such as a high-reflecting object, a distant object, a low-reflecting object, and an image blur, not limited to a near object.

図4は、処理回路14の処理ブロックの構成の一例を示す図である。図4に示す処理回路14は、制御部141と、RGB画像データ取得部142と、モノクロ処理部143と、TOF画像データ取得部144と、高解像度化部145と、マッチング処理部146と、再投影処理部147と、セマンティックセグメンテーション部148と、視差計算部149と、3次元再構成処理部150と、判断部160と、出力部の一例である表示制御部170と、出力部の一例である送受信部180とを有する。なお、図4において、実線矢印は信号の流れを示し、破線矢印はデータの流れを示している。 FIG. 4 is a diagram showing an example of the configuration of the processing block of the processing circuit 14. The processing circuit 14 shown in FIG. 4 includes a control unit 141, an RGB image data acquisition unit 142, a monochrome processing unit 143, a TOF image data acquisition unit 144, a high resolution unit 145, a matching processing unit 146, and the like. It is an example of a projection processing unit 147, a semantic segmentation unit 148, a parallax calculation unit 149, a three-dimensional reconstruction processing unit 150, a judgment unit 160, a display control unit 170 which is an example of an output unit, and an output unit. It has a transmission / reception unit 180. In FIG. 4, the solid line arrow indicates the signal flow, and the broken line arrow indicates the data flow.

制御部141は、撮影スイッチ15からON信号(撮影開始信号)を受けると撮像素子11a、11A、光源部12a、12A、およびTOFセンサ13a、13Aに同期信号を出力し、処理回路14全体を制御する。制御部141は、先ず光源部12a、12Aに超短パルスの出射を指示する信号を出力し、これと同じタイミングでTOFセンサ13a、13AにTOF画像データの生成を指示する信号を出力する。さらに、制御部141は、撮像素子11a、11Aに撮像を指示する信号を出力する。なお、撮像素子11a、11Aにおける撮像は、光源部12a、12Aから出射されている期間でもよいし、その前後の直近の期間でもよい。 When the control unit 141 receives an ON signal (shooting start signal) from the shooting switch 15, it outputs a synchronization signal to the image sensors 11a and 11A, the light source units 12a and 12A, and the TOF sensors 13a and 13A, and controls the entire processing circuit 14. do. The control unit 141 first outputs a signal instructing the light source units 12a and 12A to emit an ultrashort pulse, and outputs a signal instructing the TOF sensors 13a and 13A to generate TOF image data at the same timing. Further, the control unit 141 outputs a signal instructing the image pickup elements 11a and 11A to take an image. The image pickup by the image pickup devices 11a and 11A may be a period during which the light source units 12a and 12A are emitted, or may be the latest period before and after that period.

RGB画像データ取得部142は、制御部141による撮像指示に基づき、撮像素子11a、11Aが撮像したRGB画像データを取得して、全天球のRGB画像データを出力する。モノクロ処理部143は、TOFセンサ13a、13Aから得られるTOF画像データとのマッチング処理のためにデータ種を揃えるための処理を行う。この例では、モノクロ処理部143は、全天球のRGB画像データを全天球のモノクロ画像に変換する処理を行う。 The RGB image data acquisition unit 142 acquires the RGB image data captured by the imaging elements 11a and 11A based on the imaging instruction by the control unit 141, and outputs the RGB image data of the entire celestial sphere. The monochrome processing unit 143 performs processing for aligning the data types for matching processing with the TOF image data obtained from the TOF sensors 13a and 13A. In this example, the monochrome processing unit 143 performs processing for converting RGB image data of the spherical image into a monochrome image of the spherical image.

TOF画像データ取得部144は、制御部141によるTOF画像データの生成指示に基づき、TOFセンサ13a、13Aが生成したTOF画像データを取得して、全天球のTOF画像データを出力する。 The TOF image data acquisition unit 144 acquires the TOF image data generated by the TOF sensors 13a and 13A based on the TOF image data generation instruction by the control unit 141, and outputs the TOF image data of the entire celestial sphere.

高解像度化部145は、全天球のTOF画像データをモノクロ画像に見立て、その解像度を高解像度化する。具体的に、高解像度化部145は、全天球のTOF画像データの各画素に対応付けられている距離の値を、全天球のモノクロ画像の値(グレースケール値)に置き換えて使用する。さらに、高解像度化部145は、全天球のモノクロ画像の解像度を撮像素子11a、11Aから得られた全天球のRGB画像データの解像度まで高解像度化する。高解像度への変換は、例えば通常のアップコンバート処理を施すことにより行う。その他の変換方法としては、例えば連続して生成された全天球のTOF画像データを複数フレーム取得し、それらを利用して隣接する地点の距離を追加して超解像度処理を施すなどしてもよい。 The high-resolution unit 145 regards the TOF image data of the whole celestial sphere as a monochrome image and raises the resolution. Specifically, the high-resolution unit 145 replaces the distance value associated with each pixel of the TOF image data of the spherical image with the monochrome image value (grayscale value) of the spherical image. .. Further, the high resolution unit 145 raises the resolution of the monochrome image of the whole celestial sphere to the resolution of the RGB image data of the whole celestial sphere obtained from the image pickup devices 11a and 11A. The conversion to high resolution is performed, for example, by performing a normal up-conversion process. As another conversion method, for example, it is possible to acquire a plurality of frames of continuously generated TOF image data of all celestial spheres, add the distances of adjacent points using them, and perform super-resolution processing. good.

マッチング処理部146は、全天球のTOF画像データを高解像度化した全天球のモノクロ画像と、全天球のRGB画像データの全天球のモノクロ画像とについて、テクスチャのある部分の特徴量を抽出し、抽出した特徴量によりマッチング処理を行う。例えば、マッチング処理部146は、各モノクロ画像からエッジを抽出し、抽出したエッジ情報同士でマッチング処理を行う。この他の方法として、例えばSIFT等のテクスチャの変化を特徴量化した手法でマッチング処理を行ってもよい。ここでマッチング処理とは、対応画素の探索のことを意味する。 The matching processing unit 146 describes the feature amount of the textured portion of the monochrome image of the spherical image in which the TOF image data of the spherical image is increased in resolution and the monochrome image of the spherical image of the RGB image data of the spherical image. Is extracted, and matching processing is performed according to the extracted feature amount. For example, the matching processing unit 146 extracts edges from each monochrome image and performs matching processing between the extracted edge information. As another method, for example, the matching process may be performed by a method such as SIFT that quantifies the change in texture. Here, the matching process means searching for the corresponding pixel.

マッチング処理の具体的な手法として、例えばブロックマッチングがある。ブロックマッチングは、参照する画素の周辺で、M×M(Mは正の整数)ピクセルサイズのブロックとして切り出される画素値と、もう一方の画像のうち、探索の中心となる画素の周辺で、同じくM×Mピクセルのブロックとして切り出される画素値の類似度を計算し、最も類似度が高くなる中心画素を対応画素とする方法である。 As a specific method of matching processing, for example, there is block matching. Block matching is performed around the pixel value that is cut out as a block of M × M (M is a positive integer) pixel size around the pixel to be referenced, and around the pixel that is the center of the search in the other image. This is a method in which the similarity of pixel values cut out as a block of M × M pixels is calculated, and the central pixel having the highest similarity is set as the corresponding pixel.

類似度の計算方法は様々である。例えば、正規化自己相関係数NCC(Normalized Correlation Coefficient)を示す式を用いても良い。正規化自己相関係数CNCCは数値が高いほど類似度が高いことを示し、ブロックの画素値が完全に一致していれる場合に1となる。 There are various methods for calculating the degree of similarity. For example, an equation showing a normalized autocorrelation coefficient NCC (Normalized Correlation Cooperative) may be used. The normalized autocorrelation coefficient CNCC indicates that the higher the numerical value, the higher the similarity, and it becomes 1 when the pixel values of the blocks are exactly the same.

また、全天球のTOF画像データからテクスチャレス領域の距離のデータも得られるため、領域に応じてマッチング処理に重みをつけてもよい。例えばCNCCを示す式の計算において、エッジ以外の箇所(テクスチャレス領域)に重みをかける計算を行ってもよい。 Further, since the data of the distance of the textureless region can be obtained from the TOF image data of the spherical image, the matching process may be weighted according to the region. For example, in the calculation of the equation showing CNCC, the calculation may be performed by weighting the portion other than the edge (textureless region).

また、NCCを示す式の代わりに、選択的正規化相関(SCC:Selective Correlation Coefficient)などを用いてもよい。 Further, instead of the formula indicating NCC, a selective normalization correlation (SCC) or the like may be used.

再投影処理部147は、計測範囲の各位置の距離を示す全天球のTOF画像データを撮像部11の2次元座標(スクリーン座標系)に再投影する処理を行う。再投影するとは、TOFセンサ13a、13Aが算出する3次元点が、撮像素子11a、11Aの画像ではどの座標に写るかを求めることである。全天球のTOF画像データは、距離情報取得部13(主に広角レンズ13b、13B)を中心とする座標系における3次元点の位置を示す。従って、全天球のTOF画像データが示す3次元点を、撮像部11(主に魚眼レンズ11b、11B)を中心とする座標系に再投影する。 The reprojection processing unit 147 performs a process of reprojecting the TOF image data of the entire celestial sphere indicating the distance of each position in the measurement range onto the two-dimensional coordinates (screen coordinate system) of the imaging unit 11. Reprojection means finding the coordinates at which the three-dimensional points calculated by the TOF sensors 13a and 13A appear in the images of the image sensors 11a and 11A. The TOF image data of the whole celestial sphere indicates the position of a three-dimensional point in the coordinate system centered on the distance information acquisition unit 13 (mainly the wide-angle lenses 13b and 13B). Therefore, the three-dimensional points indicated by the TOF image data of the whole celestial sphere are reprojected on the coordinate system centered on the imaging unit 11 (mainly fisheye lenses 11b and 11B).

例えば、再投影処理部147は、全天球のTOF画像データの3次元点の座標を、撮像部11を中心とする3次元点の座標に平行移動し、平行移動後に、全天球のTOF画像データの3次元点の座標を全天球のRGB画像データが示す2次元の座標系(スクリーン座標系)に変換する処理を施す。これにより、全天球のTOF画像データの3次元点の座標と、撮像部11により撮像された全天球の2次元画像情報の座標が、互いに対応付けられる。再投影処理部147は、全天球のTOF画像データの3次元点の座標と、撮像部11により撮像された全天球の2次元画像情報の座標を互いに対応付ける。 For example, the reprojection processing unit 147 moves the coordinates of the three-dimensional points of the TOF image data of the whole celestial sphere in parallel with the coordinates of the three-dimensional points centered on the imaging unit 11, and after the parallel movement, the TOF of the whole celestial sphere A process is performed to convert the coordinates of the three-dimensional points of the image data into the two-dimensional coordinate system (screen coordinate system) indicated by the RGB image data of the whole sky. As a result, the coordinates of the three-dimensional points of the TOF image data of the whole celestial sphere and the coordinates of the two-dimensional image information of the whole celestial sphere captured by the imaging unit 11 are associated with each other. The reprojection processing unit 147 associates the coordinates of the three-dimensional points of the TOF image data of the whole celestial sphere with the coordinates of the two-dimensional image information of the whole celestial sphere captured by the imaging unit 11.

視差計算部149は、マッチング処理により得られた対応画素との距離のズレから各位置の視差を計算する。なお、視差のマッチング処理は、再投影処理部147が変換した再投影座標を利用して、再投影座標の位置の周辺画素を探索することで、処理時間の短縮や、より詳細で高解像度な距離情報を取得することが可能になる。 The parallax calculation unit 149 calculates the parallax at each position from the deviation of the distance from the corresponding pixel obtained by the matching process. The parallax matching process uses the reprojection coordinates converted by the reprojection processing unit 147 to search for peripheral pixels at the position of the reprojection coordinates, thereby shortening the processing time and achieving more detailed and high resolution. It becomes possible to acquire distance information.

また、視差のマッチング処理にセマンティックセグメンテーション部148のセマンティックセグメンテーション処理により得られたセグメンテーションデータを利用してもよい。その場合、さらに詳細で高解像度の距離情報を取得することができるようになる。 Further, the segmentation data obtained by the semantic segmentation process of the semantic segmentation unit 148 may be used for the parallax matching process. In that case, it becomes possible to acquire more detailed and high-resolution distance information.

また、エッジのみや、強い特徴量のある部分のみ、視差のマッチング処理を行い、その他の部分は、全天球のTOF画像データも利用し、例えば全天球のRGB画像特徴や確率的な手法を利用し、伝搬処理を行ってもよい。 In addition, parallax matching processing is performed only on the edges and only the parts with strong features, and the TOF image data of the whole celestial sphere is also used for the other parts. May be used to perform propagation processing.

セマンティックセグメンテーション部148は、深層学習を利用して、計測範囲の入力画像に対して対象物を示すセグメンテーションラベルを付与する。これにより、全天球のTOF画像データの各画素を、距離毎に分けた複数の距離領域の何れかに拘束させることができるので、計算の信頼性がさらに高まる。 The semantic segmentation unit 148 uses deep learning to assign a segmentation label indicating an object to the input image of the measurement range. As a result, each pixel of the TOF image data of the spherical image can be constrained to any of a plurality of distance regions divided for each distance, so that the reliability of the calculation is further improved.

3次元再構成処理部150は、RGB画像データ取得部142から全天球のRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて全天球の3次元データを再構成し、各3次元点に色情報を付加した全天球の高密度3次元点群を出力する。3次元再構成処理部150は、3次元情報を決定する3次元情報決定部の一例である。 The three-dimensional reconstruction processing unit 150 acquires the RGB image data of the whole celestial sphere from the RGB image data acquisition unit 142, and reconstructs the three-dimensional data of the whole celestial sphere based on the distance information output by the parallax calculation unit 149. , Outputs a high-density three-dimensional point cloud of the entire celestial sphere with color information added to each three-dimensional point. The three-dimensional reconstruction processing unit 150 is an example of a three-dimensional information determination unit that determines three-dimensional information.

判断部160は、RGB画像データ取得部142から全天球のRGB画像データを取得するとともに、再投影処理部147から全天球のRGB画像データが示す2次元の座標系に変換された全天球のTOF画像データを取得し、これらのデータに基づき、特定の対象物の撮像画像への写り込みの有無を判断し、判断結果を表示制御部170へ出力する。 The determination unit 160 acquires the RGB image data of the whole sky from the RGB image data acquisition unit 142, and the reprojection processing unit 147 converts the whole sky into the two-dimensional coordinate system indicated by the RGB image data of the whole sky. The TOF image data of the sphere is acquired, and based on these data, it is determined whether or not a specific object is reflected in the captured image, and the determination result is output to the display control unit 170.

表示制御部170は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示部20に表示させる。また、表示制御部170は、判断部160から取得した判断結果を示す情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる。 The display control unit 170 acquires RGB image data of all celestial spheres from the RGB image data acquisition unit 142, and causes the display unit 20 to display two-dimensional image information based on the acquired RGB image data of all celestial spheres. Further, the display control unit 170 causes the display unit 20 to display a display image including the information indicating the determination result acquired from the determination unit 160 and the two-dimensional image information.

表示制御部170は、3次元情報とは別に撮像部11により撮像された2次元画像情報を出力する出力部の一例であり、表示部20は、2次元画像情報を出力する出力先の一例である。 The display control unit 170 is an example of an output unit that outputs two-dimensional image information captured by the image pickup unit 11 separately from the three-dimensional information, and the display unit 20 is an example of an output destination that outputs two-dimensional image information. be.

表示制御部170は、3次元再構成処理部150から全天球の3次元データを取得し、3次元情報を表示部20に表示させてもよい。具体的には、表示制御部170は、2次元画像情報を表示部20に表示させる場合と、3次元情報を表示部20に表示させる場合を所定の条件に従って選択してもよい。これにより、表示制御部170は、3次元情報とは別に2次元画像情報を出力することができる。 The display control unit 170 may acquire three-dimensional data of the whole celestial sphere from the three-dimensional reconstruction processing unit 150 and display the three-dimensional information on the display unit 20. Specifically, the display control unit 170 may select a case where the two-dimensional image information is displayed on the display unit 20 and a case where the three-dimensional information is displayed on the display unit 20 according to a predetermined condition. As a result, the display control unit 170 can output two-dimensional image information in addition to the three-dimensional information.

送受信部180は、有線または無線技術により外部装置と通信を行うものであり、3次元再構成処理部150から出力される全天球の3次元データおよびRGB画像データ取得部142から出力される全天球の2次元画像情報をネットワーク400経由で3次元復元処理を行う外部装置300へ送信(出力)する。 The transmission / reception unit 180 communicates with an external device by wired or wireless technology, and the three-dimensional data of the entire celestial sphere output from the three-dimensional reconstruction processing unit 150 and all output from the RGB image data acquisition unit 142. The two-dimensional image information of the celestial sphere is transmitted (output) to the external device 300 that performs the three-dimensional restoration processing via the network 400.

本実施形態においては、撮像部11により撮像された2次元画像情報は、「表示用の2次元画像データ」を作成するための「元の2次元画像情報」である場合、または、「表示用の2次元画像データ」を意味する。例えば、撮像装置1の内部で「表示用の2次元画像データ」を「元の2次元画像情報」から作成する場合、または、撮像装置1から外部装置に「元の2次元画像情報」を送信して、外部装置で「元の2次元画像情報」から「表示用の2次元画像データ」を作成する場合がある。 In the present embodiment, the two-dimensional image information captured by the imaging unit 11 is "original two-dimensional image information" for creating "two-dimensional image data for display", or "for display". 2D image data ". For example, when creating "two-dimensional image data for display" from "original two-dimensional image information" inside the image pickup device 1, or transmitting "original two-dimensional image information" from the image pickup device 1 to an external device. Then, an external device may create "two-dimensional image data for display" from the "original two-dimensional image information".

送受信部180は、3次元情報を出力する出力部の一例であり、外部装置300は、3次元情報を出力する出力先の一例である。 The transmission / reception unit 180 is an example of an output unit that outputs three-dimensional information, and the external device 300 is an example of an output destination that outputs three-dimensional information.

送受信部180は、全天球の2次元画像情報は送信せず、全天球の3次元データのみ送信してもよい。また、送受信部180は、SDカード等の可搬型の記憶媒体やパーソナルコンピュータなどとのインターフェース回路により構成されてもよい。 The transmission / reception unit 180 may not transmit the two-dimensional image information of the whole celestial sphere, but may transmit only the three-dimensional data of the whole celestial sphere. Further, the transmission / reception unit 180 may be configured by an interface circuit with a portable storage medium such as an SD card or a personal computer.

(処理回路の動作)
図5は、撮像装置1の処理回路14の動作の一例を示すフロー図である。処理回路14の制御部141は、ユーザにより撮影スイッチ15がONされ、撮影指示信号が入力されると、次のような方法で高密度3次元点群を生成する動作を行う(撮像処理方法および情報処理方法の一例)。
(Operation of processing circuit)
FIG. 5 is a flow chart showing an example of the operation of the processing circuit 14 of the image pickup apparatus 1. When the shooting switch 15 is turned on by the user and a shooting instruction signal is input, the control unit 141 of the processing circuit 14 performs an operation of generating a high-density three-dimensional point cloud by the following method (imaging processing method and An example of information processing method).

先ず、制御部141は、光源部12a、12Aと、TOFセンサ13a、13Aと、撮像素子11a、11Aとを駆動して計測範囲を撮影する(ステップS1)。制御部141による駆動により、光源部12a、12Aが赤外光を照射し(投射ステップの一例)、その反射光をTOFセンサ13a、13Aが受光する(受光ステップの一例)。また、撮像素子11a、11Aが、光源部12a、12Aの駆動開始のタイミングあるいはその直近の期間に計測範囲を撮像する(撮像ステップの一例)。 First, the control unit 141 drives the light source units 12a and 12A, the TOF sensors 13a and 13A, and the image pickup elements 11a and 11A to photograph the measurement range (step S1). Driven by the control unit 141, the light source units 12a and 12A irradiate infrared light (an example of a projection step), and the TOF sensors 13a and 13A receive the reflected light (an example of a light receiving step). Further, the image pickup devices 11a and 11A take an image of the measurement range at the timing of starting the driving of the light source units 12a and 12A or the period immediately before the same (an example of the image pickup step).

次に、RGB画像データ取得部142が、撮像素子11a、11Aから計測範囲のRGB画像データを取得する(ステップS2)。そして、表示制御部170は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示部20に表示させる(表示ステップの一例)(ステップS3)。 Next, the RGB image data acquisition unit 142 acquires RGB image data in the measurement range from the image pickup devices 11a and 11A (step S2). Then, the display control unit 170 acquires RGB image data of all celestial spheres from the RGB image data acquisition unit 142, and displays (displays) two-dimensional image information based on the acquired RGB image data of all celestial spheres on the display unit 20. Example of step) (step S3).

表示制御部170は、取得した全天球のRGB画像データのうちの一部の領域の2次元画像情報を表示部20に表示させ、ユーザの各種入力により、表示部20に表示される2次元画像情報の領域を変更する。ユーザの各種入力は、撮影スイッチ15以外の操作スイッチを設けることや、表示部20をタッチパネル等の入力部として構成することにより、実現できる。 The display control unit 170 causes the display unit 20 to display the two-dimensional image information of a part of the acquired RGB image data of the entire celestial sphere, and the two-dimensional display unit 20 is displayed by various inputs of the user. Change the area of image information. Various inputs of the user can be realized by providing an operation switch other than the shooting switch 15 and configuring the display unit 20 as an input unit such as a touch panel.

この段階で、撮影者は、表示部20に表示された2次元画像情報により、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの2次元画像情報が取得されていないことを確認することができる。 At this stage, the photographer has not acquired the image in the captured image of the photographer himself or the tripod, or the two-dimensional image information of the desired layout by the two-dimensional image information displayed on the display unit 20. Can be confirmed.

次に、TOF画像データ取得部144が、TOFセンサ13a、13Aから2次元領域の各位置の距離を示すTOF画像データを取得する(ステップS4)。 Next, the TOF image data acquisition unit 144 acquires TOF image data indicating the distance of each position in the two-dimensional region from the TOF sensors 13a and 13A (step S4).

次に、モノクロ処理部143が、RGB画像データをモノクロ画像へ変換する(ステップS5)。TOF画像データとRGB画像データとでは、それぞれが距離データとRGBデータとでデータ種が異なり、そのままではマッチングを行うことができない。従って、先ず一旦、それぞれのデータをモノクロ画像に変換する。TOF画像データについては、高解像度化部145が高解像度化の前に各画素の距離を示す値を、そのままモノクロ画像の値に置き換えることで変換する。 Next, the monochrome processing unit 143 converts the RGB image data into a monochrome image (step S5). The TOF image data and the RGB image data have different data types for the distance data and the RGB data, respectively, and matching cannot be performed as they are. Therefore, first, each data is once converted into a monochrome image. The TOF image data is converted by the high resolution unit 145 by replacing the value indicating the distance of each pixel with the value of the monochrome image as it is before the high resolution.

次に、高解像度化部145がTOF画像データの解像度を高解像度化する(ステップS6)。次に、マッチング処理部146が、各モノクロ画像についてテクスチャのある部分の特徴量を抽出し、抽出した特徴量でマッチング処理を行う(ステップS7)。 Next, the high-resolution unit 145 increases the resolution of the TOF image data (step S6). Next, the matching processing unit 146 extracts the feature amount of the textured portion of each monochrome image, and performs the matching process with the extracted feature amount (step S7).

次に、視差計算部149が、対応画素の距離のズレから各位置の視差を計算して距離を計算する(ステップS8)。 Next, the parallax calculation unit 149 calculates the parallax at each position from the deviation of the distance of the corresponding pixel to calculate the distance (step S8).

次に、判断部160は、RGB画像データ取得部142から全天球のRGB画像データを取得するとともに、再投影処理部147からRGB画像データが示す2次元の座標系に変換された全天球のTOF画像データを取得し、これらのデータに基づき、特定の対象としての近接物の撮像画像への写り込みの有無を判断し、判断結果を表示制御部170へ出力する(判断ステップの一例)。 Next, the determination unit 160 acquires the RGB image data of the entire celestial sphere from the RGB image data acquisition unit 142, and the reprojection processing unit 147 converts the entire celestial sphere into the two-dimensional coordinate system indicated by the RGB image data. TOF image data is acquired, and based on these data, it is determined whether or not a nearby object as a specific target is reflected in the captured image, and the determination result is output to the display control unit 170 (an example of the determination step). ..

表示制御部170は、判断部160から取得した判断結果を示す情報を2次元画像情報に重畳させたり、含ませたりして表示部20に表示させる(表示ステップの一例)(ステップS9)。ステップS9において、判断部160は、特定の対象として近接物だけでなく、高反射物、遠方物、低反射物および画像のぶれ等の有無を判断し、判断結果を表示制御部170へ出力する。 The display control unit 170 superimposes or includes information indicating the determination result acquired from the determination unit 160 on the two-dimensional image information and displays it on the display unit 20 (an example of a display step) (step S9). In step S9, the determination unit 160 determines whether or not there is a high-reflecting object, a distant object, a low-reflecting object, an image blur, etc. as a specific target, and outputs the determination result to the display control unit 170. ..

そして、3次元再構成処理部150が、RGB画像データ取得部142からRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて3次元データを再構成し、各3次元点に色情報を付加した高密度3次元点群を出力する(ステップS10)。 Then, the three-dimensional reconstruction processing unit 150 acquires the RGB image data from the RGB image data acquisition unit 142, reconstructs the three-dimensional data based on the distance information output by the parallax calculation unit 149, and converts the three-dimensional data into each three-dimensional point. A high-density three-dimensional point cloud to which color information is added is output (step S10).

次に、送受信部180は、3次元再構成処理部150から出力される3次元データおよびRGB画像データ取得部142から出力される2次元画像情報をネットワーク400経由で3次元復元処理を行う外部装置300へ送信する(3次元情報出力ステップの一例)(ステップS11)。 Next, the transmission / reception unit 180 performs a three-dimensional restoration process of the three-dimensional data output from the three-dimensional reconstruction processing unit 150 and the two-dimensional image information output from the RGB image data acquisition unit 142 via the network 400. It is transmitted to 300 (an example of a three-dimensional information output step) (step S11).

送受信部180は、RGB画像データ取得部142から出力される2次元画像情報は送信することなく、3次元再構成処理部150から出力される3次元データを送信してもよい。 The transmission / reception unit 180 may transmit the three-dimensional data output from the three-dimensional reconstruction processing unit 150 without transmitting the two-dimensional image information output from the RGB image data acquisition unit 142.

以上説明したように、撮像装置1は、撮像部11と、3次元情報とは別に撮像部11により撮像された2次元画像情報を出力する表示制御部170備える。 As described above, the image pickup apparatus 1 includes an image pickup unit 11 and a display control unit 170 that outputs two-dimensional image information captured by the image pickup unit 11 in addition to the three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認することなく、2次元画像情報から容易に確認することが可能になる。 As a result, it is easy to confirm from the 2D image information that the photographer himself or the tripod is not reflected in the captured image or the 3D information of the desired layout is not acquired without confirming the 3D information. Will be possible.

したがって、3次元情報を取得する現場に居ながら、3次元情報再取得することが可能になり、3次元情報を取得する現場から離れた後で、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことに気づく場合に比べて、再度、3次元情報を取得する現場を訪問する手間が低減される。 Therefore, it is possible to reacquire the 3D information while being at the site where the 3D information is acquired, and after leaving the site where the 3D information is acquired, the image is taken on the photographer himself or the captured image of a tripod or the like. Compared to the case of crowding or noticing that the 3D information of the desired layout has not been acquired, the time and effort to visit the site for acquiring the 3D information again is reduced.

3次元情報は、全天球3次元情報を含む。この場合、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、確認することが困難な全天球3次元情報においても、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、撮像部11により撮像された2次元画像情報から容易に確認することが可能になる。 The three-dimensional information includes spherical three-dimensional information. In this case, even in the case of all-sky 3D information, where it is difficult to confirm that the image is reflected in the captured image of the photographer himself or a tripod, or that the 3D information of the desired layout has not been acquired. It is possible to easily confirm from the two-dimensional image information captured by the imaging unit 11 that the image is reflected in the captured image of itself, a tripod, or the like, and that the three-dimensional information of the desired layout is not acquired.

表示制御部170は、ステップS11で送受信部180が3次元情報を送信(出力)する前に、ステップS3で2次元画像情報Gを出力する。表示制御部170は、ステップS10で3次元再構成処理部150が3次元情報を決定する前に、ステップS3で2次元画像情報Gを出力する。 The display control unit 170 outputs the two-dimensional image information G in step S3 before the transmission / reception unit 180 transmits (outputs) the three-dimensional information in step S11. The display control unit 170 outputs the two-dimensional image information G in step S3 before the three-dimensional reconstruction processing unit 150 determines the three-dimensional information in step S10.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認する前に、2次元画像情報から確認することが可能になる。 As a result, it is necessary to confirm from the 2D image information before confirming the 3D information that the photographer himself or the tripod is reflected in the captured image and the 3D information of the desired layout is not acquired. Becomes possible.

表示制御部170は、表示部20に2次元画像情報を表示させる。撮像装置1は、表示部20を備える。 The display control unit 170 causes the display unit 20 to display two-dimensional image information. The image pickup apparatus 1 includes a display unit 20.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、表示部20に表示される2次元画像情報から容易に確認することが可能になる。 As a result, it is possible to easily confirm from the two-dimensional image information displayed on the display unit 20 that the photographer himself or the tripod is reflected in the captured image and that the three-dimensional information of the desired layout is not acquired. Becomes possible.

表示制御部170は、送受信部180が3次元情報を出力する外部装置300とは異なる表示部20へ、2次元画像情報を出力する。 The display control unit 170 outputs the two-dimensional image information to the display unit 20, which is different from the external device 300 to which the transmission / reception unit 180 outputs the three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、外部装置300に出力される3次元情報を確認することなく、外部装置300とは異なる表示部20に出力される2次元画像情報から確認することが可能になる。 As a result, it is possible to confirm that the image is reflected in the captured image of the photographer himself or the tripod, and that the 3D information of the desired layout has not been acquired, without checking the 3D information output to the external device 300. It is possible to confirm from the two-dimensional image information output to the display unit 20 different from the device 300.

撮像装置1は、距離情報取得部13の出力に基づき3次元情報を決定する3次元再構成処理部150を備える。3次元再構成処理部150は、距離情報取得部13の出力と、2次元画像情報に基づき、3次元情報を決定する。 The image pickup apparatus 1 includes a three-dimensional reconstruction processing unit 150 that determines three-dimensional information based on the output of the distance information acquisition unit 13. The three-dimensional reconstruction processing unit 150 determines the three-dimensional information based on the output of the distance information acquisition unit 13 and the two-dimensional image information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元再構成処理部150で決定される3次元情報を確認することなく、撮像部11により撮像された2次元画像情報から確認することが可能になる。 As a result, the 3D information determined by the 3D reconstruction processing unit 150 is confirmed that the image is reflected in the captured image of the photographer himself or the tripod, and that the 3D information of the desired layout is not acquired. It is possible to confirm from the two-dimensional image information captured by the imaging unit 11 without any problem.

図6は、同実施形態における全天球画像データ生成フロー図である。 FIG. 6 is a spherical image data generation flow diagram in the same embodiment.

図6(a)は、図5で説明したステップS2に対応する全天球のRGB画像データの生成処理を示すフローチャートである。 FIG. 6A is a flowchart showing a process of generating RGB image data of the spherical image corresponding to step S2 described with reference to FIG.

RGB画像データ取得部142は、魚眼画像形式の2つのRGB画像データを入力する(ステップS201)。 The RGB image data acquisition unit 142 inputs two RGB image data in the fisheye image format (step S201).

RGB画像データ取得部142は、各RGB画像データを正距円筒画像形式に変換する(ステップS202)。RGB画像データ取得部142は、2つのRGB画像データを同じ座標系に基づいて正距円筒画像形式に変換することで、次のステップでの画像結合を容易にする。なお、RGB画像データは、必要に応じて正距円筒画像フォーマット以外の1つまたは複数の画像フォーマット形式を使用して画像データに変換できる。例えば、任意の面に透視投影した画像や、任意の多面体の各面に透視投影した画像の座標に変換することもできる。 The RGB image data acquisition unit 142 converts each RGB image data into an equirectangular image format (step S202). The RGB image data acquisition unit 142 converts the two RGB image data into a regular distance cylindrical image format based on the same coordinate system, thereby facilitating image combination in the next step. The RGB image data can be converted into image data by using one or a plurality of image format formats other than the regular distance cylindrical image format, if necessary. For example, it can be converted into the coordinates of an image perspectively projected on an arbitrary surface or an image perspectively projected on each surface of an arbitrary polyhedron.

ここで、正距円筒画像形式について説明する。正距円筒画像形式は、全天球画像を表現可能な方式であり、正距円筒図法を用いて作成される画像(正距円筒画像)の形式である。正距円筒図法とは、地球儀の緯度経度のような、2変数で3次元の方向を表し、緯度経度が直交するように平面表示した図法である。従って、正距円筒画像は、正距円筒図法を用いて生成された画像であり、球面座標系の2つの角度変数を2軸とする座標で表現されている。 Here, the equirectangular image format will be described. The equirectangular image format is a method capable of expressing a spherical image, and is a format of an image (equirectangular image) created by using the equirectangular projection. The equirectangular projection is a projection that represents a three-dimensional direction with two variables, such as the latitude and longitude of a globe, and is displayed in a plane so that the latitude and longitude are orthogonal to each other. Therefore, the equirectangular image is an image generated by using the equirectangular projection, and is represented by coordinates with two angular variables in the spherical coordinate system as two axes.

RGB画像データ取得部142は、ステップS202で生成された2つのRGB画像データを結合し、1枚の全天球RGB画像データを生成する(ステップS203)。入力された2つのRGB画像データは、全画角180度超の領域をカバーしている。このため、この2つのRGB画像データを適切に繋ぐことで生成された全天球RGB画像データは、全天球領域をカバーすることができる。 The RGB image data acquisition unit 142 combines the two RGB image data generated in step S202 to generate one all-sky RGB image data (step S203). The two input RGB image data cover an area having a total angle of view of more than 180 degrees. Therefore, the spherical RGB image data generated by appropriately connecting the two RGB image data can cover the spherical region.

なお、ステップS203における結合処理は、複数画像を繋ぐための既存の技術を用いることができ、特に方法を限定しない。 The combination process in step S203 can use an existing technique for connecting a plurality of images, and the method is not particularly limited.

図6(b)は、図5で説明したステップS4に対応する全天球のTOF画像データの生成処理を示すフローチャートである。 FIG. 6B is a flowchart showing a processing of generating TOF image data of the spherical image corresponding to step S4 described with reference to FIG.

TOF画像データ取得部144は、魚眼画像形式の2つの距離画像データを取得する(ステップS401)。 The TOF image data acquisition unit 144 acquires two distance image data in the fisheye image format (step S401).

TOF画像データ取得部144は、魚眼画像形式の2つのTOF画像データをそれぞれ正距円筒画像形式に変換する(ステップS402)。正距円筒画像形式は、上述の通り、全天球画像を表現可能な方式である。本ステップS402において、2つのTOF画像データを同じ座標系に基づいて正距円筒画像形式に変換することで、次のステップS403での画像結合を容易にする。 The TOF image data acquisition unit 144 converts each of the two TOF image data in the fisheye image format into an equirectangular image format (step S402). As described above, the equirectangular image format is a method capable of expressing a spherical image. In this step S402, by converting the two TOF image data into an equirectangular image format based on the same coordinate system, the image combination in the next step S403 is facilitated.

TOF画像データ取得部144は、ステップS402で生成された2つのTOF画像データを結合し、1枚の全天球TOF画像データを生成する(ステップS403)。入力された2つのTOF画像データは、全画角180度超の領域をカバーしている。このため、この2つのTOF画像データを適切に繋ぐことで生成された全天球TOF画像データは、全天球領域をカバーすることができる。 The TOF image data acquisition unit 144 combines the two TOF image data generated in step S402 to generate one spherical TOF image data (step S403). The two input TOF image data cover an area having a total angle of view of more than 180 degrees. Therefore, the spherical TOF image data generated by appropriately connecting the two TOF image data can cover the spherical region.

なお、ステップS403における結合処理は、複数画像を繋ぐための既存の技術を用いることができ、特に方法を限定しない。 The combination process in step S403 can use an existing technique for connecting a plurality of images, and the method is not particularly limited.

図7は、同実施形態における近接物判断フロー図である。 FIG. 7 is a proximity object determination flow diagram in the same embodiment.

図7は、図5で説明したステップS9に対応する近接物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 7 is a flowchart showing a process of determining whether or not a nearby object is reflected in the captured image corresponding to step S9 described with reference to FIG.

判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が所定値以上である画素の一例として蓄電量が飽和している画素があるか判断する(ステップS801)。 Based on the TOF image data of the whole celestial sphere acquired from the reprojection processing unit 147, the determination unit 160 saturates the stored amount of the TOF image data of the whole celestial sphere as an example of a pixel in which the stored amount is equal to or more than a predetermined value. It is determined whether or not there is a pixel (step S801).

判断部160は、ステップS801で蓄電量が飽和している画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS801で蓄電量が飽和していた画素と同一座標の画素について、蓄電量が所定値以上である一例として蓄電量が飽和しているか判断する(ステップS802)。 When there is a pixel whose storage amount is saturated in step S801, the determination unit 160 is based on the RGB image data of the whole celestial sphere acquired from the RGB image data acquisition unit 142, and among the RGB image data of the whole celestial sphere, With respect to the pixel having the same coordinates as the pixel whose stored amount is saturated in step S801, it is determined whether the stored amount is saturated as an example in which the stored amount is equal to or higher than a predetermined value (step S802).

判断部160は、ステップS802で蓄電量が飽和している場合、ステップS801で蓄電量が飽和している画素は、外光(例えば太陽や照明など)によるものであると判断し、エラー情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得したエラー情報に基づき、エラー情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる(ステップS803)。 When the storage amount is saturated in step S802, the determination unit 160 determines that the pixel whose storage amount is saturated in step S801 is due to external light (for example, the sun or lighting), and outputs error information. Output to the display control unit 170. The display control unit 170 causes the display unit 20 to display a display image including the error information and the two-dimensional image information based on the error information acquired from the determination unit 160 (step S803).

判断部160は、ステップS802で蓄電量が飽和していない場合、ステップS801で蓄電量が飽和している画素は、近接物の存在によるものであると判断し、ステップS801で蓄電量が飽和していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる(ステップS804)。 When the storage amount is not saturated in step S802, the determination unit 160 determines that the pixel whose storage amount is saturated in step S801 is due to the presence of a nearby object, and the storage amount is saturated in step S801. The coordinate position information of the pixel is output to the display control unit 170. The display control unit 170 causes the display unit 20 to display a display image including identification information for identifying a nearby object and two-dimensional image information based on the coordinate position information of the pixels acquired from the determination unit 160 (step S804). ..

判断部160は、ステップS801で蓄電量が飽和している画素がなかった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、0.5m以下の距離情報を示す画素があるか判断する(ステップS805)。 When there is no pixel whose storage amount is saturated in step S801, the determination unit 160 determines 0 of the TOF image data of the whole celestial sphere based on the TOF image data of the whole celestial sphere acquired from the reprojection processing unit 147. It is determined whether there is a pixel showing distance information of .5 m or less (step S805).

判断部160は、ステップS805で0.5m以下の距離情報を示す画素がない場合、処理を終了する。 If there is no pixel indicating the distance information of 0.5 m or less in step S805, the determination unit 160 ends the process.

判断部160は、ステップS805で0.5m以下の距離情報を示す画素がある場合、前述したステップS804へ移行し、ステップS805で0.5m以下の距離情報を示す画素は、近接物の存在によるものであると判断し、ステップS805で0.5m以下の距離情報を示していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる。 If there is a pixel showing distance information of 0.5 m or less in step S805, the determination unit 160 proceeds to step S804 described above, and the pixel showing distance information of 0.5 m or less in step S805 depends on the presence of a nearby object. It is determined that this is the case, and the coordinate position information of the pixel indicating the distance information of 0.5 m or less in step S805 is output to the display control unit 170. The display control unit 170 causes the display unit 20 to display a display image including identification information for identifying a nearby object and two-dimensional image information based on the coordinate position information of the pixels acquired from the determination unit 160.

以上説明したように、表示制御部170は、近接物が存在すると判断した場合には識別情報を2次元画像情報に重畳または含ませ、近接物が存在すると判断しない場合には識別情報を2次元画像情報に重畳または含ませない。 As described above, the display control unit 170 superimposes or includes the identification information on the two-dimensional image information when it determines that a nearby object exists, and two-dimensionally displays the identification information when it does not determine that a nearby object exists. Do not superimpose or include on image information.

すなわち、表示制御部170は、近接物の存在の有無に応じて、表示部20に異なる表示をさせる。 That is, the display control unit 170 causes the display unit 20 to display differently depending on the presence or absence of a nearby object.

また、表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20に表示させる。 Further, the display control unit 170 causes the display unit 20 to display a display image including identification information for identifying a nearby object and two-dimensional image information based on the coordinate position information of the pixels acquired from the determination unit 160.

すなわち、表示制御部170は、近接物の位置に応じた表示部20の位置に異なる表示をさせる。 That is, the display control unit 170 causes the position of the display unit 20 to display differently according to the position of the adjacent object.

図8は、同実施形態における表示部の表示内容を説明するための図である。 FIG. 8 is a diagram for explaining the display contents of the display unit in the same embodiment.

図8は、図5に示したステップS2、図7に示したステップS803およびステップS804に対応する説明図である。 FIG. 8 is an explanatory diagram corresponding to step S2 shown in FIG. 5, step S803 and step S804 shown in FIG. 7.

表示部20には、表示制御部170により、2次元画像情報Gが表示されている。また、表示部20には、表示制御部170により、近接物等の対象を識別する識別情報G1、G2(例えば、指、三脚)およびエラー情報G3と、2次元画像情報Gと、を含む表示画像が表示されている。エラー情報G3は、図8に示すように、「太陽、照明」などのマークを使用して示すことができる。 Two-dimensional image information G is displayed on the display unit 20 by the display control unit 170. Further, the display unit 20 includes display including identification information G1 and G2 (for example, a finger and a tripod), error information G3, and two-dimensional image information G for identifying an object such as a nearby object by the display control unit 170. The image is displayed. The error information G3 can be indicated by using a mark such as "sun, lighting" as shown in FIG.

以上説明したように、撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13と、距離情報取得部13の出力と、撮像部11の出力と、に基づき判断される近接物等の対象の有無に応じて、表示部20に異なる表示をさせる表示制御部170と、を備える。 As described above, the imaging device 1 includes an imaging unit 11 that images an object, a projection unit 12 that projects light onto the object, a distance information acquisition unit 13 that receives light reflected from the object, and distance information acquisition. A display control unit 170 that causes the display unit 20 to display differently depending on the output of the unit 13 and the output of the imaging unit 11 and the presence or absence of an object such as a nearby object determined based on the output is provided.

これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not the photographer himself or a nearby object such as a tripod is reflected in the captured image, distinguishing from the influence of external light.

撮像装置1は、表示部20を備える。これにより、撮影者は、近接物の撮像画像への写り込みの有無を確実に確認することができる。 The image pickup apparatus 1 includes a display unit 20. As a result, the photographer can surely confirm whether or not a close object is reflected in the captured image.

表示制御部170は、近接物の位置に応じた表示部20の位置に異なる表示をさせる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確認することができる。 The display control unit 170 causes the position of the display unit 20 to display differently according to the position of a nearby object. This allows the photographer to confirm the position of the reflection of a nearby object in the captured image.

表示制御部170は、撮像部11が撮像した画像情報Gを表示部20に表示させるとともに、近接物を識別する識別情報G1、G2と、画像情報と、を含む表示画像を表示部20に表示させる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確実に確認することができる。 The display control unit 170 displays the image information G captured by the imaging unit 11 on the display unit 20, and displays a display image including the identification information G1 and G2 for identifying nearby objects and the image information on the display unit 20. Let me. As a result, the photographer can surely confirm the position of the image of the close object in the captured image.

撮像装置1は、距離情報取得部13が受光した光による蓄電量が所定値以上である画素の一例として蓄電量が飽和しており、かつ撮像部11の画素の蓄電量が所定値以下である一例として蓄電量が飽和していない場合、近接物があると判断する判断部160を備える。 The image pickup device 1 has a saturated amount of electricity stored as an example of pixels in which the amount of electricity stored by the light received by the distance information acquisition unit 13 is equal to or greater than a predetermined value, and the amount of electricity stored in the pixels of the image pickup unit 11 is equal to or less than a predetermined value. As an example, when the amount of stored electricity is not saturated, a determination unit 160 for determining that there is a nearby object is provided.

これにより、撮影者は、外光の影響と区別して、近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not a nearby object is reflected in the captured image, distinguishing it from the influence of external light.

図9は、同実施形態の変形例に係る撮像装置の外観を示す図である。図10は、変形例における処理回路の処理ブロックの構成を示す図である。 FIG. 9 is a diagram showing the appearance of the image pickup apparatus according to the modified example of the same embodiment. FIG. 10 is a diagram showing a configuration of a processing block of a processing circuit in a modified example.

本変形例において、表示制御部170は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示装置500の表示部520に表示させる。表示部520は、2次元画像情報を出力する出力先の一例である。 In this modification, the display control unit 170 acquires the RGB image data of the whole celestial sphere from the RGB image data acquisition unit 142, and displays the two-dimensional image information based on the acquired RGB image data of the celestial sphere on the display device 500. Displayed in unit 520. The display unit 520 is an example of an output destination that outputs two-dimensional image information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、表示部520に表示される2次元画像情報から容易に確認することが可能になる。 As a result, it is possible to easily confirm from the two-dimensional image information displayed on the display unit 520 that the photographer himself or the tripod is reflected in the captured image and that the three-dimensional information of the desired layout is not acquired. Becomes possible.

表示制御部170は、送受信部180が3次元情報を出力する外部装置300とは異なる表示部520へ、2次元画像情報を出力する。 The display control unit 170 outputs the two-dimensional image information to the display unit 520, which is different from the external device 300 from which the transmission / reception unit 180 outputs the three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、外部装置300に出力される3次元情報を確認することなく、外部装置300とは異なる表示部520に出力される2次元画像情報から確認することが可能になる。 As a result, it is possible to confirm that the image is reflected in the captured image of the photographer himself or the tripod, and that the 3D information of the desired layout has not been acquired, without checking the 3D information output to the external device 300. It is possible to confirm from the two-dimensional image information output to the display unit 520 different from the device 300.

表示制御部170は、3次元再構成処理部150から全天球の3次元データを取得し、3次元情報を表示部520に表示させてもよい。具体的には、表示制御部170は、2次元画像情報を表示部520に表示させる場合と、3次元情報を表示部520に表示させる場合を所定の条件に従って選択してもよい。これにより、表示制御部170は、3次元情報とは別に2次元画像情報を出力することができる。 The display control unit 170 may acquire three-dimensional data of the whole celestial sphere from the three-dimensional reconstruction processing unit 150 and display the three-dimensional information on the display unit 520. Specifically, the display control unit 170 may select a case where the two-dimensional image information is displayed on the display unit 520 and a case where the three-dimensional information is displayed on the display unit 520 according to a predetermined condition. As a result, the display control unit 170 can output two-dimensional image information in addition to the three-dimensional information.

表示制御部170は、判断部160から取得したエラー情報に基づき、エラー情報と、2次元画像情報と、を含む表示画像を表示部520に表示させる The display control unit 170 causes the display unit 520 to display a display image including the error information and the two-dimensional image information based on the error information acquired from the determination unit 160.

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、近接物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部520に表示させる The display control unit 170 causes the display unit 520 to display a display image including identification information for identifying a nearby object and two-dimensional image information based on the coordinate position information of the pixels acquired from the determination unit 160.

すなわち、表示制御部170は、距離情報取得部13の出力と、撮像部11の出力と、に基づき判断される近接物の有無に応じて、表示部520に異なる表示をさせる。 That is, the display control unit 170 causes the display unit 520 to display differently depending on the presence or absence of a nearby object determined based on the output of the distance information acquisition unit 13 and the output of the image pickup unit 11.

これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not the photographer himself or a nearby object such as a tripod is reflected in the captured image, distinguishing from the influence of external light.

表示制御部170は、近接物の位置に応じた表示部520の位置に異なる表示をさせる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確認することができる。 The display control unit 170 causes the position of the display unit 520 to display differently according to the position of a nearby object. This allows the photographer to confirm the position of the reflection of a nearby object in the captured image.

表示制御部170は、撮像部11が撮像した画像情報を表示部520に表示させるとともに、近接物を識別する識別情報と、画像情報と、を含む表示画像を表示部520に表示させる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確実に確認することができる。 The display control unit 170 causes the display unit 520 to display the image information captured by the image pickup unit 11, and causes the display unit 520 to display a display image including identification information for identifying a nearby object and image information. As a result, the photographer can surely confirm the position of the image of the close object in the captured image.

図11は、本発明の実施形態の第2の変形例に係る撮像装置の外観を示す図である。図12は、第2の変形例における処理回路の処理ブロックの構成を示す図である。 FIG. 11 is a diagram showing the appearance of the image pickup apparatus according to the second modification of the embodiment of the present invention. FIG. 12 is a diagram showing a configuration of a processing block of the processing circuit in the second modification.

図11に示す第2の変形例において、撮像装置1は、図1に示した表示部20に代えて、複数の表示部20A、20aを備える。表示部20A、20aは、LED等により構成され、処理回路14の出力信号に応じ点滅または点灯する。 In the second modification shown in FIG. 11, the image pickup apparatus 1 includes a plurality of display units 20A and 20a in place of the display unit 20 shown in FIG. The display units 20A and 20a are composed of LEDs and the like, and blink or light according to the output signal of the processing circuit 14.

表示部20aは、筐体10の正面側の第1の面に設けられ、表示部20Aは、筐体10の背面側の第2の面に設けられている。 The display unit 20a is provided on the first surface on the front side of the housing 10, and the display unit 20A is provided on the second surface on the back side of the housing 10.

図12に示す第2の変形例において、表示制御部170は、判断部160から取得した判断結果を示す情報を表示部20A、20aに表示させる。例えば、表示部20aおよび20bは、撮像装置1のそれぞれの側に近接する物体がある場合、赤く点滅し得る。 In the second modification shown in FIG. 12, the display control unit 170 causes the display units 20A and 20a to display information indicating the determination result acquired from the determination unit 160. For example, the display units 20a and 20b may blink red when there is an object close to each side of the image pickup apparatus 1.

また、送受信部180は、RGB画像データ取得部142から出力される全天球の2次元画像情報をネットワーク400経由で表示装置500へ送信(出力)する。表示装置500は、2次元画像情報を出力する出力先の一例である。 Further, the transmission / reception unit 180 transmits (outputs) the two-dimensional image information of the entire celestial sphere output from the RGB image data acquisition unit 142 to the display device 500 via the network 400. The display device 500 is an example of an output destination that outputs two-dimensional image information.

すなわち、第2の変形例では、図5に示したステップS3において、送受信部180は、RGB画像データ取得部142から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像情報を表示装置500へ送信(出力)する。 That is, in the second modification, in step S3 shown in FIG. 5, the transmission / reception unit 180 acquires the RGB image data of the whole celestial sphere from the RGB image data acquisition unit 142, and the acquired RGB image data of the whole celestial sphere. The two-dimensional image information based on the above is transmitted (output) to the display device 500.

表示装置500の送受信部510は、撮像装置1の送受信部180から送信された2次元画像情報を受信する。 The transmission / reception unit 510 of the display device 500 receives the two-dimensional image information transmitted from the transmission / reception unit 180 of the image pickup device 1.

表示装置500の表示制御部530は、送受信部510が受信した2次元画像情報を表示部520へ表示させる。表示制御部530を備える表示装置500は、情報処理装置の一例である。 The display control unit 530 of the display device 500 causes the display unit 520 to display the two-dimensional image information received by the transmission / reception unit 510. The display device 500 including the display control unit 530 is an example of an information processing device.

以上説明したように、撮像装置1は、撮像部11と、3次元情報とは別に撮像部11により撮像された2次元画像情報を出力する送受信部180を備える。 As described above, the image pickup apparatus 1 includes an image pickup unit 11 and a transmission / reception unit 180 that outputs two-dimensional image information captured by the image pickup unit 11 in addition to the three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認することなく、2次元画像情報から容易に確認することが可能になる。 As a result, it is easy to confirm from the 2D image information that the photographer himself or the tripod is not reflected in the captured image or the 3D information of the desired layout is not acquired without confirming the 3D information. Will be possible.

したがって、3次元情報を取得する現場に居ながら、3次元情報再取得することが可能になり、3次元情報を取得する現場から離れた後で、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことに気づく場合に比べて、再度、3次元情報を取得する現場を訪問する手間が低減される。 Therefore, it is possible to reacquire the 3D information while being at the site where the 3D information is acquired, and after leaving the site where the 3D information is acquired, the image is taken on the photographer himself or the captured image of a tripod or the like. Compared to the case of crowding or noticing that the 3D information of the desired layout has not been acquired, the time and effort to visit the site for acquiring the 3D information again is reduced.

送受信部180は、ステップS11で3次元情報を送信(出力)する前に、ステップS3で2次元画像情報Gを送信(出力)する。送受信部180は、ステップS10で3次元再構成処理部150が3次元情報を決定する前に、ステップS3で2次元画像情報Gを送信(出力)する。 The transmission / reception unit 180 transmits (outputs) the two-dimensional image information G in step S3 before transmitting (outputting) the three-dimensional information in step S11. The transmission / reception unit 180 transmits (outputs) the two-dimensional image information G in step S3 before the three-dimensional reconstruction processing unit 150 determines the three-dimensional information in step S10.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、3次元情報を確認する前に、2次元画像情報から確認することが可能になる。 As a result, it is necessary to confirm from the 2D image information before confirming the 3D information that the photographer himself or the tripod is reflected in the captured image and the 3D information of the desired layout is not acquired. Becomes possible.

送受信部180は、表示装置500に2次元画像情報を送信し、表示装置500は表示部520に2次元画像情報を表示させる。 The transmission / reception unit 180 transmits the two-dimensional image information to the display device 500, and the display device 500 causes the display unit 520 to display the two-dimensional image information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、表示部520に表示される2次元画像情報から容易に確認することが可能になる。 As a result, it is possible to easily confirm from the two-dimensional image information displayed on the display unit 520 that the photographer himself or the tripod is reflected in the captured image and that the three-dimensional information of the desired layout is not acquired. Becomes possible.

送受信部180は、3次元情報を出力する外部装置300とは異なる表示装置500へ、2次元画像情報を送信する。 The transmission / reception unit 180 transmits the two-dimensional image information to the display device 500 different from the external device 300 that outputs the three-dimensional information.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、外部装置300に出力される3次元情報を確認することなく、外部装置300とは異なる表示装置500の表示部520に出力される2次元画像情報から確認することが可能になる。 As a result, it is not necessary to confirm the 3D information output to the external device 300 that the photographer himself or the tripod is reflected in the captured image or the 3D information of the desired layout is not acquired. It is possible to confirm from the two-dimensional image information output to the display unit 520 of the display device 500, which is different from the device 300.

送受信部180は、3次元情報を表示装置500へ送信してもよい。具体的には、送受信部180は、2次元画像情報を表示装置500へ送信する場合と、3次元情報を表示装置500へ送信する場合を所定の条件に従って選択してもよい。これにより、送受信部180は、表示装置500に対して3次元情報とは別に2次元画像情報を送信することができる。 The transmission / reception unit 180 may transmit the three-dimensional information to the display device 500. Specifically, the transmission / reception unit 180 may select a case where the two-dimensional image information is transmitted to the display device 500 and a case where the three-dimensional information is transmitted to the display device 500 according to a predetermined condition. As a result, the transmission / reception unit 180 can transmit the two-dimensional image information to the display device 500 in addition to the three-dimensional information.

図13は、第2の変形例における近接物判断フロー図である。 FIG. 13 is a proximity object determination flow diagram in the second modification.

図13は、第2の変形例における図5で説明したステップS9に対応する近接物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 13 is a flowchart showing a process of determining whether or not a nearby object is reflected in the captured image corresponding to step S9 described in FIG. 5 in the second modification.

判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が所定値以上である画素の一例として蓄電量が飽和している画素があるか判断する(ステップS811)。 Based on the TOF image data of the whole celestial sphere acquired from the reprojection processing unit 147, the determination unit 160 saturates the stored amount of the TOF image data of the whole celestial sphere as an example of a pixel in which the stored amount is equal to or more than a predetermined value. It is determined whether or not there is a pixel (step S811).

判断部160は、ステップS811で蓄電量が飽和している画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS811で蓄電量が飽和していた画素と同一座標の画素について、蓄電量が所定値以上である一例として蓄電量が飽和しているか判断する(ステップS812)。 When there is a pixel whose storage amount is saturated in step S811, the determination unit 160 is based on the RGB image data of the whole celestial sphere acquired from the RGB image data acquisition unit 142, and among the RGB image data of the whole celestial sphere, With respect to the pixels having the same coordinates as the pixels in which the stored amount is saturated in step S811, it is determined whether the stored amount is saturated as an example in which the stored amount is equal to or higher than a predetermined value (step S812).

判断部160は、ステップS812で蓄電量が飽和している場合、ステップS811で蓄電量が飽和している画素は、外光によるものであると判断し、エラー情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得したエラー情報に基づき、エラー情報を表示部20A、20aに表示させる(ステップS813)。 When the storage amount is saturated in step S812, the determination unit 160 determines that the pixel whose storage amount is saturated in step S811 is due to external light, and outputs error information to the display control unit 170. .. The display control unit 170 causes the display units 20A and 20a to display the error information based on the error information acquired from the determination unit 160 (step S813).

判断部160は、ステップS812で蓄電量が飽和していない場合、ステップS811で蓄電量が飽和している画素は、近接物の存在によるものであると判断し、ステップS811で蓄電量が飽和していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、座標位置情報が筐体10の正面側であるか判断する(ステップS814)。 When the storage amount is not saturated in step S812, the determination unit 160 determines that the pixel whose storage amount is saturated in step S811 is due to the presence of a nearby object, and the storage amount is saturated in step S811. The coordinate position information of the pixel is output to the display control unit 170. The display control unit 170 determines whether the coordinate position information is on the front side of the housing 10 based on the coordinate position information of the pixels acquired from the determination unit 160 (step S814).

判断部160は、ステップS811で蓄電量が飽和している画素がなかった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、0.5m以下の距離情報を示す画素があるか判断する(ステップS815)。 When there is no pixel whose storage amount is saturated in step S811, the determination unit 160 has 0 of the TOF image data of all celestial spheres based on the TOF image data of all celestial spheres acquired from the reprojection processing unit 147. It is determined whether there is a pixel showing distance information of .5 m or less (step S815).

判断部160は、ステップS815で0.5m以下の距離情報を示す画素がない場合、処理を終了する。 If there is no pixel indicating the distance information of 0.5 m or less in step S815, the determination unit 160 ends the process.

判断部160は、ステップS815で0.5m以下の距離情報を示す画素がある場合、前述したステップS814へ移行し、ステップS815で0.5m以下の距離情報を示す画素は、近接物の存在によるものであると判断し、ステップS815で0.5m以下の距離情報を示していた画素の座標位置情報を表示制御部170へ出力する。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、座標位置情報が筐体10の正面側であるか判断する。 If there is a pixel showing distance information of 0.5 m or less in step S815, the determination unit 160 proceeds to step S814 described above, and the pixel showing distance information of 0.5 m or less in step S815 depends on the presence of a nearby object. It is determined that this is the case, and the coordinate position information of the pixel indicating the distance information of 0.5 m or less in step S815 is output to the display control unit 170. The display control unit 170 determines whether the coordinate position information is on the front side of the housing 10 based on the coordinate position information of the pixels acquired from the determination unit 160.

表示制御部170は、ステップS814で正面側であると判断した場合には、筐体10の正面側に配置された表示部20aを点滅させる(ステップS816)。 When the display control unit 170 determines in step S814 that it is on the front side, the display control unit 170 blinks the display unit 20a arranged on the front side of the housing 10 (step S816).

表示制御部170は、ステップS814で正面側であると判断しなかった場合には、筐体10の背面側に配置された表示部20Aを点滅させる(ステップS817)。 If the display control unit 170 does not determine in step S814 that it is on the front side, the display control unit 170 blinks the display unit 20A arranged on the back side of the housing 10 (step S817).

以上説明したように、表示制御部170は、近接物が存在すると判断した場合には表示部20aまたは表示部20Aを点滅させ、近接物が存在すると判断しない場合には表示部20aおよび表示部20Aを点滅させない。 As described above, the display control unit 170 blinks the display unit 20a or the display unit 20A when it is determined that a nearby object exists, and the display unit 20a and the display unit 20A when it does not determine that a nearby object exists. Do not blink.

すなわち、表示制御部170は、近接物の存在の有無に応じて、表示部20aおよび表示部20Aに異なる表示をさせる。 That is, the display control unit 170 causes the display unit 20a and the display unit 20A to display differently depending on the presence or absence of a nearby object.

これにより、撮影者は、外光の影響と区別して、撮影者自身や三脚等の近接物の撮像画像への写り込みの有無を正確に確認することができる。 As a result, the photographer can accurately confirm whether or not the photographer himself or a nearby object such as a tripod is reflected in the captured image, distinguishing from the influence of external light.

また、表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、表示部20aまたは表示部20Aを点滅させる。 Further, the display control unit 170 blinks the display unit 20a or the display unit 20A based on the coordinate position information of the pixels acquired from the determination unit 160.

すなわち、表示制御部170は、近接物の位置に応じた表示部の位置、すなわち表示部20aおよび表示部20Aの何れかに異なる表示をさせる。これにより、撮影者は、近接物の撮像画像への写り込みの位置を確認することができる。 That is, the display control unit 170 causes the position of the display unit, that is, either the display unit 20a or the display unit 20A, to display differently according to the position of the adjacent object. This allows the photographer to confirm the position of the reflection of a nearby object in the captured image.

そして、表示制御部170は、表示部20A、20aのうち、近接物に近い側の表示部に、近接物の有無に応じて異なる表示をさせる。これにより、撮影者は、特定の対象物の撮像画像への写り込みの位置を確実に確認することができる。 Then, the display control unit 170 causes the display unit of the display units 20A and 20a on the side closer to the nearby object to display differently depending on the presence or absence of the nearby object. As a result, the photographer can surely confirm the position of the reflection of a specific object in the captured image.

図14は、本発明の実施形態の第3の変形例に係る撮像装置の構成を説明するための図である。 FIG. 14 is a diagram for explaining a configuration of an image pickup apparatus according to a third modification of the embodiment of the present invention.

図14に示す第3の変形例において、撮像装置1は、図2に示した構成に加えて、他の撮像素子111a、111Aや、他の魚眼レンズ(広角レンズ)111b、111Bなどを有する他の撮像部111を備える。 In the third modification shown in FIG. 14, in addition to the configuration shown in FIG. 2, the image pickup device 1 has other image pickup elements 111a, 111A, other fisheye lenses (wide-angle lenses) 111b, 111B, and the like. The image pickup unit 111 is provided.

第3の変形例では、RGBの撮像部11と他の撮像部111を同一基線上に設けている。この場合、処理回路14において多眼での処理が可能になる。つまり、一面において所定距離離して設けた撮像部11と他の撮像部111を同時に駆動することにより2つの視点のRGB画像が得られる。このため、2つのRGB画像に基づいて計算した視差の使用が可能になり、さらに測定範囲全体の距離精度を向上させることができる。 In the third modification, the RGB imaging unit 11 and the other imaging unit 111 are provided on the same baseline. In this case, the processing circuit 14 enables multi-eye processing. That is, RGB images of two viewpoints can be obtained by simultaneously driving the imaging unit 11 and the other imaging unit 111 provided at a predetermined distance on one surface. Therefore, the parallax calculated based on the two RGB images can be used, and the distance accuracy of the entire measurement range can be further improved.

具体的には、RGBの撮像部11と他の撮像部111設けた場合、従来の視差計算のように、SSDを使ったマルチベースラインステレオ(MSB)やEPI処理などが利用可能になる。このため、これを利用することで視差の信頼度があがり、高い空間解像度と精度を実現することが可能になる。 Specifically, when the RGB imaging unit 11 and another imaging unit 111 are provided, multi-baseline stereo (MSB) using SSD, EPI processing, and the like can be used as in the conventional parallax calculation. Therefore, by using this, the reliability of parallax is increased, and it becomes possible to realize high spatial resolution and accuracy.

以上のように、撮像装置1は、他の撮像部111を備え、3次元再構成処理部150は、距離情報取得部13の出力と、2次元画像情報と、他の撮像部111により撮像された他の2次元画像情報と、に基づき3次元情報を決定する。 As described above, the imaging device 1 includes another imaging unit 111, and the three-dimensional reconstruction processing unit 150 is imaged by the output of the distance information acquisition unit 13, the two-dimensional image information, and the other imaging unit 111. The 3D information is determined based on the other 2D image information.

撮像装置1は、距離情報取得部13の出力によらずに、他の撮像部111と、2次元画像情報と他の撮像部111により撮像された他の2次元画像情報とに基づき3次元情報を決定する3次元情報決定部と、を備えてもよい。 The image pickup device 1 does not depend on the output of the distance information acquisition unit 13, but has three-dimensional information based on the other image pickup unit 111, the two-dimensional image information, and the other two-dimensional image information captured by the other image pickup unit 111. It may be provided with a three-dimensional information determination unit for determining the above.

これにより、撮影者自身や三脚等の撮像画像への写り込みや、所望のレイアウトの3次元情報が取得されていないことを、2次元画像情報に基づき3次元再構成処理部150で決定される3次元情報を確認することなく、撮像部11により撮像された2次元画像情報から確認することが可能になる。 As a result, the 3D reconstruction processing unit 150 determines that the image is reflected in the captured image of the photographer himself or the tripod, and that the 3D information of the desired layout has not been acquired based on the 2D image information. It is possible to confirm from the two-dimensional image information captured by the imaging unit 11 without confirming the three-dimensional information.

図15は、本発明の実施形態における高反射物の判断フロー図であり、図5で説明したステップS9に対応する高反射物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 15 is a flow chart for determining a highly reflective object according to the embodiment of the present invention, and is a flowchart showing a process for determining whether or not a highly reflective object is reflected in a captured image corresponding to step S9 described with reference to FIG. ..

判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が所定値以上である画素の一例として蓄電量が飽和している画素があるか判断する(ステップS21)。 Based on the TOF image data of the whole celestial sphere acquired from the reprojection processing unit 147, the determination unit 160 saturates the stored amount of the TOF image data of the whole celestial sphere as an example of a pixel in which the stored amount is equal to or more than a predetermined value. It is determined whether or not there is a pixel (step S21).

判断部160は、ステップS21で蓄電量が飽和している画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS21で蓄電量が飽和していた画素と同一座標の画素を含むRGB画像データについて、高反射物を示す基準情報と一致するか判定する(ステップS22)。高反射物を示す基準情報として、モデル画像を用いて、画像認識によりRGB画像データとモデル画像の一致度を判定しても良い。また、高反射物を示す基準情報およびRGB画像データとして、スペクトル、色味等のパラメータを用いて、所定の閾値により一致度を判定しても良い。さらに、基準情報は、テーブルに記憶されたものでもよく、学習モデルを用いてもよい。 When there is a pixel whose storage amount is saturated in step S21, the determination unit 160 is based on the RGB image data of the whole celestial sphere acquired from the RGB image data acquisition unit 142, and among the RGB image data of the whole celestial sphere, It is determined in step S21 whether the RGB image data including the pixels having the same coordinates as the pixels whose stored amount is saturated matches the reference information indicating the highly reflective object (step S22). A model image may be used as reference information indicating a highly reflective object, and the degree of coincidence between the RGB image data and the model image may be determined by image recognition. Further, the degree of coincidence may be determined by a predetermined threshold value by using parameters such as spectrum and tint as reference information indicating a highly reflective object and RGB image data. Further, the reference information may be stored in a table, or a learning model may be used.

処理回路14は、モデル画像情報として、金属や鏡等の高反射物の画像を記憶しており、判断部160は、ステップS22において、AI等の判定器を用いて、取得した画像が記憶された高反射物の画像と一致するかを判定する。 The processing circuit 14 stores an image of a highly reflective object such as metal or a mirror as model image information, and the determination unit 160 stores the acquired image using a determination device such as AI in step S22. It is determined whether the image matches the image of the highly reflective object.

判断部160は、ステップS22で取得した画像が記憶された高反射物の画像と一致すると判断した場合、ステップS22で判断した画素の座標位置情報を表示制御部170へ出力する(ステップS23)。表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、高反射物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS24)、処理を終了する。 When the determination unit 160 determines that the image acquired in step S22 matches the stored image of the highly reflective object, the determination unit 160 outputs the coordinate position information of the pixel determined in step S22 to the display control unit 170 (step S23). The display control unit 170 causes the display units 20 and 520 to display a display image including identification information for identifying a highly reflective object and two-dimensional image information based on the coordinate position information of the pixels acquired from the determination unit 160 ( Step S24), the process is terminated.

ステップS22およびステップS23は、判断ステップの一例であり、ステップS24は、表示ステップの一例である。 Step S22 and step S23 are examples of determination steps, and step S24 is an example of display steps.

判断部160は、ステップS22で取得した画像が記憶された高反射物の画像と一致しないと判断した場合、近接物の判断に移行し(ステップS23)、図7に示した近接物判断フローを実行する(ステップS25)。 When the determination unit 160 determines that the image acquired in step S22 does not match the stored image of the highly reflective object, the determination unit 160 proceeds to the determination of the proximity object (step S23), and performs the proximity object determination flow shown in FIG. Execute (step S25).

以上説明したように、撮像装置1は、距離情報取得部13の出力と、撮像部11の出力との両方に基づき高反射物があるかを判断する判断部160と、高反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the image pickup apparatus 1 has a determination unit 160 for determining whether or not there is a highly reflective object based on both the output of the distance information acquisition unit 13 and the output of the image pickup unit 11, and the presence or absence of the highly reflective object. A display control unit 170 that causes the display units 20 and 520 to display different displays is provided accordingly.

これにより、撮影者は、近接物や外光の影響と区別して、鏡等の高反射物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a highly reflective object such as a mirror is included in the captured image, distinguishing it from the influence of a nearby object or external light.

撮像装置1は、表示部20を備える。これにより、撮影者は、高反射物が撮像画像に含まれることを確実に確認することができる。 The image pickup apparatus 1 includes a display unit 20. As a result, the photographer can surely confirm that the highly reflective object is included in the captured image.

表示制御部170は、高反射物の位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、高反射物の位置を確認することができる。 The display control unit 170 causes different displays at the positions of the display units 20 and 520 according to the position of the highly reflective object. This allows the photographer to confirm the position of the highly reflective object.

図13に示した近接物と同様に、表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、高反射物に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、高反射物の位置を確実に確認することができる。 Similar to the proximity object shown in FIG. 13, the display unit 20 includes a plurality of display units 20A and 20a, and the display control unit 170 is a display unit on the side of the plurality of display units 20A and 20a that is closer to the highly reflective object. Is displayed differently depending on the presence or absence of the object. This allows the photographer to reliably confirm the position of the highly reflective object.

図3に示した近接物と同様に、表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、高反射物を識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、高反射物の位置を確実に確認することができる。 Similar to the proximity object shown in FIG. 3, the display control unit 170 displays the image information G imaged by the image pickup unit 11 on the display units 20 and 520, and also identifies the identification information for identifying the highly reflective object and the image information G. The display image including the above is displayed on the display units 20 and 520. This allows the photographer to reliably confirm the position of the highly reflective object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が所定値以上である画素の一例として蓄電量が飽和しており、かつ撮像部が撮像した画像情報が、高反射物を示す基準情報の一例であるモデル画像情報と一致する場合、高反射物があると判断する。 The determination unit 160 has a saturated amount of electricity stored as an example of a pixel in which the amount of electricity stored in the pixel due to the light received by the distance information acquisition unit 13 is equal to or greater than a predetermined value, and the image information captured by the imaging unit is a highly reflective object. If it matches the model image information which is an example of the reference information indicating, it is judged that there is a highly reflective object.

これにより、撮影者は、近接物や外光の影響と区別して、高反射物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a highly reflective object is included in the captured image, distinguishing it from the influence of nearby objects and external light.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、近接物や外光ではなく、高反射物であることを確認することができる。 The image pickup apparatus 1 acquires the distance information to the target based on the light received by the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired distance information is not acquired is not a close object or external light but a highly reflective object.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、近接物や外光ではなく、高反射物であることを確認することができる。 The image pickup apparatus 1 includes a transmission / reception unit 180 that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired three-dimensional information is not acquired is not a close object or external light but a highly reflective object.

図16は、本実施形態における遠方物および低反射物の判断フロー図であり、図5で説明したステップS9に対応する遠方物および低反射物の撮像画像への写り込みの有無の判断処理を示すフローチャートである。 FIG. 16 is a flow chart for determining a distant object and a low-reflecting object in the present embodiment, and a process for determining whether or not a distant object and a low-reflecting object are reflected in a captured image corresponding to step S9 described with reference to FIG. 5 is performed. It is a flowchart which shows.

判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が距離情報取得可能な閾値以下の画素があるか判断する(ステップS41)。 Based on the TOF image data of all celestial spheres acquired from the reprojection processing unit 147, the determination unit 160 determines whether or not there are pixels in the TOF image data of all celestial spheres whose stored amount is equal to or less than the threshold at which distance information can be acquired. (Step S41).

判断部160は、ステップS41で蓄電量が閾値以下の画素がなかった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、10m以上の距離情報を示す画素があるか判断し、10m以上の距離情報を示す画素がある場合、遠方物であると判断し、画素の座標位置情報を表示制御部170へ出力する(ステップS42)。 When there are no pixels whose storage amount is equal to or less than the threshold value in step S41, the determination unit 160 has 10 m or more of the TOF image data of all celestial spheres based on the TOF image data of all celestial spheres acquired from the reprojection processing unit 147. If there is a pixel indicating the distance information of 10 m or more, it is determined that the object is a distant object, and the coordinate position information of the pixel is output to the display control unit 170 (step S42).

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、遠方物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させて(ステップS43)、処理を終了する。 The display control unit 170 causes the display units 20 and 520 to display a display image including identification information for identifying a distant object and two-dimensional image information based on the coordinate position information of the pixels acquired from the determination unit 160 ( Step S43), the process is terminated.

判断部160は、ステップS42で10m以上の距離情報を示す画素がない場合、処理を終了する。 If there is no pixel indicating distance information of 10 m or more in step S42, the determination unit 160 ends the process.

判断部160は、ステップS41で蓄電量が閾値以下の画素があった場合、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像データのうち、ステップS41で蓄電量が閾値以下の画素と同一座標の画素について、蓄電量が物体認識可能な閾値以下か判断する(ステップS44)。 When the determination unit 160 has a pixel whose storage amount is equal to or less than the threshold value in step S41, the determination unit 160 is based on the RGB image data of the whole celestial sphere acquired from the RGB image data acquisition unit 142, and among the RGB image data of the whole celestial sphere, the step With respect to the pixel having the same coordinates as the pixel whose electricity storage amount is equal to or less than the threshold value in S41, it is determined whether the electricity storage amount is equal to or less than the object recognizable threshold value (step S44).

判断部160は、ステップS44で蓄電量が物体認識可能な閾値以下であると判断した場合、低反射物であると判断し、画素の座標位置情報を表示制御部170へ出力する。 When the determination unit 160 determines in step S44 that the amount of stored electricity is equal to or less than the threshold value at which the object can be recognized, the determination unit 160 determines that the object is a low-reflecting object and outputs the coordinate position information of the pixels to the display control unit 170.

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、低反射物を識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示し(ステップS45)、処理を終了する。 The display control unit 170 displays a display image including identification information for identifying a low-reflecting object and two-dimensional image information on the display units 20 and 520 based on the coordinate position information of the pixels acquired from the determination unit 160 ( Step S45), the process is terminated.

判断部160は、ステップS44で蓄電量が物体認識可能な閾値以下ではないと判断した場合、ステップS44で判断した画素を含むRGB画像データについて、画像と距離を対応付けた基準情報の一例であるモデル情報に基づき、距離を判定する(ステップS46)。基準情報としてモデル画像を用いた場合、画像認識によりRGB画像データとモデル画像の一致度を判定しても良い。また、基準情報およびRGB画像データとして、パラメータを用いて、所定の閾値により一致度を判定しても良い。さらに、基準情報は、テーブルに記憶されたものでもよく、学習モデルを用いてもよい。 When the determination unit 160 determines in step S44 that the amount of electricity stored is not equal to or less than the threshold value at which the object can be recognized, the determination unit 160 is an example of reference information in which the image and the distance are associated with each other for the RGB image data including the pixels determined in step S44. The distance is determined based on the model information (step S46). When a model image is used as the reference information, the degree of matching between the RGB image data and the model image may be determined by image recognition. Further, the degree of agreement may be determined by a predetermined threshold value by using parameters as reference information and RGB image data. Further, the reference information may be stored in a table, or a learning model may be used.

処理回路14は、モデル情報として、距離と対応付けられた画像を複数の距離のそれぞれの距離毎に記憶しており、判断部160は、ステップS46において、AI等の判定器を用いて、取得した画像が記憶された距離毎の画像と一致するかを判定する。 The processing circuit 14 stores an image associated with the distance as model information for each of the plurality of distances, and the determination unit 160 acquires the image in step S46 using a determination device such as AI. It is determined whether or not the image is matched with the stored image for each distance.

判断部160は、ステップS46で取得した画像と一致した画像に対応付けられた距離が10m以上であるか判断し、10m以上の場合、遠方物であると判断し、画素の座標位置情報を表示制御部170へ出力して(ステップS47)、ステップS43に移行する。 The determination unit 160 determines whether the distance associated with the image matching the image acquired in step S46 is 10 m or more, and if it is 10 m or more, determines that it is a distant object and displays the coordinate position information of the pixels. Output to the control unit 170 (step S47), and the process proceeds to step S43.

判断部160は、ステップS46で取得した画像と一致した画像に対応付けられた距離が10m以上でない場合、低反射物であると判断し、画素の座標位置情報を表示制御部170へ出力して(ステップS47)、ステップS45に移行する。 If the distance associated with the image matching the image acquired in step S46 is not 10 m or more, the determination unit 160 determines that the image is a low-reflecting object, and outputs the coordinate position information of the pixels to the display control unit 170. (Step S47), the process proceeds to step S45.

ステップS41、S42、S44、およびS47は、判断ステップの一例であり、ステップS43およびS45は、表示ステップの一例である。 Steps S41, S42, S44, and S47 are examples of determination steps, and steps S43 and S45 are examples of display steps.

以上説明したように、撮像装置1は、距離情報取得部13の出力と、撮像部11の出力との両方に基づき遠方物または低反射物があるかを判断する判断部160と、遠方物または低反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the image pickup apparatus 1 includes a determination unit 160 for determining whether or not there is a distant object or a low reflection object based on both the output of the distance information acquisition unit 13 and the output of the image pickup unit 11, and the distant object or the image pickup device 1. A display control unit 170 that causes the display units 20 and 520 to display differently depending on the presence or absence of a low-reflecting object is provided.

これにより、撮影者は、遠方物または黒色等の低反射物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a distant object or a low-reflecting object such as black is included in the captured image.

撮像装置1は、表示部20を備える。これにより、撮影者は遠方物または低反射物が撮像画像に含まれることを確実に確認することができる。 The image pickup apparatus 1 includes a display unit 20. This allows the photographer to reliably confirm that a distant object or a low-reflection object is included in the captured image.

表示制御部170は、遠方物または低反射物の位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、遠方物または低反射物の位置を確認することができる。 The display control unit 170 causes different displays at the positions of the display units 20 and 520 according to the positions of the distant object or the low reflection object. This allows the photographer to confirm the position of a distant object or a low reflection object.

図13に示した近接物と同様に、表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、遠方物または低反射物に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、遠方物または低反射物の位置を確実に確認することができる。 Similar to the proximity object shown in FIG. 13, the display unit 20 includes a plurality of display units 20A and 20a, and the display control unit 170 is located on the side of the plurality of display units 20A and 20a that is closer to the distant object or the low reflection object. The display unit of is displayed differently depending on the presence or absence of the object. This allows the photographer to reliably confirm the position of a distant object or a low reflection object.

図3に示した近接物と同様に、表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、遠方物または低反射物を識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、遠方物または低反射物の位置を確実に確認することができる。 Similar to the proximity object shown in FIG. 3, the display control unit 170 displays the image information G imaged by the image pickup unit 11 on the display units 20 and 520, and also provides identification information for identifying a distant object or a low reflection object. A display image including the image information G is displayed on the display units 20 and 520. This allows the photographer to reliably confirm the position of a distant object or a low reflection object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下である場合、撮像部11の出力に基づき、低反射物か、遠方物かを判断する。これにより、撮影者は、低反射物、遠方物の何れが撮像画像に含まれることを正確に確認することができる。 When the storage amount of the pixel by the light received by the distance information acquisition unit 13 is equal to or less than the threshold value, the determination unit 160 determines whether the object is a low reflection object or a distant object based on the output of the image pickup unit 11. As a result, the photographer can accurately confirm whether the captured image includes a low-reflecting object or a distant object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下で、かつ撮像部11の画素の蓄電量が閾値以下である場合、低反射物があると判断する。
これにより、撮影者は、低反射物が撮像画像に含まれることを正確に確認することができる。
The determination unit 160 determines that there is a low-reflecting object when the amount of electricity stored in the pixels due to the light received by the distance information acquisition unit 13 is less than or equal to the threshold value and the amount of electricity stored in the pixels of the image pickup unit 11 is less than or equal to the threshold value.
This allows the photographer to accurately confirm that the low-reflection object is included in the captured image.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下で、撮像部11の画素の蓄電量が閾値以上であり、かつ画素に基づき判断される距離が閾値以上の場合、遠方物あると判断する。 In the determination unit 160, the amount of electricity stored in the pixels due to the light received by the distance information acquisition unit 13 is equal to or less than the threshold value, the amount of electricity stored in the pixels of the imaging unit 11 is equal to or greater than the threshold value, and the distance determined based on the pixels is equal to or greater than the threshold value. In that case, it is judged that there is a distant object.

これにより、撮影者は、遠方物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a distant object is included in the captured image.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、遠方物または低反射物であることを確認することができる。 The image pickup apparatus 1 acquires the distance information to the target based on the light received by the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired distance information is not acquired is a distant object or a low reflection object.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、遠方物または低反射物であることを確認することができる。 The image pickup apparatus 1 includes a transmission / reception unit 180, which is an example of an output unit that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition unit 13. In this case, the photographer can confirm that the factor for not acquiring the desired three-dimensional information is a distant object or a low-reflection object.

図17は、本実施形態における画像のぶれの判断フロー図であり、図5で説明したステップS9に対応する撮像画像における画像のぶれの有無の判断処理を示すフローチャートである。 FIG. 17 is a flow chart for determining image blurring in the present embodiment, and is a flowchart showing a determination process for determining the presence or absence of image blurring in the captured image corresponding to step S9 described with reference to FIG.

判断部160は、RGB画像データ取得部142から取得した全天球のRGB画像データに基づき、全天球のRGB画像の中にエッジ周辺領域を含む画像の画素があるか判断する(ステップS51)。 The determination unit 160 determines whether or not there are pixels of an image including an edge peripheral region in the RGB image of the entire celestial sphere based on the RGB image data of the entire celestial sphere acquired from the RGB image data acquisition unit 142 (step S51). ..

ここで、判断部160は、画素における輝度値の変化や、その一次、二次微分値等を閾値と比較することにより、画像に含まれるエッジを検出し、エッジ周辺領域を含む画像の画素を特定するが、他の方法によりエッジを検出してもよい。 Here, the determination unit 160 detects the edge included in the image by comparing the change in the luminance value in the pixel and its primary and secondary differential values with the threshold value, and determines the pixel of the image including the edge peripheral region. Although specified, edges may be detected by other methods.

次に、ステップS51でエッジ周辺領域を含む画像の画素があった場合、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データのうち、ステップS51でエッジ周辺領域を含むと判断された画像の画素と同一座標の画素を含むTOF画像データについて、TOF位相画像のエッジがずれているか判断し、エッジがずれていると判断した場合には、ステップS51で判断した画素の座標位置情報を表示制御部170へ出力する(ステップS52)。 Next, when there are pixels of the image including the edge peripheral region in step S51, in step S51 of the TOF image data of all celestial spheres based on the TOF image data of all celestial spheres acquired from the reprojection processing unit 147. With respect to the TOF image data including the pixels of the image having the same coordinates as the pixels of the image determined to include the edge peripheral region, it is determined whether the edges of the TOF phase image are deviated, and if it is determined that the edges are deviated, step S51. The coordinate position information of the pixel determined in step 2 is output to the display control unit 170 (step S52).

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、画像のぶれを識別する識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS53)、処理を終了する。 The display control unit 170 causes the display units 20 and 520 to display a display image including identification information for identifying image blur and two-dimensional image information based on the coordinate position information of the pixels acquired from the determination unit 160 ( Step S53), the process is terminated.

ステップS51およびS52は、判断ステップの一例であり、ステップS53は、表示ステップの一例である。 Steps S51 and S52 are examples of determination steps, and step S53 is an example of display steps.

判断部160は、ステップS51でエッジ周辺領域を含む画像の画素が無い場合、およびステップS52で、TOF位相画像のエッジがずれていない場合、処理を終了する。 The determination unit 160 ends the process when there are no pixels of the image including the edge peripheral region in step S51 and when the edges of the TOF phase image are not displaced in step S52.

本実施形態では、位相差検出方式で距離を計測しており、撮像装置1は、0°、90°、180°および270°の位相毎に、同じ位相のTOF位相画像をN枚取得して加算する。 In the present embodiment, the distance is measured by the phase difference detection method, and the image pickup apparatus 1 acquires N TOF phase images of the same phase for each phase of 0 °, 90 °, 180 °, and 270 °. to add.

このように、同じ位相の位相画像をN枚加算することで、その位相の位相画像のダイナミックレンジが拡大される。また、各位相の加算するN枚の位相画像の撮像に要する時間は短縮されており、ぶれ等の影響の少ない位置精度の優れた位相画像を得るようになっている。このため、ダイナミックレンジが拡大された位相画像により、以下に示す画像のずれ量の検出処理も精度良く実行できる。 By adding N phase images of the same phase in this way, the dynamic range of the phase images of that phase is expanded. In addition, the time required to capture the N phase images to which each phase is added has been shortened, and a phase image having excellent position accuracy with less influence of blurring and the like can be obtained. Therefore, with the phase image having the expanded dynamic range, the following image shift amount detection process can be executed with high accuracy.

判断部160は、位相毎の画素のずれ量を、一般的なオプティカルフローを求める処理、又は、以下の参考論文で開示されている機械学習の手法で算出し、位相毎の画素のずれ量を全ての位相で加算した値を閾値と比較して、画像のぶれの有無を最終判断するが、他の方法により画像のぶれの有無を判断してもよい。 The determination unit 160 calculates the amount of pixel shift for each phase by a process for obtaining a general optical flow or a machine learning method disclosed in the following reference paper, and calculates the amount of pixel shift for each phase. The value added in all phases is compared with the threshold value to finally determine the presence or absence of image blur, but the presence or absence of image blur may be determined by another method.

論文名
Tackling 3D ToF Artifacts Through Learning and the FLAT Dataset
著者
Qi Guo (SEAS, Harvard University)、
Iuri Frosio
Orazio Gallo
Todd Zickler(SEAS, Harvard University)
Jan Kautz
公開日
Monday,September 10, 2018
公開元
ECCV(European Conference on Computer Vision) 2018
URL(Uniform Resource Locator)
https://research.nvidia.com/publication/2018−09_Tackling−3D−ToF
Paper title Tackling 3D ToF Artifacts Through Learning and the FLAT Dataset
Author Qi Guo (SEAS, Harvard University),
Iuri Frosio
Orazio Gallo
Todd Zickler (SEAS, Harvard University)
Jan Kautz
release date
Monday, September 10, 2018
Publisher
ECCV (European Computer Vision) 2018
URL (Uniform Resource Identifier)
https: // research. nvidia. com / publication / 2018-09_Tackling-3D-ToF

以上説明したように、撮像装置1は、距離情報取得部13の出力と、撮像部11の出力との両方に基づき画像のぶれがあるかを判断する判断部160と、画像のぶれの有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the image pickup apparatus 1 has a determination unit 160 for determining whether or not there is image blurring based on both the output of the distance information acquisition unit 13 and the output of the image pickup unit 11, and the presence or absence of image blurring. A display control unit 170 that causes the display units 20 and 520 to display different displays is provided accordingly.

これにより、撮影者は、画像のぶれが撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the image blur is included in the captured image.

撮像装置1は、表示部20を備える。これにより、撮影者は、画像のぶれが撮像画像に含まれることを確実に確認することができる。 The image pickup apparatus 1 includes a display unit 20. As a result, the photographer can surely confirm that the blurred image is included in the captured image.

表示制御部170は、画像のぶれの位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、画像のぶれの位置を確認することができる。 The display control unit 170 causes different displays at the positions of the display units 20 and 520 according to the position of the blur of the image. This allows the photographer to confirm the position of the blur in the image.

図13に示した近接物と同様に、表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、画像のぶれの位置に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、画像のぶれの位置を確実に確認することができる。 Similar to the proximity object shown in FIG. 13, the display unit 20 includes a plurality of display units 20A and 20a, and the display control unit 170 is located on the side of the plurality of display units 20A and 20a that is closer to the blur position of the image. The display unit is made to display differently depending on the presence or absence of the object. As a result, the photographer can surely confirm the position of the blur of the image.

図3に示した近接物と同様に、表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、画像のぶれを識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、画像のぶれの位置を確実に確認することができる。 Similar to the proximity object shown in FIG. 3, the display control unit 170 displays the image information G imaged by the image pickup unit 11 on the display units 20 and 520, and also identifies the identification information for identifying the blur of the image and the image information G. The display image including the above is displayed on the display units 20 and 520. As a result, the photographer can surely confirm the position of the blur of the image.

判断部160は、撮像部11が撮像した画像情報に基づき画像のエッジを検出し、かつ距離情報取得部13が受光した光による画素にずれが生じている場合、画像のぶれがあると判断する The determination unit 160 detects the edge of the image based on the image information captured by the image pickup unit 11, and determines that the image is blurred when the pixels due to the light received by the distance information acquisition unit 13 are displaced.

これにより、撮影者は、画像のぶれが撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the image blur is included in the captured image.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、画像のぶれであることを確認することができる。 The image pickup apparatus 1 acquires the distance information to the target based on the light received by the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired distance information is not acquired is the blurring of the image.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、画像のぶれであることを確認することができる。 The image pickup apparatus 1 includes a transmission / reception unit 180, which is an example of an output unit that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired three-dimensional information is not acquired is the blurring of the image.

図18は、本発明の実施形態の第4の変形例における判断フロー図である。 FIG. 18 is a determination flow chart in a fourth modification of the embodiment of the present invention.

図5で説明したステップS9では、判断部160が、近接物等の特定の対象の有無を判断し、表示制御部170が、特定の対象物の有無に応じて、表示部20、520に異なる表示をさせていたが、第4の変形例では、判断部160が、特定の対象の有無を判断せず、表示制御部170は、特定の対象物の有無に応じて、表示部20、520に異なる表示をさせないが、ユーザが特定に対象物を認識できるようにしている。 In step S9 described with reference to FIG. 5, the determination unit 160 determines the presence / absence of a specific object such as a nearby object, and the display control unit 170 differs from the display units 20 and 520 depending on the presence / absence of the specific object. However, in the fourth modification, the determination unit 160 does not determine the presence or absence of a specific object, and the display control unit 170 determines the presence or absence of the specific object, depending on the presence or absence of the specific object. Does not display differently, but allows the user to recognize the object in a specific way.

図18(a)に示すフローにおいて、判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が所定値以上である画素の一例として蓄電量が飽和しており、距離情報を取得可能な閾値以上である画素があるか判断し、蓄電量が閾値以上である画素があった場合、画素の座標位置情報を表示制御部170へ出力する(ステップS31)。 In the flow shown in FIG. 18A, the determination unit 160 has a storage amount of a predetermined value or more in the TOF image data of all celestial spheres based on the TOF image data of all celestial spheres acquired from the reprojection processing unit 147. As an example of a certain pixel, it is determined whether there is a pixel whose storage amount is saturated and the distance information can be acquired or more than the threshold value, and when there is a pixel whose storage amount is equal to or more than the threshold value, the coordinate position information of the pixel is displayed. Output to the control unit 170 (step S31).

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、図3に示した近接物と同様に、当該位置を識別する位置識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS32)、処理を終了する。 The display control unit 170 is based on the coordinate position information of the pixels acquired from the determination unit 160, and similarly to the proximity object shown in FIG. 3, the display control unit 170 includes the position identification information for identifying the position and the two-dimensional image information. The image is displayed on the display units 20 and 520 (step S32), and the process ends.

判断部160は、ステップS31で蓄電量が閾値以上でない場合、処理を終了する。 If the amount of electricity stored is not equal to or greater than the threshold value in step S31, the determination unit 160 ends the process.

図18(b)に示すフローにおいて、判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中に蓄電量が距離情報を取得可能な閾値以下である画素があるか判断し、蓄電量が閾値以下である画素があった場合、画素の座標位置情報を表示制御部170へ出力する(ステップS33)。 In the flow shown in FIG. 18B, the determination unit 160 acquires distance information in the TOF image data of all celestial spheres based on the TOF image data of all celestial spheres acquired from the reprojection processing unit 147. It is determined whether or not there are pixels that are below the possible threshold, and if there are pixels whose storage amount is below the threshold, the coordinate position information of the pixels is output to the display control unit 170 (step S33).

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、図3に示した近接物と同様に、当該位置を識別する位置識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS34)、処理を終了する。 The display control unit 170 is based on the coordinate position information of the pixels acquired from the determination unit 160, and similarly to the proximity object shown in FIG. 3, the display control unit 170 includes the position identification information for identifying the position and the two-dimensional image information. The image is displayed on the display units 20 and 520 (step S34), and the process ends.

判断部160は、ステップS33で蓄電量が閾値以下でない場合、処理を終了する。 If the storage amount is not equal to or less than the threshold value in step S33, the determination unit 160 ends the process.

図18(c)に示すフローにおいて、判断部160は、再投影処理部147から取得した全天球のTOF画像データに基づき、全天球のTOF画像データの中にTOF位相画像がずれており距離情報を取得できない画素があるか判断し、TOF位相画像がずれている画素があった場合、画素の座標位置情報を表示制御部170へ出力する(ステップS35)。 In the flow shown in FIG. 18C, the determination unit 160 shifts the TOF phase image into the TOF image data of all celestial spheres based on the TOF image data of all celestial spheres acquired from the reprojection processing unit 147. It is determined whether there is a pixel whose distance information cannot be acquired, and if there is a pixel whose TOF phase image is out of alignment, the coordinate position information of the pixel is output to the display control unit 170 (step S35).

ここで、判断部160は、図17のステップS52で説明した方法と同様の方法で、TOF位相画像のずれを判断する。 Here, the determination unit 160 determines the deviation of the TOF phase image by the same method as that described in step S52 of FIG.

表示制御部170は、判断部160から取得した画素の座標位置情報に基づき、図3に示した近接物と同様に、当該位置を識別する位置識別情報と、2次元画像情報と、を含む表示画像を表示部20、520に表示させ(ステップS36)、処理を終了する。 The display control unit 170 is based on the coordinate position information of the pixels acquired from the determination unit 160, and similarly to the proximity object shown in FIG. 3, the display control unit 170 includes the position identification information for identifying the position and the two-dimensional image information. The image is displayed on the display units 20 and 520 (step S36), and the process ends.

判断部160は、TOF位相画像がずれている画素が無い場合、処理を終了する。 The determination unit 160 ends the process when there are no pixels whose TOF phase image is out of alignment.

以上説明したように、撮像装置1は、距離情報取得部13の出力が閾値以上または閾値以下であるかを判断部160により判断された位置を示す位置情報に基づき、位置を識別する位置識別情報と、対象を撮像する撮像部11が撮像した2次元画像情報Gと、を含む表示画像を表示部20、520に表示させる表示制御部170を備える。 As described above, the image pickup apparatus 1 identifies the position based on the position information indicating the position determined by the determination unit 160 whether the output of the distance information acquisition unit 13 is equal to or greater than the threshold value or equal to or less than the threshold value. A display control unit 170 that displays a display image including the two-dimensional image information G captured by the image pickup unit 11 that captures the target on the display units 20 and 520 is provided.

これにより、距離情報取得部13の出力が閾値以上または閾値以下である位置、すなわち距離情報取得部13の出力が強すぎたり弱すぎたりして所望の出力が得られない位置を2次元画像Gで確認することにより、所望の出力が得られない要因を確認することができる。 As a result, the position where the output of the distance information acquisition unit 13 is equal to or greater than or equal to the threshold value, that is, the position where the output of the distance information acquisition unit 13 is too strong or too weak to obtain a desired output is the two-dimensional image G. By confirming with, it is possible to confirm the reason why the desired output cannot be obtained.

また、撮像装置1は、距離情報取得部13の出力に基づき対象までの距離情報を取得できないと判断部160により判断された位置を示す位置情報に基づき、位置を識別する位置識別情報と、対象を撮像する撮像部11が撮像した2次元画像情報Gと、を含む表示画像を表示部20、520に表示させる表示制御部170を備える。 Further, the image pickup apparatus 1 has position identification information for identifying the position and the target based on the position information indicating the position determined by the determination unit 160 that the distance information to the target cannot be acquired based on the output of the distance information acquisition unit 13. The display control unit 170 is provided with the two-dimensional image information G captured by the image pickup unit 11 that captures the image, and the display control unit 170 that displays the display image including the image information G on the display units 20 and 520.

これにより、対象までの距離情報を取得できない位置を2次元画像Gで確認することにより、対象までの距離情報を取得できない要因を確認することができる。 Thereby, by confirming the position where the distance information to the target cannot be acquired with the two-dimensional image G, it is possible to confirm the factor that the distance information to the target cannot be acquired.

対象までの距離情報を取得できないと判断部160、560、660が判断するのは、距離情報取得部13の出力が閾値以上または閾値以下である場合以外に、距離情報取得部13の出力により画像のぶれを検出した場合も含む。 The determination units 160, 560, and 660 determine that the distance information to the target cannot be acquired by the output of the distance information acquisition unit 13 except when the output of the distance information acquisition unit 13 is equal to or less than the threshold value. Including the case where the blur is detected.

図19は、本発明の実施形態の第5の変形例における処理回路の処理ブロックの構成の一例を示す図である。 FIG. 19 is a diagram showing an example of a configuration of a processing block of a processing circuit in a fifth modification of the embodiment of the present invention.

図19に示す第5の変形例における処理回路の処理ブロックは、図4に示した本実施形態の処理回路14の処理ブロックに対して、判断部160が、判断結果を送受信部180へ出力する点と、判断部160が、3次元再構成処理部150から全天球の3次元データを取得する点と、判断結果を送受信部180へ出力する点と、表示制御部170が、3次元再構成処理部150から全天球の3次元データを取得する点が加わっている。 In the processing block of the processing circuit in the fifth modification shown in FIG. 19, the determination unit 160 outputs the determination result to the transmission / reception unit 180 with respect to the processing block of the processing circuit 14 of the present embodiment shown in FIG. The point, the point where the judgment unit 160 acquires the three-dimensional data of the entire celestial sphere from the three-dimensional reconstruction processing unit 150, the point where the judgment result is output to the transmission / reception unit 180, and the display control unit 170 re-three-dimensionally The point of acquiring the three-dimensional data of the whole celestial sphere from the configuration processing unit 150 is added.

送受信部180は、3次元再構成処理部150から出力される全天球の3次元データおよびRGB画像データ取得部142から出力される全天球の2次元画像情報に加えて、判断部160の判断結果をネットワーク400経由で3次元復元処理を行う外部装置300へ送信(出力)する。 In addition to the three-dimensional data of all celestial spheres output from the three-dimensional reconstruction processing unit 150 and the two-dimensional image information of all celestial spheres output from the RGB image data acquisition unit 142, the transmission / reception unit 180 of the determination unit 160 The determination result is transmitted (output) to the external device 300 that performs the three-dimensional restoration process via the network 400.

表示制御部170は、3次元再構成処理部150から取得した全天球の3次元データに基づき、3次元画像を表示部20に表示させるとともに、撮像部11の出力と、距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部160による判断結果に基づき、特定の対象を識別する識別情報と、3次元画像と、を含む表示画像を表示部20に表示をさせる。特定の対象は、近接物、高反射物、遠方物、低反射物および画像のぶれ領域も含む。 The display control unit 170 displays a three-dimensional image on the display unit 20 based on the three-dimensional data of the entire celestial sphere acquired from the three-dimensional reconstruction processing unit 150, and also outputs the image pickup unit 11 and the distance information acquisition unit 13. A display image including identification information for identifying a specific target and a three-dimensional image is displayed on the display unit 20 based on the judgment result by the judgment unit 160 that determines whether or not there is a specific target based on both the output of the above. To let. Specific objects also include near objects, high reflectors, distant objects, low reflectors and blurred areas of the image.

これにより、所望の3次元画像3Gが表示されない要因が、近接物、高反射物、遠方物、低反射物および画像のぶれの何れであるかを、3次元画像3Gを観て確認することができる。 As a result, it is possible to confirm by observing the 3D image 3G whether the cause of not displaying the desired 3D image 3G is a near object, a high-reflecting object, a distant object, a low-reflecting object, or an image blur. can.

図20は、本発明の実施形態の第6の変形例における情報処理システムの構成の一例を示す図である。 FIG. 20 is a diagram showing an example of the configuration of the information processing system in the sixth modification of the embodiment of the present invention.

図20に示す第6の変形例にかかる情報処理システムは、撮像装置1と、表示装置500を備える。 The information processing system according to the sixth modification shown in FIG. 20 includes an image pickup device 1 and a display device 500.

図20に示す撮像装置1は、撮像素子11a、11A、TOFセンサ13a、13A、光源部12a、12A、および撮影スイッチ15を備え、これらは図4に示したものと同様に構成される。 The image pickup device 1 shown in FIG. 20 includes image pickup elements 11a and 11A, TOF sensors 13a and 13A, light source units 12a and 12A, and a photographing switch 15, which are configured in the same manner as those shown in FIG.

図20に示す撮像装置1における処理回路4は、制御部141と、RGB画像データ取得部142と、TOF画像データ取得部144と、送受信部180とを有する。制御部141は、図4に示したものと同様に構成される。 The processing circuit 4 in the image pickup apparatus 1 shown in FIG. 20 includes a control unit 141, an RGB image data acquisition unit 142, a TOF image data acquisition unit 144, and a transmission / reception unit 180. The control unit 141 is configured in the same manner as that shown in FIG.

RGB画像データ取得部142は、図4と同様に、制御部141による撮像指示に基づき、撮像素子11a、11Aが撮像したRGB画像データを取得して、全天球のRGB画像データを出力するが、出力先が送受信部180である点が図4と異なる。 Similar to FIG. 4, the RGB image data acquisition unit 142 acquires the RGB image data captured by the image pickup devices 11a and 11A based on the image pickup instruction by the control unit 141, and outputs the RGB image data of the entire celestial sphere. The difference from FIG. 4 is that the output destination is the transmission / reception unit 180.

TOF画像データ取得部144は、図4と同様に、制御部141によるTOF画像データの生成指示に基づき、TOFセンサ13a、13Aが生成したTOF画像データを取得して、全天球のTOF画像データを出力するが、出力先が送受信部180である点が図4と異なる。 Similar to FIG. 4, the TOF image data acquisition unit 144 acquires the TOF image data generated by the TOF sensors 13a and 13A based on the TOF image data generation instruction by the control unit 141, and the TOF image data of the entire celestial sphere. Is output, but it differs from FIG. 4 in that the output destination is the transmission / reception unit 180.

送受信部180は、図4と異なり、RGB画像データ取得部142から出力される全天球のRGB画像データおよびTOF画像データ取得部144から出力される全天球のTOF画像データを表示装置500へ送信(出力)する。 Unlike FIG. 4, the transmission / reception unit 180 displays the RGB image data of the whole celestial sphere output from the RGB image data acquisition unit 142 and the TOF image data of the whole celestial sphere output from the TOF image data acquisition unit 144 to the display device 500. Send (output).

図20に示す表示装置500は、図12に示した第2の変形例と同様に、送受信部510と、表示部520と、表示制御部530と、を備えるとともに、
RGB画像データ取得部542と、モノクロ処理部543と、TOF画像データ取得部544と、高解像度化部545と、マッチング処理部546と、再投影処理部547と、セマンティックセグメンテーション部548と、視差計算部549と、3次元再構成処理部550と、判断部560と、をさらに備える。
The display device 500 shown in FIG. 20 includes a transmission / reception unit 510, a display unit 520, and a display control unit 530, as in the second modification shown in FIG.
RGB image data acquisition unit 542, monochrome processing unit 543, TOF image data acquisition unit 544, high resolution unit 545, matching processing unit 546, reprojection processing unit 547, semantic segmentation unit 548, and parallax calculation. A unit 549, a three-dimensional reconstruction processing unit 550, and a determination unit 560 are further provided.

送受信部180は、撮像装置1から送信された全天球のRGB画像データおよび全天球のTOF画像データを受信する。 The transmission / reception unit 180 receives the RGB image data of the whole celestial sphere and the TOF image data of the whole celestial sphere transmitted from the image pickup apparatus 1.

RGB画像データ取得部542は、送受信部180から全天球のRGB画像データを取得し、TOF画像データ取得部544は、送受信部180から全天球のRGB画像データを取得するが、それ以外は、それぞれ、図4に示したRGB画像データ取得部142およびTOF画像データ取得部144と同様に構成される。 The RGB image data acquisition unit 542 acquires the RGB image data of the whole celestial sphere from the transmission / reception unit 180, and the TOF image data acquisition unit 544 acquires the RGB image data of the whole celestial sphere from the transmission / reception unit 180. , Each of the same as the RGB image data acquisition unit 142 and the TOF image data acquisition unit 144 shown in FIG.

モノクロ処理部543と、TOF画像データ取得部544と、高解像度化部545と、マッチング処理部546と、再投影処理部547と、セマンティックセグメンテーション部548と、視差計算部549と、3次元再構成処理部550と、および判断部560は、図4に示したモノクロ処理部143と、TOF画像データ取得部144と、高解像度化部145と、マッチング処理部146と、再投影処理部147と、セマンティックセグメンテーション部148と、視差計算部149と、3次元再構成処理部150と、および判断部160と同様に構成される。 Monochrome processing unit 543, TOF image data acquisition unit 544, high resolution unit 545, matching processing unit 546, reprojection processing unit 547, semantic segmentation unit 548, parallax calculation unit 549, and three-dimensional reconstruction. The processing unit 550 and the determination unit 560 include the monochrome processing unit 143, the TOF image data acquisition unit 144, the high resolution unit 145, the matching processing unit 146, the reprojection processing unit 147, and the reprojection processing unit 147 shown in FIG. It is configured in the same manner as the semantic segmentation unit 148, the parallax calculation unit 149, the three-dimensional reconstruction processing unit 150, and the determination unit 160.

表示制御部530は、RGB画像データ取得部542から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像を表示部520に表示させてもよく、3次元再構成処理部545から全天球の3次元データを取得し、3次元画像報を表示部520に表示させてもよい。 The display control unit 530 may acquire RGB image data of all celestial spheres from the RGB image data acquisition unit 542 and display a two-dimensional image based on the acquired RGB image data of all celestial spheres on the display unit 520. The three-dimensional data of the whole celestial sphere may be acquired from the dimensional reconstruction processing unit 545, and the three-dimensional image report may be displayed on the display unit 520.

表示制御部530は、判断部160から取得した判断結果を示す情報と、2次元画像または3次元画像と、を含む表示画像を表示部520に表示させる。 The display control unit 530 causes the display unit 520 to display a display image including the information indicating the determination result acquired from the determination unit 160 and the two-dimensional image or the three-dimensional image.

以上説明したように、表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力を受信する受信部の一例である送受信部510と、送受信部510が受信した距離情報取得部13の出力と、撮像部11の出力との両方に基づき特定の対象物があるかを判断する判断部560と、判断部560の判断結果に基づき、特定の対象の有無に応じて、表示部に異なる表示をさせる表示制御部530と、を備える。 As described above, the display device 500 receives the output of the imaging unit 11 that images the target and the output of the distance information acquisition unit 13 that projects the light on the target and receives the light reflected from the target. A determination unit 560 that determines whether or not there is a specific object based on both the transmission / reception unit 510, which is an example, the output of the distance information acquisition unit 13 received by the transmission / reception unit 510, and the output of the imaging unit 11. A display control unit 530 that causes the display unit to display different displays depending on the presence or absence of a specific target based on the determination result of the unit 560 is provided.

特定の対象は、近接物、高反射物、遠方物、低反射物および画像のぶれ領域を含む。 Specific objects include near objects, high reflectors, distant objects, low reflectors and blurred areas of the image.

また、表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部560による判断結果に基づき、特定の対象を識別する識別情報と、3次元再構成処理部550により決定される3次元画像3Gと、を含む表示画像を表示部520に表示をさせる表示制御部530を備える。 Further, the display device 500 determines a specific target based on both the output of the imaging unit 11 that images the target and the output of the distance information acquisition unit 13 that projects light onto the target and receives the light reflected from the target. A display image including identification information for identifying a specific target and a three-dimensional image 3G determined by the three-dimensional reconstruction processing unit 550 is displayed on the display unit 520 based on the determination result by the determination unit 560 that determines the presence or absence. A display control unit 530 for displaying is provided.

図21は、本発明の実施形態の第7の変形例における情報処理システムの構成の一例を示す図である。 FIG. 21 is a diagram showing an example of the configuration of the information processing system in the seventh modification of the embodiment of the present invention.

図21に示す第7の変形例にかかる情報処理システムは、撮像装置1と、表示装置500と、サーバ600と、を備える。 The information processing system according to the seventh modification shown in FIG. 21 includes an image pickup device 1, a display device 500, and a server 600.

図21に示す撮像装置1は、図20に示した撮像装置1と同様に構成され、図21に示す表示装置500は、図12に示した表示装置500と同様に構成される。 The image pickup device 1 shown in FIG. 21 is configured in the same manner as the image pickup device 1 shown in FIG. 20, and the display device 500 shown in FIG. 21 is configured in the same manner as the display device 500 shown in FIG.

図21に示すサーバ600は、受信部610と、RGB画像データ取得部642と、モノクロ処理部643と、TOF画像データ取得部644と、高解像度化部645と、マッチング処理部646と、再投影処理部647と、セマンティックセグメンテーション部648と、視差計算部649と、3次元再構成処理部650と、判断部660と、送信部680と、を備える。 The server 600 shown in FIG. 21 is a reprojection of the receiving unit 610, the RGB image data acquisition unit 642, the monochrome processing unit 643, the TOF image data acquisition unit 644, the high resolution unit 645, the matching processing unit 646, and the matching processing unit 646. It includes a processing unit 647, a semantic segmentation unit 648, a parallax calculation unit 649, a three-dimensional reconstruction processing unit 650, a determination unit 660, and a transmission unit 680.

受信部610は、ネットワーク400経由で撮像装置1から送信された全天球のRGB画像データおよび全天球のTOF画像データを受信する。 The receiving unit 610 receives the RGB image data of the whole celestial sphere and the TOF image data of the whole celestial sphere transmitted from the image pickup apparatus 1 via the network 400.

RGB画像データ取得部642は、受信部610から全天球のRGB画像データを取得し、TOF画像データ取得部644は、受信部610から全天球のRGB画像データを取得するが、それ以外は、それぞれ、図4に示したRGB画像データ取得部142およびTOF画像データ取得部144と同様に構成される。 The RGB image data acquisition unit 642 acquires the RGB image data of the whole sky from the reception unit 610, and the TOF image data acquisition unit 644 acquires the RGB image data of the whole sky from the reception unit 610, but other than that. , Each of the same as the RGB image data acquisition unit 142 and the TOF image data acquisition unit 144 shown in FIG.

モノクロ処理部643と、TOF画像データ取得部644と、高解像度化部645と、マッチング処理部646と、再投影処理部647と、セマンティックセグメンテーション部648と、視差計算部649と、3次元再構成処理部650と、および判断部660は、図4に示したモノクロ処理部143と、TOF画像データ取得部144と、高解像度化部145と、マッチング処理部146と、再投影処理部147と、セマンティックセグメンテーション部148と、視差計算部149と、3次元再構成処理部150と、および判断部160と同様に構成される。 Monochrome processing unit 643, TOF image data acquisition unit 644, high resolution unit 645, matching processing unit 646, reprojection processing unit 647, semantic segmentation unit 648, parallax calculation unit 649, and three-dimensional reconstruction. The processing unit 650 and the determination unit 660 include the monochrome processing unit 143, the TOF image data acquisition unit 144, the high resolution unit 145, the matching processing unit 146, the reprojection processing unit 147, and the reprojection processing unit 147 shown in FIG. It is configured in the same manner as the semantic segmentation unit 148, the parallax calculation unit 149, the three-dimensional reconstruction processing unit 150, and the determination unit 160.

送信部680は、3次元再構成処理部150から出力される全天球の3次元データと、RGB画像データ取得部142から出力される全天球の2次元画像情報と、判断部160の判断結果と、をネットワーク400経由で表示装置500へ送信(出力)する。 The transmission unit 680 determines the three-dimensional data of all celestial spheres output from the three-dimensional reconstruction processing unit 150, the two-dimensional image information of all celestial spheres output from the RGB image data acquisition unit 142, and the determination unit 160. The result and the result are transmitted (output) to the display device 500 via the network 400.

表示装置510の送受信部510は、サーバ600から送信された全天球の3次元データと、2次元画像情報と、判断部160の判断結果と、を受信する。 The transmission / reception unit 510 of the display device 510 receives the three-dimensional data of the whole celestial sphere, the two-dimensional image information, and the determination result of the determination unit 160 transmitted from the server 600.

表示装置510の表示制御部530は、送受信部510から全天球のRGB画像データを取得し、取得した全天球のRGB画像データに基づく2次元画像を表示部520に表示させてもよく、送受信部510から全天球の3次元データを取得し、3次元画像報を表示部20に表示させてもよい。 The display control unit 530 of the display device 510 may acquire the RGB image data of the whole celestial sphere from the transmission / reception unit 510 and display the two-dimensional image based on the acquired RGB image data of the celestial sphere on the display unit 520. The three-dimensional data of the whole celestial sphere may be acquired from the transmission / reception unit 510, and the three-dimensional image report may be displayed on the display unit 20.

表示制御部530は、送受信部510から取得した判断結果を示す情報と、2次元画像または3次元画像と、を含む表示画像を表示部520に表示させる。 The display control unit 530 causes the display unit 520 to display a display image including information indicating a determination result acquired from the transmission / reception unit 510 and a two-dimensional image or a three-dimensional image.

以上説明したように、表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づく特定の対象があるかのサーバ600の判断部660による判断結果を受信する送受信部510と、送受信部510が受信した判断結果に基づき、特定の対象の有無に応じて、表示部520に異なる表示をさせる表示制御部530と、を備える。特定の対象は、近接物、高反射物、遠方物、低反射物および画像のぶれ領域を含む。 As described above, the display device 500 is based on both the output of the imaging unit 11 that images the target and the output of the distance information acquisition unit 13 that projects the light on the target and receives the light reflected from the target. Based on the determination result received by the transmission / reception unit 510 and the transmission / reception unit 510 that receive the determination result by the determination unit 660 of the server 600 whether or not there is a specific target, the display unit 520 has a different display depending on the presence or absence of the specific object. The display control unit 530 and the like are provided. Specific objects include near objects, high reflectors, distant objects, low reflectors and blurred areas of the image.

また、表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部660による判断結果に基づき、特定の対象を識別する識別情報と、3次元再構成処理部650により決定される3次元画像3Gと、を含む表示画像を表示部520に表示をさせる表示制御部530を備える。 Further, the display device 500 determines a specific target based on both the output of the imaging unit 11 that images the target and the output of the distance information acquisition unit 13 that projects light onto the target and receives the light reflected from the target. A display image including identification information for identifying a specific target and a three-dimensional image 3G determined by the three-dimensional reconstruction processing unit 650 is displayed on the display unit 520 based on the determination result by the determination unit 660 that determines the presence or absence. A display control unit 530 for displaying is provided.

図22は、第5〜第7の変形例における表示部の表示内容を説明するための図である。 FIG. 22 is a diagram for explaining the display contents of the display unit in the fifth to seventh modified examples.

図22に示すように、表示部520には、表示制御部530により、特定の対象を識別する識別情報3Ga,3Gbおよび3Gcを含む3次元画像3Gが表示されている。3Ga,3Gbおよび3Gcは、特定の対象の位置を識別する位置識別情報であってもよい。 As shown in FIG. 22, the display control unit 530 displays a three-dimensional image 3G including identification information 3Ga, 3Gb, and 3Gc for identifying a specific target on the display unit 520. 3Ga, 3Gb and 3Gc may be position identification information that identifies the position of a specific target.

図22では、表示部520を示したが、表示部20にも、同様に表示制御部170により、特定の対象を識別する識別情報3Ga,3Gbおよび3Gcを含む3次元画像3Gが表示される。 Although the display unit 520 is shown in FIG. 22, the display unit 170 also displays the three-dimensional image 3G including the identification information 3Ga, 3Gb, and 3Gc for identifying a specific target by the display control unit 170.

ここで、識別情報3Gaは死角を示しピンク色等で識別表示され、識別情報3Gbは低反射物を示しオレンジ色等で識別表示され、識別情報3Gcは遠方物を示しモザイク等で識別表示されている。 Here, the identification information 3Ga indicates a blind spot and is identified and displayed in pink or the like, the identification information 3Gb indicates a low-reflecting object and is identified and displayed in orange or the like, and the identification information 3Gc indicates a distant object and is identified and displayed by a mosaic or the like. There is.

これらの識別情報3Ga,3Gbおよび3Gcは同時に全て表示されていてもよく、何れか1つまたは2つが表示されていてもよい。 All of these identification information 3Ga, 3Gb and 3Gc may be displayed at the same time, or any one or two may be displayed.

図23は、本発明の実施形態における表示部が表示する三次元画像を説明するための図である。 FIG. 23 is a diagram for explaining a three-dimensional image displayed by the display unit according to the embodiment of the present invention.

図23(a)は、全天球画像を三次元の立体球とした場合の仮想カメラおよび所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。 FIG. 23A is a diagram showing the positions of a virtual camera and a predetermined area when the spherical image is a three-dimensional three-dimensional sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the image with respect to the spherical image CE displayed as a three-dimensional three-dimensional sphere.

図23(b)は、図23(a)の立体斜視図、図23(c)は、ディスプレイに表示された場合の所定領域画像を表す図である。 23 (b) is a three-dimensional perspective view of FIG. 23 (a), and FIG. 23 (c) is a diagram showing a predetermined area image when displayed on a display.

図23(b)は、図23(a)に示した全天球画像CEを、三次元の立体球CSで表している。このように生成された全天球画像CEが、立体球CSであるとした場合、図23(a)に示されているように、仮想カメラICは、全天球画像CEの内部に位置している。 FIG. 23 (b) represents the spherical image CE shown in FIG. 23 (a) as a three-dimensional three-dimensional sphere CS. Assuming that the spherical image CE generated in this way is a three-dimensional sphere CS, the virtual camera IC is located inside the spherical image CE as shown in FIG. 23 (a). ing.

全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮影方向と画角を示す所定領域情報によって特定される。 The predetermined area T in the spherical image CE is a shooting area of the virtual camera IC, and is specified by predetermined area information indicating the shooting direction and angle of view of the virtual camera IC in the three-dimensional virtual space including the spherical image CE. NS.

また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。したがって、所定領域Tは、画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる。 Further, the zoom of the predetermined area T can be expressed by moving the virtual camera IC closer to or further away from the spherical image CE. The predetermined region image Q is an image of the predetermined region T in the spherical image CE. Therefore, the predetermined region T can be specified by the angle of view α and the distance f from the virtual camera IC to the spherical image CE.

すなわち、表示制御部170、530は、3次元画像3Gを見る視点の位置にある仮想カメラICの位置および向きを変更することにより、表示部20、520に表示させる3次元画像3Gの表示領域を変更する。 That is, the display control units 170 and 530 change the position and orientation of the virtual camera IC at the position of the viewpoint for viewing the 3D image 3G to display the display area of the 3D image 3G to be displayed on the display units 20 and 520. change.

上記では表示部が表示する三次元画像について全天球画像を用いる例で説明したが、3次元点群データを用いる場合も同様である。仮想空間中に三次元点群を配置し、その仮想空間中に仮想カメラを配置する。仮想カメラの視点位置、撮影方向と画角を示す所定領域情報に基づいて、仮想空間中の所定の投影面に3次元点群を投射投影することで三次元画像を得る。また、仮想カメラの視点位置および向きを変更することにより、3次元画像の表示領域を変更する。 In the above, the three-dimensional image displayed by the display unit has been described with the example of using the spherical image, but the same applies to the case of using the three-dimensional point cloud data. A three-dimensional point cloud is placed in the virtual space, and a virtual camera is placed in the virtual space. A three-dimensional image is obtained by projecting a three-dimensional point cloud onto a predetermined projection surface in the virtual space based on predetermined area information indicating the viewpoint position, shooting direction, and angle of view of the virtual camera. Further, the display area of the three-dimensional image is changed by changing the viewpoint position and orientation of the virtual camera.

図24は、第5〜第7の変形例における判断フロー図である。判断部160、560、660は、3次元再構成処理部150、550、650から取得した全天球の3次元データに基づき、全天球の3次元データの中に点群データの密度が閾値未満の領域(座標)があるか判断する(ステップS61)。 FIG. 24 is a judgment flow diagram in the fifth to seventh modified examples. Judgment units 160, 560, and 660 have a threshold value of the density of point cloud data in the three-dimensional data of all celestial spheres based on the three-dimensional data of all celestial spheres acquired from the three-dimensional reconstruction processing units 150, 550, and 650. It is determined whether there is an area (coordinates) less than (step S61).

判断部160、560、660は、ステップS61で点群データの密度が閾値未満の領域(座標)があると判断した場合、点群データの密度が閾値未満の領域と同一座標の複数の画素について、図16に示したフローで撮像部11の出力に基づき、遠方物と判断された画素が含まれるか判断し、遠方物と判断された画素が含まれる場合、画素の座標位置情報を表示制御部170、530へ出力する(ステップS62)。 When the determination units 160, 560, and 660 determine in step S61 that there is a region (coordinate) in which the density of the point cloud data is less than the threshold value, the determination units 160, 560, and 660 refer to a plurality of pixels having the same coordinates as the region in which the density of the point cloud data is less than the threshold value. , Based on the output of the imaging unit 11 in the flow shown in FIG. 16, it is determined whether or not the pixel determined to be a distant object is included, and if the pixel determined to be a distant object is included, the coordinate position information of the pixel is displayed and controlled. Output to units 170 and 530 (step S62).

表示制御部170、530は、判断部160、560、660から取得した画素の座標位置情報に基づき、図22に示したように、遠方物の位置を識別する位置識別情報3Gcと、3次元画像Gと、を含む表示画像を表示部20、520に表示し(ステップS63)、処理を終了する。 As shown in FIG. 22, the display control units 170 and 530 have position identification information 3Gc for identifying the position of a distant object and a three-dimensional image based on the coordinate position information of the pixels acquired from the judgment units 160, 560 and 660. A display image including G and is displayed on the display units 20 and 520 (step S63), and the process ends.

判断部160、560、660は、ステップS62で、点群データの密度が閾値未満の領域と同一座標の複数の画素について、遠方物と判断された画素が含まれない場合、図16に示したフローで撮像部11の出力に基づき、低反射物と判断された画素が含まれるか判断し、低反射物と判断された画素が含まれる場合、画素の座標位置情報を表示制御部170、530へ出力する(ステップS64)。 The determination units 160, 560, and 660 are shown in FIG. 16 when the pixels determined to be distant objects are not included in the plurality of pixels having the same coordinates as the region where the density of the point cloud data is less than the threshold in step S62. Based on the output of the imaging unit 11 in the flow, it is determined whether or not the pixel determined to be a low-reflecting object is included, and if the pixel determined to be a low-reflecting object is included, the coordinate position information of the pixel is displayed in the display control unit 170, 530. Output to (step S64).

表示制御部170、530は、判断部160、560、660から取得した画素の座標位置情報に基づき、図22に示したように、低反射物の位置を識別する位置識別情報3Gbと、3次元画像Gと、を含む表示画像を表示部20、520に表示し(ステップS65)、処理を終了する。 As shown in FIG. 22, the display control units 170 and 530 have three-dimensional position identification information 3Gb for identifying the position of the low-reflecting object based on the coordinate position information of the pixels acquired from the determination units 160, 560 and 660. The display image including the image G is displayed on the display units 20 and 520 (step S65), and the process ends.

判断部160、560、660は、ステップS64で、点群データの密度が閾値未満の領域と同一座標の複数の画素について、低反射物と判断された画素が含まれない場合、死角であると判断し、画素の座標位置情報を表示制御部170、530へ出力する。 In step S64, the determination units 160, 560, and 660 determine that a plurality of pixels having the same coordinates as the region where the density of the point cloud data is less than the threshold value are blind spots when the pixels determined to be low-reflecting objects are not included. Judgment is made, and the coordinate position information of the pixel is output to the display control units 170 and 530.

表示制御部170、530は、判断部160、560、660から取得した画素の座標位置情報に基づき、図22に示したように、死角の位置を識別する位置識別情報3Gaと、3次元画像Gと、を含む表示画像を表示部20、520に表示し(ステップS66)、処理を終了する。ステップS61、S62およびS64は判断ステップの一例であり、ステップS63、S65およびS66は表示ステップの一例である。 As shown in FIG. 22, the display control units 170 and 530 have the position identification information 3Ga for identifying the position of the blind spot and the three-dimensional image G based on the coordinate position information of the pixels acquired from the judgment units 160, 560 and 660. The display image including the above is displayed on the display units 20 and 520 (step S66), and the process ends. Steps S61, S62 and S64 are examples of determination steps, and steps S63, S65 and S66 are examples of display steps.

以上説明したように、撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部160、560、660による判断結果に基づき、特定の対象を識別する識別情報3Ga、3Gb、3Gcと、距離情報取得部13の出力に基づき3次元情報決定部の一例である3次元再構成処理部150、550、650により決定される3次元画像3Gと、を含む表示画像を表示部20、520に異なる表示をさせる表示制御部170、530を備える。 As described above, the image pickup device 1 and the display device 500 include the output of the image pickup unit 11 that images the target and the output of the distance information acquisition unit 13 that projects light on the target and receives the light reflected from the target. Based on the judgment results of the judgment units 160, 560, and 660 that determine whether or not there is a specific target based on both of the above, the identification information 3Ga, 3Gb, and 3Gc that identify the specific target, and the output of the distance information acquisition unit 13. The display control unit 170, which causes the display units 20 and 520 to display different display images including the three-dimensional image 3G determined by the three-dimensional reconstruction processing units 150, 550, and 650, which is an example of the three-dimensional information determination unit. 530 is provided.

特定の対象は、遠方物、低反射物および死角だけでなく、近接物、高反射物、および画像のぶれ領域も含む。 Specific objects include not only distant objects, low reflectors and blind spots, but also near objects, high reflectors, and blurred areas of the image.

これにより、所望の3次元画像3Gが表示されない要因が、遠方物、低反射物、死角、近接物、高反射物、および画像のぶれの何れであるかを、3次元画像3Gを観て確認することができる。 As a result, it is confirmed by observing the 3D image 3G whether the cause of not displaying the desired 3D image 3G is a distant object, a low-reflecting object, a blind spot, a near object, a high-reflecting object, or an image blur. can do.

また、撮像装置1および表示装置500は、対象に投射されて対象から反射してきた光を受光する距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させる表示制御部170、530を備え、表示制御部170、530は、3次元画像3G中で、対象から反射してきた光を受光したときの距離情報取得部13からの距離が遠い遠方物、投射された光に対する反射率が低い低反射物、および対象から反射してきた光を受光したときの距離情報取得部13に対する死角の少なくとも1つであると判断された位置を示す位置情報に基づき、遠方物、低反射物および死角の少なくとも1つの位置を識別する位置識別情報3Ga、3Gbまたは3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 Further, the image pickup device 1 and the display device 500 cause the display units 20 and 520 to display the three-dimensional image 3G determined based on the output of the distance information acquisition unit 13 that receives the light projected from the target and reflected from the target. The display control units 170 and 530 are provided, and the display control units 170 and 530 project a distant object that is far from the distance information acquisition unit 13 when the light reflected from the object is received in the three-dimensional image 3G. A distant object based on a low-reflecting object having a low reflectance to the light, and a position information indicating a position determined to be at least one blind spot with respect to the distance information acquisition unit 13 when the light reflected from the object is received. A display image including the position identification information 3Ga, 3Gb or 3Gc for identifying at least one position of the low reflector and the blind spot, and the three-dimensional image 3G is displayed on the display units 20 and 520.

これにより、所望の3次元画像3Gが表示されない要因が、遠方物、低反射物、および死角の何れであるかを、3次元画像3Gを観て確認することができるため、要因に応じて再撮像等の対応をとることが可能になる。 As a result, it is possible to confirm by observing the 3D image 3G whether the factor that the desired 3D image 3G is not displayed is a distant object, a low reflection object, or a blind spot. It becomes possible to take measures such as imaging.

3次元画像3Gは、3次元情報決定部の一例である3次元再構成処理部150、550、650により決定される。 The three-dimensional image 3G is determined by the three-dimensional reconstruction processing units 150, 550, and 650, which are examples of the three-dimensional information determination unit.

表示制御部170、530は、遠方物、低反射物、および死角の何れか1つの位置情報に基づき、位置識別情報3Ga、3Gbおよび3Gcの何れか1つと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させてもよく、遠方物、低反射物、および死角の何れか2つまたは全ての位置情報に基づき、位置識別情報3Ga、3Gbおよび3Gcの何れか2つまたは全てと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させてもよい。 The display control unit 170, 530 displays a display including any one of the position identification information 3Ga, 3Gb, and 3Gc and the three-dimensional image 3G based on the position information of any one of the distant object, the low-reflecting object, and the blind spot. The image may be displayed on the display units 20, 520, and based on the position information of any two or all of the distant object, the low-reflecting object, and the blind spot, any two of the position identification information 3Ga, 3Gb, and 3Gc or A display image including all and the three-dimensional image 3G may be displayed on the display units 20 and 520.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、距離情報取得部13および3次元再構成処理部150を備える。 When the information processing device is the image pickup device 1, the image pickup device 1 includes a distance information acquisition unit 13 and a three-dimensional reconstruction processing unit 150, as shown in FIG.

情報処理装置が表示装置500である場合、図20および図21に示したように、表示装置500は、距離情報取得部13を備えておらず、撮像装置1が、距離情報取得部13を備えて、距離情報取得部13の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, as shown in FIGS. 20 and 21, the display device 500 does not include the distance information acquisition unit 13, and the image pickup device 1 includes the distance information acquisition unit 13. Then, the output of the distance information acquisition unit 13 is transmitted to the display device 500 or the server 600.

表示装置500は、図20に示したように3次元再構成処理部550を備えてもよく、備えなくてもよい。 As shown in FIG. 20, the display device 500 may or may not include the three-dimensional reconstruction processing unit 550.

表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像を送信してもよく、図21に示したように、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像を送信してもよい。 When the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 may include the three-dimensional reconstruction processing unit 150 and transmit a three-dimensional image to the display device 500, as shown in FIG. In addition, the server 600 may include a three-dimensional reconstruction processing unit 650 and transmit a three-dimensional image to the display device 500.

表示制御部170、530は、3次元画像3Gに含まれる点群データの密度が閾値よりも低く、かつ、遠方物、低反射物、または死角の少なくとも1つであると判断される位置を示す位置情報に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 indicate positions where the density of the point cloud data included in the three-dimensional image 3G is lower than the threshold value and is determined to be at least one of a distant object, a low reflection object, or a blind spot. Based on the position information, a display image including the position identification information 3Ga, 3Gb, 3Gc, and the three-dimensional image 3G is displayed on the display units 20 and 520.

これにより、点群データの密度が閾値よりも低い要因が、遠方物、低反射物、および死角の何れであるかを、3次元画像3Gを観て確認することができる。 Thereby, it is possible to confirm by observing the three-dimensional image 3G whether the factor that the density of the point cloud data is lower than the threshold value is a distant object, a low reflection object, or a blind spot.

表示制御部170、530は、対象を撮像する撮像部11の出力に基づき、3次元画像3G中で、遠方物、低反射物、または死角の少なくとも1つであると判断される位置を示す位置情報に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 are positions indicating a position determined to be at least one of a distant object, a low reflection object, or a blind spot in the three-dimensional image 3G based on the output of the image pickup unit 11 that images the object. Based on the information, a display image including the position identification information 3Ga, 3Gb, 3Gc, and the three-dimensional image 3G is displayed on the display units 20 and 520.

これにより、所望の3次元画像3Gが表示されない要因を、遠方物、低反射物、および死角の何れであるか、撮像部11の出力に基づき正確に判断することができる。 Thereby, it is possible to accurately determine whether the factor that the desired three-dimensional image 3G is not displayed is a distant object, a low-reflecting object, or a blind spot based on the output of the imaging unit 11.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、撮像部11を備える。情報処理装置が表示装置500である場合、表示装置500は、図20および図21に示したように、撮像部11を備えておらず、撮像装置1が、撮像部11を備えて、撮像部11の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the image pickup device 1, the image pickup device 1 includes an image pickup unit 11 as shown in FIG. When the information processing device is the display device 500, the display device 500 does not include the image pickup unit 11 as shown in FIGS. 20 and 21, and the image pickup device 1 includes the image pickup unit 11 and includes the image pickup unit 11. The output of 11 is transmitted to the display device 500 or the server 600.

撮像装置1および表示装置500は、3次元画像3G中で、遠方物、低反射物、または死角の少なくとも1つである位置を判断する判断部160、560、660を備え、表示制御部170、530は、判断部160、560、660の判断結果に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The image pickup device 1 and the display device 500 include determination units 160, 560, and 660 for determining a position that is at least one of a distant object, a low reflection object, or a blind spot in the three-dimensional image 3G, and the display control unit 170, Based on the determination results of the determination units 160, 560, and 660, the 530 causes the display units 20 and 520 to display a display image including the position identification information 3Ga, 3Gb, 3Gc, and the three-dimensional image 3G.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、判断部160を備える。 When the information processing device is the image pickup device 1, the image pickup device 1 includes a determination unit 160 as shown in FIG.

情報処理装置が表示装置500である場合、表示装置500は、図20に示したように判断部560を備えてもよく、判断部560を備えなくてもよい。 When the information processing device is the display device 500, the display device 500 may or may not include the determination unit 560 as shown in FIG. 20.

表示装置500が判断部560を備えない場合、撮像装置1が判断部160を備えて表示装置500へ判断結果を送信してもよく、図21に示したようにサーバ600が判断部660を備えて表示装置500へ判断結果を送信してもよい。 When the display device 500 does not include the determination unit 560, the image pickup device 1 may include the determination unit 160 and transmit the determination result to the display device 500, and the server 600 includes the determination unit 660 as shown in FIG. The determination result may be transmitted to the display device 500.

図25は、第5〜第7の変形例における表示部の表示内容を説明するための他の図である。 FIG. 25 is another diagram for explaining the display contents of the display unit in the fifth to seventh modified examples.

図25に示すように、表示部520には、表示制御部530により、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2を含む3次元画像3Gが表示されている。 As shown in FIG. 25, the display unit 520 is three-dimensionally including position identification information 3G1 and 3G2 that identify the position of the distance information acquisition unit 13 when the display control unit 530 receives the light reflected from the target. Image 3G is displayed.

3次元画像3Gは、第1の位置に位置する距離情報取得部13の出力および第1の位置とは異なる第2の位置に位置する距離情報取得部13の出力に基づき決定されており、位置識別情報3G1は、第1の位置を識別する第1の位置識別情報の一例であり、位置識別情報3G2は、第2の位置を識別する第1の位置識別情報の一例である。 The three-dimensional image 3G is determined based on the output of the distance information acquisition unit 13 located at the first position and the output of the distance information acquisition unit 13 located at a second position different from the first position. The identification information 3G1 is an example of the first position identification information for identifying the first position, and the position identification information 3G2 is an example of the first position identification information for identifying the second position.

図25では、表示部520を示したが、表示部20にも、同様に表示制御部170により、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2を含む3次元画像3Gが表示される。 Although the display unit 520 is shown in FIG. 25, the display unit 20 also has the position identification information for identifying the position of the distance information acquisition unit 13 when the light reflected from the target is received by the display control unit 170. A three-dimensional image 3G including 3G1 and 3G2 is displayed.

表示制御部170、530は、3次元画像3Gと、図22に示したように、低密度識別情報の一例である識別情報3Ga,3Gbおよび3Gcと、を含む表示画像を表示部20、520に表示させるとともに、図25に示すように、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2を表示画像に含ませてもよい。 The display control units 170 and 530 display a display image including the three-dimensional image 3G and the identification information 3Ga, 3Gb and 3Gc, which are examples of the low-density identification information, on the display units 20 and 520 as shown in FIG. In addition to displaying the image, as shown in FIG. 25, the display image may include position identification information 3G1 and 3G2 that identify the position of the distance information acquisition unit 13 when the light reflected from the object is received.

図26は、第5〜第7の変形例における処理を説明するフロー図である。 FIG. 26 is a flow chart illustrating processing in the fifth to seventh modified examples.

3次元再構成処理部150、550、650は、全天球の高密度3次元点群データを読み込み(ステップS71)、3次元点群データの原点を対象から反射してきた光を受光したときの距離情報取得部13の撮像位置を示す位置情報として取得する(ステップS72)。 The three-dimensional reconstruction processing units 150, 550, and 650 read the high-density three-dimensional point cloud data of the entire celestial sphere (step S71), and receive the light reflected from the target at the origin of the three-dimensional point cloud data. It is acquired as position information indicating the imaging position of the distance information acquisition unit 13 (step S72).

3次元再構成処理部150、550、650は、事前に読み込まれた3次元点群データがあるか確認し、事前に読み込まれた3次元点群データが無ければ、ステップS71で読み込まれた3次元点群データと、ステップS72で取得した位置情報を表示制御部170、530へ出力する(ステップS73)。 The three-dimensional reconstruction processing units 150, 550, and 650 confirm whether there is the three-dimensional point cloud data read in advance, and if there is no three-dimensional point cloud data read in advance, the three-dimensional point cloud data read in step S71 3 The 3D point cloud data and the position information acquired in step S72 are output to the display control units 170 and 530 (step S73).

表示制御部170、530は、3次元再構成処理部150、550、650から取得した3次元点群データと位置情報に基づき、図25に示したように、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1と、3次元画像3Gと、を含む表示画像を表示部20、520に表示し(ステップS74)、処理を終了する。 The display control units 170 and 530 received the light reflected from the target as shown in FIG. 25 based on the three-dimensional point cloud data and the position information acquired from the three-dimensional reconstruction processing units 150, 550 and 650. A display image including the position identification information 3G1 for identifying the position of the distance information acquisition unit 13 and the three-dimensional image 3G is displayed on the display units 20 and 520 (step S74), and the process ends.

3次元再構成処理部150、550、650は、ステップS73で、事前に読み込まれた3次元点群データがあれば、ステップS71で読み込まれた3次元点群データと事前に読み込まれた3次元点群データを統合する(ステップS75)。 If there is 3D point cloud data read in advance in step S73, the 3D reconstruction processing units 150, 550, and 650 have the 3D point cloud data read in step S71 and the 3D point cloud read in advance. The point cloud data is integrated (step S75).

3次元再構成処理部150、550、650は、ステップS71で読み込まれた3次元点群データの原点および事前に読み込まれた3次元点群データの原点のそれぞれについて、ステップS75で統合した3次元点群データ中の座標を撮像位置の位置情報として算出し、ステップS75で統合した3次元点群データおよび算出した複数の位置情報を表示制御部170、530へ出力する(ステップS76)。 The three-dimensional reconstruction processing units 150, 550, and 650 integrate the origin of the three-dimensional point cloud data read in step S71 and the origin of the three-dimensional point cloud data read in advance in step S75 in three dimensions. The coordinates in the point cloud data are calculated as the position information of the imaging position, and the three-dimensional point cloud data integrated in step S75 and the calculated plurality of position information are output to the display control units 170 and 530 (step S76).

ステップS74において、表示制御部170、530は、3次元再構成処理部150、550、650から取得した3次元点群データと複数の位置情報に基づき、図25に示したように、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する複数の位置識別情報3G1、3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示する。 In step S74, the display control units 170 and 530 reflect from the target as shown in FIG. 25 based on the three-dimensional point cloud data acquired from the three-dimensional reconstruction processing units 150, 550 and 650 and the plurality of position information. A display image including a plurality of position identification information 3G1, 3G2 and a three-dimensional image 3G for identifying the position of the distance information acquisition unit 13 when the received light is received is displayed on the display units 20 and 520.

図27は、第5〜第7の変形例における処理を説明する他のフロー図である。 FIG. 27 is another flow chart illustrating the processing in the fifth to seventh modified examples.

3次元再構成処理部150、550、650は、全天球の高密度3次元点群データを読み込み(ステップS81)、判断部160、560、660は、3次元再構成処理部150、550、650から取得した全天球の3次元データに基づき、図24に示したフローのステップS61、S62およびS64を実行して点群データの密度が閾値よりも低い低密度部を抽出する(ステップS82)。 The three-dimensional reconstruction processing units 150, 550, and 650 read the high-density three-dimensional point cloud data of the entire celestial sphere (step S81), and the determination units 160, 560, and 660 read the three-dimensional reconstruction processing units 150, 550, Based on the three-dimensional data of the whole celestial sphere acquired from 650, steps S61, S62, and S64 of the flow shown in FIG. 24 are executed to extract a low density part where the density of the point cloud data is lower than the threshold value (step S82). ).

表示制御部170、530は、図23に示す仮想カメラICが、図25に示した位置識別情報3G1または3G2の位置にある場合、図24に示したフローのステップS63、S65およびS66を実行して、図22に示した低密度識別情報の一例である識別情報3Ga,3Gbおよび3Gcの少なくとも1つが表示画像に含まれるように、仮想カメラICの向きを変更する(ステップS83)。 When the virtual camera IC shown in FIG. 23 is at the position of the position identification information 3G1 or 3G2 shown in FIG. 25, the display control units 170 and 530 execute steps S63, S65 and S66 of the flow shown in FIG. 24. The orientation of the virtual camera IC is changed so that at least one of the identification information 3Ga, 3Gb, and 3Gc, which is an example of the low-density identification information shown in FIG. 22, is included in the display image (step S83).

以上説明したように、撮像装置1および表示装置500は、距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させる表示制御部170、530を備え、表示制御部170、530は、対象から反射してきた光を受光したときの距離情報取得部13の位置を示す位置情報に基づき、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 As described above, the image pickup device 1 and the display device 500 include display control units 170 and 530 for displaying the three-dimensional image 3G determined based on the output of the distance information acquisition unit 13 on the display units 20 and 520. The control units 170 and 530 are based on the position information indicating the position of the distance information acquisition unit 13 when the light reflected from the target is received, and the position of the distance information acquisition unit 13 when the light reflected from the target is received. A display image including the position identification information 3G1, 3G2 and the three-dimensional image 3G for identifying the above is displayed on the display units 20 and 520.

これにより、対象から反射してきた光を受光したときの距離情報取得部13の位置を示す撮像位置と、特定の対象との位置関係を、3次元画像3G中で把握できる。 As a result, the positional relationship between the imaging position indicating the position of the distance information acquisition unit 13 when the light reflected from the object is received and the specific object can be grasped in the three-dimensional image 3G.

3次元画像3Gおよび位置情報は、3次元再構成処理部150、550、650により決定される。 The three-dimensional image 3G and the position information are determined by the three-dimensional reconstruction processing units 150, 550, and 650.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、距離情報取得部13および3次元再構成処理部150を備える。 When the information processing device is the image pickup device 1, the image pickup device 1 includes a distance information acquisition unit 13 and a three-dimensional reconstruction processing unit 150, as shown in FIG.

情報処理装置が表示装置500である場合、図20および図21に示したように、表示装置500は、距離情報取得部13を備えておらず、撮像装置1が、距離情報取得部13を備えて、距離情報取得部13の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, as shown in FIGS. 20 and 21, the display device 500 does not include the distance information acquisition unit 13, and the image pickup device 1 includes the distance information acquisition unit 13. Then, the output of the distance information acquisition unit 13 is transmitted to the display device 500 or the server 600.

表示装置500は、図20に示したように3次元再構成処理部550を備えてもよく、備えなくてもよい。 As shown in FIG. 20, the display device 500 may or may not include the three-dimensional reconstruction processing unit 550.

表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像および位置情報を送信してもよく、図21に示したように、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像および位置情報を送信してもよい。 When the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 may include the three-dimensional reconstruction processing unit 150 and transmit the three-dimensional image and the position information to the display device 500. As shown, the server 600 may include the 3D reconstruction processing unit 650 and transmit the 3D image and the position information to the display device 500.

表示制御部170、530は、3次元画像3Gにおける点群データの密度が閾値よりも低い領域を示す領域情報に基づき、領域を識別する低密度識別情報の一例である識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 are identification information 3Ga, 3Gb, 3Gc, which is an example of low-density identification information for identifying an area based on the area information indicating an area in which the density of the point cloud data in the three-dimensional image 3G is lower than the threshold value. A display image including the three-dimensional image 3G and the three-dimensional image 3G is displayed on the display units 20 and 520.

この場合、撮像位置と、点群データの密度が閾値よりも低い領域との位置関係を把握できるため、点群データの密度が閾値よりも低い要因を特定することが可能になる。例えば、当該領域が撮像位置より遠方であれば遠方物が要因であり、当該領域が撮像位置の死角にあれば死角が要因であり、遠方物および死角の何れでもなければ低反射物が要因であることが特定できる。 In this case, since the positional relationship between the imaging position and the region where the density of the point cloud data is lower than the threshold value can be grasped, it is possible to identify the factor in which the density of the point cloud data is lower than the threshold value. For example, if the area is far from the imaging position, a distant object is a factor, if the area is in the blind spot of the imaging position, a blind spot is a factor, and if it is neither a distant object nor a blind spot, a low-reflecting object is a factor. It can be identified that there is.

表示制御部170、530は、3次元画像3Gを見る視点の位置にある仮想カメラICの位置および向きを変更することにより、表示部20、520に表示させる3次元画像3Gの表示領域を変更する。 The display control units 170 and 530 change the display area of the 3D image 3G to be displayed on the display units 20 and 520 by changing the position and orientation of the virtual camera IC at the position of the viewpoint for viewing the 3D image 3G. ..

表示制御部170、530は、仮想カメラICの位置が位置識別情報により識別される位置3G1、3G2にある場合、仮想カメラICの向きを予め定められた向きに変更する。予め定められた向きとしては、低密度点群領域等の再撮像の原因となる箇所や、現場調査の確認箇所等の事前に設定した条件に合う箇所や、撮影者もしくは他の確認者が着目した任意の箇所等が、表示領域に含まれるような領域である。現場調査の確認箇所としては、建設現場の例を挙げると、現場で継続して変化が起こる場所(資材置き場)や、本設(建築物そのもの)の各物体の位置、物体間の空隙距離、新たな設置物のスペース、仮設(物資置き場、足場など、建設プロセスでつけ外しがあるもの)、重機(フォーク、クレーン)の置き場、ワークスペース(旋回可能範囲、搬入経路)、居住者の動線(工事中の迂回路)等が該当する。 When the position of the virtual camera IC is at the positions 3G1 and 3G2 identified by the position identification information, the display control units 170 and 530 change the orientation of the virtual camera IC to a predetermined orientation. As the predetermined orientation, the location that causes re-imaging such as the low density point cloud region, the location that meets the preset conditions such as the confirmation location of the field survey, and the photographer or other confirmers pay attention. This is an area such that any part of the display area is included in the display area. Examples of sites to be confirmed in the site survey include the location where changes occur continuously at the site (material storage area), the position of each object in the main building (building itself), and the gap distance between the objects. Space for new installations, temporary construction (material storage, scaffolding, etc. that may be removed during the construction process), heavy equipment (forks, cranes) storage, workspace (turnable range, carry-in route), resident flow lines (Detour during construction) etc. are applicable.

これにより、撮像位置に位置するユーザの視線を、現場で見てほしい特定の対象物へ向けさせることが可能になる。 This makes it possible to direct the line of sight of the user located at the imaging position to a specific object to be seen in the field.

表示制御部170、530は、3次元画像3Gにおける予め定められた座標や点群データの密度が閾値よりも低い低密度部が表示領域に含まれるように、仮想カメラICの向きを変更する。予め定められた座標は、画像を特定するものではなく、例えば、図26のステップS75で3次元点群データを統合する前後で予め定められた座標における画像が変化した場合でも、維持される。 The display control units 170 and 530 change the orientation of the virtual camera IC so that the display area includes a low-density portion in which the density of predetermined coordinates and point cloud data in the three-dimensional image 3G is lower than the threshold value. The predetermined coordinates do not specify the image, and are maintained even when the image at the predetermined coordinates changes before and after the integration of the three-dimensional point cloud data in step S75 of FIG. 26, for example.

これにより、撮像位置に位置するユーザの視線を、3次元画像3G中では低密度部となっている特定の対象物へ向けさせることが可能になる。 This makes it possible to direct the line of sight of the user located at the imaging position to a specific object which is a low-density portion in the three-dimensional image 3G.

表示制御部170、530は、第1の位置に位置する距離情報取得部13の出力および第1の位置とは異なる第2の位置に位置する距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させ、第1の位置を識別する第1の位置識別情報3G1および第2の位置を識別する第2の位置識別情報3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 are determined based on the output of the distance information acquisition unit 13 located at the first position and the output of the distance information acquisition unit 13 located at a second position different from the first position. The first position identification information 3G1 for displaying the three-dimensional image 3G on the display units 20 and 520 and identifying the first position, the second position identification information 3G2 for identifying the second position, and the three-dimensional image 3G, The display image including the above is displayed on the display units 20 and 520.

これにより、第1の撮像位置および第2の撮像位置と、特定の対象との位置関係を、3次元画像3G中で把握できる。 Thereby, the positional relationship between the first imaging position and the second imaging position and the specific target can be grasped in the three-dimensional image 3G.

●まとめ●
以上説明したように、本発明の一実施形態に係る撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13(受光部の一例)と、距離情報取得部13の出力と、撮像部11の出力との両方に基づき高反射物があるかを判断する判断部160と、高反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。
● Summary ●
As described above, the image pickup apparatus 1 according to the embodiment of the present invention includes an image pickup unit 11 that images an object, a projection unit 12 that projects light onto the object, and distance information that receives light reflected from the object. Based on both the acquisition unit 13 (an example of the light receiving unit), the output of the distance information acquisition unit 13, and the output of the imaging unit 11, the determination unit 160 that determines whether or not there is a highly reflective object, and the presence or absence of the highly reflective object A display control unit 170 that causes the display units 20 and 520 to display different displays is provided accordingly.

これにより、撮影者は、近接物や外光の影響と区別して、鏡等の高反射物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a highly reflective object such as a mirror is included in the captured image, distinguishing it from the influence of a nearby object or external light.

撮像装置1は、表示部20を備える。これにより、撮影者は、高反射物が撮像画像に含まれることを確実に確認することができる。 The image pickup apparatus 1 includes a display unit 20. As a result, the photographer can surely confirm that the highly reflective object is included in the captured image.

表示制御部170は、高反射物の位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、高反射物の位置を確認することができる。 The display control unit 170 causes different displays at the positions of the display units 20 and 520 according to the position of the highly reflective object. This allows the photographer to confirm the position of the highly reflective object.

表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、高反射物に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、高反射物の位置を確実に確認することができる。 The display unit 20 includes a plurality of display units 20A and 20a, and the display control unit 170 displays different displays on the display unit closer to the highly reflective object among the plurality of display units 20A and 20a depending on the presence or absence of an object. To let. This allows the photographer to reliably confirm the position of the highly reflective object.

表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、高反射物を識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、高反射物の位置を確実に確認することができる。 The display control unit 170 displays the image information G imaged by the image pickup unit 11 on the display units 20 and 520, and displays a display image including the identification information for identifying the highly reflective object and the image information G on the display unit 20, Display on 520. This allows the photographer to reliably confirm the position of the highly reflective object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が所定値以上である画素の一例として蓄電量が飽和しており、かつ撮像部が撮像した画像情報が、高反射物を示す基準情報の一例としてモデル画像情報と一致する場合、高反射物があると判断する。 The determination unit 160 has a saturated amount of electricity stored as an example of a pixel in which the amount of electricity stored in the pixel due to the light received by the distance information acquisition unit 13 is equal to or greater than a predetermined value, and the image information captured by the imaging unit is a highly reflective object. If it matches the model image information as an example of the reference information indicating, it is judged that there is a highly reflective object.

これにより、撮影者は、近接物や外光の影響と区別して、高反射物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a highly reflective object is included in the captured image, distinguishing it from the influence of nearby objects and external light.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、近接物や外光ではなく、高反射物であることを確認することができる。 The image pickup apparatus 1 acquires the distance information to the target based on the light received by the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired distance information is not acquired is not a close object or external light but a highly reflective object.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、近接物や外光ではなく、高反射物であることを確認することができる。 The image pickup apparatus 1 includes a transmission / reception unit 180, which is an example of an output unit that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired three-dimensional information is not acquired is not a close object or external light but a highly reflective object.

本発明の一実施形態に係る撮像処理方法は、対象を撮像部11により撮像する撮像ステップと、対象に投射部12により光を投射する投射ステップと、対象から反射してきた光を距離情報取得部13により受光する受光ステップと、距離情報取得部13の出力と、撮像部11の出力との両方に基づき高反射物があるかを判断部160、560、660により判断する判断ステップと、高反射物の有無に応じて、表示制御部170、530により表示部20、520に異なる表示をさせる表示ステップと、を備える。 The imaging processing method according to the embodiment of the present invention includes an imaging step of capturing an image of an object by an imaging unit 11, a projection step of projecting light onto an object by a projection unit 12, and a distance information acquisition unit that acquires light reflected from the object. A determination step of determining whether or not there is a highly reflective object based on both the light receiving step of receiving light by 13 and the output of the distance information acquisition unit 13 and the output of the imaging unit 11, and a determination step of determining whether or not there is a highly reflective object, and high reflection. A display step is provided in which display control units 170 and 530 cause display units 20 and 520 to display differently depending on the presence or absence of an object.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき高反射物があるかを判断した判断部160、560、660による判断結果に基づき、高反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170、530を備える。 The image pickup device 1 and the display device 500, which are examples of the information processing device according to the embodiment of the present invention, receive the output of the image pickup unit 11 that images the target and the light reflected from the target by projecting the light onto the target. Based on the judgment results by the judgment units 160, 560, and 660 that determine whether or not there is a high-reflecting object based on both the output of the distance information acquisition unit 13 and the output of the high-reflecting object, the display units 20 and 520 are displayed according to the presence or absence of the high-reflecting object. A display control unit 170, 530 for displaying different displays is provided.

本発明の一実施形態に係る情報処理装置の一例である表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づく特定の対象があるかの撮像装置1の判断部160またはサーバ600の判断部660による判断結果を受信する受信部の一例である送受信部510と、送受信部510が受信した判断結果に基づき、特定の対象の有無に応じて、表示部520に異なる表示をさせる表示制御部530と、を備える。特定の対象は、近接物、高反射物、遠方物、低反射物、死角および画像のぶれ領域を含む。 The display device 500, which is an example of the information processing device according to the embodiment of the present invention, acquires the output of the imaging unit 11 that images the target and the distance information that receives the light reflected from the target by projecting the light on the target. The transmission / reception unit 510 and the transmission / reception unit 510 are examples of the reception unit that receives the determination result by the determination unit 160 of the image pickup apparatus 1 or the determination unit 660 of the server 600 as to whether or not there is a specific target based on both the output of the unit 13. A display control unit 530 that causes the display unit 520 to display differently depending on the presence or absence of a specific target based on the determination result received by the user. Specific objects include near objects, high reflectors, distant objects, low reflectors, blind spots and blurred areas of the image.

本発明の一実施形態に係る情報処理装置の一例である表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力を受信する受信部の一例である送受信部510と、送受信部510が受信した距離情報取得部13の出力と、撮像部11の出力との両方に基づき特定の対象物があるかを判断する判断部560と、判断部560の判断結果に基づき、特定の対象の有無に応じて、表示部に異なる表示をさせる表示制御部530と、を備える。特定の対象は、近接物、高反射物、遠方物、低反射物、死角および画像のぶれ領域を含む。 The display device 500, which is an example of the information processing device according to the embodiment of the present invention, acquires the output of the imaging unit 11 that images the target and the distance information that receives the light reflected from the target by projecting the light on the target. Is there a specific object based on both the transmission / reception unit 510, which is an example of the reception unit that receives the output of the unit 13, the output of the distance information acquisition unit 13 received by the transmission / reception unit 510, and the output of the imaging unit 11. A determination unit 560 for determining the above, and a display control unit 530 for causing the display unit to display different displays depending on the presence or absence of a specific target based on the determination result of the determination unit 560. Specific objects include near objects, high reflectors, distant objects, low reflectors, blind spots and blurred areas of the image.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき特定の対象があるかを判断した判断部160、560による判断結果に基づき、特定の対象を識別する識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示をさせる表示制御部170、530を備える。特定の対象は、遠方物、低反射物および死角だけでなく、近接物、高反射物、および画像のぶれ領域も含む。 The image pickup device 1 and the display device 500, which are examples of the information processing device according to the embodiment of the present invention, receive the output of the image pickup unit 11 that images the target and the light reflected from the target by projecting the light on the target. Identification information 3Ga, 3Gb, 3Gc and three-dimensional identification information 3Ga, 3Gb, 3Gc that identify a specific target based on the judgment result by the judgment units 160 and 560 that determine whether or not there is a specific target based on both the output of the distance information acquisition unit 13 to be processed. The display control units 170 and 530 are provided with an image 3G and a display control unit 170 and 530 for displaying a display image including the image 3G on the display units 20 and 520. Specific objects include not only distant objects, low reflectors and blind spots, but also near objects, high reflectors, and blurred areas of the image.

3次元画像3Gは、3次元情報決定部の一例である3次元再構成処理部150、550、650により、距離情報取得部13の出力に基づき決定される The 3D image 3G is determined by the 3D reconstruction processing units 150, 550, and 650, which are examples of the 3D information determination unit, based on the output of the distance information acquisition unit 13.

これにより、所望の3次元画像3Gが表示されない要因が、遠方物、低反射物、死角、近接物、高反射物、および画像のぶれの何れであるかを、3次元画像3Gを観て確認することができる。 As a result, it is confirmed by observing the 3D image 3G whether the cause of not displaying the desired 3D image 3G is a distant object, a low-reflecting object, a blind spot, a near object, a high-reflecting object, or an image blur. can do.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力が閾値以上または閾値以下であるかを判断部160、560により判断された位置を示す位置情報に基づき、位置を識別する位置識別情報と、対象を撮像する撮像部11が撮像した2次元画像情報Gと、を含む表示画像を表示部20、520に表示させる表示制御部170、530を備える。 In the image pickup device 1 and the display device 500, which are examples of the information processing device according to the embodiment of the present invention, the output of the distance information acquisition unit 13 that projects light on the target and receives the light reflected from the target is equal to or higher than the threshold value. Alternatively, the position identification information for identifying the position based on the position information indicating the position determined by the determination units 160 and 560 to determine whether the value is below the threshold value, and the two-dimensional image information G imaged by the imaging unit 11 for imaging the target. The display control units 170 and 530 are provided so that the display image including the above can be displayed on the display units 20 and 520.

これにより、距離情報取得部13の出力が閾値以上または閾値以下である位置、すなわち距離情報取得部13の出力が強すぎたり弱すぎたりして所望の出力が得られない位置を2次元画像Gで確認することにより、所望の出力が得られない要因を確認することができる。 As a result, the position where the output of the distance information acquisition unit 13 is equal to or greater than or equal to the threshold value, that is, the position where the output of the distance information acquisition unit 13 is too strong or too weak to obtain a desired output is the two-dimensional image G. By confirming with, it is possible to confirm the reason why the desired output cannot be obtained.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力に基づき対象までの距離情報を取得できないと判断部160、560により判断された位置を示す位置情報に基づき、位置を識別する位置識別情報と、対象を撮像する撮像部11が撮像した2次元画像情報Gと、を含む表示画像を表示部20、520に表示させる表示制御部170、530を備える。 The image pickup device 1 and the display device 500, which are examples of the information processing device according to the embodiment of the present invention, are targets based on the output of the distance information acquisition unit 13 that projects light onto the target and receives the light reflected from the target. Based on the position information indicating the position determined by the determination units 160 and 560 that it is not possible to acquire the distance information up to, the position identification information for identifying the position and the two-dimensional image information G imaged by the imaging unit 11 for imaging the target. A display control unit 170, 530 for displaying a display image including, on the display units 20 and 520 is provided.

これにより、対象までの距離情報を取得できない位置を2次元画像Gで確認することにより、対象までの距離情報を取得できない要因を確認することができる。 Thereby, by confirming the position where the distance information to the target cannot be acquired with the two-dimensional image G, it is possible to confirm the factor that the distance information to the target cannot be acquired.

対象までの距離情報を取得できないと判断部160、560、660が判断するのは、距離情報取得部13の出力が閾値以上または閾値以下である場合以外に、距離情報取得部13の出力により画像のぶれを検出した場合も含む。 The determination units 160, 560, and 660 determine that the distance information to the target cannot be acquired by the output of the distance information acquisition unit 13 except when the output of the distance information acquisition unit 13 is equal to or less than the threshold value. Including the case where the blur is detected.

以上において、情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、撮像部11、距離情報取得部13、3次元再構成処理部150および判断部160を備える。 In the above, when the information processing device is the image pickup device 1, the image pickup device 1 includes an image pickup unit 11, a distance information acquisition unit 13, a three-dimensional reconstruction processing unit 150, and a determination unit 160, as shown in FIG. ..

情報処理装置が表示装置500である場合、図20および図21に示したように、表示装置500は、撮像部11および距離情報取得部13を備えておらず、撮像装置1が、撮像部11、距離情報取得部13を備えて、これらの出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, as shown in FIGS. 20 and 21, the display device 500 does not include the image pickup unit 11 and the distance information acquisition unit 13, and the image pickup device 1 is the image pickup unit 11. The distance information acquisition unit 13 is provided, and these outputs are transmitted to the display device 500 or the server 600.

表示装置500は、図20に示したように判断部560を備えてもよく、備えなくてもよい。 As shown in FIG. 20, the display device 500 may or may not include the determination unit 560.

表示装置500が判断部560を備えない場合、撮像装置1が判断部160を備えて表示装置500へ判断結果を送信してもよく、図21に示したようにサーバ600が判断部660を備えて表示装置500へ判断結果を送信してもよい。 When the display device 500 does not include the determination unit 560, the image pickup device 1 may include the determination unit 160 and transmit the determination result to the display device 500, and the server 600 includes the determination unit 660 as shown in FIG. The determination result may be transmitted to the display device 500.

同様に、表示装置500は、図20に示したように3次元再構成処理部550を備えてもよく、備えなくてもよい。 Similarly, the display device 500 may or may not include the three-dimensional reconstruction processing unit 550 as shown in FIG.

表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像を送信してもよく、図21に示したように、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像を送信してもよい。 When the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 may include the three-dimensional reconstruction processing unit 150 and transmit a three-dimensional image to the display device 500, as shown in FIG. In addition, the server 600 may include a three-dimensional reconstruction processing unit 650 and transmit a three-dimensional image to the display device 500.

以上説明したように、本発明の一実施形態に係る撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13(受光部の一例)と、距離情報取得部13の出力と、撮像部11の出力との両方に基づき遠方物または低反射物があるかを判断する判断部160と、遠方物または低反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the image pickup apparatus 1 according to the embodiment of the present invention includes an image pickup unit 11 that images an object, a projection unit 12 that projects light onto the object, and distance information that receives light reflected from the object. A determination unit 160 that determines whether there is a distant object or a low-reflecting object based on both the acquisition unit 13 (an example of a light receiving unit), the output of the distance information acquisition unit 13, and the output of the imaging unit 11, and the distant object or A display control unit 170 that causes the display units 20 and 520 to display differently depending on the presence or absence of a low-reflecting object is provided.

これにより、撮影者は、遠方物または黒色等の低反射物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a distant object or a low-reflecting object such as black is included in the captured image.

撮像装置1は、表示部20を備える。これにより、撮影者は遠方物または低反射物が撮像画像に含まれることを確実に確認することができる。 The image pickup apparatus 1 includes a display unit 20. This allows the photographer to reliably confirm that a distant object or a low-reflection object is included in the captured image.

表示制御部170は、遠方物または低反射物の位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、遠方物または低反射物の位置を確認することができる。 The display control unit 170 causes different displays at the positions of the display units 20 and 520 according to the positions of the distant object or the low reflection object. This allows the photographer to confirm the position of a distant object or a low reflection object.

表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、遠方物または低反射物に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、遠方物または低反射物の位置を確実に確認することができる。 The display unit 20 includes a plurality of display units 20A and 20a, and the display control unit 170 determines the presence or absence of an object on the display unit on the side of the plurality of display units 20A and 20a that is closer to the distant object or the low reflection object. To display differently. This allows the photographer to reliably confirm the position of a distant object or a low reflection object.

表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、遠方物または低反射物を識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、遠方物または低反射物の位置を確実に確認することができる。 The display control unit 170 displays the image information G captured by the image pickup unit 11 on the display units 20 and 520, and displays a display image including identification information for identifying a distant object or a low reflection object and image information G. Displayed in units 20 and 520. This allows the photographer to reliably confirm the position of a distant object or a low reflection object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下である場合、撮像部11の出力に基づき、低反射物か、遠方物かを判断する。これにより、撮影者は、低反射物、遠方物の何れが撮像画像に含まれることを正確に確認することができる。 When the storage amount of the pixel by the light received by the distance information acquisition unit 13 is equal to or less than the threshold value, the determination unit 160 determines whether the object is a low reflection object or a distant object based on the output of the image pickup unit 11. As a result, the photographer can accurately confirm whether the captured image includes a low-reflecting object or a distant object.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下で、撮像部11の画素の蓄電量が閾値以下である場合、低反射物があると判断する。これにより、撮影者は、低反射物が撮像画像に含まれることを正確に確認することができる。 The determination unit 160 determines that there is a low-reflecting object when the amount of electricity stored in the pixels due to the light received by the distance information acquisition unit 13 is less than or equal to the threshold value and the amount of electricity stored in the pixels of the image pickup unit 11 is less than or equal to the threshold value. This allows the photographer to accurately confirm that the low-reflection object is included in the captured image.

判断部160は、距離情報取得部13が受光した光による画素の蓄電量が閾値以下で、撮像部11の画素の蓄電量が閾値以上であり、かつ画素に基づき判断される距離が閾値以上である場合、遠方物があると判断する。 In the determination unit 160, the amount of electricity stored in the pixels due to the light received by the distance information acquisition unit 13 is equal to or less than the threshold value, the amount of electricity stored in the pixels of the imaging unit 11 is equal to or greater than the threshold value, and the distance determined based on the pixels is equal to or greater than the threshold value. If there is, it is judged that there is a distant object.

これにより、撮影者は、遠方物が撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that a distant object is included in the captured image.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、遠方物または低反射物であることを確認することができる。 The image pickup apparatus 1 acquires the distance information to the target based on the light received by the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired distance information is not acquired is a distant object or a low reflection object.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、遠方物または低反射物であることを確認することができる。 The image pickup apparatus 1 includes a transmission / reception unit 180, which is an example of an output unit that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition unit 13. In this case, the photographer can confirm that the factor for not acquiring the desired three-dimensional information is a distant object or a low-reflection object.

本発明の一実施形態に係る撮像処理方法は、対象を撮像部11により撮像する撮像ステップと、対象に投射部12により光を投射する投射ステップと、対象から反射してきた光を距離情報取得部13により受光する受光ステップと、距離情報取得部13の出力と、撮像部11の出力との両方に基づき遠方物または低反射物があるかを判断部160、560、660により判断する判断ステップと、遠方物または低反射物の有無に応じて、表示制御部170、530により表示部20、520に異なる表示をさせる表示ステップと、を備える。 The imaging processing method according to the embodiment of the present invention includes an imaging step of capturing an image of an object by an imaging unit 11, a projection step of projecting light onto an object by a projection unit 12, and a distance information acquisition unit that acquires light reflected from the object. A light receiving step of receiving light from the 13 and a judgment step of determining whether there is a distant object or a low-reflecting object based on both the output of the distance information acquisition unit 13 and the output of the imaging unit 11 by the determination units 160, 560, and 660. A display step is provided in which display control units 170 and 530 cause display units 20 and 520 to display differently depending on the presence or absence of a distant object or a low reflection object.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき遠方物または低反射物があるかを判断した判断部160、560、660による判断結果に基づき、遠方物または低反射物の有無に応じて、表示部20、520に異なる表示をさせる表示制御部170、530を備える。 The image pickup device 1 and the display device 500, which are examples of the information processing device according to the embodiment of the present invention, receive the output of the image pickup unit 11 that images the target and the light reflected from the target by projecting the light onto the target. Based on the judgment results by the judgment units 160, 560, and 660 that determine whether there is a distant object or a low-reflecting object based on both the output of the distance information acquisition unit 13 and the presence or absence of the distant object or the low-reflecting object. The display control units 170 and 530 are provided so that the display units 20 and 520 display different displays.

以上説明したように、本発明の一実施形態に係る撮像装置1は、対象を撮像する撮像部11と、対象に光を投射する投射部12と、対象から反射してきた光を受光する距離情報取得部13(受光部の一例)と、距離情報取得部13の出力と、撮像部11の出力との両方に基づき画像のぶれがあるかを判断する判断部160と、画像のぶれの有無に応じて、表示部20、520に異なる表示をさせる表示制御部170と、を備える。 As described above, the image pickup apparatus 1 according to the embodiment of the present invention includes an image pickup unit 11 that images an object, a projection unit 12 that projects light onto the object, and distance information that receives light reflected from the object. The acquisition unit 13 (an example of the light receiving unit), the determination unit 160 that determines whether or not there is image blur based on both the output of the distance information acquisition unit 13 and the output of the image pickup unit 11, and the presence or absence of image blur. A display control unit 170 that causes the display units 20 and 520 to display different displays is provided accordingly.

これにより、撮影者は、画像のぶれが撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the image blur is included in the captured image.

撮像装置1は、表示部20を備える。これにより、撮影者は、画像のぶれが撮像画像に含まれることを確実に確認することができる。 The image pickup apparatus 1 includes a display unit 20. As a result, the photographer can surely confirm that the blurred image is included in the captured image.

表示制御部170は、画像のぶれの位置に応じた表示部20、520の位置に異なる表示をさせる。これにより、撮影者は、画像のぶれの位置を確認することができる。 The display control unit 170 causes different displays at the positions of the display units 20 and 520 according to the position of the blur of the image. This allows the photographer to confirm the position of the blur in the image.

表示部20は複数の表示部20A、20aを備え、表示制御部170は、複数の表示部20A、20aのうち、画像のぶれの位置に近い側の表示部に、対象物の有無に応じて異なる表示をさせる。これにより、撮影者は、画像のぶれの位置を確実に確認することができる。 The display unit 20 includes a plurality of display units 20A and 20a, and the display control unit 170 displays the display unit 20A and 20a on the side of the plurality of display units 20A and 20a that is closer to the blurring position, depending on the presence or absence of an object. Make a different display. As a result, the photographer can surely confirm the position of the blur of the image.

表示制御部170は、撮像部11が撮像した画像情報Gを表示部20、520に表示させるとともに、画像のぶれを識別する識別情報と、画像情報Gと、を含む表示画像を表示部20、520に表示させる。これにより、撮影者は、画像のぶれの位置を確実に確認することができる。 The display control unit 170 displays the image information G captured by the image pickup unit 11 on the display units 20 and 520, and displays a display image including the identification information for identifying the blur of the image and the image information G. Display on 520. As a result, the photographer can surely confirm the position of the blur of the image.

判断部160は、撮像部11が撮像した画像情報に基づき画像のエッジを検出し、かつ距離情報取得部13が受光した光による画素にずれが生じている場合、画像のぶれがあると判断する The determination unit 160 detects the edge of the image based on the image information captured by the image pickup unit 11, and determines that the image is blurred when the pixels due to the light received by the distance information acquisition unit 13 are displaced.

これにより、撮影者は、画像のぶれが撮像画像に含まれることを正確に確認することができる。 This allows the photographer to accurately confirm that the image blur is included in the captured image.

撮像装置1は、距離情報取得部13が受光した光に基づき対象までの距離情報を取得する。この場合、撮影者は、所望の距離情報が取得されない要因が、画像のぶれであることを確認することができる。 The image pickup apparatus 1 acquires the distance information to the target based on the light received by the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired distance information is not acquired is the blurring of the image.

撮像装置1は、距離情報取得部13から取得した距離情報に基づいて決定された3次元情報を出力する出力部の一例である送受信部180を備える。この場合、撮影者は、所望の3次元情報が取得されない要因が、画像のぶれであることを確認することができる。 The image pickup apparatus 1 includes a transmission / reception unit 180, which is an example of an output unit that outputs three-dimensional information determined based on the distance information acquired from the distance information acquisition unit 13. In this case, the photographer can confirm that the factor that the desired three-dimensional information is not acquired is the blurring of the image.

本発明の一実施形態に係る撮像処理方法は、対象を撮像部11により撮像する撮像ステップと、対象に投射部12により光を投射する投射ステップと、対象から反射してきた光を距離情報取得部13により受光する受光ステップと、距離情報取得部13の出力と、撮像部11の出力との両方に基づき画像のぶれがあるかを判断部160、560、660により判断する判断ステップと、画像のぶれの有無に応じて、表示制御部170、530により表示部20、520に異なる表示をさせる表示ステップと、を備える。 The imaging processing method according to the embodiment of the present invention includes an imaging step of capturing an image of an object by an imaging unit 11, a projection step of projecting light onto an object by a projection unit 12, and a distance information acquisition unit that acquires light reflected from the object. A determination step of determining whether or not there is image blur based on both the light receiving step of receiving light from the image 13 and the output of the distance information acquisition unit 13 and the output of the imaging unit 11 and the determination step of determining whether the image is blurred by the determination units 160, 560, and 660. A display step is provided in which display control units 170 and 530 cause display units 20 and 520 to display different displays depending on the presence or absence of blurring.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象を撮像する撮像部11の出力と、対象に光を投射して対象から反射してきた光を受光する距離情報取得部13の出力との両方に基づき画像のぶれがあるかを判断した判断部160、560、660による判断結果に基づき、画像のぶれの有無に応じて、表示部20、520に異なる表示をさせる表示制御部170、530を備える。 The image pickup device 1 and the display device 500, which are examples of the information processing device according to the embodiment of the present invention, receive the output of the image pickup unit 11 that images the target and the light reflected from the target by projecting the light on the target. Based on the judgment results of the judgment units 160, 560, and 660 that determine whether or not there is image blur based on both the output of the distance information acquisition unit 13 and the output of the distance information acquisition unit 13, the display units 20 and 520 are displayed according to the presence or absence of image blur. A display control unit 170, 530 for displaying different displays is provided.

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象に投射されて対象から反射してきた光を受光する受光部の一例である距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させる表示制御部170、530を備え、表示制御部170、530は、3次元画像3G中で、対象から反射してきた光を受光したときの距離情報取得部13からの距離が遠い遠方物、投射された光に対する反射率が低い低反射物、および対象から反射してきた光を受光したときの距離情報取得部13に対する死角の少なくとも1つであると判断された位置を示す位置情報に基づき、遠方物、低反射物および死角の少なくとも1つの位置を識別する位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The image pickup device 1 and the display device 500, which are examples of the information processing device according to the embodiment of the present invention, are distance information acquisition units 13 which are examples of light receiving units that receive light reflected from the target and projected onto the target. The display control units 170 and 530 are provided to display the three-dimensional image 3G determined based on the output on the display units 20 and 520, and the display control units 170 and 530 emit the light reflected from the object in the three-dimensional image 3G. A distant object that is far from the distance information acquisition unit 13 when it receives light, a low-reflecting object that has a low reflectance to the projected light, and a blind spot with respect to the distance information acquisition unit 13 when the light reflected from the object is received. Position identification information 3Ga, 3Gb, 3Gc, and three-dimensional image 3G that identify at least one position of a distant object, a low-reflecting object, and a blind spot based on the position information indicating the position determined to be at least one. The display image including the display image is displayed on the display units 20 and 520.

これにより、所望の3次元画像3Gが表示されない要因が、遠方物、低反射物、および死角の何れであるかを、3次元画像3Gを観て確認することができるため、要因に応じて再撮像等の対応をとることが可能になる。 As a result, it is possible to confirm by observing the 3D image 3G whether the factor that the desired 3D image 3G is not displayed is a distant object, a low reflection object, or a blind spot. It becomes possible to take measures such as imaging.

3次元画像3Gは、3次元情報決定部の一例である3次元再構成処理部150、550、650により決定される。 The three-dimensional image 3G is determined by the three-dimensional reconstruction processing units 150, 550, and 650, which are examples of the three-dimensional information determination unit.

表示制御部170、530は、遠方物、低反射物、および死角の何れか1つの位置情報に基づき、位置識別情報3Ga、3Gbおよび3Gcの何れか1つと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させてもよく、遠方物、低反射物、および死角の何れか2つまたは全ての位置情報に基づき、位置識別情報3Ga、3Gbおよび3Gcの何れか2つまたは全てと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させてもよい。 The display control unit 170, 530 displays a display including any one of the position identification information 3Ga, 3Gb, and 3Gc and the three-dimensional image 3G based on the position information of any one of the distant object, the low-reflecting object, and the blind spot. The image may be displayed on the display units 20, 520, and based on the position information of any two or all of the distant object, the low-reflecting object, and the blind spot, any two of the position identification information 3Ga, 3Gb, and 3Gc or A display image including all and the three-dimensional image 3G may be displayed on the display units 20 and 520.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、距離情報取得部13および3次元再構成処理部150を備える。 When the information processing device is the image pickup device 1, the image pickup device 1 includes a distance information acquisition unit 13 and a three-dimensional reconstruction processing unit 150, as shown in FIG.

情報処理装置が表示装置500である場合、図20および図21に示したように、表示装置500は、距離情報取得部13を備えておらず、撮像装置1が、距離情報取得部13を備えて距離情報取得部13の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, as shown in FIGS. 20 and 21, the display device 500 does not include the distance information acquisition unit 13, and the image pickup device 1 includes the distance information acquisition unit 13. The output of the distance information acquisition unit 13 is transmitted to the display device 500 or the server 600.

表示装置500は、3次元再構成処理部550を備えても備えなくてもよく、表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像を送信してもよく、図21に示したように、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像を送信してもよい。 The display device 500 may or may not include the three-dimensional reconstruction processing unit 550, and when the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 includes the three-dimensional reconstruction processing unit 150. The 3D image may be transmitted to the display device 500, or as shown in FIG. 21, the server 600 may include the 3D reconstruction processing unit 650 and transmit the 3D image to the display device 500. ..

表示制御部170、530は、3次元画像3Gに含まれる点群データの密度が閾値よりも低く、かつ、遠方物、低反射物、または死角の少なくとも1つであると判断される位置を示す位置情報に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる The display control units 170 and 530 indicate positions where the density of the point cloud data included in the three-dimensional image 3G is lower than the threshold value and is determined to be at least one of a distant object, a low reflection object, or a blind spot. A display image including the position identification information 3Ga, 3Gb, 3Gc, and the three-dimensional image 3G is displayed on the display units 20 and 520 based on the position information.

これにより、点群データの密度が閾値よりも低い要因が、遠方物、低反射物、および死角の何れであるかを、3次元画像3Gを観て確認することができる。 Thereby, it is possible to confirm by observing the three-dimensional image 3G whether the factor that the density of the point cloud data is lower than the threshold value is a distant object, a low reflection object, or a blind spot.

表示制御部170、530は、対象を撮像する撮像部11の出力に基づき、3次元画像3G中で、遠方物、低反射物、または死角の少なくとも1つであると判断される位置を示す位置情報に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 are positions indicating a position determined to be at least one of a distant object, a low reflection object, or a blind spot in the three-dimensional image 3G based on the output of the image pickup unit 11 that images the object. Based on the information, a display image including the position identification information 3Ga, 3Gb, 3Gc, and the three-dimensional image 3G is displayed on the display units 20 and 520.

これにより、所望の3次元画像3Gが表示されない要因を、遠方物、低反射物、および死角の何れであるか、撮像部11の出力に基づき正確に判断することができる。 Thereby, it is possible to accurately determine whether the factor that the desired three-dimensional image 3G is not displayed is a distant object, a low-reflecting object, or a blind spot based on the output of the imaging unit 11.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、撮像部11を備える。情報処理装置が表示装置500である場合、表示装置500は、図20および図21に示したように、撮像部11を備えておらず、撮像装置1が、撮像部11を備えて、撮像部11の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the image pickup device 1, the image pickup device 1 includes an image pickup unit 11 as shown in FIG. When the information processing device is the display device 500, the display device 500 does not include the image pickup unit 11 as shown in FIGS. 20 and 21, and the image pickup device 1 includes the image pickup unit 11 and includes the image pickup unit 11. The output of 11 is transmitted to the display device 500 or the server 600.

撮像装置1および表示装置500は、3次元画像3G中で、遠方物、低反射物、または死角の少なくとも1つである位置を判断する判断部160、560を備え、表示制御部170、530は、判断部160、560の判断結果に基づき、位置識別情報3Ga、3Gb、3Gcと、3次元画像3Gにと、を含む表示画像を表示部20、520に表示させる。 The image pickup device 1 and the display device 500 include determination units 160 and 560 for determining a position which is at least one of a distant object, a low reflection object, or a blind spot in a three-dimensional image 3G, and display control units 170 and 530. Based on the determination results of the determination units 160 and 560, the display units 20 and 520 display the display image including the position identification information 3Ga, 3Gb, 3Gc and the three-dimensional image 3G.

情報処理装置が撮像装置1である場合、撮像装置1は、図19に示したように、判断部160を備える。 When the information processing device is the image pickup device 1, the image pickup device 1 includes a determination unit 160 as shown in FIG.

情報処理装置が表示装置500である場合、表示装置500は、図20に示したように判断部560を備えてもよく、判断部560を備えなくてもよい。 When the information processing device is the display device 500, the display device 500 may or may not include the determination unit 560 as shown in FIG. 20.

表示装置500が判断部560を備えない場合、撮像装置1が判断部160を備えて表示装置500へ判断結果を送信してもよく、図21に示したようにサーバ600が判断部660を備えて表示装置500へ判断結果を送信してもよい。 When the display device 500 does not include the determination unit 560, the image pickup device 1 may include the determination unit 160 and transmit the determination result to the display device 500, and the server 600 includes the determination unit 660 as shown in FIG. The determination result may be transmitted to the display device 500.

表示制御部170、530は、3次元画像3Gを見る視点の位置にある仮想カメラICの位置および向きを変更することにより、表示部20、520に表示させる3次元画像3Gの表示領域を変更する。 The display control units 170 and 530 change the display area of the 3D image 3G to be displayed on the display units 20 and 520 by changing the position and orientation of the virtual camera IC at the position of the viewpoint for viewing the 3D image 3G. ..

本発明の一実施形態に係る情報処理装置の一例である撮像装置1および表示装置500は、対象に投射されて対象から反射してきた光を受光する受光部の一例である距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させる表示制御部170、530を備え、表示制御部170、530は、対象から反射してきた光を受光したときの距離情報取得部13の位置を示す位置情報に基づき、対象から反射してきた光を受光したときの距離情報取得部13の位置を識別する位置識別情報3G1、3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The image pickup device 1 and the display device 500, which are examples of the information processing device according to the embodiment of the present invention, are the distance information acquisition section 13 which is an example of the light receiving section that receives the light projected from the target and reflected from the target. The display control units 170 and 530 are provided to display the three-dimensional image 3G determined based on the output on the display units 20 and 520, and the display control units 170 and 530 acquire distance information when the light reflected from the target is received. A display image including position identification information 3G1, 3G2, and a three-dimensional image 3G that identify the position of the distance information acquisition unit 13 when the light reflected from the target is received based on the position information indicating the position of the unit 13. Is displayed on the display units 20 and 520.

これにより、対象から反射してきた光を受光したときの距離情報取得部13の位置を示す撮像位置と、特定の対象との位置関係を、3次元画像3G中で把握できる。すなわち、3次元画像を取得した現場における撮像位置と特定の対象との位置関係と、3次元画像における撮像位置と特定の対象との位置関係と、を容易に比較することができる。 As a result, the positional relationship between the imaging position indicating the position of the distance information acquisition unit 13 when the light reflected from the object is received and the specific object can be grasped in the three-dimensional image 3G. That is, it is possible to easily compare the positional relationship between the imaging position and the specific target in the field where the three-dimensional image is acquired and the positional relationship between the imaging position and the specific object in the three-dimensional image.

3次元画像3Gおよび位置情報は、3次元情報決定部の一例である3次元再構成処理部150、550、650により決定される。 The 3D image 3G and the position information are determined by the 3D reconstruction processing units 150, 550, and 650, which are examples of the 3D information determination unit.

情報処理装置が撮像装置1である場合、撮像装置1は、距離情報取得部13および3次元再構成処理部150を備える。 When the information processing device is the image pickup device 1, the image pickup device 1 includes a distance information acquisition unit 13 and a three-dimensional reconstruction processing unit 150.

情報処理装置が表示装置500である場合、表示装置500は、距離情報取得部13を備えておらず、撮像装置1が、距離情報取得部13を備えて距離情報取得部13の出力を表示装置500またはサーバ600へ送信する。 When the information processing device is the display device 500, the display device 500 does not include the distance information acquisition unit 13, and the image pickup device 1 includes the distance information acquisition unit 13 to display the output of the distance information acquisition unit 13. Send to 500 or server 600.

表示装置500は、3次元再構成処理部550を備えても備えなくてもよく、表示装置500が3次元再構成処理部550を備えない場合、撮像装置1が3次元再構成処理部150を備えて表示装置500へ3次元画像および位置情報を送信してもよく、サーバ600が3次元再構成処理部650を備えて表示装置500へ3次元画像および位置情報を送信してもよい。 The display device 500 may or may not include the three-dimensional reconstruction processing unit 550, and when the display device 500 does not include the three-dimensional reconstruction processing unit 550, the imaging device 1 includes the three-dimensional reconstruction processing unit 150. The 3D image and the position information may be transmitted to the display device 500, or the server 600 may include the 3D reconstruction processing unit 650 and transmit the 3D image and the position information to the display device 500.

表示制御部170、530は、3次元画像3Gにおける点群データの密度が閾値よりも低い領域を示す領域情報に基づき、領域を識別する低密度識別情報の一例である識別情報3Ga、3Gb、3Gcと、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 are identification information 3Ga, 3Gb, 3Gc, which is an example of low-density identification information for identifying an area based on area information indicating an area in which the density of point cloud data in the three-dimensional image 3G is lower than the threshold value. A display image including the three-dimensional image 3G and the three-dimensional image 3G is displayed on the display units 20 and 520.

この場合、撮像位置と、点群データの密度が閾値よりも低い領域との位置関係を把握できるため、点群データの密度が閾値よりも低い要因を特定することが可能になる。例えば、当該領域が撮像位置より遠方であれば遠方物が要因であり、当該領域が撮像位置の死角にあれば死角が要因であり、遠方物および死角の何れでもなければ低反射物が要因であることが特定できる。 In this case, since the positional relationship between the imaging position and the region where the density of the point cloud data is lower than the threshold value can be grasped, it is possible to identify the factor in which the density of the point cloud data is lower than the threshold value. For example, if the area is far from the imaging position, a distant object is a factor, if the area is in the blind spot of the imaging position, a blind spot is a factor, and if it is neither a distant object nor a blind spot, a low-reflecting object is a factor. It can be identified that there is.

表示制御部170、530は、3次元画像3Gを見る視点の位置にある仮想カメラICの位置および向きを変更することにより、表示部20、520に表示させる3次元画像3Gの表示領域を変更する。 The display control units 170 and 530 change the display area of the 3D image 3G to be displayed on the display units 20 and 520 by changing the position and orientation of the virtual camera IC at the position of the viewpoint for viewing the 3D image 3G. ..

表示制御部170、530は、仮想カメラICの位置が位置識別情報により識別される位置3G1、3G2にある場合、仮想カメラICの向きを予め定められた向きに変更する。 When the position of the virtual camera IC is at the positions 3G1 and 3G2 identified by the position identification information, the display control units 170 and 530 change the orientation of the virtual camera IC to a predetermined orientation.

これにより、撮像位置に位置するユーザの視線を、現場で見てほしい特定の対象物へ向けさせることが可能になる。 This makes it possible to direct the line of sight of the user located at the imaging position to a specific object to be seen in the field.

表示制御部170、530は、予め定められた座標や、3次元画像3Gにおける点群データの密度が閾値よりも低い低密度部が表示領域に含まれるように、仮想カメラICの向きを変更する。 The display control units 170 and 530 change the orientation of the virtual camera IC so that the display area includes the predetermined coordinates and the low density part where the density of the point cloud data in the three-dimensional image 3G is lower than the threshold value. ..

これにより、撮像位置に位置するユーザの視線を、予め定められた座標や、3次元画像3G中では低密度部となっている特定の対象物へ向けさせることが可能になる。 This makes it possible to direct the line of sight of the user located at the imaging position to a specific object having predetermined coordinates or a low density portion in the three-dimensional image 3G.

表示制御部170、530は、第1の位置に位置する距離情報取得部13の出力および第1の位置とは異なる第2の位置に位置する距離情報取得部13の出力に基づき決定される3次元画像3Gを表示部20、520に表示させ、第1の位置を識別する第1の位置識別情報3G1および第2の位置を識別する第2の位置識別情報3G2と、3次元画像3Gと、を含む表示画像を表示部20、520に表示させる。 The display control units 170 and 530 are determined based on the output of the distance information acquisition unit 13 located at the first position and the output of the distance information acquisition unit 13 located at a second position different from the first position. The first position identification information 3G1 for displaying the three-dimensional image 3G on the display units 20 and 520 and identifying the first position, the second position identification information 3G2 for identifying the second position, and the three-dimensional image 3G, The display image including the above is displayed on the display units 20 and 520.

これにより、第1の撮像位置および第2の撮像位置と、特定の対象との位置関係を、3次元画像3G中で把握できる。 Thereby, the positional relationship between the first imaging position and the second imaging position and the specific target can be grasped in the three-dimensional image 3G.

1 撮像装置(情報処理装置の一例)
3G 3次元画像
3Ga、3Gb、3Gc 識別情報
3G1、3G2 位置識別情報
10 筐体
11 撮像部
11a、11A 撮像素子
11b、11B 魚眼レンズ
12 投射部
12a、12A 光源部
12b、12B 広角レンズ
13 距離情報取得部(受光部の一例)
13a、13A TOFセンサ
13b、13B 広角レンズ
14 処理回路
15 撮影スイッチ
20 表示部
20A、20a 表示部
111 他の撮像部
150、550、650 3次元再構成処理部(3次元情報決定部の一例)
160、560、660 判断部
170 表示制御部(出力部の一例)
180 送受信部(出力部の一例)
300 外部装置(出力先の一例)
500 表示装置(出力先、情報処理装置の一例)
520 表示部(出力先の一例)
530 表示制御部(出力部の一例)
600 サーバ
L 同期信号線
1 Imaging device (an example of information processing device)
3G 3D image 3Ga, 3Gb, 3Gc Identification information 3G1, 3G2 Position identification information 10 Housing 11 Image sensor 11a, 11A Image sensor 11b, 11B Fisheye lens 12 Projection unit 12a, 12A Light source unit 12b, 12B Wide-angle lens 13 Distance information acquisition unit (Example of light receiving part)
13a, 13A TOF sensor 13b, 13B Wide-angle lens 14 Processing circuit 15 Shooting switch 20 Display unit 20A, 20a Display unit 111 Other imaging unit 150, 550, 650 3D reconstruction processing unit (example of 3D information determination unit)
160, 560, 660 Judgment unit 170 Display control unit (example of output unit)
180 Transmitter / receiver (example of output)
300 External device (example of output destination)
500 Display device (output destination, example of information processing device)
520 display unit (example of output destination)
530 Display control unit (example of output unit)
600 server L sync signal line

Claims (10)

対象を撮像する撮像部と、
前記対象に光を投射する投射部と、
前記対象から反射してきた前記光を受光する受光部と、
前記受光部の出力と、前記撮像部の出力との両方に基づき画像のぶれがあるかを判断する判断部と、
前記画像のぶれの有無に応じて、表示部に異なる表示をさせる表示制御部と、
を備えた撮像装置。
An imaging unit that captures an object and
A projection unit that projects light onto the target,
A light receiving unit that receives the light reflected from the target, and a light receiving unit.
A determination unit that determines whether or not there is image blur based on both the output of the light receiving unit and the output of the image pickup unit.
A display control unit that causes the display unit to display different images depending on the presence or absence of blurring of the image.
Imaging device equipped with.
前記表示部を備えた請求項1記載の撮像装置。 The imaging device according to claim 1, further comprising the display unit. 前記表示制御部は、前記画像のぶれの位置に応じた前記表示部の位置に、前記異なる表示をさせる請求項1または2記載の撮像装置。 The imaging device according to claim 1 or 2, wherein the display control unit causes the different display to be displayed at the position of the display unit according to the position of the blur of the image. 前記表示部は複数の表示部を備え、
前記表示制御部は、前記複数の表示部のうち、前記画像のぶれの位置に近い側の前記表示部に、前記画像のぶれの有無に応じて異なる表示をさせる請求項1〜3の何れか記載の撮像装置。
The display unit includes a plurality of display units.
The display control unit is any one of claims 1 to 3, wherein the display unit on the side closer to the position of the blur of the image among the plurality of display units displays differently depending on the presence or absence of the blur of the image. The imaging apparatus described.
前記表示制御部は、前記撮像部が撮像した画像情報と、前記画像のぶれを識別する識別情報と、を含む表示画像を前記表示部に表示させる請求項1〜4の何れか記載の撮像装置。 The imaging device according to any one of claims 1 to 4, wherein the display control unit displays a display image including image information captured by the imaging unit and identification information for identifying blurring of the image on the display unit. .. 前記判断部は、前記撮像部が撮像した画像情報に基づき画像のエッジを検出し、かつ前記受光部が受光した前記光による画素にずれが生じている場合、前記画像のぶれがあると判断する請求項1〜5の何れか記載の撮像装置。 The determination unit detects an edge of an image based on the image information captured by the image pickup unit, and determines that the image is blurred when the pixels due to the light received by the light receiving unit are displaced. The imaging device according to any one of claims 1 to 5. 前記受光部が受光した光に基づき前記対象までの距離情報を取得する請求項1〜6の何れか記載の撮像装置。 The imaging device according to any one of claims 1 to 6, wherein the distance information to the target is acquired based on the light received by the light receiving unit. 前記受光部から取得した前記距離情報に基づいて決定された3次元情報を出力する出力部をさらに備える請求項7記載の撮像装置。 The imaging device according to claim 7, further comprising an output unit that outputs three-dimensional information determined based on the distance information acquired from the light receiving unit. 対象を撮像部により撮像する撮像ステップと、
前記対象に光を投射する投射ステップと、
前記対象から反射してきた前記光を受光部により受光する受光ステップと、
前記受光部の出力と、前記撮像部の出力との両方に基づき画像のぶれがあるかを判断する判断ステップと、
前記画像のぶれの有無に応じて、異なる表示をさせる表示ステップと、を備えた撮像処理方法。
An imaging step in which an object is imaged by an imaging unit,
A projection step that projects light onto the target,
A light receiving step in which the light reflected from the target is received by the light receiving unit, and
A determination step for determining whether or not there is image blur based on both the output of the light receiving unit and the output of the imaging unit, and
An imaging processing method comprising a display step of displaying different images depending on the presence or absence of blurring of the image.
対象を撮像する撮像部の出力と、前記対象に光を投射して前記対象から反射してきた前記光を受光する受光部の出力との両方に基づき画像のぶれがあるかを判断した判断結果に基づき、前記画像のぶれの有無に応じて、表示部に異なる表示をさせる表示制御部を備えた情報処理装置。 Based on both the output of the image pickup unit that images the target and the output of the light receiving unit that projects the light onto the target and receives the light reflected from the target, the judgment result is determined as to whether or not there is image blur. Based on this, an information processing device including a display control unit that causes the display unit to display differently depending on the presence or absence of blurring of the image.
JP2021048028A 2021-03-23 2021-03-23 Imaging device, imaging method and information processing device Active JP6966011B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021048028A JP6966011B1 (en) 2021-03-23 2021-03-23 Imaging device, imaging method and information processing device
PCT/JP2022/013038 WO2022202775A1 (en) 2021-03-23 2022-03-22 Imaging device, imaging method, and information processing device
EP22720071.4A EP4315247A1 (en) 2021-03-23 2022-03-22 Imaging device, imaging method, and information processing device
CN202280022744.6A CN116997930A (en) 2021-03-23 2022-03-22 Imaging apparatus, imaging method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021048028A JP6966011B1 (en) 2021-03-23 2021-03-23 Imaging device, imaging method and information processing device

Publications (2)

Publication Number Publication Date
JP6966011B1 true JP6966011B1 (en) 2021-11-10
JP2022146976A JP2022146976A (en) 2022-10-06

Family

ID=78466269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021048028A Active JP6966011B1 (en) 2021-03-23 2021-03-23 Imaging device, imaging method and information processing device

Country Status (2)

Country Link
JP (1) JP6966011B1 (en)
CN (1) CN116997930A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005925A (en) * 2013-06-21 2015-01-08 キヤノン株式会社 Image processing apparatus and image processing method
WO2015075926A1 (en) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 Distance measurement and imaging system
JP2019083501A (en) * 2017-10-27 2019-05-30 ソニーセミコンダクタソリューションズ株式会社 Imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005925A (en) * 2013-06-21 2015-01-08 キヤノン株式会社 Image processing apparatus and image processing method
WO2015075926A1 (en) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 Distance measurement and imaging system
JP2019083501A (en) * 2017-10-27 2019-05-30 ソニーセミコンダクタソリューションズ株式会社 Imaging device

Also Published As

Publication number Publication date
CN116997930A (en) 2023-11-03
JP2022146976A (en) 2022-10-06

Similar Documents

Publication Publication Date Title
CN113412614B (en) Three-dimensional localization using depth images
US9488471B2 (en) Methods and systems for navigation and terrain change detection
JP2007529960A (en) 3D information acquisition and display system for personal electronic devices
CN112204941A (en) Camera device
JP6868167B1 (en) Imaging device and imaging processing method
CN104169795A (en) Image display device, photography device in which image display device is mounted as viewfinder device, and image display method
JP6966011B1 (en) Imaging device, imaging method and information processing device
JP7006824B1 (en) Information processing equipment
JP7031771B1 (en) Imaging device, imaging method and information processing device
JP7040660B1 (en) Information processing equipment and information processing method
CN111510700A (en) Image acquisition device
JP7414090B2 (en) Imaging device and method of controlling the imaging device
JP7120365B1 (en) IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE
JP6868168B1 (en) Imaging device and imaging processing method
WO2022202775A1 (en) Imaging device, imaging method, and information processing device
JP2022147124A (en) Information processing apparatus
JP2022147012A (en) Information processing apparatus and information processing method
WO2022202536A1 (en) Information processing apparatus and information processing method
JP2021150880A (en) Image capture device and image capture processing method
JP2021150882A (en) Image capture device and image capture processing method
JP2004260591A (en) Stereoscopic image display device
CN111899348A (en) Projection-based augmented reality experiment demonstration system and method
KR102660776B1 (en) Information processing devices and information processing methods
US20230145521A1 (en) Information processing apparatus and method of processing information
CN116583879A (en) Vehicle terrain capture system and display of 3D digital images and 3D sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R151 Written notification of patent or utility model registration

Ref document number: 6966011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151