JP2021144061A - Imaging device, information processing device, and imaging system - Google Patents

Imaging device, information processing device, and imaging system Download PDF

Info

Publication number
JP2021144061A
JP2021144061A JP2021106940A JP2021106940A JP2021144061A JP 2021144061 A JP2021144061 A JP 2021144061A JP 2021106940 A JP2021106940 A JP 2021106940A JP 2021106940 A JP2021106940 A JP 2021106940A JP 2021144061 A JP2021144061 A JP 2021144061A
Authority
JP
Japan
Prior art keywords
information
unit
model
image pickup
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021106940A
Other languages
Japanese (ja)
Other versions
JP2021144061A5 (en
Inventor
武昭 杉村
Takeaki Sugimura
武昭 杉村
源洋 中川
Motohiro Nakagawa
源洋 中川
一之 風見
Kazuyuki Kazami
一之 風見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2021106940A priority Critical patent/JP2021144061A/en
Publication of JP2021144061A publication Critical patent/JP2021144061A/en
Publication of JP2021144061A5 publication Critical patent/JP2021144061A5/en
Priority to JP2023106656A priority patent/JP2023115289A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an imaging device capable of reducing the load of processing.SOLUTION: An imaging device includes: a body part; a detection unit including an imaging unit for imaging an object and a distance measurement unit for detecting a distance from each point on the surface of the object; an information calculation unit provided in the body part to calculate at least one of shape information and texture information of the object by using a detection result of the detection unitt; and a communication unit for transmitting a calculation result of the information calculation unit.SELECTED DRAWING: Figure 2

Description

本発明は、撮像装置、情報処理装置、及び撮像システムに関する。 The present invention relates to an imaging device, an information processing device, and an imaging system.

物体を複数の撮像装置により撮像し、得られた複数の画像をコンピュータに入力し、物体の三次元形状を取得する技術が提案されている(例えば、特許文献1参照)。 A technique has been proposed in which an object is imaged by a plurality of imaging devices, and the obtained plurality of images are input to a computer to acquire a three-dimensional shape of the object (see, for example, Patent Document 1).

特開2010−134546号公報Japanese Unexamined Patent Publication No. 2010-134546

例えば、撮像装置を用いて物体を撮像した複数の画像から該物体の三次元形状を生成する場合、撮像装置から全ての画像をコンピュータに転送して、それらの画像をコンピュータで処理する必要がある。この場合、撮像した全ての画像を撮像装置からコンピュータへ転送するため、撮像装置とコンピュータとの間の通信(例、通信処理や通信データ量など)が増大することがある。本発明は、上記の事情に鑑みなされたものであり、通信の負荷を低減できる撮像装置、情報処理装置、及び撮像システムを提供することを目的とする。 For example, when generating a three-dimensional shape of an object from a plurality of images obtained by capturing an object using an imaging device, it is necessary to transfer all the images from the imaging device to a computer and process the images on the computer. .. In this case, since all the captured images are transferred from the imaging device to the computer, communication between the imaging device and the computer (eg, communication processing, communication data amount, etc.) may increase. The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image pickup device, an information processing device, and an image pickup system capable of reducing a communication load.

本発明の第1の態様に従えば、本体部と、対象物を撮像する撮像部、及び対象物の表面上の各点からの距離を検出する測距部を含む検出部と、本体部に設けられ、検出部の検出結果を使って、対象物の形状情報およびテクスチャ情報の少なくとも一方を算出する情報算出部と、情報算出部の算出結果を送信する通信部と、を備える撮像装置が提供される。 According to the first aspect of the present invention, the main body, the imaging unit for imaging the object, the detection unit including the distance measuring unit for detecting the distance from each point on the surface of the object, and the main body. Provided is an imaging device including an information calculation unit that calculates at least one of shape information and texture information of an object using the detection result of the detection unit, and a communication unit that transmits the calculation result of the information calculation unit. Will be done.

本発明の第2の態様に従えば、第1の態様の少なくとも1つの撮像装置の通信部から送信される算出結果を用いて、レンダリング処理を実行する、情報処理装置が提供される。 According to the second aspect of the present invention, there is provided an information processing apparatus that executes a rendering process using the calculation result transmitted from the communication unit of at least one image pickup apparatus of the first aspect.

本発明の第3の態様に従えば、第1の態様の少なくとも1つの撮像装置と、通信部から送信される算出結果を使って、レンダリング処理を実行する情報処理装置と、を備える撮像システムが提供される。 According to the third aspect of the present invention, an image pickup system including at least one image pickup device of the first aspect and an information processing device that executes a rendering process using a calculation result transmitted from a communication unit. Provided.

本発明の第4の態様に従えば、第1の態様の複数の撮像装置と、複数の撮像装置のそれぞれの通信部から送信される算出結果を使って、レンダリング処理を実行する撮像処理装置と、を備える撮像システムが提供される。 According to the fourth aspect of the present invention, the plurality of image pickup devices of the first aspect and the image pickup processing device that executes the rendering process using the calculation results transmitted from the communication units of the plurality of image pickup devices. An imaging system comprising, is provided.

本発明の第5の態様に従えば、第1の態様の少なくとも1つの撮像装置と、通信部から送信される算出結果を用いて、対象物の統合モデル情報を生成するモデル統合部と、を備える撮像システムが提供される。 According to the fifth aspect of the present invention, the at least one imaging device of the first aspect and the model integration unit that generates integrated model information of the object by using the calculation result transmitted from the communication unit. An imaging system is provided.

本発明の第6の態様に従えば、対象物を撮像する第1撮像部及び対象物の表面上の各点からの距離を検出する第1測距部を含む第1検出部と、第1検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第1モデル情報を算出する第1情報算出部と、を備える第1撮像装置と、対象物を撮像する第2撮像部及び対象物の表面上の各点からの距離を検出する第2測距部を含む第2検出部と、第2検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第2モデル情報を算出する第2情報算出部と、を備える第2撮像装置と、第1モデル情報と第2モデル情報とを統合して対象物の統合モデル情報を生成するモデル統合部を有する情報処理装置と、を備える撮像システムが提供される。 According to a sixth aspect of the present invention, a first detection unit including a first imaging unit that images an object, a first distance measuring unit that detects a distance from each point on the surface of the object, and a first detection unit. A first imaging device including a first information calculation unit that calculates first model information including at least one of shape information and texture information of the object using the detection result of the detection unit, and a second image capturing the object. At least the shape information and texture information of the object using the detection result of the second detection unit and the second detection unit including the image pickup unit and the second distance measuring unit that detects the distance from each point on the surface of the object. A second imaging device including a second information calculation unit that calculates second model information including one, and model integration that integrates the first model information and the second model information to generate integrated model information of an object. An imaging system including an information processing apparatus having a unit is provided.

本発明の第7の態様に従えば、対象物を撮像する第1撮像部及び対象物の表面上の各点からの距離を検出する第1測距部を含む第1検出部と、第1検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第1モデル情報を算出して、第1モデル情報を用いて第1特徴点データを生成する第1情報算出部と、を備える第1撮像装置と、対象物を撮像する第2撮像部及び対象物の表面上の各点からの距離を検出する第2測距部を含む第2検出部と、第2検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第2モデル情報を算出して、第2モデル情報を用いて第2特徴点データを生成する第2情報算出部と、を備える第2撮像装置と、第1撮像装置と第2撮像装置との間におけるデータ通信によって得られる第1特徴点データおよび第2特徴点データを用いて第1モデル情報と第2モデル情報とを統合して対象物の統合モデル情報を生成するモデル統合部と、を備える撮像システムが提供される。 According to a seventh aspect of the present invention, a first detection unit including a first imaging unit that images an object, a first distance measuring unit that detects a distance from each point on the surface of the object, and a first detection unit. The first information calculation unit that calculates the first model information including at least one of the shape information and the texture information of the object using the detection result of the detection unit and generates the first feature point data using the first model information. A first imaging device including With the second information calculation unit that calculates the second model information including at least one of the shape information and the texture information of the object using the detection result of the unit and generates the second feature point data using the second model information. First model information and second model information using the first feature point data and the second feature point data obtained by data communication between the second image pickup device and the second image pickup device and the second image pickup device. An imaging system is provided that includes a model integration unit that integrates and generates integrated model information of an object.

本発明によれば、通信の負荷を低減できる撮像装置、情報処理装置、及び撮像システムを提供することができる。 According to the present invention, it is possible to provide an image pickup device, an information processing device, and an image pickup system capable of reducing a communication load.

第1実施形態に係る撮像システムを示す図である。It is a figure which shows the image pickup system which concerns on 1st Embodiment. 第1実施形態に係る撮像システムを示すブロック図である。It is a block diagram which shows the image pickup system which concerns on 1st Embodiment. 第1実施形態に係る検出部を示す図である。It is a figure which shows the detection part which concerns on 1st Embodiment. 第1実施形態に係る撮像システムの動作を示す図である。It is a figure which shows the operation of the image pickup system which concerns on 1st Embodiment. 第2実施形態に係る撮像システムを示すブロック図である。It is a block diagram which shows the image pickup system which concerns on 2nd Embodiment. 第2実施形態に係る撮像システムの動作を示す図である。It is a figure which shows the operation of the image pickup system which concerns on 2nd Embodiment. 第3実施形態に係る撮像システムを示す図である。It is a figure which shows the image pickup system which concerns on 3rd Embodiment. 第3実施形態に係る撮像システムを示すブロック図である。It is a block diagram which shows the image pickup system which concerns on 3rd Embodiment. 第3実施形態に係る撮像装置の動作を示す図である。It is a figure which shows the operation of the image pickup apparatus which concerns on 3rd Embodiment. 第4実施形態に係る撮像システムの動作を示す図である。It is a figure which shows the operation of the image pickup system which concerns on 4th Embodiment. 第5実施形態に係る撮像システムを示すブロック図である。It is a block diagram which shows the image pickup system which concerns on 5th Embodiment. 第5実施形態に係る撮像システムの動作を示す図である。It is a figure which shows the operation of the image pickup system which concerns on 5th Embodiment. 第6実施形態に係る撮像システムを示すブロック図である。It is a block diagram which shows the image pickup system which concerns on 6th Embodiment. 第7実施形態に係る撮像システムを示すブロック図である。It is a block diagram which shows the image pickup system which concerns on 7th Embodiment. 第7実施形態に係る撮像システムの動作を示す図である。It is a figure which shows the operation of the image pickup system which concerns on 7th Embodiment. 第8実施形態に係る撮像システムの動作を示す図である。It is a figure which shows the operation of the image pickup system which concerns on 8th Embodiment. 第9実施形態に係る撮像システムの動作を示す図である。It is a figure which shows the operation of the image pickup system which concerns on 9th Embodiment.

[第1実施形態]
第1実施形態について説明する。図1は、本実施形態に係る撮像システム1を示す図である。例えば、撮像システム1は、撮像装置2、情報処理装置3、入力装置4、及び表示装置5を備える。
[First Embodiment]
The first embodiment will be described. FIG. 1 is a diagram showing an imaging system 1 according to the present embodiment. For example, the image pickup system 1 includes an image pickup device 2, an information processing device 3, an input device 4, and a display device 5.

撮像装置2は、例えば、照明装置からの光や室内灯からの光、あるいは自然光などで照らされている対象物OBを撮像し、対象物OBの撮像画像(例、可視光画像、赤外光画像)のデータを取得する。また、撮像装置2は、撮像装置2から対象物OBの表面上の各点までの距離を検出し、対象物OBのデプス情報を取得する。デプス情報は、例えば、対象物OBの表面上の点の位置と、この点から撮像装置2までの距離(デプス、深度)とを関連付けた情報を含む。デプス情報は、例えば、対象物OBにおけるデプスの分布(例、デプスマップ)を示す情報である。 The image pickup device 2 captures an object OB illuminated by, for example, light from a lighting device, light from an indoor light, natural light, or the like, and captures an image of the object OB (eg, visible light image, infrared light). Image) data is acquired. Further, the image pickup device 2 detects the distance from the image pickup device 2 to each point on the surface of the object OB, and acquires the depth information of the object OB. The depth information includes, for example, information associating the position of a point on the surface of the object OB with the distance (depth, depth) from this point to the image pickup apparatus 2. The depth information is, for example, information indicating the distribution of depth (eg, depth map) in the object OB.

撮像装置2は、撮像部15が撮像した撮像画像のデータおよび測距部(距離検出部)16が検出したデプス情報を使って、対象物OBに関する情報の演算処理を行う。撮像装置2は、演算処理によって、対象物OBの少なくとも一部をモデル化し、モデル情報(モデルデータ)を算出する。例えば、撮像装置2は、演算処理によって、対象物OBの少なくとも一部をコンピュータグラフィック処理(CG処理)し、モデル情報(例、CGモデルデータ)を算出する。モデル情報は、例えば、対象物OBの三次元形状を示す形状情報と、対象物OBの表面の模様を示すテクスチャ情報の少なくとも一方を含む。また、例えば、モデル情報は、3次元の点座標、その点座標の関連情報、該点座標及びその関連情報で規定された面のテクスチャ情報、画像全体の照明条件や光源情報などの画像の空間情報、及び形状情報としてのポリゴンデータの少なくとも一つを含む。 The image pickup device 2 performs arithmetic processing of information on the object OB by using the data of the captured image captured by the image pickup unit 15 and the depth information detected by the distance measuring unit (distance detection unit) 16. The image pickup apparatus 2 models at least a part of the object OB by arithmetic processing and calculates model information (model data). For example, the image pickup apparatus 2 performs computer graphic processing (CG processing) on at least a part of the object OB by arithmetic processing, and calculates model information (eg, CG model data). The model information includes, for example, at least one of shape information indicating the three-dimensional shape of the object OB and texture information indicating the pattern on the surface of the object OB. Further, for example, the model information is an image space such as three-dimensional point coordinates, related information of the point coordinates, texture information of the surface defined by the point coordinates and the related information, lighting conditions of the entire image, and light source information. Includes at least one piece of information and polygon data as shape information.

例えば、図1の対象物OBは角柱状の部材とサッカーボールを含み、形状情報は、角柱状の部材の表面(例、平面)の情報、及びサッカーボールの表面(例、球面)の情報を含む。テクスチャ情報は、例えば、サッカーボールの表面の文字や図形(例、黒の5角形、白の6角形)、パターン、凹凸を規定する情報、特定の画像、及び色彩(例、有彩色、無彩色)の少なくとも1つの情報を含む。 For example, the object OB in FIG. 1 includes a prismatic member and a soccer ball, and the shape information includes information on the surface of the prismatic member (eg, plane) and information on the surface of the soccer ball (eg, spherical surface). include. Texture information includes, for example, characters and figures on the surface of a soccer ball (eg, black pentagon, white hexagon), patterns, information defining irregularities, specific images, and colors (eg, chromatic, achromatic). ) Includes at least one piece of information.

撮像装置2は、例えば、対象物OBのうち撮像装置2の視野に入る部分(視野領域)のモデル情報を算出する。このモデル情報は、例えば、対象物OBの全周を表すモデル(以下、全周モデルという)の一部を表すモデル(以下、部分モデルという)の情報である。撮像装置2は、演算処理により算出された情報(例、モデル情報)の少なくとも一部を、外部装置に供給可能である。例えば、撮像装置2は、モデル情報の少なくとも一部を情報処理装置3に供給する。 The image pickup apparatus 2 calculates, for example, model information of a portion (field of view region) of the object OB that enters the field of view of the image pickup apparatus 2. This model information is, for example, information of a model (hereinafter, referred to as a partial model) representing a part of a model (hereinafter, referred to as an all-around model) representing the entire circumference of the object OB. The image pickup apparatus 2 can supply at least a part of the information (eg, model information) calculated by the arithmetic processing to the external apparatus. For example, the image pickup apparatus 2 supplies at least a part of the model information to the information processing apparatus 3.

また、例えば、撮像装置2は、モデル情報の少なくとも一部を、バーコードや2次元コードのようなデジタル情報を入出力できるデジタル装置に出力可能である。このようなデジタル装置は、モデル情報の少なくとも一部を含むデジタル情報をディスプレイや紙などに表示する又は印字することができる。表示された又は印字されたデジタル情報を読み取れるリーダー部(例、光学式リーダー)を備えるリーダー装置は、該リーダー部を介して該デジタル情報を自装置の記憶領域などに入力することができる。また、リーダー装置は、後述のレンダリング処理部を更に備えていてもよい。なお、上記の撮像システム1は、上記のデジタル装置やリーダー部を備えるリーダー装置を備える構成であってもよい。また、撮像装置2は、上記のデジタル装置やリーダー装置を備える構成であってもよい。 Further, for example, the image pickup apparatus 2 can output at least a part of the model information to a digital apparatus capable of inputting / outputting digital information such as a barcode or a two-dimensional code. Such a digital device can display or print digital information including at least a part of model information on a display, paper, or the like. A reader device including a reader unit (eg, an optical reader) capable of reading displayed or printed digital information can input the digital information into a storage area or the like of the own device via the reader unit. Further, the reader device may further include a rendering processing unit described later. The image pickup system 1 may be configured to include the above digital device and a reader device including a reader unit. Further, the image pickup device 2 may be configured to include the above-mentioned digital device and reader device.

情報処理装置3は、例えば、コンピュータシステムを含む。入力装置4は、例えば、キーボード、マウス、タッチパネル、加速度センサなどのセンサ、音声入力機、タッチ型ペンなどの少なくとも一つを含み、情報処理装置3と接続されている。入力装置4は、例えばユーザから情報の入力を受け付け、入力された情報を情報処理装置3に供給する。表示装置5は、例えば、液晶ディスプレイ又はタッチパネル型ディスプレイを含み、情報処理装置3と接続されている。表示装置5は、例えば、情報処理装置3から供給される画像データにより、画像を表示する。 The information processing device 3 includes, for example, a computer system. The input device 4 includes, for example, at least one such as a keyboard, a mouse, a touch panel, a sensor such as an acceleration sensor, a voice input device, and a touch-type pen, and is connected to the information processing device 3. The input device 4 receives input of information from a user, for example, and supplies the input information to the information processing device 3. The display device 5 includes, for example, a liquid crystal display or a touch panel type display, and is connected to the information processing device 3. The display device 5 displays an image by, for example, image data supplied from the information processing device 3.

情報処理装置3は、有線または無線によって、撮像装置2と通信可能に接続される。例えば、情報処理装置3は、通信ケーブルを介して撮像装置2と接続されていてもよいし、インターネット回線を介して撮像装置2と接続されていてもよい。また、情報処理装置3は、電波または赤外線により撮像装置2と通信可能であってもよい。 The information processing device 3 is communicably connected to the image pickup device 2 by wire or wirelessly. For example, the information processing device 3 may be connected to the image pickup device 2 via a communication cable, or may be connected to the image pickup device 2 via an internet line. Further, the information processing device 3 may be able to communicate with the image pickup device 2 by radio waves or infrared rays.

情報処理装置3は、撮像装置2との間の通信により、撮像装置2から情報を取得する。情報処理装置3は、撮像装置2から取得した情報(例、モデル情報)を使って、レンダリング処理を実行する。例えば、情報処理装置3は、ユーザにより入力装置4に入力された視点(撮像方向)の設定情報を元に、この視点から対象物OBを見た推定画像のデータを算出する。情報処理装置3は、例えば、推定画像のデータを表示装置5に供給し、表示装置5に推定画像を表示させる。 The information processing device 3 acquires information from the image pickup device 2 by communicating with the image pickup device 2. The information processing device 3 executes a rendering process using the information (eg, model information) acquired from the image pickup device 2. For example, the information processing device 3 calculates the data of the estimated image of the object OB viewed from this viewpoint based on the setting information of the viewpoint (imaging direction) input to the input device 4 by the user. The information processing device 3 supplies, for example, the data of the estimated image to the display device 5, and causes the display device 5 to display the estimated image.

撮像装置2は、例えば、撮像画像のデータおよびデプス情報から、情報処理装置3のレンダリング処理に使われる情報を抽出する。撮像装置2が抽出する情報は、例えば、モデル情報の少なくとも一部である。撮像装置2は、抽出した情報を情報処理装置3に供給するので、例えば、撮像画像のデータおよびデプス情報を情報処理装置3に供給する場合と比較して、撮像装置2と情報処理装置3との間の通信の負荷、情報処理装置3の処理の負荷を減らすことができる。 The image pickup apparatus 2 extracts, for example, information used for the rendering process of the information processing apparatus 3 from the data of the captured image and the depth information. The information extracted by the image pickup apparatus 2 is, for example, at least a part of the model information. Since the image pickup device 2 supplies the extracted information to the information processing device 3, for example, as compared with the case where the captured image data and the depth information are supplied to the information processing device 3, the image pickup device 2 and the information processing device 3 It is possible to reduce the communication load between the two and the processing load of the information processing device 3.

なお、撮像装置2は、例えば、携帯可能な情報端末であってもよいし、定点カメラであってもよく、手動または自動で視野を変更可能なカメラであってもよい。撮像システム1は、例えば、撮像装置2を移動させる移動装置を備えていてもよい。この移動装置は、撮像装置2を移動させることにより、撮像装置2の視野を変更してもよい。この移動装置を制御する制御部は、撮像システム1に設けられていてもよく、例えば、撮像装置2に設けられていてもよいし、情報処理装置3に設けられていてもよい。また、この移動装置を制御する制御部は、撮像システム1の外部の装置に設けられていてもよい。 The image pickup device 2 may be, for example, a portable information terminal, a fixed-point camera, or a camera whose field of view can be changed manually or automatically. The image pickup system 1 may include, for example, a moving device for moving the image pickup device 2. This moving device may change the field of view of the image pickup device 2 by moving the image pickup device 2. The control unit that controls this mobile device may be provided in the image pickup system 1, for example, the image pickup device 2 or the information processing device 3. Further, the control unit that controls this mobile device may be provided in an external device of the imaging system 1.

次に、撮像システム1の各部について説明する。図2は、本実施形態に係る撮像システム1を示すブロック図である。撮像装置2は、検出部11、情報算出部12、通信部13、及び本体部14を備える。本体部14は、例えば、カメラボディ、ケース、筐体などである。検出部11、情報算出部12、及び通信部13は、本体部14に設けられている。 Next, each part of the imaging system 1 will be described. FIG. 2 is a block diagram showing an imaging system 1 according to the present embodiment. The image pickup device 2 includes a detection unit 11, an information calculation unit 12, a communication unit 13, and a main body unit 14. The main body portion 14 is, for example, a camera body, a case, a housing, or the like. The detection unit 11, the information calculation unit 12, and the communication unit 13 are provided in the main body unit 14.

検出部11は、撮像部15および測距部16を備える。図3(A)は、検出部11の一例を示す図である。撮像部15は、結像光学系17およびイメージセンサ18を備える。イメージセンサ18は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、あるいはCCDイメージセンサである。イメージセンサ18は、本体部14に収容されている。イメージセンサ18は、例えば、可視光の波長帯域(例、380nm以上750nm以下)、又は赤外光の波長帯域に感度を有する。イメージセンサ18の撮像結果は、例えば、各画素の色ごとの階調値の情報(例、RGBデータ)を含む。イメージセンサ18は、例えば、撮像結果(検出結果)をフルカラー画像のデータ形式で出力する。フルカラー画像は、例えば、各画素の赤(R)、緑(G)、青(B)のそれぞれが階調値(例、256階調)で表される画像である。 The detection unit 11 includes an imaging unit 15 and a distance measuring unit 16. FIG. 3A is a diagram showing an example of the detection unit 11. The imaging unit 15 includes an imaging optical system 17 and an image sensor 18. The image sensor 18 is, for example, a CMOS image sensor in which a plurality of pixels are two-dimensionally arranged, or a CCD image sensor. The image sensor 18 is housed in the main body 14. The image sensor 18 has sensitivity in, for example, the wavelength band of visible light (eg, 380 nm or more and 750 nm or less) or the wavelength band of infrared light. The imaging result of the image sensor 18 includes, for example, information on the gradation value for each color of each pixel (eg, RGB data). The image sensor 18 outputs, for example, an imaging result (detection result) in a full-color image data format. The full-color image is, for example, an image in which each of the red (R), green (G), and blue (B) of each pixel is represented by a gradation value (eg, 256 gradations).

結像光学系17は、例えば、複数のレンズを含み、物体面(例、対象物OB)の像をイメージセンサ18に形成する。結像光学系17は、例えば鏡筒内に保持され、鏡筒とともに本体部14に取り付けられる。結像光学系17および鏡筒は、例えば交換レンズであり、本体部14から取り外し可能である。鏡筒は、本体部14の一部であってもよく、本体部14から取り外し不能であってもよい。 The imaging optical system 17 includes, for example, a plurality of lenses, and forms an image of an object surface (eg, an object OB) on the image sensor 18. The imaging optical system 17 is held in the lens barrel, for example, and is attached to the main body 14 together with the lens barrel. The imaging optical system 17 and the lens barrel are, for example, interchangeable lenses, and are removable from the main body 14. The lens barrel may be a part of the main body 14, or may not be removable from the main body 14.

測距部16は、対象物OBの表面上の各点からの距離を検出する。測距部16は、例えば、ToF(Time of Flight)センサを含み、ToF法により距離を検出する。また、例えば、測距部16は、位相差センサを含み、位相差法により距離を検出する。測距部16は、照射部19、結像光学系20、イメージセンサ21、及びコントローラ22を備える。 The distance measuring unit 16 detects the distance from each point on the surface of the object OB. The distance measuring unit 16 includes, for example, a ToF (Time of Flight) sensor, and detects the distance by the ToF method. Further, for example, the distance measuring unit 16 includes a phase difference sensor and detects the distance by the phase difference method. The ranging unit 16 includes an irradiation unit 19, an imaging optical system 20, an image sensor 21, and a controller 22.

照射部19は、対象物OBに赤外光を照射可能である。照射部19は、コントローラ22に制御される。コントローラ22は、照射部19から照射される赤外光の強度を時間変化させる(例、振幅変調する)。 The irradiation unit 19 can irradiate the object OB with infrared light. The irradiation unit 19 is controlled by the controller 22. The controller 22 changes the intensity of the infrared light emitted from the irradiation unit 19 over time (eg, amplitude-modulates).

イメージセンサ21は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、あるいはCCDイメージセンサである。イメージセンサ21は、本体部14に収容されている。結像光学系20は、例えば、複数のレンズを含み、物体面(例、対象物OB)の像をイメージセンサ21に形成する。結像光学系20は、交換レンズであってもよいし、本体部14に内蔵されたものでもよい。イメージセンサ21は、少なくとも照射部19が照射する光の波長帯に感度を有する。例えば、イメージセンサ21は、コントローラ22に制御され、対象物OBで反射散乱した赤外光を検出する。 The image sensor 21 is, for example, a CMOS image sensor in which a plurality of pixels are two-dimensionally arranged, or a CCD image sensor. The image sensor 21 is housed in the main body 14. The imaging optical system 20 includes, for example, a plurality of lenses, and forms an image of an object surface (eg, an object OB) on the image sensor 21. The imaging optical system 20 may be an interchangeable lens or may be built in the main body 14. The image sensor 21 has sensitivity at least in the wavelength band of the light emitted by the irradiation unit 19. For example, the image sensor 21 is controlled by the controller 22 and detects infrared light reflected and scattered by the object OB.

コントローラ22は、測距部16のイメージセンサ21が検出した検出結果を使って、対象物OBの表面からイメージセンサ21までの距離を検出する。例えば、対象物OBの表面上の第1位置と第2位置とでデプスが異なる場合、第1位置で反射散乱した光は、第2位置で反射散乱した光と比較して、対象物OBからイメージセンサ21までの飛行距離(光路)が異なる。そのため、対象物OBの第1位置で反射散乱した光は、イメージセンサ21に入射する位相が、第2位置で反射散乱した光の位相と異なる。コントローラ22は、照射部19から照射される光の強度を時間変調するので、イメージセンサ21に入射する光の強度は、位相によって変化する。コントローラ22は、例えば、イメージセンサ21の出力の時間変化を元に、デプスを算出する。コントローラ22は、例えば、イメージセンサ21が撮像した画像の部分領域(例、1画素、複数の画素)ごとに、イメージセンサ21と対象物OBの表面との間の距離からデプスを算出し、算出したデプス(又は距離)と部分領域の位置とを関連付ける。このように、コントローラ22は、例えば、複数の部分領域のそれぞれのデプスを含むデプス情報を算出する。 The controller 22 detects the distance from the surface of the object OB to the image sensor 21 by using the detection result detected by the image sensor 21 of the distance measuring unit 16. For example, when the depths of the first position and the second position on the surface of the object OB are different, the light reflected and scattered at the first position is compared with the light reflected and scattered at the second position from the object OB. The flight distance (optical path) to the image sensor 21 is different. Therefore, the phase of the light reflected and scattered at the first position of the object OB is different from the phase of the light reflected and scattered at the second position. Since the controller 22 time-modulates the intensity of the light emitted from the irradiation unit 19, the intensity of the light incident on the image sensor 21 changes depending on the phase. The controller 22 calculates the depth based on, for example, the time change of the output of the image sensor 21. The controller 22 calculates the depth from the distance between the image sensor 21 and the surface of the object OB for each partial region (eg, one pixel, a plurality of pixels) of the image captured by the image sensor 21, and calculates the depth. Associate the depth (or distance) with the position of the subregion. In this way, the controller 22 calculates, for example, the depth information including the depth of each of the plurality of subregions.

なお、照射部19は、可視光を含む光を照射し、イメージセンサ21は、対象物OBで反射散乱した光を検出してもよい。例えば、測距部16は、照射部19による光照射状態と光非照射状態とでしてイメージセンサ21により対象物OBを検出し、2状態での検出結果との差分を使って、デプス情報を算出してもよい。 The irradiation unit 19 may irradiate light including visible light, and the image sensor 21 may detect the light reflected and scattered by the object OB. For example, the ranging unit 16 detects the object OB by the image sensor 21 in the light irradiation state and the light non-irradiation state by the irradiation unit 19, and uses the difference between the detection results in the two states to provide depth information. May be calculated.

なお、測距部16は、プロジェクタカメラを含んでいてもよい。この場合、測距部16は、例えば、所定の強度分布を有する光(例、パターン光、構造化光、テクスチャ)を、照射部19から対象物OBに照射しながら、イメージセンサ21によって対象物OBを撮像する。コントローラ22は、イメージセンサ21による撮像画像に写っている対象物OB上の光の強度分布を使って、対象物OBと測距部16との間の距離を検出する。また、測距部16は、レーザスキャナを含んでいてもよい。この場合、測距部16は、照射部19から対象物OBにレーザ光を照射し、対象物OBをレーザ光でスキャンしながら対象物OBで反射したレーザ光を検出することにより、対象物OBと測距部16との間の距離を検出する。 The ranging unit 16 may include a projector camera. In this case, the ranging unit 16 uses the image sensor 21 to irradiate the object OB with light having a predetermined intensity distribution (eg, pattern light, structured light, texture) from the irradiation unit 19. Image the OB. The controller 22 detects the distance between the object OB and the distance measuring unit 16 by using the intensity distribution of the light on the object OB captured in the image captured by the image sensor 21. Further, the ranging unit 16 may include a laser scanner. In this case, the ranging unit 16 irradiates the object OB with a laser beam from the irradiation unit 19, scans the object OB with the laser beam, and detects the laser beam reflected by the object OB, thereby detecting the object OB. The distance between the distance measuring unit 16 and the distance measuring unit 16 is detected.

図3(B)は、検出部11の他の例を示す図である。この検出部11の測距部16は、対象物OBを複数の視野から検出した検出結果を使って、対象物OBと検出部11との間の距離を検出する。撮像部15は、結像光学系17aおよびイメージセンサ18a、並びに結像光学系17bおよびイメージセンサ18bを備える。結像光学系17aおよびイメージセンサ18aは、対象物OBを第1視野で撮像する。結像光学系17bおよびイメージセンサ18bは、対象物OBを第2視野で撮像する。第2視野は、視点の位置と視線の向きの少なくとも一方が第1視野と異なる。視点の位置は、例えば、イメージセンサ18aの位置およびイメージセンサ18bの位置のように、物体の像が形成される位置である。視線の向きは、例えば、視点に向かう光が通る光学部材のうち最も物体側に配置される光学部材の光軸の方向と平行である。例えば、第1視野の視線の向きは、結像光学系17aの射出側の光軸と同軸である。また、第2視野の視線の向きは、結像光学系17bの射出側の光軸と同軸である。測距部16は、イメージセンサ18aによる撮像画像とイメージセンサ18bによる撮像画像とを視差画像として、対象物OBと検出部11との間の距離を検出する。 FIG. 3B is a diagram showing another example of the detection unit 11. The ranging unit 16 of the detection unit 11 detects the distance between the object OB and the detection unit 11 by using the detection result of detecting the object OB from a plurality of visual fields. The imaging unit 15 includes an imaging optical system 17a and an image sensor 18a, and an imaging optical system 17b and an image sensor 18b. The imaging optical system 17a and the image sensor 18a image the object OB in the first visual field. The imaging optical system 17b and the image sensor 18b image the object OB in the second visual field. The second visual field is different from the first visual field in at least one of the position of the viewpoint and the direction of the line of sight. The position of the viewpoint is a position where an image of an object is formed, such as the position of the image sensor 18a and the position of the image sensor 18b. The direction of the line of sight is, for example, parallel to the direction of the optical axis of the optical member arranged on the object side of the optical members through which the light passing toward the viewpoint passes. For example, the direction of the line of sight of the first visual field is coaxial with the optical axis on the emission side of the imaging optical system 17a. The direction of the line of sight of the second visual field is coaxial with the optical axis on the emission side of the imaging optical system 17b. The distance measuring unit 16 detects the distance between the object OB and the detection unit 11 by using the image captured by the image sensor 18a and the image captured by the image sensor 18b as a parallax image.

なお、撮像部15は、1つのイメージセンサによって、第1視野からの画像および第2視野からの画像を異なる時刻に撮像し、測距部16は、これら画像を使って対象物OBと検出部11との間の距離を検出してもよい。 The image pickup unit 15 captures an image from the first visual field and an image from the second visual field at different times by one image sensor, and the distance measuring unit 16 uses these images to capture the object OB and the detection unit. The distance to 11 may be detected.

なお、測距部16は、メートルなどの有次元値で表される距離を検出してもよいし、基準値で規格化された無次元値で表される相対的な距離を検出してもよい。また、測距部16は、例えば、ユニット化された形態であってもよく、本体部14に外付け可能であってもよい。また、測距部16が備える光学系の少なくとも一部は、撮像部15が備える光学系の少なくとも一部と共通化されていてもよい。例えば、図3(A)において、測距部16は、結像光学系17を通った光のうち赤外光をダイクロイックミラーなどで分岐し、分岐した赤外光をイメージセンサ21で検出する態様でもよい。また、プロジェクタカメラにおいて、照射部19は、結像光学系17を介して対象物OBにパターンを投影する態様でもよい。 The distance measuring unit 16 may detect a distance represented by a dimensional value such as a meter, or may detect a relative distance represented by a dimensionless value standardized by a reference value. good. Further, the distance measuring unit 16 may be in a unitized form, for example, or may be externally attached to the main body unit 14. Further, at least a part of the optical system included in the distance measuring unit 16 may be shared with at least a part of the optical system included in the imaging unit 15. For example, in FIG. 3A, the distance measuring unit 16 branches infrared light among the light passing through the imaging optical system 17 with a dichroic mirror or the like, and detects the branched infrared light with an image sensor 21. It may be. Further, in the projector camera, the irradiation unit 19 may project a pattern onto the object OB via the imaging optical system 17.

図2の説明に戻り、情報算出部12は、例えば、デジタルシグナルプロセッサ(digital signal processor; DSP)を含む。情報算出部12は、検出部11の検出結果を使って、対象物OBの形状情報およびテクスチャ情報の少なくとも一方を算出する。 Returning to the description of FIG. 2, the information calculation unit 12 includes, for example, a digital signal processor (DSP). The information calculation unit 12 calculates at least one of the shape information and the texture information of the object OB by using the detection result of the detection unit 11.

情報算出部12は、形状情報として、対象物OBの表面上の複数の点の座標(以下、点群データという)と、複数の点間の連結情報を含むサーフェス情報とを算出する。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。連結情報は、例えば、対象物OBの稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報、及び対象物OBの面の輪郭に相当する複数の線を互いに関連付ける情報を含む。 The information calculation unit 12 calculates the coordinates of a plurality of points on the surface of the object OB (hereinafter referred to as point cloud data) and the surface information including the connection information between the plurality of points as the shape information. The surface information is, for example, polygon data, vector data, draw data, or the like. The connection information includes, for example, information relating the points at both ends of the line corresponding to the ridge line (eg, edge) of the object OB to each other, and information relating a plurality of lines corresponding to the contour of the surface of the object OB to each other.

まず、情報算出部12は、測距部16の検出結果(例、デプス情報)を使って、点群データを算出する(点群データ処理)。例えば、情報算出部12は、デプス情報が示す距離画像から平面画像への透視変換などにより、点群データを算出する。なお、情報算出部12は、撮像部15と測距部16とで視野が異なる場合、例えば、測距部16の検出結果を透視変換(射影変換)などによって、撮像部15の視野から対象物OBを検出した結果に変換してもよい。情報算出部12は、例えば、撮像部15の視野と測距部16の視野との位置関係(例、視点の位置、視線の向き)に依存するパラメータを使って、透視変換を実行してもよい。 First, the information calculation unit 12 calculates the point cloud data using the detection result (eg, depth information) of the distance measuring unit 16 (point cloud data processing). For example, the information calculation unit 12 calculates the point cloud data by fluoroscopic conversion from the distance image indicated by the depth information to the plane image. When the field of view is different between the image pickup unit 15 and the distance measurement unit 16, the information calculation unit 12 changes the detection result of the distance measurement unit 16 from the field of view of the image pickup unit 15 by fluoroscopic transformation (projection transformation) or the like. The OB may be converted into the detected result. Even if the information calculation unit 12 executes fluoroscopic conversion using parameters that depend on the positional relationship between the field of view of the imaging unit 15 and the field of view of the distance measuring unit 16 (eg, the position of the viewpoint, the direction of the line of sight). good.

そして、情報算出部12は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換する(サーフェス処理)。情報算出部12は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。 Then, the information calculation unit 12 estimates, for example, a surface between a point selected from a plurality of points included in the point cloud data and a point in the vicinity thereof, and uses the point cloud data as a polygon having plane information between the points. Convert to data (surface processing). The information calculation unit 12 converts the point cloud data into polygon data by, for example, an algorithm using the least squares method. This algorithm may be, for example, an application of an algorithm published in a point cloud processing library.

次に、情報算出部12は、例えばインバースレンダリングの手法により、テクスチャ情報を算出する。テクスチャ情報は、例えば、対象物OBの表面の模様を示すパターン情報、対象物OBを照らす光の光源情報、及び対象物OBの表面の光学特性(例、反射率、散乱率)を示す光学特性情報の少なくとも1項目の情報を含む。光源情報は、例えば、光源の位置、光源から対象物へ光が照射される方向、光源から照射される光の波長、光源の種類のうち少なくとも1項目の情報を含む。 Next, the information calculation unit 12 calculates the texture information by, for example, an inverse rendering method. The texture information includes, for example, pattern information indicating a pattern on the surface of the object OB, light source information of light illuminating the object OB, and optical characteristics indicating the optical characteristics (eg, reflectance, scattering rate) of the surface of the object OB. Includes at least one item of information. The light source information includes, for example, information on at least one item of the position of the light source, the direction in which the light is emitted from the light source to the object, the wavelength of the light emitted from the light source, and the type of the light source.

情報算出部12は、例えば、ランバート反射を仮定したモデル、アルベド(Albedo)推定を含むモデルなどを利用して、光源情報を算出する。例えば、情報算出部12は、撮像部15が撮像した画像の各画素の画素値のうち、対象物OBで拡散した光に由来する成分と対象物OBで正反射した成分とを推定する。また、情報算出部12は、例えば、対象物OBで正反射した成分の推定結果、及び形状情報を使って、光源から対象物OBへ光が入射してくる方向を算出する。情報算出部12は、例えば、算出した光源情報および形状情報を使って対象物OBの反射特性を推定し、反射特性の推定結果を含む光学特性情報を算出する。また、情報算出部12は、例えば、算出した光源情報および光学特性情報を使って、可視光画像のデータから照明光の影響を除去して、パターン情報を算出する。 The information calculation unit 12 calculates the light source information by using, for example, a model assuming Lambertian reflection, a model including Albedo estimation, and the like. For example, the information calculation unit 12 estimates, among the pixel values of each pixel of the image captured by the imaging unit 15, a component derived from the light diffused by the object OB and a component that is specularly reflected by the object OB. Further, the information calculation unit 12 calculates the direction in which light is incident from the light source to the object OB by using, for example, the estimation result of the component that is specularly reflected by the object OB and the shape information. The information calculation unit 12 estimates the reflection characteristic of the object OB by using, for example, the calculated light source information and the shape information, and calculates the optical characteristic information including the estimation result of the reflection characteristic. Further, the information calculation unit 12 calculates pattern information by removing the influence of illumination light from the data of the visible light image by using, for example, the calculated light source information and optical characteristic information.

ここで、本実施形態に係る撮像装置2は、表示部25、入力部26、記憶部27、及び制御部28を更に備える。表示部25(図1参照)は、例えば、本体部14に設けられた液晶ディスプレイ又はタッチパネル型ディスプレイである。表示部25は、例えば、検出部11の検出結果(例、撮像部15による可視光画像)、情報算出部12の算出結果(例、デプスマップ)、及び各種設定情報の少なくとも一部を表示する。 Here, the image pickup apparatus 2 according to the present embodiment further includes a display unit 25, an input unit 26, a storage unit 27, and a control unit 28. The display unit 25 (see FIG. 1) is, for example, a liquid crystal display or a touch panel type display provided on the main body unit 14. The display unit 25 displays, for example, at least a part of the detection result of the detection unit 11 (eg, visible light image by the imaging unit 15), the calculation result of the information calculation unit 12 (eg, depth map), and various setting information. ..

入力部26は、例えば、本体部14に設けられた操作ボタン、表示部25に設けられたタッチパネル、ユーザなどの音声を認識する音声入力機などである。入力部26は、例えば、ユーザによる操作を検出し、ユーザからの情報の入力を受け付ける。入力部26は、入力された情報を制御部28に送信する。 The input unit 26 is, for example, an operation button provided on the main body unit 14, a touch panel provided on the display unit 25, a voice input device for recognizing a voice of a user or the like. The input unit 26 detects an operation by the user, for example, and accepts an input of information from the user. The input unit 26 transmits the input information to the control unit 28.

記憶部27は、例えばUSBメモリ、メモリカードなどの不揮発性メモリであり、各種情報を記憶する。記憶部27は、撮像装置2に内蔵される記憶デバイスを含んでいてもよいし、撮像装置2からリリース可能な記憶デバイスを接続可能なポートを含んでいてもよい。また、本実施形態における撮像装置2の情報算出部12は、形状情報およびテクスチャ情報の少なくとも一方を含む情報にヘッダ情報(例、番号やコードなどの識別情報)を付けたモデル情報を生成する。そして、通信部13はそのモデル情報を送信する。なお、該ヘッダ情報は、識別情報、撮像装置2の位置(位置情報)、撮像部15による撮像タイミング、撮像部15による撮像時間、対象物OBの光学特性情報、および撮像環境情報(例、光源情報、対象物OBなどに対する照明条件)のうち少なくとも一つを含む。このように、撮像装置2の情報算出部12は、ヘッダ情報を有するモデル情報を所定のデータフォーマットに基づいて生成し、そのモデル情報を通信部13によって送信させることが可能である。 The storage unit 27 is, for example, a non-volatile memory such as a USB memory or a memory card, and stores various information. The storage unit 27 may include a storage device built in the image pickup device 2, or may include a port to which a storage device that can be released from the image pickup device 2 can be connected. Further, the information calculation unit 12 of the image pickup apparatus 2 in the present embodiment generates model information in which header information (identification information such as a number and a code) is added to information including at least one of shape information and texture information. Then, the communication unit 13 transmits the model information. The header information includes identification information, position (position information) of the imaging device 2, imaging timing by the imaging unit 15, imaging time by the imaging unit 15, optical characteristic information of the object OB, and imaging environment information (eg, light source). It includes at least one of information, lighting conditions for the object OB, etc.). In this way, the information calculation unit 12 of the image pickup apparatus 2 can generate model information having header information based on a predetermined data format, and the communication unit 13 can transmit the model information.

制御部28は、例えば、ユーザまたは外部装置(例、情報処理装置3)からの指令(制御信号)により、撮像装置2の各部を制御する。例えば、制御部28は、検出部11に上記の検出処理を実行させる。この検出処理は、例えば、撮像部15による撮像処理、及び測距部16による距離検出処理を含む。制御部28は、例えば、検出部11の検出結果の少なくとも一部を記憶部27に記憶させる。制御部28は、例えば、情報算出部12にモデル情報を算出させる。制御部28は、例えば、情報算出部12が算出したモデル情報の少なくとも一部を記憶部27に記憶させる。 The control unit 28 controls each unit of the image pickup device 2 by, for example, a command (control signal) from a user or an external device (eg, information processing device 3). For example, the control unit 28 causes the detection unit 11 to execute the above detection process. This detection process includes, for example, an image pickup process by the imaging unit 15 and a distance detection process by the distance measuring unit 16. The control unit 28 stores, for example, at least a part of the detection result of the detection unit 11 in the storage unit 27. The control unit 28 causes, for example, the information calculation unit 12 to calculate the model information. The control unit 28 stores, for example, at least a part of the model information calculated by the information calculation unit 12 in the storage unit 27.

記憶部27は、例えば、モデル情報を項目ごとに記憶する。例えば、記憶部27は、形状情報、テクスチャ情報、光源情報、対象物OBの光学特性情報、及びパターン情報の各項目の情報を個別のデータテーブルにそれぞれ記憶する。制御部28は、例えば、記憶部27に記憶されている情報の少なくとも一部を示す画像を、表示部25に表示させる。制御部28は、通信部13を制御し、通信部13を介して情報の送信、情報の受信を実行させる。 The storage unit 27 stores, for example, model information for each item. For example, the storage unit 27 stores information of each item of shape information, texture information, light source information, optical characteristic information of the object OB, and pattern information in individual data tables. The control unit 28 causes the display unit 25 to display, for example, an image showing at least a part of the information stored in the storage unit 27. The control unit 28 controls the communication unit 13 to transmit information and receive information via the communication unit 13.

通信部13は、例えば、USBポートなどのI/Oポート、電波または赤外線の無線通信を行う通信器のうち少なくとも一つを含む。通信部13は、制御部28に制御され、記憶部27に記憶されている情報を読み出し、読み出した情報を外部装置に送信する。例えば、通信部13は、情報算出部12の算出結果(例、モデル情報)の少なくとも一部を、情報処理装置3に送信する。また、通信部13は、例えば、外部装置からの指令を含む情報を受信する。通信部13は、受信した情報を記憶部27に記憶させること、受信した情報を制御部28に供給することができる。なお、撮像装置2が上記したデジタル装置を備える場合には、通信部13はモデル情報の少なくとも一部を該デジタル装置に送信してもよい。そして、該デジタル装置は、受信したモデル情報をもとにデジタル情報を生成し、該デジタル情報を紙などの媒体に出力するようにしてもよい。 The communication unit 13 includes, for example, an I / O port such as a USB port, and at least one of a communication device that performs radio wave or infrared wireless communication. The communication unit 13 is controlled by the control unit 28, reads out the information stored in the storage unit 27, and transmits the read information to the external device. For example, the communication unit 13 transmits at least a part of the calculation result (eg, model information) of the information calculation unit 12 to the information processing device 3. Further, the communication unit 13 receives, for example, information including a command from an external device. The communication unit 13 can store the received information in the storage unit 27 and supply the received information to the control unit 28. When the image pickup apparatus 2 includes the above-mentioned digital apparatus, the communication unit 13 may transmit at least a part of the model information to the digital apparatus. Then, the digital device may generate digital information based on the received model information and output the digital information to a medium such as paper.

図2のように、情報処理装置3は、通信部30、記憶部31、レンダリング処理部32、及び制御部33を備える。通信部30は、例えば、USBポート、ネットワークカード、電波または赤外線の無線通信を行う通信器のうち少なくとも一つを含む。通信部30は、撮像装置2の通信部13と通信可能である。 As shown in FIG. 2, the information processing device 3 includes a communication unit 30, a storage unit 31, a rendering processing unit 32, and a control unit 33. The communication unit 30 includes, for example, at least one of a USB port, a network card, and a communication device that performs radio wave or infrared wireless communication. The communication unit 30 can communicate with the communication unit 13 of the image pickup device 2.

記憶部31は、例えば、USBメモリなどの取り外し可能な記憶媒体、外付け型あるいは内蔵型のハードディスクなどの大容量記憶装置を含む。記憶部31は、例えば、通信部30を介して受信した情報の少なくとも一部のデータ、撮像装置2を制御する撮像制御プログラム、情報処理装置3の各処理を実行させる処理プログラム、などを記憶する。 The storage unit 31 includes, for example, a removable storage medium such as a USB memory, and a large-capacity storage device such as an external or internal hard disk. The storage unit 31 stores, for example, at least a part of the data of the information received via the communication unit 30, an image pickup control program that controls the image pickup device 2, a processing program that executes each process of the information processing device 3, and the like. ..

レンダリング処理部32は、例えば、グラフィックス プロセッシング ユニット(Graphics Processing Unit; GPU)を含む。なお、レンダリング処理部32は、CPUおよびメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部32は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。 The rendering processing unit 32 includes, for example, a graphics processing unit (GPU). The rendering processing unit 32 may have a mode in which the CPU and the memory execute each processing according to the image processing program. The rendering processing unit 32 performs at least one of drawing processing, texture mapping processing, and shading processing, for example.

レンダリング処理部32は、描画処理において、例えば、モデル情報の形状情報に定められた形状を任意の視点から見た推定画像(例、再構築画像)を算出できる。以下の説明において、形状情報が示す形状をモデル形状という。レンダリング処理部32は、例えば、描画処理によって、モデル情報(例、形状情報)からモデル形状(例、推定画像)を再構成できる。レンダリング処理部32は、例えば、算出した推定画像のデータを記憶部31に記憶させる。撮像装置2は、モデル情報の少なくとも一部を情報処理装置3に送信可能であるので、例えば、情報処理装置3は、レンダリング処理の負荷を減らすことができる。また、例えば、撮像装置2は、撮像部15によって撮像された全ての撮像画像を情報処理装置3に送信する必要がなく、情報算出部12が算出したモデル情報の少なくとも一部(例、形状情報およびテクスチャ情報)を情報処理装置3に送信している。このため、本実施形態の撮像装置は、レンダリング処理部32の描画処理に必要な情報の通信負荷を低減することができる。 In the drawing process, the rendering processing unit 32 can calculate, for example, an estimated image (eg, a reconstructed image) of the shape defined in the shape information of the model information viewed from an arbitrary viewpoint. In the following description, the shape indicated by the shape information is referred to as a model shape. The rendering processing unit 32 can reconstruct the model shape (example, estimated image) from the model information (example, shape information) by, for example, drawing processing. The rendering processing unit 32 stores, for example, the calculated estimated image data in the storage unit 31. Since the image pickup apparatus 2 can transmit at least a part of the model information to the information processing apparatus 3, for example, the information processing apparatus 3 can reduce the load of the rendering process. Further, for example, the imaging device 2 does not need to transmit all the captured images captured by the imaging unit 15 to the information processing device 3, and at least a part of the model information calculated by the information calculation unit 12 (eg, shape information). And texture information) is transmitted to the information processing device 3. Therefore, the imaging device of the present embodiment can reduce the communication load of information required for the drawing process of the rendering processing unit 32.

また、レンダリング処理部32は、テクスチャマッピング処理において、例えば、推定画像上の物体の表面に、モデル情報のテクスチャ情報が示す画像を貼り付けた推定画像を算出できる。レンダリング処理部32は、推定画像上の物体の表面に、対象物OBと別のテクスチャを貼り付けた推定画像を算出することもできる。 Further, in the texture mapping process, the rendering processing unit 32 can calculate, for example, an estimated image in which the image indicated by the texture information of the model information is pasted on the surface of the object on the estimated image. The rendering processing unit 32 can also calculate an estimated image in which a texture different from the object OB is attached to the surface of the object on the estimated image.

レンダリング処理部32は、シェーディング処理において、例えば、モデル情報の光源情報が示す光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。また、レンダリング処理部32は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。 In the shading process, the rendering processing unit 32 can calculate, for example, an estimated image in which the shadow formed by the light source indicated by the light source information of the model information is added to the object on the estimated image. Further, in the shading process, the rendering processing unit 32 can calculate, for example, an estimated image in which a shadow formed by an arbitrary light source is added to an object on the estimated image.

制御部33は、例えば、情報処理装置3の各部、撮像装置2、入力装置4、及び表示装置5を制御する。制御部33は、例えば、通信部30を制御し、撮像装置2に指令(制御信号)や設定情報を送信させる。制御部33は、例えば、通信部30が撮像装置2から受信した情報を、記憶部31に記憶させる。制御部33は、例えば、レンダリング処理部32を制御し、レンダリング処理を実行させる。 The control unit 33 controls, for example, each unit of the information processing device 3, an image pickup device 2, an input device 4, and a display device 5. The control unit 33 controls, for example, the communication unit 30 and causes the image pickup device 2 to transmit a command (control signal) and setting information. The control unit 33 stores, for example, the information received from the image pickup device 2 by the communication unit 30 in the storage unit 31. The control unit 33 controls, for example, the rendering processing unit 32 to execute the rendering process.

制御部33は、例えば、通信部30を介して撮像装置2に指令(信号)を送ることで、撮像装置2を制御する。例えば、制御部33は、通信部30を制御し、所定の情報の送信を要求する指令(要求信号)を撮像装置2に送信する。制御部33は、撮像装置2に各処理を実行させる指令を、撮像装置2に送信してもよい。例えば、制御部33は、撮像装置2の検出部11に検出処理を実行させる指令を、撮像装置2に送信してもよい。例えば、制御部33は、撮像装置2の情報算出部12にモデル情報の算出処理を実行させる指令を、撮像装置2に送信してもよい。また、情報処理装置3の制御部33は、撮像装置2の撮像部15に対象物OBの撮像を実行させる指令、及び対象物OBの撮像条件を設定させる指令を、撮像装置2に送信してもよい。 The control unit 33 controls the image pickup device 2 by sending a command (signal) to the image pickup device 2 via the communication unit 30, for example. For example, the control unit 33 controls the communication unit 30 and transmits a command (request signal) requesting the transmission of predetermined information to the image pickup apparatus 2. The control unit 33 may transmit a command for causing the image pickup device 2 to execute each process to the image pickup device 2. For example, the control unit 33 may transmit a command to the detection unit 11 of the image pickup device 2 to execute the detection process to the image pickup device 2. For example, the control unit 33 may transmit a command to the information calculation unit 12 of the image pickup device 2 to execute the calculation process of the model information to the image pickup device 2. Further, the control unit 33 of the information processing device 3 transmits a command for causing the image pickup unit 15 of the image pickup device 2 to perform imaging of the object OB and a command for setting the imaging conditions for the object OB to the image pickup device 2. May be good.

通信部13は、例えば、情報算出部12が算出した情報を、項目ごとに選択的に送信する。例えば、記憶部27に記憶されている設定情報は、モデル情報の各項目の情報を送信するか否かを定めた送信項目情報、及び各項目の情報を送信する順番を定めた送信順番情報を含む。この設定情報は、例えば、入力部26の操作、情報処理装置3からの指令などにより更新可能である。制御部28は、例えば、通信部13を制御し、送信項目情報に定められた項目の情報を、送信順番情報に定められた順に送信させる。なお、制御部28は、例えば、通信部13を制御して、送信項目情報に定められた項目の情報(例、形状情報およびテクスチャ情報)を所定のデータフォーマットに基づいて一度に送信してもよい。 For example, the communication unit 13 selectively transmits the information calculated by the information calculation unit 12 for each item. For example, the setting information stored in the storage unit 27 includes transmission item information that determines whether or not to transmit information of each item of model information, and transmission order information that defines the order in which information of each item is transmitted. include. This setting information can be updated by, for example, an operation of the input unit 26, a command from the information processing device 3, or the like. The control unit 28 controls, for example, the communication unit 13 to transmit the information of the items specified in the transmission item information in the order specified in the transmission order information. The control unit 28 may control the communication unit 13, for example, to transmit item information (eg, shape information and texture information) defined in the transmission item information at once based on a predetermined data format. good.

送信項目情報は、例えば、情報処理装置3のレンダリング処理に使われるか否かに応じて設定されていてもよい。例えば、レンダリング処理において、対象物OBの形状に、対象物OBと異なるテクスチャを合成する場合がある。この場合、情報処理装置3は、例えば、対象物OBの形状情報を使うとともに、対象物OBのテクスチャ情報を使わないで、レンダリング処理を実行できる。送信項目情報は、例えば、形状情報を送信するが、テクスチャ情報を送信しないことを定めた情報に設定される。この場合、情報算出部12は、テクスチャ情報を算出しなくてもよい。 The transmission item information may be set, for example, depending on whether or not it is used for the rendering process of the information processing apparatus 3. For example, in the rendering process, a texture different from that of the object OB may be combined with the shape of the object OB. In this case, the information processing device 3 can execute the rendering process without using, for example, the shape information of the object OB and the texture information of the object OB. The transmission item information is set to, for example, information that defines that shape information is transmitted but texture information is not transmitted. In this case, the information calculation unit 12 does not have to calculate the texture information.

また、例えば、レンダリング処理において、対象物OBに対する照明を変更した画像を算出する場合がある。情報処理装置3は、例えば、対象物OBの形状情報、パターン情報、及び光学特性情報を使うとともに、光源情報を使わないで、レンダリング処理を実行できる。この場合、送信項目情報は、例えば、形状情報、パターン情報、及び光学特性情報を送信し、光源情報を送信しないことを定めた情報に設定される。また、例えば、送信項目情報は、形状情報、テクスチャ情報、パターン情報、光源情報および光学特性情報のうち少なくとも1つの情報を送信することを定めた情報に設定される。撮像装置2は、例えばモデル情報のうち一部を送信する場合、通信の負荷を減らすことができる。 Further, for example, in the rendering process, an image in which the illumination of the object OB is changed may be calculated. The information processing device 3 can use, for example, the shape information, the pattern information, and the optical characteristic information of the object OB, and can execute the rendering process without using the light source information. In this case, the transmission item information is set to, for example, information that determines that shape information, pattern information, and optical characteristic information are transmitted and light source information is not transmitted. Further, for example, the transmission item information is set to information that defines that at least one of shape information, texture information, pattern information, light source information, and optical characteristic information is transmitted. The image pickup apparatus 2 can reduce the communication load, for example, when transmitting a part of the model information.

送信順番情報は、例えば、情報処理装置3のレンダリング処理における優先順位に応じて設定されていてもよい。例えば、送信順番情報は、レンダリング処理において先に使われる項目の情報を先に送るように設定されていてもよい。例えば、レンダリング処理において、視点を変えながらテクスチャがない対象物OBを見た画像を算出し、視点を定めた後、この視点から、テクスチャがある対象物OBを見た画像を算出する場合がある。情報処理装置3は、例えば、形状情報を使うとともにテクスチャ情報を使わないで、テクスチャがない対象物OBを、視点を変えて見た画像を算出できる。送信項目情報は、例えば、形状情報を先に送信し、テクスチャ情報を形状情報よりも後で送信することを定めた情報に設定される。撮像装置2は、例えば、モデル情報の各項目の情報を情報処理装置3のレンダリング処理における優先順位に応じた順に送信する場合、情報処理装置3のレンダリング処理の一部と並行してそれらの情報を送信することができる。また、例えば、撮像装置2の制御部28は、情報算出部12によるモデル情報の算出の少なくとも一部と通信部13による情報の送信処理とを並行して実行させることができる。 The transmission order information may be set, for example, according to the priority in the rendering process of the information processing apparatus 3. For example, the transmission order information may be set to send the information of the item used first in the rendering process first. For example, in the rendering process, an image of an object OB without a texture may be calculated while changing the viewpoint, and after the viewpoint is determined, an image of an object OB with a texture may be calculated from this viewpoint. .. The information processing device 3 can calculate, for example, an image of an object OB without a texture viewed from a different viewpoint without using the shape information and the texture information. The transmission item information is set to, for example, information that defines that the shape information is transmitted first and the texture information is transmitted after the shape information. For example, when the image pickup apparatus 2 transmits information of each item of model information in an order according to the priority in the rendering process of the information processing apparatus 3, the information is transmitted in parallel with a part of the rendering process of the information processing apparatus 3. Can be sent. Further, for example, the control unit 28 of the image pickup apparatus 2 can execute at least a part of the calculation of model information by the information calculation unit 12 and the information transmission process by the communication unit 13 in parallel.

情報処理装置3の制御部33は、例えば、入力装置4に入力された情報を、記憶部31に記憶させる。入力装置4に入力される情報は、例えば、レンダリング処理の設定情報を含む。この設定情報は、例えば、描画処理の対象のデータ(例、モデル情報の形状情報)、描画処理における視点の情報、テクスチャマッピング処理においてテクスチャを貼り付ける物体のデータ、テクスチャマッピング処理において貼り付けるテクスチャの情報(例、モデル情報のテクスチャ情報)、シェーディング処理における光源の情報(例、モデル情報の光源情報)の少なくとも一つを含む。レンダリング処理部32は、例えば、設定情報に従って、レンダリング処理を実行する。 The control unit 33 of the information processing device 3 stores, for example, the information input to the input device 4 in the storage unit 31. The information input to the input device 4 includes, for example, setting information of the rendering process. This setting information includes, for example, data to be drawn (eg, shape information of model information), viewpoint information in drawing process, data of an object to which a texture is pasted in texture mapping process, and texture to be pasted in texture mapping process. It includes at least one of information (eg, texture information of model information) and information of a light source in shading processing (eg, light source information of model information). The rendering processing unit 32 executes the rendering processing according to, for example, the setting information.

制御部33は、例えば、記憶部31に記憶される各種情報を示す画像を、表示装置5に表示させる。例えば、制御部33は、レンダリング処理の設定情報を表示装置5に表示させ、入力装置4により設定情報の変更を受け付ける。また、制御部33は、記憶部31に記憶させている推定画像のデータが示す画像を、表示装置5に表示させる。 The control unit 33 causes the display device 5 to display, for example, images showing various information stored in the storage unit 31. For example, the control unit 33 displays the setting information of the rendering process on the display device 5, and receives the change of the setting information by the input device 4. Further, the control unit 33 causes the display device 5 to display an image indicated by the estimated image data stored in the storage unit 31.

なお、情報処理装置3は、レンダリング処理によって得られた推定画像を表示装置5に表示させなくてもよく、この場合に、撮像システム1は、表示装置5を備えていなくてもよい。例えば、情報処理装置3は、レンダリング処理により算出される推定画像のデータの少なくとも一部を他の装置(再生デバイス)に通信部30を介して送信し、他の装置がこの画像を表示してもよい。例えば、情報処理装置3は、推定画像のデータを、通信部30を介して撮像装置2の通信部13へ送信してもよく、撮像装置2は、通信部13を介して受信した推定画像のデータを元に推定画像を表示部25に表示させてもよい。例えば、再生デバイスは、レンダリング処理により算出された情報(推定画像)を取得して、その情報を表示部に表示する。 The information processing device 3 does not have to display the estimated image obtained by the rendering process on the display device 5, and in this case, the imaging system 1 may not include the display device 5. For example, the information processing device 3 transmits at least a part of the estimated image data calculated by the rendering process to another device (reproduction device) via the communication unit 30, and the other device displays this image. May be good. For example, the information processing device 3 may transmit the data of the estimated image to the communication unit 13 of the image pickup device 2 via the communication unit 30, and the image pickup device 2 may transmit the data of the estimated image received via the communication unit 13. The estimated image may be displayed on the display unit 25 based on the data. For example, the playback device acquires the information (estimated image) calculated by the rendering process and displays the information on the display unit.

なお、情報処理装置3は、各種の設定情報を他の装置から通信部30を介して受信してもよく、この場合に、撮像システム1は、入力装置4を備えていなくてもよい。例えば、撮像装置2は、レンダリング処理の設定情報(例、推定画像の元になる視点の情報)を、通信部13を介して情報処理装置3の通信部30に送信してもよい。また、情報処理装置3は、撮像装置2から受信したレンダリング処理の設定情報に従ってレンダリング処理を実行してもよい。 The information processing device 3 may receive various setting information from another device via the communication unit 30, and in this case, the image pickup system 1 may not include the input device 4. For example, the imaging device 2 may transmit the setting information of the rendering process (eg, the information of the viewpoint that is the source of the estimated image) to the communication unit 30 of the information processing device 3 via the communication unit 13. Further, the information processing device 3 may execute the rendering process according to the setting information of the rendering process received from the imaging device 2.

なお、撮像装置2は、レンダリング処理により算出される推定画像のデータを要求する指令を、通信部13を介して情報処理装置3の通信部30へ送信してもよい。情報処理装置3は、撮像装置2からの指令に対する応答として推定画像のデータを、通信部30を介して撮像装置2の通信部13へ送信してもよい。撮像装置2は、上記の要求指令をレンダリング処理の設定情報の一部として送信してもよいし、レンダリング処理の設定情報と別の指令(例、制御信号)として送信してもよい。 The imaging device 2 may transmit a command for requesting estimated image data calculated by the rendering process to the communication unit 30 of the information processing device 3 via the communication unit 13. The information processing device 3 may transmit estimated image data to the communication unit 13 of the image pickup device 2 via the communication unit 30 as a response to a command from the image pickup device 2. The image pickup apparatus 2 may transmit the above-mentioned request command as a part of the setting information of the rendering process, or may transmit it as a command (eg, a control signal) different from the setting information of the rendering process.

なお、撮像装置2は、情報処理装置3に制御されて上記の各種処理を実行する場合、制御部28、記憶部27、表示部25、及び入力部26の少なくとも一部を備えていなくてもよい。また、撮像装置2は、例えば、ユーザの操作によって上記の各種処理を実行し、情報処理装置3に制御されなくてもよい。例えば、撮像装置2は、外部装置からの指令(制御信号)を受けることなく上記の各種処理を実行してもよく、ユーザの操作、あるいは予め定められた処理スケジュールに従って上記の各種処理を実行してもよい。撮像装置2は、情報算出部12の算出結果(例、モデル情報など)を、情報処理装置3の他の装置に通信部13を介して送信してもよい。 When the image pickup device 2 is controlled by the information processing device 3 to execute the above-mentioned various processes, the image pickup device 2 does not have to include at least a part of the control unit 28, the storage unit 27, the display unit 25, and the input unit 26. good. Further, the image pickup apparatus 2 does not have to be controlled by the information processing apparatus 3 by executing the above-mentioned various processes by the user's operation, for example. For example, the image pickup apparatus 2 may execute the above-mentioned various processes without receiving a command (control signal) from an external device, and executes the above-mentioned various processes according to a user operation or a predetermined processing schedule. You may. The image pickup device 2 may transmit the calculation result (eg, model information, etc.) of the information calculation unit 12 to another device of the information processing device 3 via the communication unit 13.

次に、撮像システム1の動作に基づき、画像処理方法について説明する。図4は、撮像システム1の動作を示すフローチャートである。図4のステップS1において、撮像装置2は、撮像部15により対象物OBを撮像し、撮像画像(例えば可視光画像)のデータを取得する(撮像処理)。また、ステップS2において、撮像装置2は、対象物OBの表面の三次元形状を示す点群データを取得する(点群データ処理)。ステップS2において、撮像装置2は、対象物OBと撮像装置2との間の距離を測距部16によって検出し、デプス情報を取得する(ステップS3)。また、撮像装置2の情報算出部12は、デプス情報を、例えば透視変換などによって点群データを算出する(ステップS4)。また、ステップS4において、例えば、情報算出部12は、必要に応じて、可視光画像のデータとデプス情報との視差を調整する(視点の変換処理)。なお、情報算出部12は、ステップS2の処理を、ステップS1の処理の少なくとも一部と並行して行ってもよいし、ステップS1の処理の開始前または終了後に行ってもよい。 Next, an image processing method will be described based on the operation of the imaging system 1. FIG. 4 is a flowchart showing the operation of the imaging system 1. In step S1 of FIG. 4, the imaging device 2 images the object OB by the imaging unit 15 and acquires the data of the captured image (for example, visible light image) (imaging process). Further, in step S2, the image pickup apparatus 2 acquires point cloud data indicating the three-dimensional shape of the surface of the object OB (point cloud data processing). In step S2, the image pickup apparatus 2 detects the distance between the object OB and the image pickup apparatus 2 by the distance measuring unit 16 and acquires the depth information (step S3). Further, the information calculation unit 12 of the image pickup apparatus 2 calculates the point cloud data of the depth information by, for example, perspective transformation (step S4). Further, in step S4, for example, the information calculation unit 12 adjusts the parallax between the visible light image data and the depth information as necessary (viewpoint conversion process). The information calculation unit 12 may perform the process of step S2 in parallel with at least a part of the process of step S1, or may perform the process of step S1 before or after the process starts.

ステップS5において、情報算出部12は、モデル情報を算出(生成)する(モデル情報生成処理)。情報算出部12は、例えば、形状情報としてサーフェス情報を算出する(ステップS6)(サーフェス処理)。また、情報算出部12は、例えば、算出したサーフェス情報を使って、インバースレンダリングの手法によりテクスチャ情報を算出する(ステップS7)。ステップS7において、情報算出部12は、光源情報を算出する(ステップS8)。また、情報算出部12は、例えば、算出した光源情報を使って、パターン情報を算出する(ステップS9)。ステップS5において、情報算出部12は、算出した情報を項目ごとに記憶部27に記憶させる。 In step S5, the information calculation unit 12 calculates (generates) model information (model information generation process). The information calculation unit 12 calculates surface information as shape information, for example (step S6) (surface processing). Further, the information calculation unit 12 calculates the texture information by the inverse rendering method using, for example, the calculated surface information (step S7). In step S7, the information calculation unit 12 calculates the light source information (step S8). Further, the information calculation unit 12 calculates pattern information using, for example, the calculated light source information (step S9). In step S5, the information calculation unit 12 stores the calculated information in the storage unit 27 for each item.

ステップS10において、撮像装置2は、記憶部27に記憶されているモデル情報の少なくとも一部を、通信部13を介して情報処理装置3に送信する。情報処理装置3は、例えば、撮像装置2から受信したモデル情報を使ってレンダリング処理を実行し、その結果(例、推定画像)を表示装置5に表示させる。 In step S10, the image pickup apparatus 2 transmits at least a part of the model information stored in the storage unit 27 to the information processing apparatus 3 via the communication unit 13. The information processing device 3 executes a rendering process using, for example, the model information received from the image pickup device 2, and displays the result (eg, an estimated image) on the display device 5.

[第2実施形態]
次に、第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図5は、本実施形態に係る撮像システム1を示す図である。本実施形態に係る撮像装置2は、モデル統合部35および位置検出部36を更に備える。
[Second Embodiment]
Next, the second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals to simplify or omit the description thereof. FIG. 5 is a diagram showing an imaging system 1 according to the present embodiment. The image pickup apparatus 2 according to the present embodiment further includes a model integration unit 35 and a position detection unit 36.

撮像装置2のモデル統合部35は、対象物OBを第1方向から検出した結果(第1の検出結果)を元に算出される第1モデル情報と、対象物OBを第2方向から検出した結果(第2の検出結果)を元に算出される第2モデル情報とを統合して、統合モデル情報を生成する。本実施形態において、情報算出部12は、上記したような技術を用いて第1モデル情報と第2モデル情報とをそれぞれ算出する。 The model integration unit 35 of the image pickup apparatus 2 detects the first model information calculated based on the result of detecting the object OB from the first direction (first detection result) and the object OB from the second direction. The integrated model information is generated by integrating with the second model information calculated based on the result (second detection result). In the present embodiment, the information calculation unit 12 calculates the first model information and the second model information by using the technique as described above.

モデル統合部35は、例えば、第1モデル情報が示す形状のうちの第1特徴点と、第2モデル情報が示す形状のうちの第2特徴点とを対応させて、第1モデル情報と第2モデル情報とを統合する。第1特徴点は、第1モデル情報が示す形状のうち他の部分と識別可能な部分である。例えば、サーフェス情報において面に定義されている部分は、その外周の形状などにより、他の面と識別可能である。第2特徴点は、第2モデル情報が示す形状のうち他の部分と識別可能な部分である。 For example, the model integration unit 35 associates the first feature point of the shape indicated by the first model information with the second feature point of the shape indicated by the second model information, and associates the first model information with the first feature point. 2 Integrate with model information. The first feature point is a portion of the shape indicated by the first model information that can be distinguished from other portions. For example, a portion defined as a surface in surface information can be distinguished from other surfaces by the shape of the outer circumference thereof. The second feature point is a portion of the shape indicated by the second model information that can be distinguished from other portions.

例えば、モデル統合部35は、第1モデル情報に含まれる形状情報とテクスチャ情報とのうち少なくとも一方を使って第1特徴点を検出し、第1特徴点の位置とその特徴点の特徴量(第1特徴量)とを示す第1特徴点データを算出する。モデル統合部35は、例えば、第1特徴点データを第1モデル情報の一項目の情報として、記憶部27に記憶させる。また、モデル統合部35は、例えば、第2モデル情報に含まれる形状情報とテクスチャ情報とのうち少なくとも一方を使って第2特徴点を検出し、第2特徴点の位置とその特徴点の特徴量(第2特徴量)とを示す第2特徴点データを算出する。モデル統合部35は、例えば、第2特徴点データを第2モデル情報の一項目の情報として、記憶部27に記憶させる。モデル統合部35は、例えば、SIFT(Scale-Invariant Feature Transform)法又はSURF(Speeded Up Robust Features)法により特徴点および特徴量を算出する。なお、例えば、上記の特徴点データ(例、第1特徴点データ、第2特徴点データ)は、少なくとも特徴点の特徴量を含むデータであって、該特徴点と該特徴量とのうち特徴量のみを含むデータであっても良い。 For example, the model integration unit 35 detects the first feature point using at least one of the shape information and the texture information included in the first model information, and detects the position of the first feature point and the feature amount of the feature point ( The first feature point data indicating the first feature amount) is calculated. The model integration unit 35 stores, for example, the first feature point data in the storage unit 27 as information of one item of the first model information. Further, the model integration unit 35 detects the second feature point using at least one of the shape information and the texture information included in the second model information, and detects the position of the second feature point and the feature of the feature point. The second feature point data indicating the quantity (second feature quantity) is calculated. The model integration unit 35 stores, for example, the second feature point data in the storage unit 27 as information of one item of the second model information. The model integration unit 35 calculates feature points and feature quantities by, for example, the SIFT (Scale-Invariant Feature Transform) method or the SURF (Speeded Up Robust Features) method. For example, the above-mentioned feature point data (eg, first feature point data, second feature point data) is data including at least the feature amount of the feature point, and is a feature of the feature point and the feature amount. The data may include only the quantity.

モデル統合部35は、第1モデル情報の第1特徴量を有する第1特徴点データと第2モデル情報の第2特徴量を有する第2特徴点データとをマッチングさせて統合した第3特徴点データを示す統合モデル情報を算出する。第3特徴点データは、例えば、第1特徴点データ(例、第1特徴量)と第2特徴点データ(例、第2特徴量)とをマッチングさせたデータである。第3特徴点データは、例えば、対象物OBのうち、第1特徴点データと第2特徴点データとが重なる部分を含み、第1部分形状と第2部分形状のいずれよりも広い範囲をモデルリングした統合データである。 The model integration unit 35 matches and integrates the first feature point data having the first feature amount of the first model information and the second feature point data having the second feature amount of the second model information, and integrates the third feature point. Calculate integrated model information that indicates the data. The third feature point data is, for example, data obtained by matching the first feature point data (eg, first feature amount) and the second feature point data (eg, second feature amount). The third feature point data includes, for example, a portion of the object OB where the first feature point data and the second feature point data overlap, and models a wider range than both the first partial shape and the second partial shape. Ringed integrated data.

例えば、撮像装置2は、対象物OBを任意の第1方向の片側(一方側)から検出して第1モデル情報を算出し、その第1方向の反対側から対象物OBを検出して第2モデル情報を算出した場合、モデル統合部35は、対象物OBのほぼ全周をカバーした統合モデル情報を算出できる。なお、統合モデル情報が示す形状は、対象物OBの一部を示す部分モデルであってもよい。 For example, the image pickup apparatus 2 detects the object OB from one side (one side) of an arbitrary first direction, calculates the first model information, detects the object OB from the opposite side of the first direction, and detects the object OB. When the two model information is calculated, the model integration unit 35 can calculate the integrated model information covering almost the entire circumference of the object OB. The shape indicated by the integrated model information may be a partial model indicating a part of the object OB.

ここで、統合モデル情報は、例えば、形状情報とテクスチャ情報との少なくとも一方を含む。統合モデル情報の形状情報は、例えば、第1モデル情報の形状情報と、第2モデル情報の形状情報とを統合した情報である。また、統合モデル情報のテクスチャ情報は、例えば、第1モデル情報のテクスチャ情報と、第2モデル情報のデクスチャ情報とを統合した情報である。 Here, the integrated model information includes, for example, at least one of shape information and texture information. The shape information of the integrated model information is, for example, information that integrates the shape information of the first model information and the shape information of the second model information. Further, the texture information of the integrated model information is, for example, information that integrates the texture information of the first model information and the texture information of the second model information.

また、位置検出部36は、例えば制御部28からの指令(検出要求信号)によって、撮像装置2(例、検出部11)の位置情報を検出する。位置検出部36は、例えば、方位センサ、GPSセンサ、及び加速度センサの少なくとも一つを含む。位置検出部36は、例えば、本体部14の内部に設けられるが、本体部14に外付けされてもよい。位置検出部36は、本体部14から取り外し可能なユニットであってもよい。 Further, the position detection unit 36 detects the position information of the image pickup apparatus 2 (eg, the detection unit 11) by, for example, a command (detection request signal) from the control unit 28. The position detection unit 36 includes, for example, at least one of a direction sensor, a GPS sensor, and an acceleration sensor. The position detection unit 36 is provided inside the main body unit 14, for example, but may be externally attached to the main body unit 14. The position detection unit 36 may be a unit that can be removed from the main body unit 14.

検出部11の位置情報は、例えば、検出部11の検出方向と全地球測位情報との少なくとも一方を含む。検出部11の検出方向は、例えば、図3(A)に示した撮像部15の結像光学系17の光軸の方向である。検出部11の検出方向は、例えば、撮像装置2の姿勢に対して予め定められており、位置検出部36は、方位センサにより撮像装置2の姿勢を検出することで、検出部11の検出方向を検出する。また、検出部11は、例えば、GPSセンサにより全地球測位情報を検出する。また、検出部11の位置情報は、検出部11の位置の変化量を含む。位置検出部36は、例えば、加速度センサの検出結果を時間積分して、検出部11の速度を検出できる。また、位置検出部36は、例えば、検出部11の速度を時間積分して、検出部11の位置の変化量を検出する。検出部11は、例えば、GPSセンサにより第1精度の位置情報を検出し、加速度センサの検出結果により、第1精度よりも高精度の第2精度の位置情報を取得してもよい。 The position information of the detection unit 11 includes, for example, at least one of the detection direction of the detection unit 11 and the global positioning information. The detection direction of the detection unit 11 is, for example, the direction of the optical axis of the imaging optical system 17 of the imaging unit 15 shown in FIG. 3A. The detection direction of the detection unit 11 is determined in advance with respect to the posture of the image pickup device 2, for example, and the position detection unit 36 detects the posture of the image pickup device 2 by the orientation sensor to detect the detection direction of the detection unit 11. Is detected. Further, the detection unit 11 detects the global positioning information by, for example, a GPS sensor. Further, the position information of the detection unit 11 includes the amount of change in the position of the detection unit 11. The position detection unit 36 can detect the speed of the detection unit 11, for example, by time-integrating the detection result of the acceleration sensor. Further, the position detection unit 36 detects, for example, the amount of change in the position of the detection unit 11 by time-integrating the speed of the detection unit 11. For example, the detection unit 11 may detect the position information of the first accuracy by the GPS sensor, and may acquire the position information of the second accuracy higher than the first accuracy by the detection result of the acceleration sensor.

制御部28は、例えば、検出部11に対象物OBを検出させる際に、位置検出部36に検出部11の位置情報を検出させる。制御部28は、例えば、検出部11の検出結果を、位置検出部36の検出結果(検出部11の位置情報)と関連付けて記憶部27に記憶させる。情報算出部12は、検出部11による対象物OBの検出結果を元にモデル情報を算出し、このモデル情報の各項目の情報を検出部11の位置情報と関連付けて、記憶部27に記憶させる。モデル情報は、例えば、検出部11の位置情報を含んでいてもよい。 For example, when the detection unit 11 detects the object OB, the control unit 28 causes the position detection unit 36 to detect the position information of the detection unit 11. For example, the control unit 28 stores the detection result of the detection unit 11 in the storage unit 27 in association with the detection result of the position detection unit 36 (position information of the detection unit 11). The information calculation unit 12 calculates model information based on the detection result of the object OB by the detection unit 11, associates the information of each item of this model information with the position information of the detection unit 11, and stores it in the storage unit 27. .. The model information may include, for example, the position information of the detection unit 11.

検出部11の位置情報は、例えば、第1モデル情報と第2モデル情報との統合に使われる。例えば、モデル統合部35は、第1モデル情報の元データを検出部11が検出した際の検出部11の第1位置情報と、第2モデル情報の元データを検出部11が検出した際の検出部11の第2位置情報とを使って、第1モデル情報と第2モデル情報とをマッチングさせて統合してもよい。例えば、モデル統合部35は、第1位置情報および第2位置情報を使って、第1モデル情報が示す第1部分形状と第2モデル情報が示す第2部分形状との位置関係を算出してもよい。上記の位置情報をモデル情報の統合に用いる場合、統合を実行する撮像装置2又は情報処理装置3は、統合に必要な演算量を減らすことができるし、統合におけるミスマッチングを低減することも可能である。 The position information of the detection unit 11 is used, for example, for integrating the first model information and the second model information. For example, the model integration unit 35 receives the first position information of the detection unit 11 when the detection unit 11 detects the original data of the first model information and the detection unit 11 when the detection unit 11 detects the original data of the second model information. The first model information and the second model information may be matched and integrated by using the second position information of the detection unit 11. For example, the model integration unit 35 uses the first position information and the second position information to calculate the positional relationship between the first partial shape indicated by the first model information and the second partial shape indicated by the second model information. May be good. When the above position information is used for the integration of model information, the imaging device 2 or the information processing device 3 that executes the integration can reduce the amount of calculation required for the integration and can also reduce the mismatch in the integration. Is.

なお、モデル統合部35は、検出部11の位置情報、及び特徴量を含む特徴点データを使って、第1モデル情報と第2モデル情報とを統合してもよい。また、モデル統合部35は、検出部11の位置情報を使うとともに特徴点データを使わないで、第1モデル情報と第2モデル情報とを統合してもよい。例えば、モデル統合部35は、特徴点データ(例、特徴量)を使うとともに検出部11の位置情報を使わないで、第1モデル情報と第2モデル情報とを統合してもよい。 The model integration unit 35 may integrate the first model information and the second model information by using the position information of the detection unit 11 and the feature point data including the feature amount. Further, the model integration unit 35 may integrate the first model information and the second model information without using the position information of the detection unit 11 and the feature point data. For example, the model integration unit 35 may integrate the first model information and the second model information without using the feature point data (eg, feature amount) and the position information of the detection unit 11.

ところで、第1モデル情報の形状情報が示す形状の端部に隣接する領域(以下、視野外領域という)は、例えば、第1方向から検出できない領域を含む。視野外領域は、例えば、第1モデル情報が示す形状において閉じていない部分である。情報算出部12またはモデル統合部35は、視野外領域の形状情報を取得可能な検出部11の検出方向を算出してもよい。撮像装置2は、この検出方向を、第1方向からの対象物OBの検出処理が終了した後、例えば、第2方向の候補として表示部25に表示させてもよい。 By the way, the region adjacent to the end of the shape indicated by the shape information of the first model information (hereinafter, referred to as an out-of-field region) includes, for example, a region that cannot be detected from the first direction. The out-of-field region is, for example, an unclosed portion in the shape indicated by the first model information. The information calculation unit 12 or the model integration unit 35 may calculate the detection direction of the detection unit 11 that can acquire the shape information of the out-of-field region. The image pickup apparatus 2 may display this detection direction on the display unit 25 as a candidate for the second direction, for example, after the detection process of the object OB from the first direction is completed.

次に、撮像システム1の動作に基づき、画像処理方法について説明する。図6は、撮像システム1の動作を示すフローチャートである。撮像装置2は、検出部11の検出方向が第1方向に設定されている状態で少なくとも撮像画像のデータを取得するステップS11の処理を行う。ステップS11において、撮像装置2は、検出部11によって対象物OBを第1方向から検出し、例えば可視光画像のデータおよび点群データを取得する。ステップS12において、情報算出部12は、ステップS11における検出部11の検出結果を使って、第1モデル情報を算出する。ステップS13において、情報算出部12は、第1モデル情報を記憶部27に記憶させる。 Next, an image processing method will be described based on the operation of the imaging system 1. FIG. 6 is a flowchart showing the operation of the imaging system 1. The image pickup apparatus 2 performs the process of step S11 to acquire at least the data of the captured image in the state where the detection direction of the detection unit 11 is set to the first direction. In step S11, the imaging device 2 detects the object OB from the first direction by the detection unit 11, and acquires, for example, visible light image data and point cloud data. In step S12, the information calculation unit 12 calculates the first model information using the detection result of the detection unit 11 in step S11. In step S13, the information calculation unit 12 stores the first model information in the storage unit 27.

撮像装置2は、ステップS11において検出部11による検出処理が終了した後、例えば、ユーザの手動または図示しない移動装置によって移動され、検出部11の検出方向が第1方向と異なる第2方向に設定される。ステップS14において、撮像装置2は、検出部11によって対象物OBを第2方向から検出し、例えば可視光画像のデータおよび点群データを取得する。ステップS15において、情報算出部12は、ステップS14における検出部11の検出結果を使って、第2モデル情報を算出する。ステップS16において、情報算出部12は、第2モデル情報を記憶部27に記憶させる。 After the detection process by the detection unit 11 is completed in step S11, the image pickup device 2 is moved by, for example, a user's manual or a moving device (not shown), and the detection direction of the detection unit 11 is set to a second direction different from the first direction. Will be done. In step S14, the imaging device 2 detects the object OB from the second direction by the detection unit 11, and acquires, for example, visible light image data and point cloud data. In step S15, the information calculation unit 12 calculates the second model information using the detection result of the detection unit 11 in step S14. In step S16, the information calculation unit 12 stores the second model information in the storage unit 27.

ステップS17において、モデル統合部35は、第1モデル情報と第2モデル情報とを統合して統合モデル情報を算出する。ステップS17において、モデル統合部35は、第1モデル情報の形状情報とテクスチャ情報との少なくとも一方を記憶部27から読み出し、形状情報とテクスチャ情報との少なくとも一方を使って第1特徴点を検出する(ステップS18)。そして、モデル統合部35は、少なくとも第1特徴点の特徴量を含む第1特徴点データを算出し(ステップS19)、第1特徴点データを記憶部27に記憶させる(ステップS20)。モデル統合部35は、第2モデル情報の形状情報とテクスチャ情報との少なくとも一方を記憶部27から読み出し、形状情報とテクスチャ情報との少なくとも一方を使って第2特徴点を検出する(ステップS21)。そして、モデル統合部35は、少なくとも第2特徴点の特徴量を含む第2特徴点データを算出し(ステップS22)、第2特徴点データを記憶部27に記憶させる(ステップS23)。モデル統合部35は、第1特徴点データおよび第2特徴点データを記憶部27から読み出し、これら特徴点データをマッチングする(ステップS24)。モデル統合部35は、ステップS24のマッチング処理によって統合モデル情報を算出し、例えば、統合モデル情報を項目ごとに記憶部27に記憶させる(ステップS25)。そして、ステップS26において、撮像装置2は、記憶部27に記憶されている統合モデル情報の少なくとも一部を、通信部13により情報処理装置3に送信する。情報処理装置3は、例えば、撮像装置2から受信した統合モデル情報を使ってレンダリング処理を実行し、その結果(例、推定画像など)を表示装置5に表示させる。 In step S17, the model integration unit 35 integrates the first model information and the second model information to calculate the integrated model information. In step S17, the model integration unit 35 reads at least one of the shape information and the texture information of the first model information from the storage unit 27, and detects the first feature point using at least one of the shape information and the texture information. (Step S18). Then, the model integration unit 35 calculates the first feature point data including at least the feature amount of the first feature point (step S19), and stores the first feature point data in the storage unit 27 (step S20). The model integration unit 35 reads at least one of the shape information and the texture information of the second model information from the storage unit 27, and detects the second feature point using at least one of the shape information and the texture information (step S21). .. Then, the model integration unit 35 calculates the second feature point data including at least the feature amount of the second feature point (step S22), and stores the second feature point data in the storage unit 27 (step S23). The model integration unit 35 reads the first feature point data and the second feature point data from the storage unit 27, and matches these feature point data (step S24). The model integration unit 35 calculates the integration model information by the matching process in step S24, and stores, for example, the integration model information in the storage unit 27 for each item (step S25). Then, in step S26, the imaging device 2 transmits at least a part of the integrated model information stored in the storage unit 27 to the information processing device 3 by the communication unit 13. The information processing device 3 executes a rendering process using, for example, the integrated model information received from the image pickup device 2, and displays the result (eg, estimated image, etc.) on the display device 5.

[第3実施形態]
次に、第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図7は、本実施形態に係る撮像システム1を示す図である。この撮像システム1は、複数の撮像装置2を備える。以下の説明において、複数の撮像装置2のうち、1つの撮像装置2を第1撮像装置2a、他の1つの撮像装置2を第2撮像装置2bという。したがって、この撮像システム1は、少なくとも2つの撮像装置、又は複数の撮像装置を備える構成である。
[Third Embodiment]
Next, the third embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals to simplify or omit the description thereof. FIG. 7 is a diagram showing an imaging system 1 according to the present embodiment. The imaging system 1 includes a plurality of imaging devices 2. In the following description, of the plurality of image pickup devices 2, one image pickup device 2 is referred to as a first image pickup device 2a, and the other one image pickup device 2 is referred to as a second image pickup device 2b. Therefore, the imaging system 1 is configured to include at least two imaging devices or a plurality of imaging devices.

第1撮像装置2aは、第1方向から対象物OBを検出し、その検出結果を元に第1モデル情報を算出する。第1撮像装置2aは、第1モデル情報を情報処理装置3に供給する。第2撮像装置2bは、第2方向から対象物を検出し、その検出結果を元に第2モデル情報を算出する。第2撮像装置2bは、第2モデル情報を情報処理装置3に供給する。情報処理装置3は、第1モデル情報と第2モデル情報とを統合し、複数の方向(例、第1方向と該第1方向とは異なる第2方向)から検出した検出結果に基づく統合モデル情報を算出する。 The first imaging device 2a detects the object OB from the first direction, and calculates the first model information based on the detection result. The first imaging device 2a supplies the first model information to the information processing device 3. The second imaging device 2b detects an object from the second direction and calculates the second model information based on the detection result. The second imaging device 2b supplies the second model information to the information processing device 3. The information processing device 3 integrates the first model information and the second model information, and is an integrated model based on the detection results detected from a plurality of directions (eg, the first direction and the second direction different from the first direction). Calculate the information.

次に、撮像システム1の各部について説明する。図8は、撮像システム1を示すブロック図である。第1撮像装置2aは、検出部11(以下、検出部11aと記す)が対象物OBを検出するタイミングの情報(以下、タイミング情報という)を検出する計時部41(以下、計時部41aと記す)を備える。タイミング情報は、例えば、検出部11aが検出処理を行った期間(例、日時)を示す情報を含む。タイミング情報は、検出部11aが検出処理を行った期間の開始時刻と終了時刻の少なくとも一方を含んでいてもよい。 Next, each part of the imaging system 1 will be described. FIG. 8 is a block diagram showing the imaging system 1. The first imaging device 2a is referred to as a time measuring unit 41 (hereinafter referred to as a time measuring unit 41a) for detecting timing information (hereinafter referred to as timing information) when the detection unit 11 (hereinafter referred to as a detecting unit 11a) detects an object OB. ) Is provided. The timing information includes, for example, information indicating a period (eg, date and time) during which the detection unit 11a has performed the detection process. The timing information may include at least one of the start time and the end time of the period in which the detection unit 11a has performed the detection process.

タイミング情報は、例えば、対象物OBが撮像装置によって検出されたタイミングが異なる複数の検出結果を用いて、モデル統合を行う際に使われる。例えば、複数の検出結果のうち対象物OBを検出したタイミングが相対的に近い少なくとも2つの検出結果を元に、複数のモデル情報を算出し、算出した複数のモデル情報を統合してもよい。 The timing information is used, for example, when performing model integration using a plurality of detection results having different timings when the object OB is detected by the imaging device. For example, a plurality of model information may be calculated based on at least two detection results in which the timing of detecting the object OB is relatively close among the plurality of detection results, and the calculated plurality of model information may be integrated.

検出部11aは、例えば、その検出結果を、タイミング情報と関連付けて記憶部27(以下、記憶部27aと記す)に記憶させる。情報算出部12(以下、情報算出部12aと記す)は、例えば、検出部11aの検出結果を元に第1モデル情報を算出し、その算出結果をタイミング情報と関連付けて記憶部27aに記憶させる。 For example, the detection unit 11a stores the detection result in the storage unit 27 (hereinafter, referred to as the storage unit 27a) in association with the timing information. The information calculation unit 12 (hereinafter referred to as an information calculation unit 12a) calculates the first model information based on the detection result of the detection unit 11a, and stores the calculation result in the storage unit 27a in association with the timing information. ..

また、第2撮像装置2bは、例えば、第1撮像装置2aと同様の構成である。第2撮像装置2bの検出部11(以下、検出部11bと記す)は、例えば、第2方向から対象物OBを検出し、その検出結果を計時部41(以下、計時部41bと記す)が検出したタイミング情報と関連付けて記憶部27(以下、記憶部27bと記す)に記憶させる。第2撮像装置2bの情報算出部12(以下、情報算出部12bと記す)は、例えば、検出部11bの検出結果を元に第2モデル情報を算出し、その算出結果をタイミング情報と関連付けて記憶部27bに記憶させる。 Further, the second imaging device 2b has, for example, the same configuration as the first imaging device 2a. The detection unit 11 (hereinafter referred to as the detection unit 11b) of the second imaging device 2b detects the object OB from the second direction, and the time measuring unit 41 (hereinafter referred to as the time measuring unit 41b) reports the detection result. It is stored in the storage unit 27 (hereinafter referred to as the storage unit 27b) in association with the detected timing information. The information calculation unit 12 (hereinafter referred to as the information calculation unit 12b) of the second imaging device 2b calculates the second model information based on the detection result of the detection unit 11b, and associates the calculation result with the timing information. It is stored in the storage unit 27b.

なお、タイミング情報は、検出部11により対象物OBを検出することが予定されている期間の情報を含んでいてもよい。第1撮像装置2aと第2撮像装置2bとは、タイミング情報を送受信し、制御部28や通信部13を用いて互いに同期をとって対象物OBを検出してもよい。 The timing information may include information on a period during which the detection unit 11 is scheduled to detect the object OB. The first imaging device 2a and the second imaging device 2b may transmit and receive timing information, and may detect the object OB in synchronization with each other by using the control unit 28 and the communication unit 13.

本実施形態において、第1撮像装置2aの情報算出部12aは、第1モデル情報と第2モデル情報との統合に使われる第1付加情報を算出する。第1付加情報は、例えば、特徴点データ(例、特徴量)のマッチングにより得られる情報、検出部11aの位置情報、撮像装置2のタイミング情報、検出部11bの位置情報、および第2撮像装置2bのタイミング情報のうち少なくとも一つを含む。例えば、第1撮像装置2aは、第2撮像装置2bから第2モデル情報を受信し、第1撮像装置2aの情報算出部12aは、算出した第1特徴点データと、第2撮像装置2bから受信した第2特徴点データとを使って、第1付加情報を算出する。 In the present embodiment, the information calculation unit 12a of the first image pickup apparatus 2a calculates the first additional information used for integrating the first model information and the second model information. The first additional information includes, for example, information obtained by matching feature point data (eg, feature amount), position information of the detection unit 11a, timing information of the image pickup device 2, position information of the detection unit 11b, and a second image pickup device. It includes at least one of the timing information of 2b. For example, the first imaging device 2a receives the second model information from the second imaging device 2b, and the information calculation unit 12a of the first imaging device 2a receives the calculated first feature point data and the second imaging device 2b. The first additional information is calculated using the received second feature point data.

本実施形態において、情報処理装置3は、モデル統合部45を更に備える。モデル統合部45は、第1撮像装置2aからの第1モデル情報と第2撮像装置2bからの第2モデル情報とを統合して上記の統合モデル情報を生成する。モデル統合部45がモデル情報の統合に用いるアルゴリズムは、例えば、第2実施形態に説明した撮像装置2のモデル統合部35と同様でよい。情報処理装置3の通信部30は、例えば、モデル統合を行うよりも前に、第1撮像装置2aの通信部13aから、第1付加情報を受信する。情報処理装置2のモデル統合部45は、例えば、第1モデル情報、第2モデル情報、及び第1付加情報を使って、モデル統合を行う。 In the present embodiment, the information processing device 3 further includes a model integration unit 45. The model integration unit 45 integrates the first model information from the first image pickup apparatus 2a and the second model information from the second imaging apparatus 2b to generate the above-mentioned integrated model information. The algorithm used by the model integration unit 45 for integrating the model information may be, for example, the same as the model integration unit 35 of the image pickup apparatus 2 described in the second embodiment. The communication unit 30 of the information processing device 3 receives the first additional information from the communication unit 13a of the first imaging device 2a, for example, before the model integration is performed. The model integration unit 45 of the information processing device 2 performs model integration using, for example, the first model information, the second model information, and the first additional information.

図9は、本実施形態に係る撮像システム1の動作を示す図である。第1撮像装置2aの情報算出部12aは、ステップS31において第1モデル情報を算出し、ステップS32において少なくとも第1特徴量を含む第1特徴点データを算出する。第2撮像装置2bの情報算出部12bは、ステップS33において第2モデル情報を算出し、ステップS34において少なくとも第2特徴量を含む第2特徴点データを算出する。第1撮像装置2aの通信部13aは、ステップS35において、第2特徴点データの送信を要求する指令(要求指令)を、第2撮像装置2bの通信部13bに送信する。第2撮像装置2bの通信部13bは、ステップS36において、第1撮像装置2aの通信部13aから、要求指令を受信する。通信部13bは、ステップS37において、第2特徴点データを通信部13aに送信する。通信部13aは、ステップS38において、第2特徴点データを通信部13bから受信する。このように、撮像装置間(例、第1撮像装置と第2撮像装置との間)における少なくとも特徴点データ(例、第1特徴点データ及び/又は第2特徴点データ)の通信(データ通信)を行う場合、各撮像装置がモデル情報の統合に必要な情報を計算することによって、情報処理装置3は統合の負荷を減らすことが可能となる。なお、上記の特徴点データ(第1特徴点データ、第2特徴点データなど)の作成は、情報処理装置3が行うことも可能である。この場合、例えば、情報処理装置3は、各撮像装置又は一方の撮像装置(例、第1撮像装置2a)から受信する各モデル情報を用いて第1特徴点データおよび第2特徴点データを生成する。また、上記の特徴点データ(例、第1特徴点データ、第2特徴点データ)の生成は、第1撮像装置2a(又は第2撮像装置2b)が行うことも可能である。この場合、例えば、第1撮像装置2aは、第2撮像装置2bから受信する第2モデル情報に基づいて第2特徴点データを生成する。 FIG. 9 is a diagram showing the operation of the imaging system 1 according to the present embodiment. The information calculation unit 12a of the first imaging device 2a calculates the first model information in step S31, and calculates the first feature point data including at least the first feature amount in step S32. The information calculation unit 12b of the second imaging device 2b calculates the second model information in step S33, and calculates the second feature point data including at least the second feature amount in step S34. In step S35, the communication unit 13a of the first imaging device 2a transmits a command (request command) requesting transmission of the second feature point data to the communication unit 13b of the second imaging device 2b. In step S36, the communication unit 13b of the second imaging device 2b receives the request command from the communication unit 13a of the first imaging device 2a. In step S37, the communication unit 13b transmits the second feature point data to the communication unit 13a. In step S38, the communication unit 13a receives the second feature point data from the communication unit 13b. In this way, communication (data communication) of at least feature point data (eg, first feature point data and / or second feature point data) between image pickup devices (eg, between the first image pickup device and the second image pickup device). ), The information processing device 3 can reduce the load of integration by calculating the information required for the integration of the model information by each imaging device. The information processing apparatus 3 can also create the above-mentioned feature point data (first feature point data, second feature point data, etc.). In this case, for example, the information processing device 3 generates the first feature point data and the second feature point data using each model information received from each image pickup device or one image pickup device (eg, the first image pickup device 2a). do. Further, the generation of the above-mentioned feature point data (eg, first feature point data, second feature point data) can also be performed by the first imaging device 2a (or the second imaging device 2b). In this case, for example, the first imaging device 2a generates the second feature point data based on the second model information received from the second imaging device 2b.

第1撮像装置2aの情報算出部12aは、ステップS39において、第1特徴点データと第2特徴点データとをマッチングし(特徴部分のマッチング処理)、ステップS40において、マッチングの結果を示す第1付加情報を算出する。第1付加情報は、例えば、第1モデル情報が示す形状と、第2モデル情報が示す形状との位置関係を示す情報を含む。第1付加情報は、例えば、第1特徴データと第2特徴データとで共通する特徴点の座標、及び/又は第1特徴データと第2特徴データとで共通する特徴量を含む。情報算出部12aは、算出した第1付加情報を、例えば記憶部27aに記憶させる。第1付加情報は、例えば、第1モデル情報の1項目の情報であってもよい。 The information calculation unit 12a of the first imaging device 2a matches the first feature point data and the second feature point data in step S39 (matching process of the feature portion), and shows the matching result in step S40. Calculate additional information. The first additional information includes, for example, information indicating the positional relationship between the shape indicated by the first model information and the shape indicated by the second model information. The first additional information includes, for example, the coordinates of the feature points common to the first feature data and the second feature data, and / or the feature amount common to the first feature data and the second feature data. The information calculation unit 12a stores the calculated first additional information in, for example, a storage unit 27a. The first additional information may be, for example, one item of information of the first model information.

第1撮像装置2aの通信部13aは、ステップS41において、第1付加情報を情報処理装置3の通信部30に送信する。情報処理装置3の通信部30は、ステップS42において、通信部13aから第1付加情報を受信する。
情報処理装置3は、ステップS43において、統合モデル情報のうち、第1撮像装置2aからの第1モデル情報に担当させる第1担当領域と、第2撮像装置2bからの第2モデル情報に担当させる第2担当領域とを決定して設定する。例えば、モデル統合部45は、第1担当領域と第2担当領域とが重複しないように、各担当領域を選択する。
In step S41, the communication unit 13a of the first imaging device 2a transmits the first additional information to the communication unit 30 of the information processing device 3. In step S42, the communication unit 30 of the information processing device 3 receives the first additional information from the communication unit 13a.
In step S43, the information processing device 3 is assigned to the first responsible area to be in charge of the first model information from the first imaging device 2a and the second model information from the second imaging device 2b in the integrated model information. Determine and set the second area in charge. For example, the model integration unit 45 selects each responsible area so that the first responsible area and the second responsible area do not overlap.

情報処理装置3の制御部33は、ステップS44において、通信部30を制御し、第1担当領域における第1モデル情報の送信を要求する指令(第1要求信号)を、第1撮像装置2aの通信部13aに送信する。以下、第1担当領域における第1モデル情報を、第1指定情報という。第1指定情報は、例えば、第1モデル情報が示す形状の一部の形状に関する情報である。第1撮像装置2aの通信部13aは、ステップS45において、ステップS44の指令を受信する。第1撮像装置2aの情報算出部12aは、ステップS46において、第1モデル情報のうち第1指定情報を抽出する。第1撮像装置2aの通信部13aは、ステップS47において、第1指定情報を情報処理装置3の通信部30に送信する。ステップS48において、通信部30は、通信部13aから第1指定情報を受信する。 In step S44, the control unit 33 of the information processing device 3 controls the communication unit 30 and issues a command (first request signal) for requesting transmission of the first model information in the first area in charge of the first imaging device 2a. It is transmitted to the communication unit 13a. Hereinafter, the first model information in the first area in charge is referred to as the first designated information. The first designated information is, for example, information regarding a part of the shape indicated by the first model information. The communication unit 13a of the first imaging device 2a receives the command of step S44 in step S45. In step S46, the information calculation unit 12a of the first image pickup apparatus 2a extracts the first designated information from the first model information. In step S47, the communication unit 13a of the first imaging device 2a transmits the first designated information to the communication unit 30 of the information processing device 3. In step S48, the communication unit 30 receives the first designated information from the communication unit 13a.

情報処理装置3の制御部33は、ステップS44の処理の後のステップS49において、通信部30を制御し、第2担当領域における第2モデル情報の送信を要求する指令(第2要求信号)を、第2撮像装置2bの通信部13bに送信する。以下、第2担当領域における第2モデル情報を、第2指定情報という。第2指定情報は、例えば、第2モデル情報が示す形状の一部の形状に関する情報である。第2撮像装置2bの通信部13bは、ステップS50において、ステップS49の指令を受信する。第2撮像装置2bの情報算出部12bは、ステップS51において、第2モデル情報のうち第2指定情報を抽出する。第2撮像装置2bの通信部13bは、ステップS52において、第2指定情報を情報処理装置3の通信部30に送信する。情報処理装置3の通信部30は、ステップS53において、通信部13bから第2指定情報を受信する。情報処理装置3のモデル統合部45は、ステップS54において、第1モデル情報の一部である第1指定情報と、第2モデル情報の一部である第2指定情報とを統合し、統合モデル情報を算出する。例えば、モデル統合部45は、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。また、例えば、撮像装置2aと撮像装置2bとは、上記の付加情報を作成するために、複数の撮像装置間において情報(例、第1モデル情報、第2モデル情報、第1特徴点データ、第2特徴点データ)のデータ通信を行う。 In step S49 after the processing of step S44, the control unit 33 of the information processing device 3 controls the communication unit 30 and issues a command (second request signal) requesting transmission of the second model information in the second area in charge. , Is transmitted to the communication unit 13b of the second imaging device 2b. Hereinafter, the second model information in the second area in charge is referred to as the second designated information. The second designated information is, for example, information regarding a part of the shape indicated by the second model information. The communication unit 13b of the second image pickup apparatus 2b receives the command of step S49 in step S50. In step S51, the information calculation unit 12b of the second image pickup apparatus 2b extracts the second designated information from the second model information. In step S52, the communication unit 13b of the second imaging device 2b transmits the second designated information to the communication unit 30 of the information processing device 3. In step S53, the communication unit 30 of the information processing device 3 receives the second designated information from the communication unit 13b. In step S54, the model integration unit 45 of the information processing device 3 integrates the first designated information that is a part of the first model information and the second designated information that is a part of the second model information, and integrates the model. Calculate the information. For example, the model integration unit 45 shares model information (eg, first model information, second model information) or feature point data (eg, first feature point data, second feature point data) among a plurality of imaging devices. Integrated model information is generated using the information (eg, additional information, designated information) obtained by (eg, information sharing by two-way communication, one-way communication). Further, for example, in order to create the above-mentioned additional information, the image pickup device 2a and the image pickup device 2b have information (eg, first model information, second model information, first feature point data, etc.) among a plurality of image pickup devices. Data communication of the second feature point data) is performed.

[第4実施形態]
次に、第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。本実施形態に係る撮像システム1は、図7および図8と同様の構成である。本実施形態において、第1撮像装置2aおよび第2撮像装置2bは、それぞれ、モデル統合に使われる付加情報を算出する。本実施形態において、情報処理装置3は、統合モデル情報をチェックし、適宜、補間処理を行う。
[Fourth Embodiment]
Next, the fourth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals to simplify or omit the description thereof. The imaging system 1 according to the present embodiment has the same configuration as that of FIGS. 7 and 8. In the present embodiment, the first imaging device 2a and the second imaging device 2b each calculate additional information used for model integration. In the present embodiment, the information processing apparatus 3 checks the integrated model information and performs interpolation processing as appropriate.

図10は、本実施形態に係る撮像システム1の動作を示す図である。図10において、図9と同様の処理については、同じ符号を付してその説明を簡略化あるいは省略する。第1撮像装置2aの情報算出部12aは、ステップS31において第1モデル情報を算出し、ステップS32において少なくとも第1特徴量を含む第1特徴点データを算出する。第2撮像装置2bの情報算出部12bは、ステップS33において第2モデル情報を算出し、ステップS34において少なくとも第2特徴量を含む第2特徴点データを算出する。撮像装置2の通信部13aは、ステップS60において、第1特徴点データを第2撮像装置2bの通信部13bに送信する。通信部13bは、ステップS61において、第1特徴点データを通信部13aから受信する。通信部13bは、ステップS62において、第2特徴点データを通信部13aに送信する。通信部13aは、ステップS63において、第2特徴点データを通信部13bから受信する。 FIG. 10 is a diagram showing the operation of the imaging system 1 according to the present embodiment. In FIG. 10, the same processing as in FIG. 9 is designated by the same reference numerals to simplify or omit the description thereof. The information calculation unit 12a of the first imaging device 2a calculates the first model information in step S31, and calculates the first feature point data including at least the first feature amount in step S32. The information calculation unit 12b of the second imaging device 2b calculates the second model information in step S33, and calculates the second feature point data including at least the second feature amount in step S34. In step S60, the communication unit 13a of the image pickup device 2 transmits the first feature point data to the communication unit 13b of the second image pickup device 2b. In step S61, the communication unit 13b receives the first feature point data from the communication unit 13a. In step S62, the communication unit 13b transmits the second feature point data to the communication unit 13a. In step S63, the communication unit 13a receives the second feature point data from the communication unit 13b.

第1撮像装置2aの情報算出部12aは、ステップS64において、第1特徴点データと第2特徴点データとをマッチングし、マッチングの結果を示す第1付加情報を算出する。第1撮像装置2aの通信部13aは、ステップS65において、第1付加情報を情報処理装置3の通信部30に送信する。通信部30は、ステップS66において、通信部13aから第1付加情報を受信する。 In step S64, the information calculation unit 12a of the first imaging device 2a matches the first feature point data with the second feature point data, and calculates the first additional information indicating the matching result. In step S65, the communication unit 13a of the first imaging device 2a transmits the first additional information to the communication unit 30 of the information processing device 3. In step S66, the communication unit 30 receives the first additional information from the communication unit 13a.

第2撮像装置2bの情報算出部12bは、第1撮像装置2aと同様に、第1特徴点データと第2特徴点データとをマッチングし、ステップS67において、マッチングの結果を示す第2付加情報を算出する。情報算出部12bは、算出した第2付加情報を記憶部27bに記憶させる。第2付加情報は、第1付加情報と同様であり、例えば、第2モデル情報の1項目の情報であってもよい。第2撮像装置2bの通信部13bは、ステップS68において、第2付加情報を情報処理装置3の通信部30に送信する。通信部30は、ステップS69において、通信部13bから第2付加情報を受信する。 The information calculation unit 12b of the second imaging device 2b matches the first feature point data and the second feature point data in the same manner as the first imaging device 2a, and in step S67, the second additional information indicating the matching result. Is calculated. The information calculation unit 12b stores the calculated second additional information in the storage unit 27b. The second additional information is the same as the first additional information, and may be, for example, one item of information of the second model information. In step S68, the communication unit 13b of the second imaging device 2b transmits the second additional information to the communication unit 30 of the information processing device 3. In step S69, the communication unit 30 receives the second additional information from the communication unit 13b.

撮像システム1は、例えば、図9を参照して説明したステップS43〜ステップS54の処理により、第1モデル情報と第2モデル情報とを統合する。情報処理装置3のモデル統合部45は、例えば、算出した統合モデル情報を記憶部31に記憶させる。モデル統合部45は、ステップS70において、算出した統合モデル情報の整合性をチェック(判定)する。モデル統合部45は、統合モデル情報の整合性がとれていないと判定した場合に、例えば、以下の処理を行う。 The imaging system 1 integrates the first model information and the second model information by, for example, the processes of steps S43 to S54 described with reference to FIG. 9. The model integration unit 45 of the information processing device 3 stores, for example, the calculated integrated model information in the storage unit 31. In step S70, the model integration unit 45 checks (determines) the consistency of the calculated integrated model information. When it is determined that the integrated model information is not consistent, the model integration unit 45 performs the following processing, for example.

ステップS71において、情報処理装置3の制御部33は、通信部30を制御し、第1補間情報の送信を要求する指令(要求信号)を、第1撮像装置2aの通信部13aに送信する。第1補間情報は、例えば、統合モデル情報の補間に使われる情報であり、第1モデル情報が示す形状と第2モデル情報が示す形状とで重複する領域の情報を含む。ステップS72において、第1撮像装置2aの通信部13aは、ステップS68の指令を受信する。ステップS73において、第1撮像装置2aの情報算出部12aは、第1モデル情報から第1補間情報を抽出する。ステップS74において、第1撮像装置2aの通信部13aは、第1補間情報を情報処理装置3の通信部30に送信する。ステップS75において、通信部30は、第1補間情報を通信部13aから受信する。 In step S71, the control unit 33 of the information processing device 3 controls the communication unit 30 and transmits a command (request signal) requesting transmission of the first interpolation information to the communication unit 13a of the first imaging device 2a. The first interpolation information is, for example, information used for interpolation of integrated model information, and includes information on a region where the shape indicated by the first model information and the shape indicated by the second model information overlap. In step S72, the communication unit 13a of the first imaging device 2a receives the command of step S68. In step S73, the information calculation unit 12a of the first imaging device 2a extracts the first interpolation information from the first model information. In step S74, the communication unit 13a of the first imaging device 2a transmits the first interpolation information to the communication unit 30 of the information processing device 3. In step S75, the communication unit 30 receives the first interpolation information from the communication unit 13a.

ステップS71の後のステップS76において、情報処理装置3の制御部33は、通信部30を制御し、第2補間情報の送信を要求する指令(要求信号)を、第2撮像装置2bの通信部13bに送信する。第2補間情報は、例えば、統合モデル情報の補間に使われる情報であり、第1モデル情報が示す形状と第2モデル情報が示す形状とで重複する領域の情報を含む。ステップS77において、第2撮像装置2bの通信部13bは、ステップS76の指令を受信する。ステップS78において、第2撮像装置2bの情報算出部12bは、第2モデル情報から第2補間情報を抽出する。ステップS79において、第2撮像装置2bの通信部13bは、第2補間情報を情報処理装置3の通信部30に送信する。ステップS80において、通信部30は、第2補間情報を通信部13bから受信する。 In step S76 after step S71, the control unit 33 of the information processing device 3 controls the communication unit 30 and issues a command (request signal) requesting transmission of the second interpolation information to the communication unit of the second imaging device 2b. It is transmitted to 13b. The second interpolation information is, for example, information used for interpolation of integrated model information, and includes information on a region where the shape indicated by the first model information and the shape indicated by the second model information overlap. In step S77, the communication unit 13b of the second imaging device 2b receives the command of step S76. In step S78, the information calculation unit 12b of the second imaging device 2b extracts the second interpolation information from the second model information. In step S79, the communication unit 13b of the second imaging device 2b transmits the second interpolation information to the communication unit 30 of the information processing device 3. In step S80, the communication unit 30 receives the second interpolation information from the communication unit 13b.

ステップS81において、情報処理装置3のモデル統合部45は、第1補間情報および第2補間情報を使って、統合モデル情報の補間処理を行う。ステップS82において、モデル統合部45は、記憶部31に記憶されている統合モデル情報を、補間処理後の統合モデル情報に更新する。 In step S81, the model integration unit 45 of the information processing device 3 performs interpolation processing of the integrated model information using the first interpolation information and the second interpolation information. In step S82, the model integration unit 45 updates the integrated model information stored in the storage unit 31 with the integrated model information after the interpolation processing.

また、例えば、モデル統合部45は、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。 Further, for example, the model integration unit 45 may use model information (eg, first model information, second model information) or feature point data (eg, first feature point data, second feature point data) between a plurality of imaging devices. Integrated model information is generated using the information (eg, additional information, designated information) obtained by sharing the information (eg, sharing information by two-way communication, one-way communication).

[第5実施形態]
次に、第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図11は、本実施形態に係る撮像システム1を示すブロック図である。
[Fifth Embodiment]
Next, the fifth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals to simplify or omit the description thereof. FIG. 11 is a block diagram showing an imaging system 1 according to the present embodiment.

本実施形態に係る撮像システム1は、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3を備える。第1撮像装置2aは、例えば、第2実施形態と同様のモデル統合部35(以下、モデル統合部35aと記す)を備える。モデル統合部35aは、情報算出部12aが算出した第1モデル情報と、通信部13aが第2撮像装置2bから受信した第2モデル情報とを統合する。通信部13aは、モデル統合部35aが算出した統合モデル情報を、情報処理装置3の通信部30に送信する。 The imaging system 1 according to the present embodiment includes a first imaging device 2a, a second imaging device 2b, and an information processing device 3. The first imaging device 2a includes, for example, a model integration unit 35 (hereinafter, referred to as a model integration unit 35a) similar to that of the second embodiment. The model integration unit 35a integrates the first model information calculated by the information calculation unit 12a and the second model information received by the communication unit 13a from the second imaging device 2b. The communication unit 13a transmits the integrated model information calculated by the model integration unit 35a to the communication unit 30 of the information processing device 3.

図12は、本実施形態に係る撮像システム1の動作を示す図である。図12において、図9等と同様の処理については、同じ符号を付してその説明を簡略化あるいは省略する。撮像システム1は、ステップS31〜ステップS40の処理によって、モデル統合に使われる第1付加情報を算出する。 FIG. 12 is a diagram showing the operation of the imaging system 1 according to the present embodiment. In FIG. 12, the same processing as in FIG. 9 and the like is designated by the same reference numerals to simplify or omit the description thereof. The imaging system 1 calculates the first additional information used for model integration by the processing of steps S31 to S40.

第1撮像装置2aは、ステップS85において、統合モデル情報のうち、第1モデル情報に担当させる第1担当領域と、第2撮像装置2bからの第2モデル情報に担当させる第2担当領域とを決定して設定する。例えば、モデル統合部35aは、第1担当領域と第2担当領域とが重複しないように、各担当領域を選択する。 In step S85, the first image pickup apparatus 2a has a first responsible area in charge of the first model information and a second responsible area in charge of the second model information from the second image pickup apparatus 2b in the integrated model information. Decide and set. For example, the model integration unit 35a selects each responsible area so that the first responsible area and the second responsible area do not overlap.

第1撮像装置2aの制御部28は、ステップS86において、通信部13aを制御し、第2担当領域における第2モデル情報の送信を要求する指令を、第2撮像装置2bの通信部13bに送信する。第2撮像装置2bの通信部13bは、ステップS87において、ステップS86の指令を受信する。第2撮像装置2bの情報算出部12bは、ステップS88において、第2モデル情報のうち第1撮像装置2aから指定された第2担当領域の情報を抽出する。第2撮像装置2bの通信部13bは、ステップS89において、ステップS86で情報算出部12bが抽出した情報(抽出情報)を、第1撮像装置2aの通信部13aに送信する。 In step S86, the control unit 28 of the first imaging device 2a controls the communication unit 13a and transmits a command requesting transmission of the second model information in the second area in charge to the communication unit 13b of the second imaging device 2b. do. The communication unit 13b of the second image pickup apparatus 2b receives the command of step S86 in step S87. In step S88, the information calculation unit 12b of the second imaging device 2b extracts the information of the second responsible area designated from the first imaging device 2a from the second model information. In step S89, the communication unit 13b of the second imaging device 2b transmits the information (extracted information) extracted by the information calculation unit 12b in step S86 to the communication unit 13a of the first imaging device 2a.

第1撮像装置2aの情報算出部12aは、ステップS90において、第1担当領域の第1モデル情報を抽出する。また、第1撮像装置2aの通信部13aは、ステップS91において、通信部13bから抽出情報(例、第2担当領域の第2モデル情報)を受信する。第1撮像装置2aのモデル統合部35aは、ステップS92において、第1担当領域の第1モデル情報と、第2担当領域の第2モデル情報とを統合し、統合モデル情報を算出する。第1撮像装置2aの通信部13aは、ステップS93において、統合モデル情報を情報処理装置3の通信部30に送信する。通信部30は、ステップS94において、統合モデル情報を通信部13aから受信する。情報処理装置3のレンダリング処理部32は、ステップS95において、統合モデル情報を使ってレンダリング処理を行う。 In step S90, the information calculation unit 12a of the first imaging device 2a extracts the first model information of the first responsible area. In addition, the communication unit 13a of the first imaging device 2a receives the extraction information (eg, the second model information of the second area in charge) from the communication unit 13b in step S91. In step S92, the model integration unit 35a of the first imaging device 2a integrates the first model information of the first responsible area and the second model information of the second responsible area to calculate the integrated model information. In step S93, the communication unit 13a of the first imaging device 2a transmits the integrated model information to the communication unit 30 of the information processing device 3. In step S94, the communication unit 30 receives the integrated model information from the communication unit 13a. In step S95, the rendering processing unit 32 of the information processing device 3 performs rendering processing using the integrated model information.

また、例えば、第1撮像装置2aのモデル統合部35aは、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。 Further, for example, the model integration unit 35a of the first imaging device 2a may use model information (eg, first model information, second model information) or feature point data (eg, first feature point data,) between a plurality of imaging devices. Integrated model information is generated using the information (eg, additional information, designated information) obtained by sharing the second feature point data) (eg, sharing information by two-way communication, one-way communication).

[第6実施形態]
次に、第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図13は、本実施形態に係る撮像システム1を示すブロック図である。
[Sixth Embodiment]
Next, the sixth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals to simplify or omit the description thereof. FIG. 13 is a block diagram showing an imaging system 1 according to the present embodiment.

本実施形態において、第1撮像装置2aおよび第2撮像装置2bは、モデル統合に使われる情報を相互に通信し、それぞれ、統合モデル情報を算出する。第1撮像装置2aは、例えば、図12を参照して説明した処理により、統合モデル情報を算出する。また、第2撮像装置2bは、例えば第1撮像装置2aと同様の処理を行うことにより、統合モデル情報を算出する。 In the present embodiment, the first imaging device 2a and the second imaging device 2b communicate with each other the information used for model integration, and calculate the integrated model information, respectively. The first image pickup apparatus 2a calculates the integrated model information by, for example, the process described with reference to FIG. Further, the second imaging device 2b calculates the integrated model information by performing the same processing as, for example, the first imaging device 2a.

情報処理装置3は、第1撮像装置2aと第2撮像装置2bの少なくとも一方から統合モデル情報を受信し、受信した統合モデル情報を使ってレンダリング処理を実行する。例えば、情報処理装置3の通信部30は、第1撮像装置2aの通信部13aに、統合モデル情報の送信を要求する指令を送信する。第1撮像装置2aの制御部28は、通信部13aを制御し、統合モデル情報のうち指令に指定された項目の情報を、情報処理装置3の通信部30へ送信させる。情報処理装置3は、同様に、第2撮像装置2bに統合モデル情報を送信させることができる。 The information processing device 3 receives integrated model information from at least one of the first imaging device 2a and the second imaging device 2b, and executes a rendering process using the received integrated model information. For example, the communication unit 30 of the information processing device 3 transmits a command requesting transmission of integrated model information to the communication unit 13a of the first imaging device 2a. The control unit 28 of the first imaging device 2a controls the communication unit 13a to transmit the information of the item specified in the command among the integrated model information to the communication unit 30 of the information processing device 3. Similarly, the information processing device 3 can cause the second imaging device 2b to transmit the integrated model information.

なお、情報処理装置3は、例えば、撮像システム1の各部の負荷情報(例、処理力に対する負荷の割合)を監視し、撮像システム1において相対的に負荷が小さい処理部に、モデル統合に関する処理を割り当ててもよい。例えば、第1撮像装置2aの制御部28は、第1撮像装置2aの負荷情報を生成する。第1撮像装置2aの負荷情報は、例えば、情報算出部12aの負荷情報およびモデル統合部35aの負荷情報を含む。第1撮像装置2aの通信部13aは、第1撮像装置2aの負荷情報を情報処理装置3の通信部30に送信する。同様に、第2撮像装置2bは、第2撮像装置2bの負荷情報を、情報処理装置3の通信部30に送信する。情報処理装置3の制御部33は、受信した負荷情報を元に各部の負荷を比較し、相対的に負荷が少ない処理部に、処理(モデル統合に関する処理)を一方の撮像装置のみに実行させる又は複数の撮像装置に部分的に処理(モデル統合に関する処理)を分担させて実行させる。 The information processing device 3 monitors, for example, load information (eg, the ratio of the load to the processing power) of each part of the imaging system 1, and processes related to model integration in the processing unit having a relatively small load in the imaging system 1. May be assigned. For example, the control unit 28 of the first imaging device 2a generates load information of the first imaging device 2a. The load information of the first imaging device 2a includes, for example, the load information of the information calculation unit 12a and the load information of the model integration unit 35a. The communication unit 13a of the first imaging device 2a transmits the load information of the first imaging device 2a to the communication unit 30 of the information processing device 3. Similarly, the second imaging device 2b transmits the load information of the second imaging device 2b to the communication unit 30 of the information processing device 3. The control unit 33 of the information processing device 3 compares the load of each unit based on the received load information, and causes the processing unit having a relatively light load to execute processing (processing related to model integration) only on one imaging device. Alternatively, a plurality of imaging devices are made to partially share the processing (processing related to model integration) and execute the processing.

例えば、制御部33は、第1撮像装置2aのモデル統合部35aの負荷が、第2撮像装置2bのモデル統合部35bの負荷よりも大きいと判定した場合、第1撮像装置2aによるモデル統合の少なくとも一部を制限し、制限した処理を第2撮像装置2bに実行させてもよい。例えば、制御部33は、第1撮像装置2aによる第1付加情報の算出を禁止し、第2撮像装置2bから第1撮像装置2aへ第2付加情報を送信させてもよく、第1撮像装置2aは第2付加情報を使ってモデル統合を行ってもよい。また、例えば、制御部33は、第1撮像装置2aによる担当領域の決定処理を禁止し、第2撮像装置2bから第1撮像装置2aへ担当領域を規定する担当領域情報を送信させてもよく、第1撮像装置2aは担当領域情報を使ってモデル統合を行ってもよい。また、例えば、制御部33は、第1撮像装置2aによるモデル統合を禁止し、第2撮像装置2bから統合モデル情報を受信してもよい。 For example, when the control unit 33 determines that the load of the model integration unit 35a of the first imaging device 2a is larger than the load of the model integration unit 35b of the second imaging device 2b, the control unit 33 integrates the model by the first imaging device 2a. At least a part thereof may be restricted, and the limited processing may be executed by the second imaging device 2b. For example, the control unit 33 may prohibit the calculation of the first additional information by the first imaging device 2a and cause the second imaging device 2b to transmit the second additional information to the first imaging device 2a. 2a may perform model integration using the second additional information. Further, for example, the control unit 33 may prohibit the process of determining the area in charge by the first imaging device 2a, and cause the second imaging device 2b to transmit the area information in charge defining the area in charge from the second imaging device 2b to the first imaging device 2a. , The first image pickup apparatus 2a may perform model integration using the area information in charge. Further, for example, the control unit 33 may prohibit model integration by the first imaging device 2a and receive integrated model information from the second imaging device 2b.

なお、制御部33は、情報処理装置3の負荷が、第1撮像装置2aおよび第2撮像装置2bのいずれよりも小さいと判定した場合、第1撮像装置2aと第2撮像装置2bの少なくとも一方のモデル統合処理の少なくとも一部を制限し、制限した処理をモデル統合部45に実行させてもよい。例えば、制御部33は、例えば、第1撮像装置2aおよび第2撮像装置2bのそれぞれによる担当領域の決定処理を禁止し、担当領域の決定処理をモデル統合部45に実行させ、担当領域情報を第1撮像装置2aおよび第2撮像装置2bのそれぞれへ送信させてもよい。また、制御部33は、第1撮像装置2aおよび第2撮像装置2bのそれぞれによるモデル統合の処理を禁止し、情報処理装置3のモデル統合部45にモデル統合の処理を実行させてもよい。 When the control unit 33 determines that the load of the information processing device 3 is smaller than that of either the first image pickup device 2a or the second image pickup device 2b, at least one of the first image pickup device 2a and the second image pickup device 2b. At least a part of the model integration process of the above may be restricted, and the limited process may be executed by the model integration unit 45. For example, the control unit 33 prohibits the determination process of the area in charge by each of the first imaging device 2a and the second imaging device 2b, causes the model integration unit 45 to execute the determination process of the area in charge, and transmits the area information in charge. It may be transmitted to each of the first image pickup apparatus 2a and the second imaging apparatus 2b. Further, the control unit 33 may prohibit the model integration process by each of the first image pickup device 2a and the second image pickup device 2b, and cause the model integration unit 45 of the information processing device 3 to execute the model integration process.

なお、上記の制御部33のように、撮像システム1の負荷の制御と監視の少なくとも一方を実行する負荷制御部(負荷監視部)は、第1撮像装置2a(例、制御部28)に設けられていてもよいし、第2撮像装置2b(例、制御部28)に設けられていてもよい。また、負荷制御部(負荷監視部)は、撮像システム1の外部に設けられていてもよく、撮像システム1に設けられていなくてもよい。 A load control unit (load monitoring unit) that executes at least one of load control and monitoring of the imaging system 1 like the control unit 33 is provided in the first imaging device 2a (eg, control unit 28). It may be provided in the second imaging device 2b (eg, the control unit 28). Further, the load control unit (load monitoring unit) may or may not be provided outside the image pickup system 1.

また、例えば、第1撮像装置2aのモデル統合部35a(又は/及び第2撮像装置2bのモデル統合部35b)は、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。 Further, for example, the model integration unit 35a (or / and the model integration unit 35b of the second imaging device 2b) of the first imaging device 2a provides model information (eg, first model information, second model) between a plurality of imaging devices. Information (eg, additional information, designation) obtained by sharing (eg, bidirectional communication, information sharing by one-way communication) of feature point data (eg, first feature point data, second feature point data) Information) is used to generate integrated model information.

[第7実施形態]
次に、第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図14は、本実施形態に係る撮像システム1を示すブロック図である。
[7th Embodiment]
Next, the seventh embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals to simplify or omit the description thereof. FIG. 14 is a block diagram showing an imaging system 1 according to the present embodiment.

本実施形態に係る撮像システム1は、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3を備える。第1撮像装置2aおよび第2撮像装置2bは、それぞれ、統合モデル情報を算出可能である。本実施形態において、情報処理装置3は、モデル統合部を備えていない。情報処理装置3は、第1撮像装置2aと第2撮像装置2bとの少なくとも一方から統合モデル情報を受信し、受信した統合モデル情報を使ってレンダリング処理を実行する。 The imaging system 1 according to the present embodiment includes a first imaging device 2a, a second imaging device 2b, and an information processing device 3. The first imaging device 2a and the second imaging device 2b can calculate integrated model information, respectively. In the present embodiment, the information processing device 3 does not include a model integration unit. The information processing device 3 receives integrated model information from at least one of the first imaging device 2a and the second imaging device 2b, and executes a rendering process using the received integrated model information.

図15は、本実施形態に係る撮像システム1の動作を示す図である。以下の説明において、図10などと同等の処理については、同じ符号を付してその説明を省略あるいは簡略化する。第1撮像装置2aは、第1モデル情報を算出し(ステップS31)、第1特徴点データを算出する(ステップS32)。第2撮像装置2bは、第2モデル情報を算出し(ステップS33)、第1特徴点データを算出する(ステップS34)。第1撮像装置2aの通信部13aは、第1特徴点データを第2撮像装置2bの通信部13bに送信し(ステップS60)、通信部13bは、第1特徴点データを受信する(ステップS61)。通信部13bは、第2特徴点データを第1撮像装置2aの通信部13aに送信し(ステップS62)、通信部13aは、第2特徴点データを受信する(ステップS63)。 FIG. 15 is a diagram showing the operation of the imaging system 1 according to the present embodiment. In the following description, the same processing as in FIG. 10 and the like will be designated by the same reference numerals and the description thereof will be omitted or simplified. The first imaging device 2a calculates the first model information (step S31) and calculates the first feature point data (step S32). The second imaging device 2b calculates the second model information (step S33) and calculates the first feature point data (step S34). The communication unit 13a of the first imaging device 2a transmits the first feature point data to the communication unit 13b of the second imaging device 2b (step S60), and the communication unit 13b receives the first feature point data (step S61). ). The communication unit 13b transmits the second feature point data to the communication unit 13a of the first imaging device 2a (step S62), and the communication unit 13a receives the second feature point data (step S63).

第1撮像装置2aの情報算出部12aは、第1特徴点データおよび第2特徴点データを使って、第1付加情報を算出する(ステップS64)。第2撮像装置2bの情報算出部12bは、第1特徴点データおよび第2特徴点データを使って、第2付加情報を算出する(ステップS67)。第1撮像装置2aの通信部13aは、第1付加情報を第2撮像装置2bの通信部13bに送信し(ステップS101)、通信部13bは、第1付加情報を受信する(ステップS102)。通信部13bは、第2付加情報を第1撮像装置2aの通信部13aに送信し(ステップS103)、通信部13aは、第2付加情報を受信する(ステップS104)。 The information calculation unit 12a of the first imaging device 2a calculates the first additional information using the first feature point data and the second feature point data (step S64). The information calculation unit 12b of the second imaging device 2b calculates the second additional information using the first feature point data and the second feature point data (step S67). The communication unit 13a of the first imaging device 2a transmits the first additional information to the communication unit 13b of the second imaging device 2b (step S101), and the communication unit 13b receives the first additional information (step S102). The communication unit 13b transmits the second additional information to the communication unit 13a of the first imaging device 2a (step S103), and the communication unit 13a receives the second additional information (step S104).

第1撮像装置2aのモデル統合部35aは、第1付加情報および第2付加情報を使って、担当領域を決定する(ステップS105)。第1撮像装置2aの情報算出部12aは、第1担当領域の第1モデル情報を抽出する(ステップS106)。第2撮像装置2bのモデル統合部35bは、第1付加情報および第2付加情報を使って、担当領域を決定する(ステップS107)。第2撮像装置2bの情報算出部12bは、第2担当領域の第2モデル情報を抽出する(ステップS108)。 The model integration unit 35a of the first imaging device 2a determines the area in charge using the first additional information and the second additional information (step S105). The information calculation unit 12a of the first imaging device 2a extracts the first model information of the first area in charge (step S106). The model integration unit 35b of the second imaging device 2b determines the area in charge using the first additional information and the second additional information (step S107). The information calculation unit 12b of the second imaging device 2b extracts the second model information of the second responsible area (step S108).

第1撮像装置2aの通信部13aは、第1担当領域の第1モデル情報を第2撮像装置2bの通信部13bに送信し(ステップS109)、通信部13bは、第1担当領域の第1モデル情報を受信する(ステップS110)。通信部13bは、第2担当領域の第2モデル情報を第1撮像装置2aの通信部13aに送信し(ステップS111)、通信部13aは、第2担当領域の第2モデル情報を受信する(ステップS112)。 The communication unit 13a of the first imaging device 2a transmits the first model information of the first responsible area to the communication unit 13b of the second imaging device 2b (step S109), and the communication unit 13b is the first in the first responsible area. Receive model information (step S110). The communication unit 13b transmits the second model information of the second responsible area to the communication unit 13a of the first imaging device 2a (step S111), and the communication unit 13a receives the second model information of the second responsible area (step S111). Step S112).

第1撮像装置2aのモデル統合部35aは、第1担当領域の第1モデル情報および第2担当領域の第2モデル情報を使って、モデル統合を行う(ステップS113)。そして、モデル統合部35aは、統合された統合モデル情報(第1統合モデル情報)をチェックする(ステップS114)。第2撮像装置2bのモデル統合部35bは、第1担当領域の第1モデル情報および第2担当領域の第2モデル情報を使って、モデル統合を行う(ステップS115)。そして、モデル統合部3baは、統合された統合モデル情報(第2統合モデル情報)をチェックする(ステップS116)。 The model integration unit 35a of the first imaging device 2a integrates the model using the first model information of the first responsible area and the second model information of the second responsible area (step S113). Then, the model integration unit 35a checks the integrated integrated model information (first integrated model information) (step S114). The model integration unit 35b of the second imaging device 2b performs model integration using the first model information of the first responsible area and the second model information of the second responsible area (step S115). Then, the model integration unit 3ba checks the integrated integrated model information (second integrated model information) (step S116).

第1撮像装置2aのモデル統合部35aおよび第2撮像装置2bのモデル統合部35bは、それぞれ、統合モデル情報の整合性がとれていないと判定した場合に、例えば、以下の処理を行う。第1撮像装置2aの情報算出部12aは、第1補間情報を抽出する(ステップS117)。第2撮像装置2bの情報算出部12bは、第2補間情報を抽出する(ステップS118)。 When it is determined that the model integration unit 35a of the first imaging device 2a and the model integration unit 35b of the second imaging device 2b are not consistent with each other, for example, the following processing is performed. The information calculation unit 12a of the first imaging device 2a extracts the first interpolation information (step S117). The information calculation unit 12b of the second imaging device 2b extracts the second interpolation information (step S118).

第1撮像装置2aの通信部13aは、第1補間情報を第2撮像装置2bの通信部13bに送信し(ステップS119)、通信部13bは、第1補間情報を受信する(ステップS120)。通信部13bは、第2補間情報を第1撮像装置2aの通信部13aに送信し(ステップS121)、通信部13aは、第2補間情報を受信する(ステップS122)。 The communication unit 13a of the first imaging device 2a transmits the first interpolation information to the communication unit 13b of the second imaging device 2b (step S119), and the communication unit 13b receives the first interpolation information (step S120). The communication unit 13b transmits the second interpolation information to the communication unit 13a of the first imaging device 2a (step S121), and the communication unit 13a receives the second interpolation information (step S122).

第1撮像装置2aのモデル統合部35aは、第1補間情報および第2補間情報を使って、補間処理を行う(ステップS123)。モデル統合部35aは、記憶部27aに記憶されている統合モデル情報を、補間処理後の統合モデル情報に更新する(ステップS124)。第2撮像装置2bのモデル統合部35bは、第1補間情報および第2補間情報を使って、補間処理を行う(ステップS125)。モデル統合部35bは、記憶部27bに記憶されている統合モデル情報を、補間処理後の統合モデル情報に更新する(ステップS126)。 The model integration unit 35a of the first image pickup apparatus 2a performs interpolation processing using the first interpolation information and the second interpolation information (step S123). The model integration unit 35a updates the integrated model information stored in the storage unit 27a to the integrated model information after the interpolation processing (step S124). The model integration unit 35b of the second image pickup apparatus 2b performs interpolation processing using the first interpolation information and the second interpolation information (step S125). The model integration unit 35b updates the integrated model information stored in the storage unit 27b to the integrated model information after the interpolation processing (step S126).

情報処理装置3は、第1撮像装置2aから情報を受信する。例えば、情報処理装置3の通信部30は、レンダリング処理に使われる情報の送信を要求する指令を第1撮像装置2aの通信部13aに送信し(ステップS130)、通信部13aは、ステップS130の指令を受信する(ステップS131)。第1撮像装置2aの情報算出部12aは、例えばモデル情報(第1モデル情報または統合モデル情報)から、ステップS130の指令に指定された情報を抽出する(ステップS134)。第1撮像装置2aの通信部13aは、ステップS134で抽出された情報を情報処理装置3の通信部30に送信し(ステップS135)、通信部30は、ステップS134で送信された情報を受信する(ステップS136)。 The information processing device 3 receives information from the first imaging device 2a. For example, the communication unit 30 of the information processing device 3 transmits a command requesting the transmission of information used for the rendering process to the communication unit 13a of the first imaging device 2a (step S130), and the communication unit 13a is in step S130. Receive the command (step S131). The information calculation unit 12a of the first imaging device 2a extracts, for example, the information specified in the command of step S130 from the model information (first model information or integrated model information) (step S134). The communication unit 13a of the first imaging device 2a transmits the information extracted in step S134 to the communication unit 30 of the information processing device 3 (step S135), and the communication unit 30 receives the information transmitted in step S134. (Step S136).

情報処理装置3は、必要に応じて、第2撮像装置2bから情報を受信する。例えば、第2撮像装置2bが保持する情報をレンダリング処理に使う場合に、情報処理装置3の通信部30は、レンダリング処理に使われる情報の送信を要求する指令を第2撮像装置2bの通信部13bに送信し(ステップS132)、通信部13bは、ステップS132の指令を受信する(ステップS133)。第2撮像装置2bの情報算出部12bは、例えばモデル情報(第2モデル情報または統合モデル情報)から、ステップS132の指令に指定された情報を抽出する(ステップS137)。第2撮像装置2bの通信部13bは、ステップS137で抽出された情報を情報処理装置3の通信部30に送信し(ステップS138)、通信部30は、ステップS138で送信された情報を受信する(ステップS139)。 The information processing device 3 receives information from the second imaging device 2b as needed. For example, when the information held by the second imaging device 2b is used for the rendering process, the communication unit 30 of the information processing device 3 issues a command requesting the transmission of the information used for the rendering process to the communication unit of the second imaging device 2b. It transmits to 13b (step S132), and the communication unit 13b receives the command of step S132 (step S133). The information calculation unit 12b of the second imaging device 2b extracts, for example, the information specified in the command of step S132 from the model information (second model information or integrated model information) (step S137). The communication unit 13b of the second imaging device 2b transmits the information extracted in step S137 to the communication unit 30 of the information processing device 3 (step S138), and the communication unit 30 receives the information transmitted in step S138. (Step S139).

情報処理装置3のレンダリング処理部32は、例えば、第1撮像装置2aから受信した情報、及び第2撮像装置2bから受信した情報を使って、レンダリング処理を行う。なお、情報処理装置3は、第2撮像装置2bが保持する情報をレンダリング処理に使わない場合、第2撮像装置2bから情報を受信しなくてもよい。例えば、情報処理装置3の通信部30は、情報の送信を要求する指令を、第2撮像装置2bの通信部13bに送信しなくてもよい。 The rendering processing unit 32 of the information processing device 3 performs rendering processing using, for example, the information received from the first imaging device 2a and the information received from the second imaging device 2b. When the information processing device 3 does not use the information held by the second imaging device 2b for the rendering process, the information processing device 3 does not have to receive the information from the second imaging device 2b. For example, the communication unit 30 of the information processing device 3 does not have to transmit a command requesting transmission of information to the communication unit 13b of the second imaging device 2b.

また、例えば、第1撮像装置2aのモデル統合部35aは、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報(第1統合モデル情報)を生成する。例えば、第2撮像装置2bのモデル統合部35bは、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報(第2統合モデル情報)を生成する。このように、例えば、互いの撮像装置が同一の対象物OBを撮像して各撮像装置における統合モデル情報をそれぞれ生成する場合、複数の撮像装置(例、第1撮像装置2a、第2撮像装置2b)は、各撮像装置において対象物OB全体のモデル統合を分散処理して、統合モデル情報(例、第1統合モデル情報、第2統合モデル情報)をそれぞれ生成するように構成しても良い。この場合、例えば、撮像装置において分散処理されて生成された統合モデル情報は、対象物OBの部分的な統合モデル情報である。このような場合、例えば、分散処理によって生成された第1統合モデル情報は対象物OB全体領域の50%部分に相当する部分的な統合モデルであってもよく、第1統合モデル情報と第2統合モデル情報とが対象物OB全体の統合モデル情報を互いに分担している構成であってもよい。そして、情報処理装置3やレンダリング処理可能な装置などの再生デバイスからの要求に応じて、撮像装置はレンダリングに必要な情報(例、第1統合モデル情報、第2統合モデル情報)を情報処理装置3や再生デバイス等に送信する。 Further, for example, the model integration unit 35a of the first imaging device 2a may use model information (eg, first model information, second model information) or feature point data (eg, first feature point data,) between a plurality of imaging devices. Integrated model information (first integrated model information) using information (eg, additional information, designated information) obtained by sharing (eg, information sharing by two-way communication, one-way communication) of second feature point data). To generate. For example, the model integration unit 35b of the second imaging device 2b may include model information (eg, first model information, second model information) or feature point data (eg, first feature point data, second) between a plurality of imaging devices. Integrated model information (second integrated model information) is generated using the information (example, additional information, designated information) obtained by sharing (eg, bidirectional communication, information sharing by one-way communication) of feature point data). do. In this way, for example, when each imaging device images the same object OB and generates integrated model information in each imaging device, a plurality of imaging devices (eg, first imaging device 2a, second imaging device) 2b) may be configured so that the model integration of the entire object OB is distributedly processed in each imaging device to generate integrated model information (eg, first integrated model information, second integrated model information), respectively. .. In this case, for example, the integrated model information generated by distributed processing in the imaging device is the partial integrated model information of the object OB. In such a case, for example, the first integrated model information generated by the distributed processing may be a partial integrated model corresponding to 50% of the entire area of the object OB, and the first integrated model information and the second integrated model information may be used. The integrated model information may be configured to share the integrated model information of the entire object OB with each other. Then, in response to a request from a playback device such as the information processing device 3 or a device capable of rendering, the imaging device processes information necessary for rendering (eg, first integrated model information, second integrated model information). Send to 3 or a playback device.

[第8実施形態]
次に、第8実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図16は、本実施形態に係る撮像システム1を示すブロック図である。
[8th Embodiment]
Next, the eighth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals to simplify or omit the description thereof. FIG. 16 is a block diagram showing an imaging system 1 according to the present embodiment.

本実施形態において、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3は、いずれも上記したモデル統合部を備えていない。情報処理装置3は、例えば、第1撮像装置2aから受信した情報(例、統合モデル情報)を使って第1のレンダリング処理を実行した後、第2撮像装置2bから受信した情報(例、統合モデル情報)を使って第2のレンダリング処理を実行する。レンダリング処理部32は、例えば、第1のレンダリング処理において、第1の視点から対象物OBを見た第1の推定画像を生成する。レンダリング処理部32は、例えば、第2のレンダリング処理において、第2の視点から対象物OBを見た第2の推定画像を生成する。情報処理装置3は、例えば、第2の推定画像を生成する上で、第1撮像装置2aが保持する情報だけではモデルの欠落を生じる場合に、第2撮像装置2bに情報の送信を要求する。情報処理装置3の通信部30は、例えば、第2のレンダリング処理で使われる情報を、第1のレンダリング処理が行われる期間に順次受信してもよい。 In the present embodiment, the first image pickup device 2a, the second image pickup device 2b, and the information processing device 3 do not include the model integration unit described above. The information processing device 3 executes the first rendering process using, for example, the information received from the first imaging device 2a (eg, integrated model information), and then receives the information received from the second imaging device 2b (eg, integrated model information). The second rendering process is executed using the model information). For example, in the first rendering process, the rendering processing unit 32 generates a first estimated image in which the object OB is viewed from the first viewpoint. For example, in the second rendering process, the rendering processing unit 32 generates a second estimated image in which the object OB is viewed from the second viewpoint. The information processing device 3 requests the second imaging device 2b to transmit information when, for example, a model is missing only from the information held by the first imaging device 2a in generating the second estimated image. .. For example, the communication unit 30 of the information processing apparatus 3 may sequentially receive the information used in the second rendering process during the period in which the first rendering process is performed.

このような構成の場合、例えば、情報処理装置3のレンダリング処理に必要な情報を情報処置装置3が得るために、本実施形態における撮像システム1は、モデル情報或いは付加情報などの情報を受信でき、かつ算出した統合モデル情報などの情報を外部装置に送信できる通信部と、モデル統合処理を行うモデル統合部とを含む情報処理装置(モデル統合処理装置)と、を更に備える。 In the case of such a configuration, for example, in order for the information processing device 3 to obtain information necessary for the rendering process of the information processing device 3, the imaging system 1 in the present embodiment can receive information such as model information or additional information. Further, it is further provided with a communication unit capable of transmitting information such as the calculated integrated model information to an external device, and an information processing device (model integration processing device) including a model integration unit that performs model integration processing.

なお、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3の少なくとも1つは、モデル統合部を備えていてもよい。例えば、第2撮像装置2bは、モデル統合部を備え、第1撮像装置2aおよび情報処理装置3は、モデル統合部を備えていなくてもよい。この場合、例えば、情報処理装置3は、第1撮像装置2aから受信した情報を使って、上記の第1のレンダリング処理を実行してもよい。また、第2撮像装置2bは、第1のレンダリング処理が行われる期間に、モデル統合処理の少なくとも一部を行ってもよい。また、情報処理装置3は、第1のレンダリング処理後に、第2撮像装置2bから受信した統合モデル情報を使って第2のレンダリング処理を行ってもよい。 At least one of the first image pickup device 2a, the second image pickup device 2b, and the information processing device 3 may include a model integration unit. For example, the second imaging device 2b may include a model integration unit, and the first imaging device 2a and the information processing device 3 may not include the model integration unit. In this case, for example, the information processing device 3 may execute the above-mentioned first rendering process using the information received from the first imaging device 2a. Further, the second imaging device 2b may perform at least a part of the model integration process during the period when the first rendering process is performed. Further, the information processing device 3 may perform a second rendering process using the integrated model information received from the second imaging device 2b after the first rendering process.

[第9実施形態]
次に、第9実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図17は、本実施形態に係る撮像システム1を示すブロック図である。
[9th Embodiment]
Next, the ninth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals to simplify or omit the description thereof. FIG. 17 is a block diagram showing an imaging system 1 according to the present embodiment.

本実施形態において、撮像装置2の通信部13は、外部装置(例、第2撮像装置としての撮像装置50)から対象物OBの画像データを受信可能である。撮像装置50は、撮像システム1の一部であってもよいし、撮像システム1の外部の装置であってもよい。撮像装置50は、例えば、撮像装置2のような測距部を備えていない。この場合、撮像装置50は、撮像部51によって撮像された画像のうち視差を有する画像(視差画像)を撮像装置2へ送信する。そして、撮像装置2は、受信した視差画像を用いて撮像装置50のデプス情報を算出する。撮像装置50は、例えば、上記したモデル情報を算出しない。撮像装置50は、例えば、汎用カメラ、スマートフォンなどの高機能携電話、タブレットなどである。 In the present embodiment, the communication unit 13 of the image pickup device 2 can receive image data of the object OB from an external device (eg, the image pickup device 50 as the second image pickup device). The image pickup device 50 may be a part of the image pickup system 1 or an external device of the image pickup system 1. The image pickup device 50 does not include, for example, a distance measuring unit like the image pickup device 2. In this case, the image pickup device 50 transmits an image having a parallax (parallax image) among the images captured by the image pickup unit 51 to the image pickup device 2. Then, the image pickup apparatus 2 calculates the depth information of the image pickup apparatus 50 using the received parallax image. The image pickup apparatus 50 does not calculate the model information described above, for example. The image pickup device 50 is, for example, a general-purpose camera, a high-performance mobile phone such as a smartphone, a tablet, or the like.

撮像装置50は、例えば、撮像部51、入力部52、記憶部53、表示部54、通信部55、及び制御部56を備える。撮像部51は、例えば、CCDイメージセンサ、CMOSイメージセンサを含み、対象物OBを撮像可能である。記憶部53は、例えば不揮発性メモリを含み、撮像部51が撮像した画像のデータ、各種設定情報を記憶する。入力部52は、例えば、ユーザからの指令などを受ける。表示部54は、例えば、記憶部53に記憶されている画像データ、あるいは各種設定情報が示す画像を表示する。通信部55は、有線または無線により、撮像装置2の通信部13と通信可能である。通信部55は、例えば、撮像部51が撮像した対象物OBの画像のデータを、撮像装置2の通信部13へ送信する。制御部56は、撮像装置50の各部を制御する。 The image pickup device 50 includes, for example, an image pickup unit 51, an input unit 52, a storage unit 53, a display unit 54, a communication unit 55, and a control unit 56. The imaging unit 51 includes, for example, a CCD image sensor and a CMOS image sensor, and can image an object OB. The storage unit 53 includes, for example, a non-volatile memory, and stores image data and various setting information captured by the image pickup unit 51. The input unit 52 receives, for example, a command from the user. The display unit 54 displays, for example, image data stored in the storage unit 53 or an image indicated by various setting information. The communication unit 55 can communicate with the communication unit 13 of the image pickup apparatus 2 by wire or wirelessly. For example, the communication unit 55 transmits the image data of the object OB imaged by the image pickup unit 51 to the communication unit 13 of the image pickup device 2. The control unit 56 controls each unit of the image pickup apparatus 50.

撮像装置2の情報算出部12は、上述の実施形態で説明したように、検出部11の検出結果を使って第1モデル情報を算出する。また、撮像装置2の情報算出部12は、例えば、撮像部15が撮像した画像、及び/又は撮像装置50から受信した画像(対象物OBの画像データ)を元に、第2モデル情報を算出する。なお、情報算出部12は、第2モデル情報を算出しなくてもよく、例えば、撮像装置50から受信した画像を、補間処理などに使ってもよい。例えば、撮像装置2は、測距部16により第1のデプス情報を検出し、撮像部15が撮像した画像、及び撮像装置50から受信した画像を元に第2のデプス情報を算出し、第2デプス情報を使って第1のデプス情報を補間してもよい。 The information calculation unit 12 of the image pickup apparatus 2 calculates the first model information using the detection result of the detection unit 11 as described in the above-described embodiment. Further, the information calculation unit 12 of the image pickup device 2 calculates the second model information based on, for example, the image captured by the image pickup device 15 and / or the image (image data of the object OB) received from the image pickup device 50. do. The information calculation unit 12 does not have to calculate the second model information, and for example, the image received from the image pickup apparatus 50 may be used for interpolation processing or the like. For example, the image pickup device 2 detects the first depth information by the distance measuring unit 16, calculates the second depth information based on the image captured by the image pickup unit 15 and the image received from the image pickup device 50, and obtains the second depth information. The first depth information may be interpolated using the two depth information.

撮像装置50の通信部55は、有線または無線により、情報処理装置3の通信部30と通信可能である。通信部55は、例えば、レンダリング処理の設定情報(例、推定画像の視点情報)を、情報処理装置3の通信部30に送信する。情報処理装置3のレンダリング処理部32は、例えば、撮像装置2の通信部13から受信したモデル情報、及び撮像装置30の通信部55から受信したレンダリング処理の設定情報を使って、レンダリング処理を行う。情報処理装置30の通信部30は、例えば、レンダリング処理により生成される推定画像のデータを、撮像装置50の通信部55に送信する。撮像装置50の表示部54は、例えば、情報処理装置30からの推定画像のデータを元に、推定画像を表示する。 The communication unit 55 of the image pickup apparatus 50 can communicate with the communication unit 30 of the information processing apparatus 3 by wire or wirelessly. The communication unit 55 transmits, for example, the setting information of the rendering process (eg, the viewpoint information of the estimated image) to the communication unit 30 of the information processing device 3. The rendering processing unit 32 of the information processing device 3 performs rendering processing using, for example, model information received from the communication unit 13 of the imaging device 2 and rendering processing setting information received from the communication unit 55 of the imaging device 30. .. The communication unit 30 of the information processing device 30 transmits, for example, the data of the estimated image generated by the rendering process to the communication unit 55 of the image pickup device 50. The display unit 54 of the image pickup apparatus 50 displays the estimated image based on, for example, the data of the estimated image from the information processing apparatus 30.

なお、撮像装置50の通信部55は、情報処理装置3の通信部30と通信しなくてもよい。例えば、通信部55は、レンダリング処理の設定情報を、撮像装置2の通信部13に送信してもよい。通信部13は、撮像装置50の通信部55から受信した設定情報を、情報処理装置3の通信部30に送信してもよい。また、通信部13は、情報処理装置3の通信部30からレンダリング処理の結果を示す推定画像のデータを受信してもよい。通信部13は、情報処理装置3の通信部30から受信した推定画像のデータを、撮像装置50の通信部55に送信してもよい。撮像装置50の表示部54は、撮像装置2からの推定画像のデータを元に、推定画像を表示させてもよい。 The communication unit 55 of the image pickup apparatus 50 does not have to communicate with the communication unit 30 of the information processing apparatus 3. For example, the communication unit 55 may transmit the setting information of the rendering process to the communication unit 13 of the image pickup apparatus 2. The communication unit 13 may transmit the setting information received from the communication unit 55 of the image pickup device 50 to the communication unit 30 of the information processing device 3. Further, the communication unit 13 may receive data of an estimated image showing the result of the rendering process from the communication unit 30 of the information processing device 3. The communication unit 13 may transmit the data of the estimated image received from the communication unit 30 of the information processing device 3 to the communication unit 55 of the image pickup device 50. The display unit 54 of the image pickup device 50 may display the estimated image based on the data of the estimated image from the image pickup device 2.

上述した各実施形態の撮像システム1または撮像装置2は、例えば、CGなどを含む映像コンテンツの制作システムあるいは制作支援システムの少なくとも一部であってもよいし、血管や生体組織の可視化撮像システム、生物顕微鏡システム、欠陥検出システム又は物体計測システムの少なくとも一部であってもよい。また、撮像システム1または撮像装置2は、例えば、視野領域への物体、動物などの侵入、あるいは視野領域における物体、動物などの動きを検出する検出システムの少なくとも一部であってもよい。この検出システムは、例えば、セキュリティシステム、介護システム、監視システム、信号機システム、交通量などの統計データを取得する情報取得システムなどであってもよい。また、撮像システム1または撮像装置2は、シミュレータの少なくとも一部であってもよい。このシミュレータは、例えば、撮像装置2がモデルリングした空間(例、部屋)に物体(例、家具)、動物(例、人、ペット)を配置した場合の推定画像を生成してもよい。また、このシミュレータは、撮像装置2がモデルリングした物体、動物を、所定の空間(例、部屋)に配置した場合の推定画像を生成してもよい。 The imaging system 1 or imaging device 2 of each of the above-described embodiments may be, for example, at least a part of a production system or a production support system for video content including CG, or a visualization imaging system for blood vessels and biological tissues. It may be at least part of a biomicroscope system, defect detection system or object measurement system. Further, the imaging system 1 or the imaging device 2 may be, for example, at least a part of a detection system that detects the invasion of an object or an animal into the visual field region or the movement of the object or the animal in the visual field region. This detection system may be, for example, a security system, a nursing care system, a monitoring system, a traffic light system, an information acquisition system for acquiring statistical data such as traffic volume, and the like. Further, the imaging system 1 or the imaging device 2 may be at least a part of the simulator. This simulator may generate, for example, an estimated image when an object (eg, furniture) and an animal (eg, a person, a pet) are placed in a space (eg, a room) modeled by the imaging device 2. In addition, this simulator may generate an estimated image when an object or animal modeled by the imaging device 2 is arranged in a predetermined space (eg, a room).

また、上記した各実施形態によれば、本実施形態における撮像システムは、対象物を撮像する第1撮像部及び対象物の表面上の各点からの距離を検出する第1測距部を含む第1検出部と、第1検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第1モデル情報を算出して、第1モデル情報を用いて第1特徴点データを生成する第1情報算出部と、を備える第1撮像装置(2、2a)と、対象物を撮像する第2撮像部及び対象物の表面上の各点からの距離を検出する第2測距部を含む第2検出部と、第2検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第2モデル情報を算出して、第2モデル情報を用いて第2特徴点データを生成する第2情報算出部と、を備える第2撮像装置(2、2b)と、第1撮像装置と第2撮像装置との間におけるデータ通信によって得られる第1特徴点データおよび第2特徴点データを用いて第1モデル情報と第2モデル情報とを統合して対象物の統合モデル情報を生成するモデル統合部(35、45)と、を備える構成であっても良い。このような構成の場合、モデル統合部は、少なくとも第1撮像装置、第2撮像装置、又は情報処理装置のいずれかに設けられてもよいし、別の外部端末(モデル統合処理装置)に設けられても良い。 Further, according to each of the above-described embodiments, the imaging system in the present embodiment includes a first imaging unit that images an object and a first ranging unit that detects a distance from each point on the surface of the object. The first model information including at least one of the shape information and the texture information of the object is calculated using the detection results of the first detection unit and the first detection unit, and the first feature point data is calculated using the first model information. A first imaging device (2, 2a) including a first information calculation unit for generating data, a second imaging unit for imaging an object, and a second measurement for detecting a distance from each point on the surface of the object. The second detection unit including the distance portion and the second detection unit include the detection results of the second detection unit to calculate the second model information including at least one of the shape information and the texture information of the object, and the second model information is used to calculate the second model information. The first feature point data obtained by data communication between the second imaging device (2, 2b) including the second information calculation unit for generating the two feature point data, and the first imaging device and the second imaging device. The configuration may also include a model integration unit (35, 45) that integrates the first model information and the second model information using the second feature point data to generate integrated model information of the object. .. In the case of such a configuration, the model integration unit may be provided in at least one of the first imaging device, the second imaging device, or the information processing device, or is provided in another external terminal (model integration processing device). May be done.

なお、本発明の技術範囲は、上記の実施形態あるいは変形例に限定されるものではない。例えば、上記の実施形態あるいは変形例で説明した要件の1つ以上は、省略されることがある。また、上記の実施形態あるいは変形例で説明した要件は、適宜組み合わせることができる。 The technical scope of the present invention is not limited to the above-described embodiment or modification. For example, one or more of the requirements described in the embodiments or modifications described above may be omitted. In addition, the requirements described in the above embodiments or modifications can be combined as appropriate.

なお、撮像システム1が備える撮像装置の数は、3つ以上であってもよい。例えば、撮像システム1は、4台の撮像装置を備え、そのうち2台はモデル統合部を備え、残り2台はモデル統合部を備えていなくてもよい。例えば、モデル統合部を備える撮像装置は、モデル統合部を備えていない撮像装置からモデル情報を受信し、モデル統合を行ってもよい。この場合、第1統合モデル情報と、第2統合モデル情報とが算出され、情報処理装置3は、第1統合モデル情報と第2統合モデル情報とを統合してもよい。なお、本実施形態における撮像装置は、ウェアラブル端末であってもよく、腕や頭などに装着可能な装着部と、音声入力、入力ボタンやタッチ操作が可能な入力部とを本体部にそれぞれ備えていても良い。 The number of imaging devices included in the imaging system 1 may be three or more. For example, the imaging system 1 may include four imaging devices, two of which include a model integration unit and the remaining two units which do not have a model integration unit. For example, the image pickup apparatus provided with the model integration unit may receive model information from the image pickup apparatus not provided with the model integration unit to perform model integration. In this case, the first integrated model information and the second integrated model information are calculated, and the information processing apparatus 3 may integrate the first integrated model information and the second integrated model information. The imaging device according to the present embodiment may be a wearable terminal, and the main body thereof is provided with a mounting portion that can be worn on an arm or head, and an input portion that can perform voice input, input buttons, and touch operations. You may be.

1・・・撮像システム、2・・・撮像装置、3・・・情報処理装置、11・・・検出部、12・・・情報算出部、13・・・通信部、15・・・撮像部、16・・・測距部、18・・・イメージセンサ、19・・・照射部、21・・・イメージセンサ、
35・・・モデル統合部、OB・・・対象物
1 ... Imaging system, 2 ... Imaging device, 3 ... Information processing device, 11 ... Detection unit, 12 ... Information calculation unit, 13 ... Communication unit, 15 ... Imaging unit , 16 ... Distance measuring unit, 18 ... Image sensor, 19 ... Irradiation unit, 21 ... Image sensor,
35 ... Model integration department, OB ... Object

Claims (1)

本体部と、
対象物を撮像する撮像部、及び前記対象物の表面上の各点からの距離を検出する測距部を含む検出部と、
前記本体部に設けられ、前記検出部の検出結果を使って、前記対象物の形状情報およびテクスチャ情報の少なくとも一方を算出する情報算出部と、
前記情報算出部の算出結果を送信する通信部と、を備える撮像装置。
With the main body
An imaging unit that captures an image of an object, a detection unit that includes a distance measuring unit that detects a distance from each point on the surface of the object, and a detection unit.
An information calculation unit provided in the main body unit and using the detection result of the detection unit to calculate at least one of the shape information and the texture information of the object.
An imaging device including a communication unit that transmits a calculation result of the information calculation unit.
JP2021106940A 2018-12-26 2021-06-28 Imaging device, information processing device, and imaging system Pending JP2021144061A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021106940A JP2021144061A (en) 2018-12-26 2021-06-28 Imaging device, information processing device, and imaging system
JP2023106656A JP2023115289A (en) 2018-12-26 2023-06-29 Detection device, information processing device, and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018242899A JP2019049572A (en) 2018-12-26 2018-12-26 Imaging device, information processing device, and imaging system
JP2021106940A JP2021144061A (en) 2018-12-26 2021-06-28 Imaging device, information processing device, and imaging system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018242899A Division JP2019049572A (en) 2018-12-26 2018-12-26 Imaging device, information processing device, and imaging system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023106656A Division JP2023115289A (en) 2018-12-26 2023-06-29 Detection device, information processing device, and system

Publications (2)

Publication Number Publication Date
JP2021144061A true JP2021144061A (en) 2021-09-24
JP2021144061A5 JP2021144061A5 (en) 2021-11-18

Family

ID=65905657

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018242899A Pending JP2019049572A (en) 2018-12-26 2018-12-26 Imaging device, information processing device, and imaging system
JP2021106940A Pending JP2021144061A (en) 2018-12-26 2021-06-28 Imaging device, information processing device, and imaging system
JP2023106656A Pending JP2023115289A (en) 2018-12-26 2023-06-29 Detection device, information processing device, and system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018242899A Pending JP2019049572A (en) 2018-12-26 2018-12-26 Imaging device, information processing device, and imaging system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023106656A Pending JP2023115289A (en) 2018-12-26 2023-06-29 Detection device, information processing device, and system

Country Status (1)

Country Link
JP (3) JP2019049572A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002031513A (en) * 2000-07-14 2002-01-31 Minolta Co Ltd Three-dimensional measuring device
JP2002094870A (en) * 2000-09-12 2002-03-29 Casio Comput Co Ltd Camera device, display device, image pickup range display method and image pickup range memory method
JP2004191243A (en) * 2002-12-12 2004-07-08 Institute Of Physical & Chemical Research Automatic photographing system
JP2005215917A (en) * 2004-01-29 2005-08-11 Hitachi Plant Eng & Constr Co Ltd Working drawing creation support method and replacement model creation method
JP2010282657A (en) * 2010-09-09 2010-12-16 Mitsubishi Electric Corp Distribution device and information distribution system
JP2012160904A (en) * 2011-01-31 2012-08-23 Sony Corp Information processor, information processing method, program, and imaging apparatus

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2842735B2 (en) * 1992-07-20 1999-01-06 沖電気工業株式会社 Multi-viewpoint three-dimensional image input device, image synthesizing device, and image output device thereof
JP2002150315A (en) * 2000-11-09 2002-05-24 Minolta Co Ltd Image processing device and recording medium
JP2009168536A (en) * 2008-01-15 2009-07-30 Fujifilm Corp Three-dimensional shape measuring device and method, three-dimensional shape regenerating device and method, and program
JP5093053B2 (en) * 2008-10-31 2012-12-05 カシオ計算機株式会社 Electronic camera
US8988437B2 (en) * 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
JP5158223B2 (en) * 2011-04-06 2013-03-06 カシオ計算機株式会社 3D modeling apparatus, 3D modeling method, and program
JP2014132219A (en) * 2011-04-20 2014-07-17 Sanyo Electric Co Ltd Information acquisition device and object detector
JP5022508B1 (en) * 2011-06-02 2012-09-12 三菱重工業株式会社 Shape measurement method
JP2013101464A (en) * 2011-11-08 2013-05-23 Canon Inc Image processing device and image processing method
US20140028799A1 (en) * 2012-07-25 2014-01-30 James Kuffner Use of Color and Intensity Modulation of a Display for Three-Dimensional Object Information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002031513A (en) * 2000-07-14 2002-01-31 Minolta Co Ltd Three-dimensional measuring device
JP2002094870A (en) * 2000-09-12 2002-03-29 Casio Comput Co Ltd Camera device, display device, image pickup range display method and image pickup range memory method
JP2004191243A (en) * 2002-12-12 2004-07-08 Institute Of Physical & Chemical Research Automatic photographing system
JP2005215917A (en) * 2004-01-29 2005-08-11 Hitachi Plant Eng & Constr Co Ltd Working drawing creation support method and replacement model creation method
JP2010282657A (en) * 2010-09-09 2010-12-16 Mitsubishi Electric Corp Distribution device and information distribution system
JP2012160904A (en) * 2011-01-31 2012-08-23 Sony Corp Information processor, information processing method, program, and imaging apparatus

Also Published As

Publication number Publication date
JP2023115289A (en) 2023-08-18
JP2019049572A (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP6531823B2 (en) Imaging system, imaging apparatus, imaging method, and imaging program
US10055882B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
US10706571B2 (en) Imaging device, image processing device, storage medium, and imaging system
CN105531720B (en) The system and method for size estimation for intrabody objects
US11629950B2 (en) Detection device, detection system, detection method, and storage medium
US20150369593A1 (en) Orthographic image capture system
JP6601489B2 (en) Imaging system, imaging apparatus, imaging method, and imaging program
EP3161725B1 (en) Color identification using infrared imaging
US11151783B2 (en) Image pickup device, information processing device, and image pickup system
US9294682B2 (en) Information processing device, information processing method, and program for light source estimation
JP7140209B2 (en) Detection device, information processing device, detection method, and information processing program
JP2021144061A (en) Imaging device, information processing device, and imaging system
JP7099506B2 (en) Detection device, detection method, information processing device, and processing program
US20210209786A1 (en) Detection device, method of detection, information processing device, and storage medium
JP7392262B2 (en) Detection device, information processing device, detection method, detection program, and detection system
JP2017161370A (en) Detector, detection system, detection method and detection program
WO2019198446A1 (en) Detection device, detection method, information processing device, and information processing program
US11967094B2 (en) Detecting device, information processing device, detecting method, and information processing program
JP7197211B2 (en) Three-dimensional graphics data creation method, program, and three-dimensional graphics data creation system
JP2021072024A (en) Glossiness acquisition state calculation device, glossiness acquisition state calculation method, glossiness acquisition state calculation program, terminal, and glossiness acquisition state display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404