JP2023115289A - Detection device, information processing device, and system - Google Patents

Detection device, information processing device, and system Download PDF

Info

Publication number
JP2023115289A
JP2023115289A JP2023106656A JP2023106656A JP2023115289A JP 2023115289 A JP2023115289 A JP 2023115289A JP 2023106656 A JP2023106656 A JP 2023106656A JP 2023106656 A JP2023106656 A JP 2023106656A JP 2023115289 A JP2023115289 A JP 2023115289A
Authority
JP
Japan
Prior art keywords
information
unit
imaging device
model
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023106656A
Other languages
Japanese (ja)
Inventor
武昭 杉村
Takeaki Sugimura
源洋 中川
Motohiro Nakagawa
一之 風見
Kazuyuki Kazami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2023106656A priority Critical patent/JP2023115289A/en
Publication of JP2023115289A publication Critical patent/JP2023115289A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide an imaging device capable of reducing the processing load.SOLUTION: An imaging device includes: a main body part; a detection unit including an imaging unit that captures an image of a target object, and a ranging unit that detects distance from each point on a surface of the target object; an information calculation unit that is provided in the main body part and calculates at least one of shape information and texture information of the target object using detection results of the detection unit; and a communication unit that transmits calculation results of the information calculation unit.SELECTED DRAWING: Figure 2

Description

本発明は、検出装置、情報処理装置、及びシステムに関する。 The present invention relates to a detection device, an information processing device, and a system.

物体を複数の撮像装置により撮像し、得られた複数の画像をコンピュータに入力し、物体の三次元形状を取得する技術が提案されている(例えば、特許文献1参照)。 A technique has been proposed in which an object is imaged by a plurality of imaging devices, the obtained images are input to a computer, and a three-dimensional shape of the object is acquired (see, for example, Patent Document 1).

特開2010-134546号公報JP 2010-134546 A

例えば、撮像装置を用いて物体を撮像した複数の画像から該物体の三次元形状を生成する場合、撮像装置から全ての画像をコンピュータに転送して、それらの画像をコンピュータで処理する必要がある。この場合、撮像した全ての画像を撮像装置からコンピュータへ転送するため、撮像装置とコンピュータとの間の通信(例、通信処理や通信データ量など)が増大することがある。本発明は、上記の事情に鑑みなされたものであり、通信の負荷を低減できる撮像装置、情報処理装置、及び撮像システムを提供することを目的とする。 For example, when generating a three-dimensional shape of an object from a plurality of images captured by an imaging device, it is necessary to transfer all images from the imaging device to a computer and process those images on the computer. . In this case, since all captured images are transferred from the imaging device to the computer, communication (eg, communication processing, communication data amount, etc.) between the imaging device and the computer may increase. SUMMARY OF THE INVENTION It is an object of the present invention to provide an imaging apparatus, an information processing apparatus, and an imaging system that can reduce the communication load.

本発明の態様に従えば、視野範囲の対象物を検出する検出部と、検出部の検出結果に基づいて、対象物の形状情報を生成する情報生成部と、外部装置からの要求信号を受信するとともに、形状情報を外部装置に送信する通信部と、を備え、通信部は、視野範囲より狭い範囲を指定する要求信号を受信し、情報生成部は、要求信号により指定される範囲の形状情報を生成し、通信部は、範囲の形状情報を送信する、検出装置が提供される。 According to the aspect of the present invention, a detection unit that detects an object within a visual field range, an information generation unit that generates shape information of the object based on the detection result of the detection unit, and a request signal from an external device is received. and a communication unit for transmitting shape information to an external device, the communication unit receiving a request signal specifying a range narrower than the viewing range, and the information generating unit determining the shape of the range specified by the request signal. A detection device is provided that generates information and the communication unit transmits the shape information of the area.

本発明の態様に従えば、対象物の撮像画像及び対象物からの距離を検出し、対象物の表面の全てではなく一部分についての形状を示す第1形状情報を生成する第1検出装置と、対象物の撮像画像及び対象物からの距離を検出し、対象物の表面の全てではなく一部分についての形状を示す第2形状情報を生成する第2検出装置と、通信する情報処理装置であって、第1形状情報と第2形状情報との位置関係を示す付加情報を受信する受信部と、第1形状情報のうち付加情報に基づき決定される範囲の第1形状情報を要求する要求信号を第1検出装置に送信し、第2形状情報のうち付加情報に基づき決定される範囲の第2形状情報を要求する要求信号を第2検出装置に送信する送信部と、を有する情報処理装置が提供される。 According to an aspect of the present invention, a first detector that detects a captured image of an object and a distance from the object and generates first shape information that indicates the shape of a portion, but not all, of the surface of the object; An information processing device that communicates with a second detection device that detects a captured image of an object and a distance from the object, and generates second shape information that indicates the shape of a part, but not all, of the surface of the object , a receiving unit for receiving additional information indicating the positional relationship between the first shape information and the second shape information; a transmitting unit that transmits to the first detection device and transmits to the second detection device a request signal that requests the second shape information in a range determined based on the additional information of the second shape information, to the second detection device; provided.

本発明の態様に従えば、対象物を第1の位置から検出し、対象物の第1形状情報を生成する第1検出装置と、第1検出装置と通信可能であり、対象物を第2の位置から検出し、対象物の第2形状情報を生成する第2検出装置と、第1検出装置と第2検出装置と通信可能であり、第1形状情報と第2形状情報とを統合した統合形状情報を生成する情報処理装置を備え、情報処理装置は、統合形状情報を生成するのに必要な第1形状情報の部分を示す情報を第1検出装置へ送信し、統合形状情報を生成するのに必要な第2形状情報の部分を示す情報を第2検出装置へ送信する、システムが提供される。 According to an aspect of the invention, a first detection device detects an object from a first position and generates first shape information of the object; A second detection device that detects from the position of the object and generates second shape information of the object, and is capable of communicating with the first detection device and the second detection device, and integrates the first shape information and the second shape information An information processing device for generating integrated shape information is provided, and the information processing device transmits information indicating a portion of the first shape information necessary for generating the integrated shape information to the first detection device, and generates the integrated shape information. A system is provided for transmitting information to the second detection device indicating the portion of the second shape information required to perform the detection.

本発明によれば、通信の負荷を低減できる撮像装置、情報処理装置、及び撮像システムを提供することができる。 According to the present invention, it is possible to provide an imaging device, an information processing device, and an imaging system that can reduce communication load.

第1実施形態に係る撮像システムを示す図である。1 is a diagram showing an imaging system according to a first embodiment; FIG. 第1実施形態に係る撮像システムを示すブロック図である。1 is a block diagram showing an imaging system according to a first embodiment; FIG. 第1実施形態に係る検出部を示す図である。It is a figure which shows the detection part which concerns on 1st Embodiment. 第1実施形態に係る撮像システムの動作を示す図である。It is a figure which shows operation|movement of the imaging system which concerns on 1st Embodiment. 第2実施形態に係る撮像システムを示すブロック図である。FIG. 11 is a block diagram showing an imaging system according to a second embodiment; FIG. 第2実施形態に係る撮像システムの動作を示す図である。It is a figure which shows operation|movement of the imaging system which concerns on 2nd Embodiment. 第3実施形態に係る撮像システムを示す図である。FIG. 12 is a diagram showing an imaging system according to a third embodiment; FIG. 第3実施形態に係る撮像システムを示すブロック図である。FIG. 11 is a block diagram showing an imaging system according to a third embodiment; FIG. 第3実施形態に係る撮像装置の動作を示す図である。It is a figure which shows operation|movement of the imaging device which concerns on 3rd Embodiment. 第4実施形態に係る撮像システムの動作を示す図である。It is a figure which shows the operation|movement of the imaging system which concerns on 4th Embodiment. 第5実施形態に係る撮像システムを示すブロック図である。FIG. 12 is a block diagram showing an imaging system according to a fifth embodiment; FIG. 第5実施形態に係る撮像システムの動作を示す図である。It is a figure which shows operation|movement of the imaging system which concerns on 5th Embodiment. 第6実施形態に係る撮像システムを示すブロック図である。FIG. 11 is a block diagram showing an imaging system according to a sixth embodiment; FIG. 第7実施形態に係る撮像システムを示すブロック図である。FIG. 12 is a block diagram showing an imaging system according to a seventh embodiment; FIG. 第7実施形態に係る撮像システムの動作を示す図である。It is a figure which shows the operation|movement of the imaging system which concerns on 7th Embodiment. 第8実施形態に係る撮像システムの動作を示す図である。It is a figure which shows operation|movement of the imaging system which concerns on 8th Embodiment. 第9実施形態に係る撮像システムの動作を示す図である。FIG. 22 is a diagram showing the operation of the imaging system according to the ninth embodiment;

[第1実施形態]
第1実施形態について説明する。図1は、本実施形態に係る撮像システム1を示す図である。例えば、撮像システム1は、撮像装置2、情報処理装置3、入力装置4、及び表示装置5を備える。
[First embodiment]
A first embodiment will be described. FIG. 1 is a diagram showing an imaging system 1 according to this embodiment. For example, the imaging system 1 includes an imaging device 2 , an information processing device 3 , an input device 4 and a display device 5 .

撮像装置2は、例えば、照明装置からの光や室内灯からの光、あるいは自然光などで照らされている対象物OBを撮像し、対象物OBの撮像画像(例、可視光画像、赤外光画像)のデータを取得する。また、撮像装置2は、撮像装置2から対象物OBの表面上の各点までの距離を検出し、対象物OBのデプス情報を取得する。デプス情報は、例えば、対象物OBの表面上の点の位置と、この点から撮像装置2までの距離(デプス、深度)とを関連付けた情報を含む。デプス情報は、例えば、対象物OBにおけるデプスの分布(例、デプスマップ)を示す情報である。 The imaging device 2 captures an image of the object OB illuminated by, for example, light from a lighting device, light from a room light, or natural light, and captures an image of the object OB (eg, visible light image, infrared light image, etc.). image) data. Further, the imaging device 2 detects the distance from the imaging device 2 to each point on the surface of the object OB, and acquires the depth information of the object OB. The depth information includes, for example, information that associates the position of a point on the surface of the object OB with the distance (depth) from this point to the imaging device 2 . The depth information is, for example, information indicating a depth distribution (eg, depth map) in the object OB.

撮像装置2は、撮像部15が撮像した撮像画像のデータおよび測距部(距離検出部)16が検出したデプス情報を使って、対象物OBに関する情報の演算処理を行う。撮像装置2は、演算処理によって、対象物OBの少なくとも一部をモデル化し、モデル情報(モデルデータ)を算出する。例えば、撮像装置2は、演算処理によって、対象物OBの少なくとも一部をコンピュータグラフィック処理(CG処理)し、モデル情報(例、CGモデルデータ)を算出する。モデル情報は、例えば、対象物OBの三次元形状を示す形状情報と、対象物OBの表面の模様を示すテクスチャ情報の少なくとも一方を含む。また、例えば、モデル情報は、3次元の点座標、その点座標の関連情報、該点座標及びその関連情報で規定された面のテクスチャ情報、画像全体の照明条件や光源情報などの画像の空間情報、及び形状情報としてのポリゴンデータの少なくとも一つを含む。 The imaging device 2 uses the data of the captured image captured by the imaging unit 15 and the depth information detected by the distance measuring unit (distance detection unit) 16 to perform arithmetic processing of information regarding the object OB. The imaging device 2 models at least a part of the object OB by arithmetic processing, and calculates model information (model data). For example, the imaging device 2 performs computer graphics processing (CG processing) on at least a portion of the object OB by arithmetic processing, and calculates model information (eg, CG model data). The model information includes, for example, at least one of shape information indicating the three-dimensional shape of the object OB and texture information indicating the surface pattern of the object OB. For example, the model information includes three-dimensional point coordinates, related information of the point coordinates, surface texture information defined by the point coordinates and related information, image space such as illumination conditions and light source information of the entire image. information, and at least one of polygon data as shape information.

例えば、図1の対象物OBは角柱状の部材とサッカーボールを含み、形状情報は、角柱状の部材の表面(例、平面)の情報、及びサッカーボールの表面(例、球面)の情報を含む。テクスチャ情報は、例えば、サッカーボールの表面の文字や図形(例、黒の5角形、白の6角形)、パターン、凹凸を規定する情報、特定の画像、及び色彩(例、有彩色、無彩色)の少なくとも1つの情報を含む。 For example, the object OB in FIG. 1 includes a prismatic member and a soccer ball, and the shape information includes information on the surface (eg, plane) of the prismatic member and information on the surface (eg, spherical) of the soccer ball. include. Texture information includes, for example, characters and figures (eg, black pentagons, white hexagons) on the surface of a soccer ball, patterns, information that defines unevenness, specific images, and colors (eg, chromatic and achromatic colors). ).

撮像装置2は、例えば、対象物OBのうち撮像装置2の視野に入る部分(視野領域)のモデル情報を算出する。このモデル情報は、例えば、対象物OBの全周を表すモデル(以下、全周モデルという)の一部を表すモデル(以下、部分モデルという)の情報である。撮像装置2は、演算処理により算出された情報(例、モデル情報)の少なくとも一部を、外部装置に供給可能である。例えば、撮像装置2は、モデル情報の少なくとも一部を情報処理装置3に供給する。 The imaging device 2 calculates, for example, model information of a portion (visual field region) of the object OB that is within the field of view of the imaging device 2 . This model information is, for example, information of a model (hereinafter referred to as a partial model) representing a part of a model representing the entire circumference of the object OB (hereinafter referred to as an all-around model). The imaging device 2 can supply at least part of the information (eg, model information) calculated by arithmetic processing to an external device. For example, the imaging device 2 supplies at least part of the model information to the information processing device 3 .

また、例えば、撮像装置2は、モデル情報の少なくとも一部を、バーコードや2次元コードのようなデジタル情報を入出力できるデジタル装置に出力可能である。このようなデジタル装置は、モデル情報の少なくとも一部を含むデジタル情報をディスプレイや紙などに表示する又は印字することができる。表示された又は印字されたデジタル情報を読み取れるリーダー部(例、光学式リーダー)を備えるリーダー装置は、該リーダー部を介して該デジタル情報を自装置の記憶領域などに入力することができる。また、リーダー装置は、後述のレンダリング処理部を更に備えていてもよい。なお、上記の撮像システム1は、上記のデジタル装置やリーダー部を備えるリーダー装置を備える構成であってもよい。また、撮像装置2は、上記のデジタル装置やリーダー装置を備える構成であってもよい。 Also, for example, the imaging device 2 can output at least part of the model information to a digital device capable of inputting/outputting digital information such as a bar code or a two-dimensional code. Such digital devices are capable of displaying or printing digital information, including at least part of the model information, on a display, paper, or the like. A reader device having a reader unit (eg, an optical reader) capable of reading displayed or printed digital information can input the digital information into its own storage area or the like via the reader unit. Also, the reader device may further include a rendering processing unit, which will be described later. Note that the imaging system 1 described above may be configured to include the digital device described above and a reader device including a reader section. Further, the imaging device 2 may be configured to include the above-described digital device or reader device.

情報処理装置3は、例えば、コンピュータシステムを含む。入力装置4は、例えば、キーボード、マウス、タッチパネル、加速度センサなどのセンサ、音声入力機、タッチ型ペンなどの少なくとも一つを含み、情報処理装置3と接続されている。入力装置4は、例えばユーザから情報の入力を受け付け、入力された情報を情報処理装置3に供給する。表示装置5は、例えば、液晶ディスプレイ又はタッチパネル型ディスプレイを含み、情報処理装置3と接続されている。表示装置5は、例えば、情報処理装置3から供給される画像データにより、画像を表示する。 The information processing device 3 includes, for example, a computer system. The input device 4 includes at least one of, for example, a keyboard, a mouse, a touch panel, a sensor such as an acceleration sensor, a voice input device, and a touch pen, and is connected to the information processing device 3 . The input device 4 receives input of information from a user, for example, and supplies the input information to the information processing device 3 . The display device 5 includes, for example, a liquid crystal display or a touch panel display, and is connected to the information processing device 3 . The display device 5 displays an image based on image data supplied from the information processing device 3, for example.

情報処理装置3は、有線または無線によって、撮像装置2と通信可能に接続される。例えば、情報処理装置3は、通信ケーブルを介して撮像装置2と接続されていてもよいし、インターネット回線を介して撮像装置2と接続されていてもよい。また、情報処理装置3は、電波または赤外線により撮像装置2と通信可能であってもよい。 The information processing device 3 is communicably connected to the imaging device 2 by wire or wirelessly. For example, the information processing device 3 may be connected to the imaging device 2 via a communication cable, or may be connected to the imaging device 2 via an Internet line. Further, the information processing device 3 may be capable of communicating with the imaging device 2 using radio waves or infrared rays.

情報処理装置3は、撮像装置2との間の通信により、撮像装置2から情報を取得する。情報処理装置3は、撮像装置2から取得した情報(例、モデル情報)を使って、レンダリング処理を実行する。例えば、情報処理装置3は、ユーザにより入力装置4に入力された視点(撮像方向)の設定情報を元に、この視点から対象物OBを見た推定画像のデータを算出する。情報処理装置3は、例えば、推定画像のデータを表示装置5に供給し、表示装置5に推定画像を表示させる。 The information processing device 3 acquires information from the imaging device 2 through communication with the imaging device 2 . The information processing device 3 uses information (eg, model information) acquired from the imaging device 2 to execute rendering processing. For example, the information processing device 3 calculates data of an estimated image of the object OB viewed from this viewpoint, based on the setting information of the viewpoint (imaging direction) input to the input device 4 by the user. The information processing device 3 supplies, for example, the data of the estimated image to the display device 5 and causes the display device 5 to display the estimated image.

撮像装置2は、例えば、撮像画像のデータおよびデプス情報から、情報処理装置3のレンダリング処理に使われる情報を抽出する。撮像装置2が抽出する情報は、例えば、モデル情報の少なくとも一部である。撮像装置2は、抽出した情報を情報処理装置3に供給するので、例えば、撮像画像のデータおよびデプス情報を情報処理装置3に供給する場合と比較して、撮像装置2と情報処理装置3との間の通信の負荷、情報処理装置3の処理の負荷を減らすことができる。 The imaging device 2 extracts information used for rendering processing of the information processing device 3, for example, from data of the captured image and depth information. The information extracted by the imaging device 2 is, for example, at least part of the model information. Since the imaging device 2 supplies the extracted information to the information processing device 3, for example, compared to the case where the data of the captured image and the depth information are supplied to the information processing device 3, the imaging device 2 and the information processing device 3 It is possible to reduce the communication load between and the processing load of the information processing device 3 .

なお、撮像装置2は、例えば、携帯可能な情報端末であってもよいし、定点カメラであってもよく、手動または自動で視野を変更可能なカメラであってもよい。撮像システム1は、例えば、撮像装置2を移動させる移動装置を備えていてもよい。この移動装置は、撮像装置2を移動させることにより、撮像装置2の視野を変更してもよい。この移動装置を制御する制御部は、撮像システム1に設けられていてもよく、例えば、撮像装置2に設けられていてもよいし、情報処理装置3に設けられていてもよい。また、この移動装置を制御する制御部は、撮像システム1の外部の装置に設けられていてもよい。 Note that the imaging device 2 may be, for example, a portable information terminal, a fixed-point camera, or a camera whose field of view can be changed manually or automatically. The imaging system 1 may include, for example, a moving device that moves the imaging device 2 . This moving device may change the field of view of the imaging device 2 by moving the imaging device 2 . A control unit that controls this moving device may be provided in the imaging system 1 , for example, may be provided in the imaging device 2 , or may be provided in the information processing device 3 . Also, the control unit that controls this moving device may be provided in a device external to the imaging system 1 .

次に、撮像システム1の各部について説明する。図2は、本実施形態に係る撮像システム1を示すブロック図である。撮像装置2は、検出部11、情報算出部12、通信部13、及び本体部14を備える。本体部14は、例えば、カメラボディ、ケース、筐体などである。検出部11、情報算出部12、及び通信部13は、本体部14に設けられている。 Next, each part of the imaging system 1 will be described. FIG. 2 is a block diagram showing the imaging system 1 according to this embodiment. The imaging device 2 includes a detection section 11 , an information calculation section 12 , a communication section 13 and a main body section 14 . The body part 14 is, for example, a camera body, a case, a housing, or the like. The detection unit 11 , the information calculation unit 12 and the communication unit 13 are provided in the main unit 14 .

検出部11は、撮像部15および測距部16を備える。図3(A)は、検出部11の一例を示す図である。撮像部15は、結像光学系17およびイメージセンサ18を備える。イメージセンサ18は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、あるいはCCDイメージセンサである。イメージセンサ18は、本体部14に収容されている。イメージセンサ18は、例えば、可視光の波長帯域(例、380nm以上750nm以下)、又は赤外光の波長帯域に感度を有する。イメージセンサ18の撮像結果は、例えば、各画素の色ごとの階調値の情報(例、RGBデータ)を含む。イメージセンサ18は、例えば、撮像結果(検出結果)をフルカラー画像のデータ形式で出力する。フルカラー画像は、例えば、各画素の赤(R)、緑(G)、青(B)のそれぞれが階調値(例、256階調)で表される画像である。 The detection unit 11 includes an imaging unit 15 and a distance measurement unit 16 . FIG. 3A is a diagram showing an example of the detection unit 11. As shown in FIG. The imaging unit 15 includes an imaging optical system 17 and an image sensor 18 . The image sensor 18 is, for example, a CMOS image sensor in which a plurality of pixels are two-dimensionally arranged, or a CCD image sensor. The image sensor 18 is housed in the body portion 14 . The image sensor 18 has sensitivity to, for example, a visible light wavelength band (eg, 380 nm or more and 750 nm or less) or an infrared light wavelength band. The imaging result of the image sensor 18 includes, for example, information (eg, RGB data) of gradation value for each color of each pixel. The image sensor 18 outputs, for example, the imaging result (detection result) in the data format of a full-color image. A full-color image is, for example, an image in which each of red (R), green (G), and blue (B) of each pixel is represented by a gradation value (eg, 256 gradations).

結像光学系17は、例えば、複数のレンズを含み、物体面(例、対象物OB)の像をイメージセンサ18に形成する。結像光学系17は、例えば鏡筒内に保持され、鏡筒とともに本体部14に取り付けられる。結像光学系17および鏡筒は、例えば交換レンズであり、本体部14から取り外し可能である。鏡筒は、本体部14の一部であってもよく、本体部14から取り外し不能であってもよい。 The imaging optical system 17 includes, for example, a plurality of lenses, and forms an image of an object plane (eg, object OB) on the image sensor 18 . The imaging optical system 17 is held in, for example, a lens barrel and attached to the main body 14 together with the lens barrel. The imaging optical system 17 and the lens barrel are interchangeable lenses, for example, and can be removed from the main body 14 . The lens barrel may be part of the body portion 14 or may not be detachable from the body portion 14 .

測距部16は、対象物OBの表面上の各点からの距離を検出する。測距部16は、例えば、ToF(Time of Flight)センサを含み、ToF法により距離を検出する。また、例えば、測距部16は、位相差センサを含み、位相差法により距離を検出する。測距部16は、照射部19、結像光学系20、イメージセンサ21、及びコントローラ22を備える。 A distance measuring unit 16 detects the distance from each point on the surface of the object OB. The distance measuring unit 16 includes, for example, a ToF (Time of Flight) sensor, and detects distance by the ToF method. Also, for example, the distance measuring unit 16 includes a phase difference sensor and detects distance by a phase difference method. The distance measuring section 16 includes an irradiation section 19 , an imaging optical system 20 , an image sensor 21 and a controller 22 .

照射部19は、対象物OBに赤外光を照射可能である。照射部19は、コントローラ22に制御される。コントローラ22は、照射部19から照射される赤外光の強度を時間変化させる(例、振幅変調する)。 The irradiation unit 19 can irradiate the object OB with infrared light. The irradiation unit 19 is controlled by the controller 22 . The controller 22 temporally changes the intensity of the infrared light emitted from the irradiation unit 19 (for example, modulates the amplitude).

イメージセンサ21は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、あるいはCCDイメージセンサである。イメージセンサ21は、本体部14に収容されている。結像光学系20は、例えば、複数のレンズを含み、物体面(例、対象物OB)の像をイメージセンサ21に形成する。結像光学系20は、交換レンズであってもよいし、本体部14に内蔵されたものでもよい。イメージセンサ21は、少なくとも照射部19が照射する光の波長帯に感度を有する。例えば、イメージセンサ21は、コントローラ22に制御され、対象物OBで反射散乱した赤外光を検出する。 The image sensor 21 is, for example, a CMOS image sensor in which a plurality of pixels are two-dimensionally arranged, or a CCD image sensor. The image sensor 21 is housed in the body portion 14 . The imaging optical system 20 includes, for example, a plurality of lenses, and forms an image of an object plane (eg, object OB) on the image sensor 21 . The imaging optical system 20 may be an interchangeable lens, or may be built in the body section 14 . The image sensor 21 has sensitivity to at least the wavelength band of the light emitted by the irradiation unit 19 . For example, the image sensor 21 is controlled by the controller 22 and detects infrared light reflected and scattered by the object OB.

コントローラ22は、測距部16のイメージセンサ21が検出した検出結果を使って、対象物OBの表面からイメージセンサ21までの距離を検出する。例えば、対象物OBの表面上の第1位置と第2位置とでデプスが異なる場合、第1位置で反射散乱した光は、第2位置で反射散乱した光と比較して、対象物OBからイメージセンサ21までの飛行距離(光路)が異なる。そのため、対象物OBの第1位置で反射散乱した光は、イメージセンサ21に入射する位相が、第2位置で反射散乱した光の位相と異なる。コントローラ22は、照射部19から照射される光の強度を時間変調するので、イメージセンサ21に入射する光の強度は、位相によって変化する。コントローラ22は、例えば、イメージセンサ21の出力の時間変化を元に、デプスを算出する。コントローラ22は、例えば、イメージセンサ21が撮像した画像の部分領域(例、1画素、複数の画素)ごとに、イメージセンサ21と対象物OBの表面との間の距離からデプスを算出し、算出したデプス(又は距離)と部分領域の位置とを関連付ける。このように、コントローラ22は、例えば、複数の部分領域のそれぞれのデプスを含むデプス情報を算出する。 The controller 22 detects the distance from the surface of the object OB to the image sensor 21 using the detection result detected by the image sensor 21 of the distance measuring section 16 . For example, if the depth is different between the first position and the second position on the surface of the object OB, the light reflected and scattered at the first position is more distant from the object OB than the light reflected and scattered at the second position. The flight distance (optical path) to the image sensor 21 is different. Therefore, the light reflected and scattered at the first position of the object OB is incident on the image sensor 21 in a phase different from the phase of the light reflected and scattered at the second position. Since the controller 22 time-modulates the intensity of the light emitted from the irradiation unit 19, the intensity of the light incident on the image sensor 21 changes depending on the phase. The controller 22 calculates the depth, for example, based on the time change of the output of the image sensor 21 . For example, the controller 22 calculates the depth from the distance between the image sensor 21 and the surface of the object OB for each partial area (eg, one pixel, a plurality of pixels) of the image captured by the image sensor 21. The depth (or distance) and the position of the partial area are associated. Thus, the controller 22 calculates, for example, depth information including the depth of each of the partial regions.

なお、照射部19は、可視光を含む光を照射し、イメージセンサ21は、対象物OBで反射散乱した光を検出してもよい。例えば、測距部16は、照射部19による光照射状態と光非照射状態とでしてイメージセンサ21により対象物OBを検出し、2状態での検出結果との差分を使って、デプス情報を算出してもよい。 Note that the irradiation unit 19 may emit light including visible light, and the image sensor 21 may detect light reflected and scattered by the object OB. For example, the distance measurement unit 16 detects the object OB by the image sensor 21 in the light irradiation state and the light non-irradiation state by the irradiation unit 19, and uses the difference between the detection results in the two states to obtain depth information. may be calculated.

なお、測距部16は、プロジェクタカメラを含んでいてもよい。この場合、測距部16は、例えば、所定の強度分布を有する光(例、パターン光、構造化光、テクスチャ)を、照射部19から対象物OBに照射しながら、イメージセンサ21によって対象物OBを撮像する。コントローラ22は、イメージセンサ21による撮像画像に写っている対象物OB上の光の強度分布を使って、対象物OBと測距部16との間の距離を検出する。また、測距部16は、レーザスキャナを含んでいてもよい。この場合、測距部16は、照射部19から対象物OBにレーザ光を照射し、対象物OBをレーザ光でスキャンしながら対象物OBで反射したレーザ光を検出することにより、対象物OBと測距部16との間の距離を検出する。 Note that the distance measuring unit 16 may include a projector camera. In this case, the distance measurement unit 16 irradiates the object OB with light having a predetermined intensity distribution (eg, pattern light, structured light, texture) from the irradiation unit 19, while the image sensor 21 detects the object OB. Take an image of the OB. The controller 22 detects the distance between the object OB and the rangefinder 16 using the intensity distribution of the light on the object OB captured by the image sensor 21 . Moreover, the distance measuring unit 16 may include a laser scanner. In this case, the distance measurement unit 16 irradiates the object OB with a laser beam from the irradiation unit 19, scans the object OB with the laser beam, and detects the laser beam reflected by the object OB. and the distance measuring unit 16 is detected.

図3(B)は、検出部11の他の例を示す図である。この検出部11の測距部16は、対象物OBを複数の視野から検出した検出結果を使って、対象物OBと検出部11との間の距離を検出する。撮像部15は、結像光学系17aおよびイメージセンサ18a、並びに結像光学系17bおよびイメージセンサ18bを備える。結像光学系17aおよびイメージセンサ18aは、対象物OBを第1視野で撮像する。結像光学系17bおよびイメージセンサ18bは、対象物OBを第2視野で撮像する。第2視野は、視点の位置と視線の向きの少なくとも一方が第1視野と異なる。視点の位置は、例えば、イメージセンサ18aの位置およびイメージセンサ18bの位置のように、物体の像が形成される位置である。視線の向きは、例えば、視点に向かう光が通る光学部材のうち最も物体側に配置される光学部材の光軸の方向と平行である。例えば、第1視野の視線の向きは、結像光学系17aの射出側の光軸と同軸である。また、第2視野の視線の向きは、結像光学系17bの射出側の光軸と同軸である。測距部16は、イメージセンサ18aによる撮像画像とイメージセンサ18bによる撮像画像とを視差画像として、対象物OBと検出部11との間の距離を検出する。 FIG. 3B is a diagram showing another example of the detection unit 11. As shown in FIG. The distance measurement unit 16 of the detection unit 11 detects the distance between the object OB and the detection unit 11 using detection results obtained by detecting the object OB from a plurality of fields of view. The imaging unit 15 includes an imaging optical system 17a and an image sensor 18a, and an imaging optical system 17b and an image sensor 18b. The imaging optical system 17a and the image sensor 18a image the object OB in the first field of view. The imaging optical system 17b and the image sensor 18b image the object OB in the second field of view. The second field of view differs from the first field of view in at least one of the position of the viewpoint and the direction of the line of sight. The position of the viewpoint is the position where the image of the object is formed, such as the position of the image sensor 18a and the position of the image sensor 18b. The direction of the line of sight is, for example, parallel to the direction of the optical axis of the optical member arranged closest to the object side among the optical members through which the light traveling toward the viewpoint passes. For example, the line-of-sight direction of the first visual field is coaxial with the optical axis on the exit side of the imaging optical system 17a. Also, the direction of the line of sight of the second visual field is coaxial with the optical axis on the exit side of the imaging optical system 17b. The distance measurement unit 16 detects the distance between the object OB and the detection unit 11 by using the image captured by the image sensor 18a and the image captured by the image sensor 18b as parallax images.

なお、撮像部15は、1つのイメージセンサによって、第1視野からの画像および第2視野からの画像を異なる時刻に撮像し、測距部16は、これら画像を使って対象物OBと検出部11との間の距離を検出してもよい。 Note that the imaging unit 15 captures an image from the first field of view and an image from the second field of view at different times using one image sensor, and the distance measuring unit 16 uses these images to detect the object OB and the detection unit. 11 may be detected.

なお、測距部16は、メートルなどの有次元値で表される距離を検出してもよいし、基準値で規格化された無次元値で表される相対的な距離を検出してもよい。また、測距部16は、例えば、ユニット化された形態であってもよく、本体部14に外付け可能であってもよい。また、測距部16が備える光学系の少なくとも一部は、撮像部15が備える光学系の少なくとも一部と共通化されていてもよい。例えば、図3(A)において、測距部16は、結像光学系17を通った光のうち赤外光をダイクロイックミラーなどで分岐し、分岐した赤外光をイメージセンサ21で検出する態様でもよい。また、プロジェクタカメラにおいて、照射部19は、結像光学系17を介して対象物OBにパターンを投影する態様でもよい。 Note that the distance measuring unit 16 may detect a distance represented by a dimensional value such as meters, or may detect a relative distance represented by a dimensionless value normalized by a reference value. good. Further, the distance measuring section 16 may be, for example, in a unitized form, or may be externally attached to the main body section 14 . Moreover, at least part of the optical system provided in the distance measuring section 16 may be shared with at least part of the optical system provided in the imaging section 15 . For example, in FIG. 3A, the distance measurement unit 16 splits the infrared light from the light that has passed through the imaging optical system 17 with a dichroic mirror or the like, and the image sensor 21 detects the split infrared light. It's okay. Further, in the projector camera, the irradiation unit 19 may project a pattern onto the object OB via the imaging optical system 17 .

図2の説明に戻り、情報算出部12は、例えば、デジタルシグナルプロセッサ(digital signal processor; DSP)を含む。情報算出部12は、検出部11の検出結果を使って、対象物OBの形状情報およびテクスチャ情報の少なくとも一方を算出する。 Returning to the description of FIG. 2, the information calculation unit 12 includes, for example, a digital signal processor (DSP). The information calculator 12 uses the detection result of the detector 11 to calculate at least one of shape information and texture information of the object OB.

情報算出部12は、形状情報として、対象物OBの表面上の複数の点の座標(以下、点群データという)と、複数の点間の連結情報を含むサーフェス情報とを算出する。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。連結情報は、例えば、対象物OBの稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報、及び対象物OBの面の輪郭に相当する複数の線を互いに関連付ける情報を含む。 The information calculation unit 12 calculates, as shape information, coordinates of a plurality of points on the surface of the object OB (hereinafter referred to as point cloud data) and surface information including connection information between the points. Surface information is, for example, polygon data, vector data, draw data, and the like. The connection information includes, for example, information for associating points at both ends of lines corresponding to ridges (eg, edges) of the object OB, and information for associating multiple lines corresponding to the contours of the surfaces of the object OB.

まず、情報算出部12は、測距部16の検出結果(例、デプス情報)を使って、点群データを算出する(点群データ処理)。例えば、情報算出部12は、デプス情報が示す距離画像から平面画像への透視変換などにより、点群データを算出する。なお、情報算出部12は、撮像部15と測距部16とで視野が異なる場合、例えば、測距部16の検出結果を透視変換(射影変換)などによって、撮像部15の視野から対象物OBを検出した結果に変換してもよい。情報算出部12は、例えば、撮像部15の視野と測距部16の視野との位置関係(例、視点の位置、視線の向き)に依存するパラメータを使って、透視変換を実行してもよい。 First, the information calculation unit 12 calculates point cloud data using the detection result (eg, depth information) of the distance measurement unit 16 (point cloud data processing). For example, the information calculation unit 12 calculates the point cloud data by perspective transformation from the distance image indicated by the depth information to a plane image. In addition, when the fields of view of the imaging unit 15 and the distance measuring unit 16 are different, the information calculating unit 12 performs perspective transformation (projective transformation) on the detection result of the distance measuring unit 16, for example, from the visual field of the imaging unit 15 to the target object. OB may be converted into the result of detection. For example, the information calculation unit 12 performs perspective transformation using parameters that depend on the positional relationship between the field of view of the imaging unit 15 and the field of view of the distance measurement unit 16 (eg, the position of the viewpoint, the direction of the line of sight). good.

そして、情報算出部12は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換する(サーフェス処理)。情報算出部12は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。 Then, the information calculation unit 12, for example, estimates a plane between a point selected from a plurality of points included in the point cloud data and its neighboring points, and converts the point cloud data into a polygon having plane information between the points. Convert to data (surface processing). The information calculation unit 12 converts the point cloud data into polygon data by, for example, an algorithm using the method of least squares. This algorithm may be, for example, an algorithm published in the point cloud processing library.

次に、情報算出部12は、例えばインバースレンダリングの手法により、テクスチャ情報を算出する。テクスチャ情報は、例えば、対象物OBの表面の模様を示すパターン情報、対象物OBを照らす光の光源情報、及び対象物OBの表面の光学特性(例、反射率、散乱率)を示す光学特性情報の少なくとも1項目の情報を含む。光源情報は、例えば、光源の位置、光源から対象物へ光が照射される方向、光源から照射される光の波長、光源の種類のうち少なくとも1項目の情報を含む。 Next, the information calculation unit 12 calculates texture information by, for example, an inverse rendering technique. The texture information includes, for example, pattern information indicating the pattern of the surface of the object OB, light source information of the light illuminating the object OB, and optical characteristics indicating the optical characteristics (eg, reflectance, scattering ratio) of the surface of the object OB. Contains at least one item of information. The light source information includes, for example, information on at least one of the position of the light source, the direction in which light is emitted from the light source to the object, the wavelength of the light emitted from the light source, and the type of light source.

情報算出部12は、例えば、ランバート反射を仮定したモデル、アルベド(Albedo)推定を含むモデルなどを利用して、光源情報を算出する。例えば、情報算出部12は、撮像部15が撮像した画像の各画素の画素値のうち、対象物OBで拡散した光に由来する成分と対象物OBで正反射した成分とを推定する。また、情報算出部12は、例えば、対象物OBで正反射した成分の推定結果、及び形状情報を使って、光源から対象物OBへ光が入射してくる方向を算出する。情報算出部12は、例えば、算出した光源情報および形状情報を使って対象物OBの反射特性を推定し、反射特性の推定結果を含む光学特性情報を算出する。また、情報算出部12は、例えば、算出した光源情報および光学特性情報を使って、可視光画像のデータから照明光の影響を除去して、パターン情報を算出する。 The information calculation unit 12 calculates light source information using, for example, a model assuming Lambertian reflection, a model including albedo estimation, or the like. For example, the information calculation unit 12 estimates the component derived from the light diffused by the object OB and the component specularly reflected by the object OB among the pixel values of each pixel of the image captured by the imaging unit 15 . Further, the information calculation unit 12 calculates the direction in which light is incident on the object OB from the light source, for example, using the estimation result of the component specularly reflected by the object OB and the shape information. The information calculator 12, for example, estimates the reflection characteristics of the object OB using the calculated light source information and shape information, and calculates optical characteristic information including the estimation result of the reflection characteristics. Further, the information calculation unit 12 calculates pattern information by removing the influence of illumination light from the visible light image data, for example, using the calculated light source information and optical characteristic information.

ここで、本実施形態に係る撮像装置2は、表示部25、入力部26、記憶部27、及び制御部28を更に備える。表示部25(図1参照)は、例えば、本体部14に設けられた液晶ディスプレイ又はタッチパネル型ディスプレイである。表示部25は、例えば、検出部11の検出結果(例、撮像部15による可視光画像)、情報算出部12の算出結果(例、デプスマップ)、及び各種設定情報の少なくとも一部を表示する。 Here, the imaging device 2 according to the present embodiment further includes a display section 25, an input section 26, a storage section 27, and a control section . The display unit 25 (see FIG. 1) is, for example, a liquid crystal display or a touch panel type display provided in the main unit 14 . The display unit 25 displays, for example, the detection result of the detection unit 11 (eg, visible light image by the imaging unit 15), the calculation result of the information calculation unit 12 (eg, depth map), and at least part of various setting information. .

入力部26は、例えば、本体部14に設けられた操作ボタン、表示部25に設けられたタッチパネル、ユーザなどの音声を認識する音声入力機などである。入力部26は、例えば、ユーザによる操作を検出し、ユーザからの情報の入力を受け付ける。入力部26は、入力された情報を制御部28に送信する。 The input unit 26 is, for example, an operation button provided on the main unit 14, a touch panel provided on the display unit 25, a voice input device for recognizing the voice of the user, or the like. The input unit 26, for example, detects an operation by a user and receives input of information from the user. The input unit 26 transmits input information to the control unit 28 .

記憶部27は、例えばUSBメモリ、メモリカードなどの不揮発性メモリであり、各種情報を記憶する。記憶部27は、撮像装置2に内蔵される記憶デバイスを含んでいてもよいし、撮像装置2からリリース可能な記憶デバイスを接続可能なポートを含んでいてもよい。また、本実施形態における撮像装置2の情報算出部12は、形状情報およびテクスチャ情報の少なくとも一方を含む情報にヘッダ情報(例、番号やコードなどの識別情報)を付けたモデル情報を生成する。そして、通信部13はそのモデル情報を送信する。なお、該ヘッダ情報は、識別情報、撮像装置2の位置(位置情報)、撮像部15による撮像タイミング、撮像部15による撮像時間、対象物OBの光学特性情報、および撮像環境情報(例、光源情報、対象物OBなどに対する照明条件)のうち少なくとも一つを含む。このように、撮像装置2の情報算出部12は、ヘッダ情報を有するモデル情報を所定のデータフォーマットに基づいて生成し、そのモデル情報を通信部13によって送信させることが可能である。 The storage unit 27 is, for example, a non-volatile memory such as a USB memory or a memory card, and stores various information. The storage unit 27 may include a storage device built into the imaging device 2 or may include a port to which a storage device releasable from the imaging device 2 can be connected. Further, the information calculation unit 12 of the imaging device 2 according to the present embodiment generates model information by attaching header information (eg, identification information such as a number or code) to information including at least one of shape information and texture information. Then, the communication unit 13 transmits the model information. The header information includes identification information, the position (positional information) of the imaging device 2, the imaging timing by the imaging unit 15, the imaging time by the imaging unit 15, the optical characteristic information of the object OB, and the imaging environment information (eg, light source). information, illumination conditions for the object OB, etc.). In this manner, the information calculation unit 12 of the imaging device 2 can generate model information having header information based on a predetermined data format and cause the communication unit 13 to transmit the model information.

制御部28は、例えば、ユーザまたは外部装置(例、情報処理装置3)からの指令(制御信号)により、撮像装置2の各部を制御する。例えば、制御部28は、検出部11に上記の検出処理を実行させる。この検出処理は、例えば、撮像部15による撮像処理、及び測距部16による距離検出処理を含む。制御部28は、例えば、検出部11の検出結果の少なくとも一部を記憶部27に記憶させる。制御部28は、例えば、情報算出部12にモデル情報を算出させる。制御部28は、例えば、情報算出部12が算出したモデル情報の少なくとも一部を記憶部27に記憶させる。 The control unit 28 controls each unit of the imaging device 2 according to a command (control signal) from a user or an external device (eg, the information processing device 3), for example. For example, the control unit 28 causes the detection unit 11 to perform the detection process described above. This detection processing includes, for example, imaging processing by the imaging unit 15 and distance detection processing by the distance measuring unit 16 . The control unit 28 stores at least part of the detection result of the detection unit 11 in the storage unit 27, for example. For example, the control unit 28 causes the information calculation unit 12 to calculate model information. For example, the control unit 28 causes the storage unit 27 to store at least part of the model information calculated by the information calculation unit 12 .

記憶部27は、例えば、モデル情報を項目ごとに記憶する。例えば、記憶部27は、形状情報、テクスチャ情報、光源情報、対象物OBの光学特性情報、及びパターン情報の各項目の情報を個別のデータテーブルにそれぞれ記憶する。制御部28は、例えば、記憶部27に記憶されている情報の少なくとも一部を示す画像を、表示部25に表示させる。制御部28は、通信部13を制御し、通信部13を介して情報の送信、情報の受信を実行させる。 The storage unit 27 stores, for example, model information for each item. For example, the storage unit 27 stores each item of shape information, texture information, light source information, optical characteristic information of the object OB, and pattern information in individual data tables. The control unit 28 causes the display unit 25 to display, for example, an image showing at least part of the information stored in the storage unit 27 . The control unit 28 controls the communication unit 13 to execute information transmission and information reception via the communication unit 13 .

通信部13は、例えば、USBポートなどのI/Oポート、電波または赤外線の無線通信を行う通信器のうち少なくとも一つを含む。通信部13は、制御部28に制御され、記憶部27に記憶されている情報を読み出し、読み出した情報を外部装置に送信する。例えば、通信部13は、情報算出部12の算出結果(例、モデル情報)の少なくとも一部を、情報処理装置3に送信する。また、通信部13は、例えば、外部装置からの指令を含む情報を受信する。通信部13は、受信した情報を記憶部27に記憶させること、受信した情報を制御部28に供給することができる。なお、撮像装置2が上記したデジタル装置を備える場合には、通信部13はモデル情報の少なくとも一部を該デジタル装置に送信してもよい。そして、該デジタル装置は、受信したモデル情報をもとにデジタル情報を生成し、該デジタル情報を紙などの媒体に出力するようにしてもよい。 The communication unit 13 includes, for example, at least one of an I/O port such as a USB port and a communication device that performs wireless communication using radio waves or infrared rays. The communication unit 13 is controlled by the control unit 28 to read information stored in the storage unit 27 and transmit the read information to an external device. For example, the communication unit 13 transmits at least part of the calculation result (eg, model information) of the information calculation unit 12 to the information processing device 3 . Also, the communication unit 13 receives information including commands from an external device, for example. The communication unit 13 can store the received information in the storage unit 27 and supply the received information to the control unit 28 . In addition, when the imaging device 2 includes the above-described digital device, the communication unit 13 may transmit at least part of the model information to the digital device. The digital device may then generate digital information based on the received model information and output the digital information to a medium such as paper.

図2のように、情報処理装置3は、通信部30、記憶部31、レンダリング処理部32、及び制御部33を備える。通信部30は、例えば、USBポート、ネットワークカード、電波または赤外線の無線通信を行う通信器のうち少なくとも一つを含む。通信部30は、撮像装置2の通信部13と通信可能である。 As shown in FIG. 2 , the information processing device 3 includes a communication section 30 , a storage section 31 , a rendering processing section 32 and a control section 33 . The communication unit 30 includes, for example, at least one of a USB port, a network card, and a communication device that performs wireless communication using radio waves or infrared rays. The communication unit 30 can communicate with the communication unit 13 of the imaging device 2 .

記憶部31は、例えば、USBメモリなどの取り外し可能な記憶媒体、外付け型あるいは内蔵型のハードディスクなどの大容量記憶装置を含む。記憶部31は、例えば、通信部30を介して受信した情報の少なくとも一部のデータ、撮像装置2を制御する撮像制御プログラム、情報処理装置3の各処理を実行させる処理プログラム、などを記憶する。 The storage unit 31 includes, for example, a removable storage medium such as a USB memory, and a large-capacity storage device such as an external or internal hard disk. The storage unit 31 stores, for example, at least part of data of information received via the communication unit 30, an imaging control program for controlling the imaging device 2, a processing program for executing each process of the information processing device 3, and the like. .

レンダリング処理部32は、例えば、グラフィックス プロセッシング ユニット(Graphics Processing Unit; GPU)を含む。なお、レンダリング処理部32は、CPUおよびメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部32は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。 The rendering processing unit 32 includes, for example, a graphics processing unit (GPU). Note that the rendering processing unit 32 may be configured such that the CPU and memory execute each process according to an image processing program. The rendering processing unit 32 performs, for example, at least one of drawing processing, texture mapping processing, and shading processing.

レンダリング処理部32は、描画処理において、例えば、モデル情報の形状情報に定められた形状を任意の視点から見た推定画像(例、再構築画像)を算出できる。以下の説明において、形状情報が示す形状をモデル形状という。レンダリング処理部32は、例えば、描画処理によって、モデル情報(例、形状情報)からモデル形状(例、推定画像)を再構成できる。レンダリング処理部32は、例えば、算出した推定画像のデータを記憶部31に記憶させる。撮像装置2は、モデル情報の少なくとも一部を情報処理装置3に送信可能であるので、例えば、情報処理装置3は、レンダリング処理の負荷を減らすことができる。また、例えば、撮像装置2は、撮像部15によって撮像された全ての撮像画像を情報処理装置3に送信する必要がなく、情報算出部12が算出したモデル情報の少なくとも一部(例、形状情報およびテクスチャ情報)を情報処理装置3に送信している。このため、本実施形態の撮像装置は、レンダリング処理部32の描画処理に必要な情報の通信負荷を低減することができる。 In the drawing process, the rendering processing unit 32 can calculate an estimated image (eg, reconstructed image) of the shape defined in the shape information of the model information viewed from an arbitrary viewpoint. In the following description, a shape indicated by shape information is called a model shape. The rendering processing unit 32 can reconstruct a model shape (eg, estimated image) from model information (eg, shape information) by, for example, drawing processing. The rendering processing unit 32 stores the calculated data of the estimated image in the storage unit 31, for example. Since the imaging device 2 can transmit at least part of the model information to the information processing device 3, the information processing device 3 can reduce the load of rendering processing, for example. Further, for example, the imaging device 2 does not need to transmit all captured images captured by the imaging unit 15 to the information processing device 3, and at least part of the model information (eg, shape information) calculated by the information calculation unit 12 and texture information) to the information processing device 3 . Therefore, the imaging apparatus of this embodiment can reduce the communication load of information necessary for the drawing processing of the rendering processing unit 32 .

また、レンダリング処理部32は、テクスチャマッピング処理において、例えば、推定画像上の物体の表面に、モデル情報のテクスチャ情報が示す画像を貼り付けた推定画像を算出できる。レンダリング処理部32は、推定画像上の物体の表面に、対象物OBと別のテクスチャを貼り付けた推定画像を算出することもできる。 Also, in the texture mapping process, the rendering processing unit 32 can calculate an estimated image in which, for example, an image indicated by the texture information of the model information is pasted on the surface of the object on the estimated image. The rendering processing unit 32 can also calculate an estimated image in which a texture different from that of the object OB is applied to the surface of the object on the estimated image.

レンダリング処理部32は、シェーディング処理において、例えば、モデル情報の光源情報が示す光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。また、レンダリング処理部32は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。 In the shading process, the rendering processing unit 32 can calculate an estimated image in which, for example, shadows formed by the light source indicated by the light source information of the model information are added to the object on the estimated image. Also, in the shading processing, the rendering processing unit 32 can calculate an estimated image in which a shadow formed by an arbitrary light source is added to an object on the estimated image, for example.

制御部33は、例えば、情報処理装置3の各部、撮像装置2、入力装置4、及び表示装置5を制御する。制御部33は、例えば、通信部30を制御し、撮像装置2に指令(制御信号)や設定情報を送信させる。制御部33は、例えば、通信部30が撮像装置2から受信した情報を、記憶部31に記憶させる。制御部33は、例えば、レンダリング処理部32を制御し、レンダリング処理を実行させる。 The control unit 33 controls each unit of the information processing device 3, the imaging device 2, the input device 4, and the display device 5, for example. For example, the control unit 33 controls the communication unit 30 to transmit commands (control signals) and setting information to the imaging device 2 . For example, the control unit 33 causes the storage unit 31 to store information received by the communication unit 30 from the imaging device 2 . For example, the control unit 33 controls the rendering processing unit 32 to execute rendering processing.

制御部33は、例えば、通信部30を介して撮像装置2に指令(信号)を送ることで、撮像装置2を制御する。例えば、制御部33は、通信部30を制御し、所定の情報の送信を要求する指令(要求信号)を撮像装置2に送信する。制御部33は、撮像装置2に各処理を実行させる指令を、撮像装置2に送信してもよい。例えば、制御部33は、撮像装置2の検出部11に検出処理を実行させる指令を、撮像装置2に送信してもよい。例えば、制御部33は、撮像装置2の情報算出部12にモデル情報の算出処理を実行させる指令を、撮像装置2に送信してもよい。また、情報処理装置3の制御部33は、撮像装置2の撮像部15に対象物OBの撮像を実行させる指令、及び対象物OBの撮像条件を設定させる指令を、撮像装置2に送信してもよい。 The control unit 33 controls the imaging device 2 by sending a command (signal) to the imaging device 2 via the communication unit 30, for example. For example, the control unit 33 controls the communication unit 30 and transmits a command (request signal) requesting transmission of predetermined information to the imaging device 2 . The control unit 33 may transmit a command to the imaging device 2 to cause the imaging device 2 to execute each process. For example, the control unit 33 may transmit a command to the imaging device 2 to cause the detection unit 11 of the imaging device 2 to perform detection processing. For example, the control unit 33 may transmit a command to the imaging device 2 to cause the information calculation unit 12 of the imaging device 2 to execute model information calculation processing. Further, the control unit 33 of the information processing device 3 transmits to the imaging device 2 a command to cause the imaging unit 15 of the imaging device 2 to perform imaging of the object OB and a command to set imaging conditions for the object OB. good too.

通信部13は、例えば、情報算出部12が算出した情報を、項目ごとに選択的に送信する。例えば、記憶部27に記憶されている設定情報は、モデル情報の各項目の情報を送信するか否かを定めた送信項目情報、及び各項目の情報を送信する順番を定めた送信順番情報を含む。この設定情報は、例えば、入力部26の操作、情報処理装置3からの指令などにより更新可能である。制御部28は、例えば、通信部13を制御し、送信項目情報に定められた項目の情報を、送信順番情報に定められた順に送信させる。なお、制御部28は、例えば、通信部13を制御して、送信項目情報に定められた項目の情報(例、形状情報およびテクスチャ情報)を所定のデータフォーマットに基づいて一度に送信してもよい。 For example, the communication unit 13 selectively transmits the information calculated by the information calculation unit 12 for each item. For example, the setting information stored in the storage unit 27 includes transmission item information that determines whether or not to transmit each item of model information, and transmission order information that determines the order in which each item of information is transmitted. include. This setting information can be updated by, for example, an operation of the input unit 26, an instruction from the information processing device 3, or the like. For example, the control unit 28 controls the communication unit 13 to transmit the information of the items specified in the transmission item information in the order specified in the transmission order information. Note that the control unit 28 may, for example, control the communication unit 13 to transmit information of items (eg, shape information and texture information) specified in the transmission item information at once based on a predetermined data format. good.

送信項目情報は、例えば、情報処理装置3のレンダリング処理に使われるか否かに応じて設定されていてもよい。例えば、レンダリング処理において、対象物OBの形状に、対象物OBと異なるテクスチャを合成する場合がある。この場合、情報処理装置3は、例えば、対象物OBの形状情報を使うとともに、対象物OBのテクスチャ情報を使わないで、レンダリング処理を実行できる。送信項目情報は、例えば、形状情報を送信するが、テクスチャ情報を送信しないことを定めた情報に設定される。この場合、情報算出部12は、テクスチャ情報を算出しなくてもよい。 The transmission item information may be set according to, for example, whether or not it is used for rendering processing of the information processing device 3 . For example, in rendering processing, a texture different from that of the object OB may be combined with the shape of the object OB. In this case, the information processing device 3 can execute rendering processing using, for example, the shape information of the object OB without using the texture information of the object OB. The transmission item information is set to, for example, information specifying that the shape information is transmitted but the texture information is not transmitted. In this case, the information calculation unit 12 does not need to calculate texture information.

また、例えば、レンダリング処理において、対象物OBに対する照明を変更した画像を算出する場合がある。情報処理装置3は、例えば、対象物OBの形状情報、パターン情報、及び光学特性情報を使うとともに、光源情報を使わないで、レンダリング処理を実行できる。この場合、送信項目情報は、例えば、形状情報、パターン情報、及び光学特性情報を送信し、光源情報を送信しないことを定めた情報に設定される。また、例えば、送信項目情報は、形状情報、テクスチャ情報、パターン情報、光源情報および光学特性情報のうち少なくとも1つの情報を送信することを定めた情報に設定される。撮像装置2は、例えばモデル情報のうち一部を送信する場合、通信の負荷を減らすことができる。 Further, for example, in rendering processing, an image may be calculated in which the illumination of the object OB is changed. The information processing device 3 can execute rendering processing using, for example, the shape information, pattern information, and optical characteristic information of the target object OB without using the light source information. In this case, the transmission item information is set to, for example, information specifying that shape information, pattern information, and optical characteristic information should be transmitted, and light source information should not be transmitted. Also, for example, the transmission item information is set to information that defines transmission of at least one of shape information, texture information, pattern information, light source information, and optical characteristic information. The imaging device 2 can reduce the communication load when transmitting part of the model information, for example.

送信順番情報は、例えば、情報処理装置3のレンダリング処理における優先順位に応じて設定されていてもよい。例えば、送信順番情報は、レンダリング処理において先に使われる項目の情報を先に送るように設定されていてもよい。例えば、レンダリング処理において、視点を変えながらテクスチャがない対象物OBを見た画像を算出し、視点を定めた後、この視点から、テクスチャがある対象物OBを見た画像を算出する場合がある。情報処理装置3は、例えば、形状情報を使うとともにテクスチャ情報を使わないで、テクスチャがない対象物OBを、視点を変えて見た画像を算出できる。送信項目情報は、例えば、形状情報を先に送信し、テクスチャ情報を形状情報よりも後で送信することを定めた情報に設定される。撮像装置2は、例えば、モデル情報の各項目の情報を情報処理装置3のレンダリング処理における優先順位に応じた順に送信する場合、情報処理装置3のレンダリング処理の一部と並行してそれらの情報を送信することができる。また、例えば、撮像装置2の制御部28は、情報算出部12によるモデル情報の算出の少なくとも一部と通信部13による情報の送信処理とを並行して実行させることができる。 The transmission order information may be set according to the priority in the rendering process of the information processing device 3, for example. For example, the transmission order information may be set so that information on items used first in rendering processing is transmitted first. For example, in rendering processing, an image of an object OB without texture is calculated while changing the viewpoint, and after the viewpoint is determined, an image of an object OB with texture is calculated from this viewpoint. . For example, the information processing device 3 can calculate an image of the textureless object OB viewed from different viewpoints using the shape information and not the texture information. The transmission item information is set, for example, to information specifying that the shape information is transmitted first and the texture information is transmitted after the shape information. For example, when the imaging device 2 transmits the information of each item of the model information in the order according to the priority in the rendering processing of the information processing device 3, the information is sent in parallel with part of the rendering processing of the information processing device 3. can be sent. Further, for example, the control unit 28 of the imaging device 2 can cause at least a part of model information calculation by the information calculation unit 12 and information transmission processing by the communication unit 13 to be executed in parallel.

情報処理装置3の制御部33は、例えば、入力装置4に入力された情報を、記憶部31に記憶させる。入力装置4に入力される情報は、例えば、レンダリング処理の設定情報を含む。この設定情報は、例えば、描画処理の対象のデータ(例、モデル情報の形状情報)、描画処理における視点の情報、テクスチャマッピング処理においてテクスチャを貼り付ける物体のデータ、テクスチャマッピング処理において貼り付けるテクスチャの情報(例、モデル情報のテクスチャ情報)、シェーディング処理における光源の情報(例、モデル情報の光源情報)の少なくとも一つを含む。レンダリング処理部32は、例えば、設定情報に従って、レンダリング処理を実行する。 The control unit 33 of the information processing device 3 causes the storage unit 31 to store information input to the input device 4, for example. Information input to the input device 4 includes, for example, setting information for rendering processing. This setting information includes, for example, target data for drawing processing (e.g., shape information of model information), viewpoint information in drawing processing, object data to which textures are pasted in texture mapping processing, and texture pasting in texture mapping processing. It includes at least one of information (eg, texture information in model information) and light source information in shading processing (eg, light source information in model information). The rendering processing unit 32 executes rendering processing according to, for example, setting information.

制御部33は、例えば、記憶部31に記憶される各種情報を示す画像を、表示装置5に表示させる。例えば、制御部33は、レンダリング処理の設定情報を表示装置5に表示させ、入力装置4により設定情報の変更を受け付ける。また、制御部33は、記憶部31に記憶させている推定画像のデータが示す画像を、表示装置5に表示させる。 The control unit 33 causes the display device 5 to display, for example, an image showing various information stored in the storage unit 31 . For example, the control unit 33 causes the display device 5 to display setting information for rendering processing, and accepts changes to the setting information through the input device 4 . Further, the control unit 33 causes the display device 5 to display an image indicated by data of the estimated image stored in the storage unit 31 .

なお、情報処理装置3は、レンダリング処理によって得られた推定画像を表示装置5に表示させなくてもよく、この場合に、撮像システム1は、表示装置5を備えていなくてもよい。例えば、情報処理装置3は、レンダリング処理により算出される推定画像のデータの少なくとも一部を他の装置(再生デバイス)に通信部30を介して送信し、他の装置がこの画像を表示してもよい。例えば、情報処理装置3は、推定画像のデータを、通信部30を介して撮像装置2の通信部13へ送信してもよく、撮像装置2は、通信部13を介して受信した推定画像のデータを元に推定画像を表示部25に表示させてもよい。例えば、再生デバイスは、レンダリング処理により算出された情報(推定画像)を取得して、その情報を表示部に表示する。 Note that the information processing device 3 may not cause the display device 5 to display the estimated image obtained by the rendering process, and in this case, the imaging system 1 may not include the display device 5 . For example, the information processing device 3 transmits at least part of the data of the estimated image calculated by the rendering process to another device (playback device) via the communication unit 30, and the other device displays this image. good too. For example, the information processing device 3 may transmit the data of the estimated image to the communication unit 13 of the imaging device 2 via the communication unit 30, and the imaging device 2 transmits the estimated image data received via the communication unit 13. An estimated image may be displayed on the display unit 25 based on the data. For example, the playback device acquires information (estimated image) calculated by rendering processing and displays the information on the display unit.

なお、情報処理装置3は、各種の設定情報を他の装置から通信部30を介して受信してもよく、この場合に、撮像システム1は、入力装置4を備えていなくてもよい。例えば、撮像装置2は、レンダリング処理の設定情報(例、推定画像の元になる視点の情報)を、通信部13を介して情報処理装置3の通信部30に送信してもよい。また、情報処理装置3は、撮像装置2から受信したレンダリング処理の設定情報に従ってレンダリング処理を実行してもよい。 Note that the information processing device 3 may receive various setting information from another device via the communication unit 30 , and in this case, the imaging system 1 may not include the input device 4 . For example, the imaging device 2 may transmit setting information for rendering processing (for example, viewpoint information from which an estimated image is based) to the communication unit 30 of the information processing device 3 via the communication unit 13 . Further, the information processing device 3 may perform the rendering process according to the setting information for the rendering process received from the imaging device 2 .

なお、撮像装置2は、レンダリング処理により算出される推定画像のデータを要求する指令を、通信部13を介して情報処理装置3の通信部30へ送信してもよい。情報処理装置3は、撮像装置2からの指令に対する応答として推定画像のデータを、通信部30を介して撮像装置2の通信部13へ送信してもよい。撮像装置2は、上記の要求指令をレンダリング処理の設定情報の一部として送信してもよいし、レンダリング処理の設定情報と別の指令(例、制御信号)として送信してもよい。 Note that the imaging device 2 may transmit a command requesting data of an estimated image calculated by rendering processing to the communication unit 30 of the information processing device 3 via the communication unit 13 . The information processing device 3 may transmit the estimated image data to the communication unit 13 of the imaging device 2 via the communication unit 30 as a response to the command from the imaging device 2 . The imaging device 2 may transmit the request command as a part of the setting information of the rendering process, or may transmit the command (eg, control signal) separate from the setting information of the rendering process.

なお、撮像装置2は、情報処理装置3に制御されて上記の各種処理を実行する場合、制御部28、記憶部27、表示部25、及び入力部26の少なくとも一部を備えていなくてもよい。また、撮像装置2は、例えば、ユーザの操作によって上記の各種処理を実行し、情報処理装置3に制御されなくてもよい。例えば、撮像装置2は、外部装置からの指令(制御信号)を受けることなく上記の各種処理を実行してもよく、ユーザの操作、あるいは予め定められた処理スケジュールに従って上記の各種処理を実行してもよい。撮像装置2は、情報算出部12の算出結果(例、モデル情報など)を、情報処理装置3の他の装置に通信部13を介して送信してもよい。 When the imaging device 2 is controlled by the information processing device 3 to execute the various processes described above, the imaging device 2 does not need to include at least part of the control unit 28, the storage unit 27, the display unit 25, and the input unit 26. good. Further, the imaging device 2 may execute the above-described various processes by user's operation, and may not be controlled by the information processing device 3, for example. For example, the imaging device 2 may execute the various processes described above without receiving a command (control signal) from an external device, and may execute the various processes described above according to a user's operation or a predetermined processing schedule. may The imaging device 2 may transmit the calculation result (eg, model information, etc.) of the information calculation unit 12 to another device of the information processing device 3 via the communication unit 13 .

次に、撮像システム1の動作に基づき、画像処理方法について説明する。図4は、撮像システム1の動作を示すフローチャートである。図4のステップS1において、撮像装置2は、撮像部15により対象物OBを撮像し、撮像画像(例えば可視光画像)のデータを取得する(撮像処理)。また、ステップS2において、撮像装置2は、対象物OBの表面の三次元形状を示す点群データを取得する(点群データ処理)。ステップS2において、撮像装置2は、対象物OBと撮像装置2との間の距離を測距部16によって検出し、デプス情報を取得する(ステップS3)。また、撮像装置2の情報算出部12は、デプス情報を、例えば透視変換などによって点群データを算出する(ステップS4)。また、ステップS4において、例えば、情報算出部12は、必要に応じて、可視光画像のデータとデプス情報との視差を調整する(視点の変換処理)。なお、情報算出部12は、ステップS2の処理を、ステップS1の処理の少なくとも一部と並行して行ってもよいし、ステップS1の処理の開始前または終了後に行ってもよい。 Next, an image processing method will be described based on the operation of the imaging system 1. FIG. FIG. 4 is a flow chart showing the operation of the imaging system 1. As shown in FIG. In step S1 of FIG. 4, the imaging device 2 captures an image of the object OB using the imaging unit 15, and acquires data of a captured image (for example, a visible light image) (imaging processing). Also, in step S2, the imaging device 2 acquires point cloud data representing the three-dimensional shape of the surface of the object OB (point cloud data processing). In step S2, the imaging device 2 detects the distance between the object OB and the imaging device 2 by the distance measuring unit 16, and acquires depth information (step S3). Further, the information calculation unit 12 of the imaging device 2 calculates the depth information as point cloud data by, for example, perspective transformation (step S4). Further, in step S4, for example, the information calculation unit 12 adjusts the parallax between the data of the visible light image and the depth information as necessary (viewpoint conversion processing). The information calculation unit 12 may perform the processing of step S2 in parallel with at least a part of the processing of step S1, or may perform the processing of step S1 before or after the processing of step S1.

ステップS5において、情報算出部12は、モデル情報を算出(生成)する(モデル情報生成処理)。情報算出部12は、例えば、形状情報としてサーフェス情報を算出する(ステップS6)(サーフェス処理)。また、情報算出部12は、例えば、算出したサーフェス情報を使って、インバースレンダリングの手法によりテクスチャ情報を算出する(ステップS7)。ステップS7において、情報算出部12は、光源情報を算出する(ステップS8)。また、情報算出部12は、例えば、算出した光源情報を使って、パターン情報を算出する(ステップS9)。ステップS5において、情報算出部12は、算出した情報を項目ごとに記憶部27に記憶させる。 In step S5, the information calculation unit 12 calculates (generates) model information (model information generation processing). The information calculator 12, for example, calculates surface information as shape information (step S6) (surface processing). Further, the information calculation unit 12 calculates texture information by, for example, an inverse rendering method using the calculated surface information (step S7). In step S7, the information calculator 12 calculates light source information (step S8). Further, the information calculation unit 12 calculates pattern information using, for example, the calculated light source information (step S9). In step S5, the information calculation unit 12 causes the storage unit 27 to store the calculated information for each item.

ステップS10において、撮像装置2は、記憶部27に記憶されているモデル情報の少なくとも一部を、通信部13を介して情報処理装置3に送信する。情報処理装置3は、例えば、撮像装置2から受信したモデル情報を使ってレンダリング処理を実行し、その結果(例、推定画像)を表示装置5に表示させる。 In step S<b>10 , the imaging device 2 transmits at least part of the model information stored in the storage section 27 to the information processing device 3 via the communication section 13 . The information processing device 3 executes rendering processing using, for example, the model information received from the imaging device 2 and causes the display device 5 to display the result (eg, estimated image).

[第2実施形態]
次に、第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図5は、本実施形態に係る撮像システム1を示す図である。本実施形態に係る撮像装置2は、モデル統合部35および位置検出部36を更に備える。
[Second embodiment]
Next, a second embodiment will be described. In this embodiment, the same reference numerals are given to the same configurations as in the above-described embodiment, and the description thereof is simplified or omitted. FIG. 5 is a diagram showing the imaging system 1 according to this embodiment. The imaging device 2 according to this embodiment further includes a model integration unit 35 and a position detection unit 36 .

撮像装置2のモデル統合部35は、対象物OBを第1方向から検出した結果(第1の検出結果)を元に算出される第1モデル情報と、対象物OBを第2方向から検出した結果(第2の検出結果)を元に算出される第2モデル情報とを統合して、統合モデル情報を生成する。本実施形態において、情報算出部12は、上記したような技術を用いて第1モデル情報と第2モデル情報とをそれぞれ算出する。 The model integration unit 35 of the imaging device 2 detects first model information calculated based on the result of detecting the object OB from the first direction (first detection result), and detects the object OB from the second direction. Integrated model information is generated by integrating the second model information calculated based on the result (second detection result). In this embodiment, the information calculation unit 12 calculates the first model information and the second model information using the techniques described above.

モデル統合部35は、例えば、第1モデル情報が示す形状のうちの第1特徴点と、第2モデル情報が示す形状のうちの第2特徴点とを対応させて、第1モデル情報と第2モデル情報とを統合する。第1特徴点は、第1モデル情報が示す形状のうち他の部分と識別可能な部分である。例えば、サーフェス情報において面に定義されている部分は、その外周の形状などにより、他の面と識別可能である。第2特徴点は、第2モデル情報が示す形状のうち他の部分と識別可能な部分である。 For example, the model integration unit 35 associates the first feature point of the shape indicated by the first model information with the second feature point of the shape indicated by the second model information, and 2 Integrate model information. A first feature point is a portion of the shape indicated by the first model information that can be distinguished from other portions. For example, a portion defined as a surface in surface information can be distinguished from other surfaces by the shape of its outer circumference. A second feature point is a portion of the shape indicated by the second model information that can be distinguished from other portions.

例えば、モデル統合部35は、第1モデル情報に含まれる形状情報とテクスチャ情報とのうち少なくとも一方を使って第1特徴点を検出し、第1特徴点の位置とその特徴点の特徴量(第1特徴量)とを示す第1特徴点データを算出する。モデル統合部35は、例えば、第1特徴点データを第1モデル情報の一項目の情報として、記憶部27に記憶させる。また、モデル統合部35は、例えば、第2モデル情報に含まれる形状情報とテクスチャ情報とのうち少なくとも一方を使って第2特徴点を検出し、第2特徴点の位置とその特徴点の特徴量(第2特徴量)とを示す第2特徴点データを算出する。モデル統合部35は、例えば、第2特徴点データを第2モデル情報の一項目の情報として、記憶部27に記憶させる。モデル統合部35は、例えば、SIFT(Scale-Invariant Feature Transform)法又はSURF(Speeded Up Robust Features)法により特徴点および特徴量を算出する。なお、例えば、上記の特徴点データ(例、第1特徴点データ、第2特徴点データ)は、少なくとも特徴点の特徴量を含むデータであって、該特徴点と該特徴量とのうち特徴量のみを含むデータであっても良い。 For example, the model integration unit 35 detects the first feature point using at least one of the shape information and the texture information included in the first model information, and the position of the first feature point and the feature amount of the feature point ( First feature point data indicating the first feature amount) is calculated. The model integration unit 35 stores, for example, the first feature point data in the storage unit 27 as information of one item of the first model information. In addition, the model integration unit 35 detects the second feature points using at least one of the shape information and the texture information included in the second model information, for example, and calculates the positions of the second feature points and the features of the feature points. Second feature point data indicating the amount (second feature amount) is calculated. The model integration unit 35 stores, for example, the second feature point data in the storage unit 27 as information of one item of the second model information. The model integration unit 35 calculates feature points and feature amounts by, for example, a SIFT (Scale-Invariant Feature Transform) method or a SURF (Speeded Up Robust Features) method. Note that, for example, the feature point data (eg, first feature point data, second feature point data) is data that includes at least the feature amount of the feature point, and the feature point and the feature amount The data may include only quantity.

モデル統合部35は、第1モデル情報の第1特徴量を有する第1特徴点データと第2モデル情報の第2特徴量を有する第2特徴点データとをマッチングさせて統合した第3特徴点データを示す統合モデル情報を算出する。第3特徴点データは、例えば、第1特徴点データ(例、第1特徴量)と第2特徴点データ(例、第2特徴量)とをマッチングさせたデータである。第3特徴点データは、例えば、対象物OBのうち、第1特徴点データと第2特徴点データとが重なる部分を含み、第1部分形状と第2部分形状のいずれよりも広い範囲をモデルリングした統合データである。 The model integration unit 35 matches the first feature point data having the first feature amount of the first model information and the second feature point data having the second feature amount of the second model information, and integrates the third feature points. Compute integrated model information that represents the data. The third feature point data is, for example, data obtained by matching first feature point data (eg, first feature amount) and second feature point data (eg, second feature amount). The third feature point data includes, for example, a portion of the object OB where the first feature point data and the second feature point data overlap, and models a wider range than either the first partial shape or the second partial shape. It is integrated data that is ringed.

例えば、撮像装置2は、対象物OBを任意の第1方向の片側(一方側)から検出して第1モデル情報を算出し、その第1方向の反対側から対象物OBを検出して第2モデル情報を算出した場合、モデル統合部35は、対象物OBのほぼ全周をカバーした統合モデル情報を算出できる。なお、統合モデル情報が示す形状は、対象物OBの一部を示す部分モデルであってもよい。 For example, the imaging device 2 detects the object OB from one side (one side) of an arbitrary first direction, calculates the first model information, detects the object OB from the opposite side of the first direction, and calculates the first model information. When the two-model information is calculated, the model integrating section 35 can calculate the integrated model information covering almost the entire circumference of the object OB. Note that the shape indicated by the integrated model information may be a partial model indicating a part of the object OB.

ここで、統合モデル情報は、例えば、形状情報とテクスチャ情報との少なくとも一方を含む。統合モデル情報の形状情報は、例えば、第1モデル情報の形状情報と、第2モデル情報の形状情報とを統合した情報である。また、統合モデル情報のテクスチャ情報は、例えば、第1モデル情報のテクスチャ情報と、第2モデル情報のデクスチャ情報とを統合した情報である。 Here, the integrated model information includes, for example, at least one of shape information and texture information. The shape information of the integrated model information is, for example, information obtained by integrating the shape information of the first model information and the shape information of the second model information. Also, the texture information of the integrated model information is, for example, information obtained by integrating the texture information of the first model information and the texture information of the second model information.

また、位置検出部36は、例えば制御部28からの指令(検出要求信号)によって、撮像装置2(例、検出部11)の位置情報を検出する。位置検出部36は、例えば、方位センサ、GPSセンサ、及び加速度センサの少なくとも一つを含む。位置検出部36は、例えば、本体部14の内部に設けられるが、本体部14に外付けされてもよい。位置検出部36は、本体部14から取り外し可能なユニットであってもよい。 Further, the position detection unit 36 detects position information of the imaging device 2 (for example, the detection unit 11) according to a command (detection request signal) from the control unit 28, for example. The position detection unit 36 includes, for example, at least one of an orientation sensor, a GPS sensor, and an acceleration sensor. The position detection section 36 is provided inside the body section 14 , for example, but may be externally attached to the body section 14 . The position detection section 36 may be a unit removable from the main body section 14 .

検出部11の位置情報は、例えば、検出部11の検出方向と全地球測位情報との少なくとも一方を含む。検出部11の検出方向は、例えば、図3(A)に示した撮像部15の結像光学系17の光軸の方向である。検出部11の検出方向は、例えば、撮像装置2の姿勢に対して予め定められており、位置検出部36は、方位センサにより撮像装置2の姿勢を検出することで、検出部11の検出方向を検出する。また、検出部11は、例えば、GPSセンサにより全地球測位情報を検出する。また、検出部11の位置情報は、検出部11の位置の変化量を含む。位置検出部36は、例えば、加速度センサの検出結果を時間積分して、検出部11の速度を検出できる。また、位置検出部36は、例えば、検出部11の速度を時間積分して、検出部11の位置の変化量を検出する。検出部11は、例えば、GPSセンサにより第1精度の位置情報を検出し、加速度センサの検出結果により、第1精度よりも高精度の第2精度の位置情報を取得してもよい。 The position information of the detection unit 11 includes, for example, at least one of the detection direction of the detection unit 11 and global positioning information. The detection direction of the detection unit 11 is, for example, the direction of the optical axis of the imaging optical system 17 of the imaging unit 15 shown in FIG. 3(A). The detection direction of the detection unit 11 is predetermined for, for example, the orientation of the imaging device 2 , and the position detection unit 36 detects the orientation of the imaging device 2 with the orientation sensor, thereby determining the detection direction of the detection unit 11 . to detect Further, the detection unit 11 detects global positioning information using, for example, a GPS sensor. Also, the position information of the detection unit 11 includes the amount of change in the position of the detection unit 11 . The position detection unit 36 can detect the speed of the detection unit 11 by time-integrating the detection result of the acceleration sensor, for example. Further, the position detection unit 36 detects the amount of change in the position of the detection unit 11 by, for example, time-integrating the speed of the detection unit 11 . For example, the detection unit 11 may detect first-accuracy position information using a GPS sensor, and acquire second-accuracy position information, which is higher than the first accuracy, from the detection result of the acceleration sensor.

制御部28は、例えば、検出部11に対象物OBを検出させる際に、位置検出部36に検出部11の位置情報を検出させる。制御部28は、例えば、検出部11の検出結果を、位置検出部36の検出結果(検出部11の位置情報)と関連付けて記憶部27に記憶させる。情報算出部12は、検出部11による対象物OBの検出結果を元にモデル情報を算出し、このモデル情報の各項目の情報を検出部11の位置情報と関連付けて、記憶部27に記憶させる。モデル情報は、例えば、検出部11の位置情報を含んでいてもよい。 For example, when causing the detection unit 11 to detect the object OB, the control unit 28 causes the position detection unit 36 to detect the position information of the detection unit 11 . For example, the control unit 28 causes the storage unit 27 to store the detection result of the detection unit 11 in association with the detection result of the position detection unit 36 (position information of the detection unit 11). The information calculation unit 12 calculates model information based on the detection result of the target object OB by the detection unit 11, associates the information of each item of this model information with the position information of the detection unit 11, and stores it in the storage unit 27. . The model information may include position information of the detection unit 11, for example.

検出部11の位置情報は、例えば、第1モデル情報と第2モデル情報との統合に使われる。例えば、モデル統合部35は、第1モデル情報の元データを検出部11が検出した際の検出部11の第1位置情報と、第2モデル情報の元データを検出部11が検出した際の検出部11の第2位置情報とを使って、第1モデル情報と第2モデル情報とをマッチングさせて統合してもよい。例えば、モデル統合部35は、第1位置情報および第2位置情報を使って、第1モデル情報が示す第1部分形状と第2モデル情報が示す第2部分形状との位置関係を算出してもよい。上記の位置情報をモデル情報の統合に用いる場合、統合を実行する撮像装置2又は情報処理装置3は、統合に必要な演算量を減らすことができるし、統合におけるミスマッチングを低減することも可能である。 The position information of the detection unit 11 is used, for example, to integrate the first model information and the second model information. For example, the model integration unit 35 stores the first position information of the detection unit 11 when the detection unit 11 detects the original data of the first model information, and the first position information of the detection unit 11 when the detection unit 11 detects the original data of the second model information. The first model information and the second model information may be matched and integrated using the second position information of the detection unit 11 . For example, the model integration unit 35 uses the first position information and the second position information to calculate the positional relationship between the first partial shape indicated by the first model information and the second partial shape indicated by the second model information. good too. When the above position information is used to integrate model information, the imaging device 2 or information processing device 3 that performs integration can reduce the amount of calculation required for integration, and can also reduce mismatching in integration. is.

なお、モデル統合部35は、検出部11の位置情報、及び特徴量を含む特徴点データを使って、第1モデル情報と第2モデル情報とを統合してもよい。また、モデル統合部35は、検出部11の位置情報を使うとともに特徴点データを使わないで、第1モデル情報と第2モデル情報とを統合してもよい。例えば、モデル統合部35は、特徴点データ(例、特徴量)を使うとともに検出部11の位置情報を使わないで、第1モデル情報と第2モデル情報とを統合してもよい。 Note that the model integration unit 35 may integrate the first model information and the second model information using the position information of the detection unit 11 and the feature point data including the feature amount. Alternatively, the model integration unit 35 may integrate the first model information and the second model information using the position information of the detection unit 11 without using the feature point data. For example, the model integration unit 35 may integrate the first model information and the second model information using feature point data (eg, feature amount) without using the position information of the detection unit 11 .

ところで、第1モデル情報の形状情報が示す形状の端部に隣接する領域(以下、視野外領域という)は、例えば、第1方向から検出できない領域を含む。視野外領域は、例えば、第1モデル情報が示す形状において閉じていない部分である。情報算出部12またはモデル統合部35は、視野外領域の形状情報を取得可能な検出部11の検出方向を算出してもよい。撮像装置2は、この検出方向を、第1方向からの対象物OBの検出処理が終了した後、例えば、第2方向の候補として表示部25に表示させてもよい。 By the way, the area adjacent to the edge of the shape indicated by the shape information of the first model information (hereinafter referred to as the out-of-field area) includes, for example, an area that cannot be detected from the first direction. The out-of-view area is, for example, a portion that is not closed in the shape indicated by the first model information. The information calculation unit 12 or the model integration unit 35 may calculate the detection direction of the detection unit 11 capable of acquiring the shape information of the out-of-field area. The imaging device 2 may display this detection direction on the display unit 25 as a candidate for the second direction, for example, after the detection processing of the object OB from the first direction is completed.

次に、撮像システム1の動作に基づき、画像処理方法について説明する。図6は、撮像システム1の動作を示すフローチャートである。撮像装置2は、検出部11の検出方向が第1方向に設定されている状態で少なくとも撮像画像のデータを取得するステップS11の処理を行う。ステップS11において、撮像装置2は、検出部11によって対象物OBを第1方向から検出し、例えば可視光画像のデータおよび点群データを取得する。ステップS12において、情報算出部12は、ステップS11における検出部11の検出結果を使って、第1モデル情報を算出する。ステップS13において、情報算出部12は、第1モデル情報を記憶部27に記憶させる。 Next, an image processing method will be described based on the operation of the imaging system 1. FIG. FIG. 6 is a flow chart showing the operation of the imaging system 1. As shown in FIG. The imaging device 2 performs the process of step S11 of acquiring at least the data of the captured image in a state where the detection direction of the detection unit 11 is set to the first direction. In step S11, the imaging device 2 detects the target object OB from the first direction by the detection unit 11, and acquires visible light image data and point cloud data, for example. In step S12, the information calculation unit 12 calculates the first model information using the detection result of the detection unit 11 in step S11. In step S<b>13 , the information calculation unit 12 causes the storage unit 27 to store the first model information.

撮像装置2は、ステップS11において検出部11による検出処理が終了した後、例えば、ユーザの手動または図示しない移動装置によって移動され、検出部11の検出方向が第1方向と異なる第2方向に設定される。ステップS14において、撮像装置2は、検出部11によって対象物OBを第2方向から検出し、例えば可視光画像のデータおよび点群データを取得する。ステップS15において、情報算出部12は、ステップS14における検出部11の検出結果を使って、第2モデル情報を算出する。ステップS16において、情報算出部12は、第2モデル情報を記憶部27に記憶させる。 After the detection processing by the detection unit 11 is completed in step S11, the imaging device 2 is moved, for example, manually by the user or by a moving device (not shown), and the detection direction of the detection unit 11 is set to a second direction different from the first direction. be done. In step S14, the imaging device 2 detects the object OB from the second direction by the detection unit 11, and acquires visible light image data and point cloud data, for example. In step S15, the information calculation unit 12 calculates the second model information using the detection result of the detection unit 11 in step S14. In step S<b>16 , the information calculation unit 12 causes the storage unit 27 to store the second model information.

ステップS17において、モデル統合部35は、第1モデル情報と第2モデル情報とを統合して統合モデル情報を算出する。ステップS17において、モデル統合部35は、第1モデル情報の形状情報とテクスチャ情報との少なくとも一方を記憶部27から読み出し、形状情報とテクスチャ情報との少なくとも一方を使って第1特徴点を検出する(ステップS18)。そして、モデル統合部35は、少なくとも第1特徴点の特徴量を含む第1特徴点データを算出し(ステップS19)、第1特徴点データを記憶部27に記憶させる(ステップS20)。モデル統合部35は、第2モデル情報の形状情報とテクスチャ情報との少なくとも一方を記憶部27から読み出し、形状情報とテクスチャ情報との少なくとも一方を使って第2特徴点を検出する(ステップS21)。そして、モデル統合部35は、少なくとも第2特徴点の特徴量を含む第2特徴点データを算出し(ステップS22)、第2特徴点データを記憶部27に記憶させる(ステップS23)。モデル統合部35は、第1特徴点データおよび第2特徴点データを記憶部27から読み出し、これら特徴点データをマッチングする(ステップS24)。モデル統合部35は、ステップS24のマッチング処理によって統合モデル情報を算出し、例えば、統合モデル情報を項目ごとに記憶部27に記憶させる(ステップS25)。そして、ステップS26において、撮像装置2は、記憶部27に記憶されている統合モデル情報の少なくとも一部を、通信部13により情報処理装置3に送信する。情報処理装置3は、例えば、撮像装置2から受信した統合モデル情報を使ってレンダリング処理を実行し、その結果(例、推定画像など)を表示装置5に表示させる。 In step S17, the model integration unit 35 integrates the first model information and the second model information to calculate integrated model information. In step S17, the model integration unit 35 reads out at least one of the shape information and the texture information of the first model information from the storage unit 27, and uses at least one of the shape information and the texture information to detect the first feature points. (Step S18). Then, the model integration unit 35 calculates first feature point data including at least the feature amount of the first feature point (step S19), and stores the first feature point data in the storage unit 27 (step S20). The model integration unit 35 reads out at least one of the shape information and the texture information of the second model information from the storage unit 27, and detects the second feature points using at least one of the shape information and the texture information (step S21). . Then, the model integration unit 35 calculates second feature point data including at least the feature amount of the second feature point (step S22), and stores the second feature point data in the storage unit 27 (step S23). The model integration unit 35 reads out the first feature point data and the second feature point data from the storage unit 27, and matches these feature point data (step S24). The model integration unit 35 calculates the integrated model information through the matching process in step S24, and stores the integrated model information for each item in the storage unit 27, for example (step S25). Then, in step S<b>26 , the imaging device 2 transmits at least part of the integrated model information stored in the storage section 27 to the information processing device 3 through the communication section 13 . The information processing device 3 executes rendering processing using, for example, the integrated model information received from the imaging device 2 and causes the display device 5 to display the result (eg, an estimated image, etc.).

[第3実施形態]
次に、第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図7は、本実施形態に係る撮像システム1を示す図である。この撮像システム1は、複数の撮像装置2を備える。以下の説明において、複数の撮像装置2のうち、1つの撮像装置2を第1撮像装置2a、他の1つの撮像装置2を第2撮像装置2bという。したがって、この撮像システム1は、少なくとも2つの撮像装置、又は複数の撮像装置を備える構成である。
[Third embodiment]
Next, a third embodiment will be described. In this embodiment, the same reference numerals are given to the same configurations as in the above-described embodiment, and the description thereof is simplified or omitted. FIG. 7 is a diagram showing an imaging system 1 according to this embodiment. This imaging system 1 includes a plurality of imaging devices 2 . In the following description, among the plurality of imaging devices 2, one imaging device 2 is referred to as a first imaging device 2a, and the other imaging device 2 is referred to as a second imaging device 2b. Therefore, this imaging system 1 is configured to include at least two imaging devices or a plurality of imaging devices.

第1撮像装置2aは、第1方向から対象物OBを検出し、その検出結果を元に第1モデル情報を算出する。第1撮像装置2aは、第1モデル情報を情報処理装置3に供給する。第2撮像装置2bは、第2方向から対象物を検出し、その検出結果を元に第2モデル情報を算出する。第2撮像装置2bは、第2モデル情報を情報処理装置3に供給する。情報処理装置3は、第1モデル情報と第2モデル情報とを統合し、複数の方向(例、第1方向と該第1方向とは異なる第2方向)から検出した検出結果に基づく統合モデル情報を算出する。 The first imaging device 2a detects the object OB from the first direction and calculates the first model information based on the detection result. The first imaging device 2 a supplies the first model information to the information processing device 3 . The second imaging device 2b detects an object from a second direction and calculates second model information based on the detection result. The second imaging device 2 b supplies the second model information to the information processing device 3 . The information processing device 3 integrates the first model information and the second model information, and creates an integrated model based on detection results detected from a plurality of directions (eg, a first direction and a second direction different from the first direction). Calculate information.

次に、撮像システム1の各部について説明する。図8は、撮像システム1を示すブロック図である。第1撮像装置2aは、検出部11(以下、検出部11aと記す)が対象物OBを検出するタイミングの情報(以下、タイミング情報という)を検出する計時部41(以下、計時部41aと記す)を備える。タイミング情報は、例えば、検出部11aが検出処理を行った期間(例、日時)を示す情報を含む。タイミング情報は、検出部11aが検出処理を行った期間の開始時刻と終了時刻の少なくとも一方を含んでいてもよい。 Next, each part of the imaging system 1 will be described. FIG. 8 is a block diagram showing the imaging system 1. As shown in FIG. The first imaging device 2a includes a timer 41 (hereinafter referred to as the timer 41a) that detects information (hereinafter referred to as timing information) at which the detection unit 11 (hereinafter referred to as the detector 11a) detects the object OB. ). The timing information includes, for example, information indicating a period (eg, date and time) during which the detection unit 11a performed the detection process. The timing information may include at least one of the start time and the end time of the period during which the detecting unit 11a has performed the detection process.

タイミング情報は、例えば、対象物OBが撮像装置によって検出されたタイミングが異なる複数の検出結果を用いて、モデル統合を行う際に使われる。例えば、複数の検出結果のうち対象物OBを検出したタイミングが相対的に近い少なくとも2つの検出結果を元に、複数のモデル情報を算出し、算出した複数のモデル情報を統合してもよい。 The timing information is used, for example, when performing model integration using a plurality of detection results with different timings when the object OB is detected by the imaging device. For example, a plurality of pieces of model information may be calculated based on at least two detection results with relatively close detection timings of the object OB among the plurality of detection results, and the calculated pieces of model information may be integrated.

検出部11aは、例えば、その検出結果を、タイミング情報と関連付けて記憶部27(以下、記憶部27aと記す)に記憶させる。情報算出部12(以下、情報算出部12aと記す)は、例えば、検出部11aの検出結果を元に第1モデル情報を算出し、その算出結果をタイミング情報と関連付けて記憶部27aに記憶させる。 For example, the detection unit 11a stores the detection result in the storage unit 27 (hereinafter referred to as storage unit 27a) in association with the timing information. The information calculation unit 12 (hereinafter referred to as the information calculation unit 12a) calculates the first model information based on the detection result of the detection unit 11a, for example, and stores the calculation result in the storage unit 27a in association with the timing information. .

また、第2撮像装置2bは、例えば、第1撮像装置2aと同様の構成である。第2撮像装置2bの検出部11(以下、検出部11bと記す)は、例えば、第2方向から対象物OBを検出し、その検出結果を計時部41(以下、計時部41bと記す)が検出したタイミング情報と関連付けて記憶部27(以下、記憶部27bと記す)に記憶させる。第2撮像装置2bの情報算出部12(以下、情報算出部12bと記す)は、例えば、検出部11bの検出結果を元に第2モデル情報を算出し、その算出結果をタイミング情報と関連付けて記憶部27bに記憶させる。 Also, the second imaging device 2b has, for example, the same configuration as the first imaging device 2a. The detection unit 11 (hereinafter referred to as the detection unit 11b) of the second imaging device 2b detects, for example, the object OB from the second direction, and the detection result is detected by the timer 41 (hereinafter referred to as the timer 41b). It is stored in the storage unit 27 (hereinafter referred to as storage unit 27b) in association with the detected timing information. The information calculation unit 12 (hereinafter referred to as the information calculation unit 12b) of the second imaging device 2b calculates the second model information based on the detection result of the detection unit 11b, for example, and associates the calculation result with the timing information. It is stored in the storage unit 27b.

なお、タイミング情報は、検出部11により対象物OBを検出することが予定されている期間の情報を含んでいてもよい。第1撮像装置2aと第2撮像装置2bとは、タイミング情報を送受信し、制御部28や通信部13を用いて互いに同期をとって対象物OBを検出してもよい。 Note that the timing information may include information on the period during which the detection unit 11 is scheduled to detect the object OB. The first imaging device 2a and the second imaging device 2b may transmit and receive timing information and synchronize with each other using the control unit 28 and the communication unit 13 to detect the object OB.

本実施形態において、第1撮像装置2aの情報算出部12aは、第1モデル情報と第2モデル情報との統合に使われる第1付加情報を算出する。第1付加情報は、例えば、特徴点データ(例、特徴量)のマッチングにより得られる情報、検出部11aの位置情報、撮像装置2のタイミング情報、検出部11bの位置情報、および第2撮像装置2bのタイミング情報のうち少なくとも一つを含む。例えば、第1撮像装置2aは、第2撮像装置2bから第2モデル情報を受信し、第1撮像装置2aの情報算出部12aは、算出した第1特徴点データと、第2撮像装置2bから受信した第2特徴点データとを使って、第1付加情報を算出する。 In this embodiment, the information calculation unit 12a of the first imaging device 2a calculates the first additional information used for integrating the first model information and the second model information. The first additional information is, for example, information obtained by matching feature point data (eg, feature amount), position information of the detection unit 11a, timing information of the imaging device 2, position information of the detection unit 11b, and the second imaging device. 2b includes at least one of the timing information. For example, the first imaging device 2a receives the second model information from the second imaging device 2b, and the information calculation unit 12a of the first imaging device 2a calculates the first feature point data and the The first additional information is calculated using the received second feature point data.

本実施形態において、情報処理装置3は、モデル統合部45を更に備える。モデル統合部45は、第1撮像装置2aからの第1モデル情報と第2撮像装置2bからの第2モデル情報とを統合して上記の統合モデル情報を生成する。モデル統合部45がモデル情報の統合に用いるアルゴリズムは、例えば、第2実施形態に説明した撮像装置2のモデル統合部35と同様でよい。情報処理装置3の通信部30は、例えば、モデル統合を行うよりも前に、第1撮像装置2aの通信部13aから、第1付加情報を受信する。情報処理装置2のモデル統合部45は、例えば、第1モデル情報、第2モデル情報、及び第1付加情報を使って、モデル統合を行う。 In this embodiment, the information processing device 3 further includes a model integration unit 45 . The model integration unit 45 integrates the first model information from the first imaging device 2a and the second model information from the second imaging device 2b to generate the integrated model information. The algorithm used by the model integration unit 45 to integrate model information may be, for example, the same as that of the model integration unit 35 of the imaging device 2 described in the second embodiment. The communication unit 30 of the information processing device 3 receives the first additional information from the communication unit 13a of the first imaging device 2a, for example, before model integration is performed. The model integration unit 45 of the information processing device 2 performs model integration using, for example, the first model information, the second model information, and the first additional information.

図9は、本実施形態に係る撮像システム1の動作を示す図である。第1撮像装置2aの情報算出部12aは、ステップS31において第1モデル情報を算出し、ステップS32において少なくとも第1特徴量を含む第1特徴点データを算出する。第2撮像装置2bの情報算出部12bは、ステップS33において第2モデル情報を算出し、ステップS34において少なくとも第2特徴量を含む第2特徴点データを算出する。第1撮像装置2aの通信部13aは、ステップS35において、第2特徴点データの送信を要求する指令(要求指令)を、第2撮像装置2bの通信部13bに送信する。第2撮像装置2bの通信部13bは、ステップS36において、第1撮像装置2aの通信部13aから、要求指令を受信する。通信部13bは、ステップS37において、第2特徴点データを通信部13aに送信する。通信部13aは、ステップS38において、第2特徴点データを通信部13bから受信する。このように、撮像装置間(例、第1撮像装置と第2撮像装置との間)における少なくとも特徴点データ(例、第1特徴点データ及び/又は第2特徴点データ)の通信(データ通信)を行う場合、各撮像装置がモデル情報の統合に必要な情報を計算することによって、情報処理装置3は統合の負荷を減らすことが可能となる。なお、上記の特徴点データ(第1特徴点データ、第2特徴点データなど)の作成は、情報処理装置3が行うことも可能である。この場合、例えば、情報処理装置3は、各撮像装置又は一方の撮像装置(例、第1撮像装置2a)から受信する各モデル情報を用いて第1特徴点データおよび第2特徴点データを生成する。また、上記の特徴点データ(例、第1特徴点データ、第2特徴点データ)の生成は、第1撮像装置2a(又は第2撮像装置2b)が行うことも可能である。この場合、例えば、第1撮像装置2aは、第2撮像装置2bから受信する第2モデル情報に基づいて第2特徴点データを生成する。 FIG. 9 is a diagram showing the operation of the imaging system 1 according to this embodiment. The information calculation unit 12a of the first imaging device 2a calculates first model information in step S31, and calculates first feature point data including at least the first feature amount in step S32. The information calculation unit 12b of the second imaging device 2b calculates second model information in step S33, and calculates second feature point data including at least the second feature amount in step S34. In step S35, the communication unit 13a of the first imaging device 2a transmits a command (request command) requesting transmission of the second feature point data to the communication unit 13b of the second imaging device 2b. The communication unit 13b of the second imaging device 2b receives the request command from the communication unit 13a of the first imaging device 2a in step S36. The communication unit 13b transmits the second feature point data to the communication unit 13a in step S37. The communication unit 13a receives the second feature point data from the communication unit 13b in step S38. In this way, communication (data communication) of at least feature point data (eg, first feature point data and/or second feature point data) between imaging devices (eg, between a first imaging device and a second imaging device) ), the information processing apparatus 3 can reduce the integration load by calculating information necessary for integration of the model information by each imaging apparatus. Note that the information processing device 3 can also create the feature point data (the first feature point data, the second feature point data, etc.). In this case, for example, the information processing device 3 generates the first feature point data and the second feature point data using each model information received from each imaging device or one of the imaging devices (eg, the first imaging device 2a). do. Also, the above feature point data (eg, first feature point data, second feature point data) can be generated by the first imaging device 2a (or the second imaging device 2b). In this case, for example, the first imaging device 2a generates second feature point data based on the second model information received from the second imaging device 2b.

第1撮像装置2aの情報算出部12aは、ステップS39において、第1特徴点データと第2特徴点データとをマッチングし(特徴部分のマッチング処理)、ステップS40において、マッチングの結果を示す第1付加情報を算出する。第1付加情報は、例えば、第1モデル情報が示す形状と、第2モデル情報が示す形状との位置関係を示す情報を含む。第1付加情報は、例えば、第1特徴データと第2特徴データとで共通する特徴点の座標、及び/又は第1特徴データと第2特徴データとで共通する特徴量を含む。情報算出部12aは、算出した第1付加情報を、例えば記憶部27aに記憶させる。第1付加情報は、例えば、第1モデル情報の1項目の情報であってもよい。 In step S39, the information calculation unit 12a of the first imaging device 2a matches the first feature point data and the second feature point data (matching processing of the feature portion). Calculate additional information. The first additional information includes, for example, information indicating the positional relationship between the shape indicated by the first model information and the shape indicated by the second model information. The first additional information includes, for example, coordinates of feature points common to the first feature data and the second feature data and/or feature amounts common to the first feature data and the second feature data. The information calculation unit 12a stores the calculated first additional information in the storage unit 27a, for example. The first additional information may be, for example, one item of information in the first model information.

第1撮像装置2aの通信部13aは、ステップS41において、第1付加情報を情報処理装置3の通信部30に送信する。情報処理装置3の通信部30は、ステップS42において、通信部13aから第1付加情報を受信する。
情報処理装置3は、ステップS43において、統合モデル情報のうち、第1撮像装置2aからの第1モデル情報に担当させる第1担当領域と、第2撮像装置2bからの第2モデル情報に担当させる第2担当領域とを決定して設定する。例えば、モデル統合部45は、第1担当領域と第2担当領域とが重複しないように、各担当領域を選択する。
The communication unit 13a of the first imaging device 2a transmits the first additional information to the communication unit 30 of the information processing device 3 in step S41. The communication unit 30 of the information processing device 3 receives the first additional information from the communication unit 13a in step S42.
In step S43, the information processing device 3 causes the first model information from the first imaging device 2a to be in charge of the first model information from the first imaging device 2a and the second model information from the second imaging device 2b to be in charge of the integrated model information. Determine and set a second area of responsibility. For example, the model integration unit 45 selects each assigned area so that the first assigned area and the second assigned area do not overlap.

情報処理装置3の制御部33は、ステップS44において、通信部30を制御し、第1担当領域における第1モデル情報の送信を要求する指令(第1要求信号)を、第1撮像装置2aの通信部13aに送信する。以下、第1担当領域における第1モデル情報を、第1指定情報という。第1指定情報は、例えば、第1モデル情報が示す形状の一部の形状に関する情報である。第1撮像装置2aの通信部13aは、ステップS45において、ステップS44の指令を受信する。第1撮像装置2aの情報算出部12aは、ステップS46において、第1モデル情報のうち第1指定情報を抽出する。第1撮像装置2aの通信部13aは、ステップS47において、第1指定情報を情報処理装置3の通信部30に送信する。ステップS48において、通信部30は、通信部13aから第1指定情報を受信する。 In step S44, the control unit 33 of the information processing device 3 controls the communication unit 30 to issue a command (first request signal) requesting transmission of the first model information in the first coverage area to the first imaging device 2a. It transmits to the communication part 13a. Hereinafter, the first model information in the first assigned area will be referred to as first designation information. The first designation information is, for example, information about a shape of a part of the shape indicated by the first model information. The communication unit 13a of the first imaging device 2a receives the command of step S44 in step S45. The information calculation unit 12a of the first imaging device 2a extracts the first designation information from the first model information in step S46. The communication unit 13a of the first imaging device 2a transmits the first designation information to the communication unit 30 of the information processing device 3 in step S47. In step S48, the communication section 30 receives the first designation information from the communication section 13a.

情報処理装置3の制御部33は、ステップS44の処理の後のステップS49において、通信部30を制御し、第2担当領域における第2モデル情報の送信を要求する指令(第2要求信号)を、第2撮像装置2bの通信部13bに送信する。以下、第2担当領域における第2モデル情報を、第2指定情報という。第2指定情報は、例えば、第2モデル情報が示す形状の一部の形状に関する情報である。第2撮像装置2bの通信部13bは、ステップS50において、ステップS49の指令を受信する。第2撮像装置2bの情報算出部12bは、ステップS51において、第2モデル情報のうち第2指定情報を抽出する。第2撮像装置2bの通信部13bは、ステップS52において、第2指定情報を情報処理装置3の通信部30に送信する。情報処理装置3の通信部30は、ステップS53において、通信部13bから第2指定情報を受信する。情報処理装置3のモデル統合部45は、ステップS54において、第1モデル情報の一部である第1指定情報と、第2モデル情報の一部である第2指定情報とを統合し、統合モデル情報を算出する。例えば、モデル統合部45は、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。また、例えば、撮像装置2aと撮像装置2bとは、上記の付加情報を作成するために、複数の撮像装置間において情報(例、第1モデル情報、第2モデル情報、第1特徴点データ、第2特徴点データ)のデータ通信を行う。 In step S49 after the process of step S44, the control unit 33 of the information processing device 3 controls the communication unit 30 to issue a command (second request signal) requesting transmission of the second model information in the second area in charge. , to the communication unit 13b of the second imaging device 2b. Hereinafter, the second model information in the second assigned area will be referred to as second designation information. The second designation information is, for example, information related to the shape of a part of the shape indicated by the second model information. The communication unit 13b of the second imaging device 2b receives the command of step S49 in step S50. The information calculation unit 12b of the second imaging device 2b extracts the second designation information from the second model information in step S51. The communication unit 13b of the second imaging device 2b transmits the second designation information to the communication unit 30 of the information processing device 3 in step S52. The communication unit 30 of the information processing device 3 receives the second designation information from the communication unit 13b in step S53. In step S54, the model integration unit 45 of the information processing device 3 integrates the first designation information, which is part of the first model information, and the second designation information, which is part of the second model information, into an integrated model. Compute information. For example, the model integration unit 45 shares model information (eg, first model information, second model information) or feature point data (eg, first feature point data, second feature point data) among a plurality of imaging devices. Integrated model information is generated using information (eg, additional information, specified information) obtained by (eg, information sharing through two-way communication or one-way communication). Further, for example, the imaging devices 2a and 2b exchange information (eg, first model information, second model information, first feature point data, second feature point data).

[第4実施形態]
次に、第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。本実施形態に係る撮像システム1は、図7および図8と同様の構成である。本実施形態において、第1撮像装置2aおよび第2撮像装置2bは、それぞれ、モデル統合に使われる付加情報を算出する。本実施形態において、情報処理装置3は、統合モデル情報をチェックし、適宜、補間処理を行う。
[Fourth embodiment]
Next, a fourth embodiment will be described. In this embodiment, the same reference numerals are given to the same configurations as in the above-described embodiment, and the description thereof is simplified or omitted. The imaging system 1 according to this embodiment has the same configuration as in FIGS. 7 and 8. FIG. In this embodiment, the first imaging device 2a and the second imaging device 2b each calculate additional information used for model integration. In this embodiment, the information processing device 3 checks the integrated model information and appropriately performs interpolation processing.

図10は、本実施形態に係る撮像システム1の動作を示す図である。図10において、図9と同様の処理については、同じ符号を付してその説明を簡略化あるいは省略する。第1撮像装置2aの情報算出部12aは、ステップS31において第1モデル情報を算出し、ステップS32において少なくとも第1特徴量を含む第1特徴点データを算出する。第2撮像装置2bの情報算出部12bは、ステップS33において第2モデル情報を算出し、ステップS34において少なくとも第2特徴量を含む第2特徴点データを算出する。撮像装置2の通信部13aは、ステップS60において、第1特徴点データを第2撮像装置2bの通信部13bに送信する。通信部13bは、ステップS61において、第1特徴点データを通信部13aから受信する。通信部13bは、ステップS62において、第2特徴点データを通信部13aに送信する。通信部13aは、ステップS63において、第2特徴点データを通信部13bから受信する。 FIG. 10 is a diagram showing the operation of the imaging system 1 according to this embodiment. In FIG. 10, the same reference numerals are given to the same processes as in FIG. 9, and the description thereof will be simplified or omitted. The information calculation unit 12a of the first imaging device 2a calculates first model information in step S31, and calculates first feature point data including at least the first feature amount in step S32. The information calculation unit 12b of the second imaging device 2b calculates second model information in step S33, and calculates second feature point data including at least the second feature amount in step S34. The communication unit 13a of the imaging device 2 transmits the first feature point data to the communication unit 13b of the second imaging device 2b in step S60. The communication unit 13b receives the first feature point data from the communication unit 13a in step S61. The communication unit 13b transmits the second feature point data to the communication unit 13a in step S62. The communication unit 13a receives the second feature point data from the communication unit 13b in step S63.

第1撮像装置2aの情報算出部12aは、ステップS64において、第1特徴点データと第2特徴点データとをマッチングし、マッチングの結果を示す第1付加情報を算出する。第1撮像装置2aの通信部13aは、ステップS65において、第1付加情報を情報処理装置3の通信部30に送信する。通信部30は、ステップS66において、通信部13aから第1付加情報を受信する。 In step S64, the information calculation unit 12a of the first imaging device 2a matches the first feature point data and the second feature point data, and calculates first additional information indicating the matching result. The communication unit 13a of the first imaging device 2a transmits the first additional information to the communication unit 30 of the information processing device 3 in step S65. The communication unit 30 receives the first additional information from the communication unit 13a in step S66.

第2撮像装置2bの情報算出部12bは、第1撮像装置2aと同様に、第1特徴点データと第2特徴点データとをマッチングし、ステップS67において、マッチングの結果を示す第2付加情報を算出する。情報算出部12bは、算出した第2付加情報を記憶部27bに記憶させる。第2付加情報は、第1付加情報と同様であり、例えば、第2モデル情報の1項目の情報であってもよい。第2撮像装置2bの通信部13bは、ステップS68において、第2付加情報を情報処理装置3の通信部30に送信する。通信部30は、ステップS69において、通信部13bから第2付加情報を受信する。 Similar to the first imaging device 2a, the information calculation unit 12b of the second imaging device 2b matches the first feature point data and the second feature point data, and in step S67, second additional information indicating the matching result Calculate The information calculation unit 12b stores the calculated second additional information in the storage unit 27b. The second additional information is the same as the first additional information, and may be information of one item of the second model information, for example. The communication unit 13b of the second imaging device 2b transmits the second additional information to the communication unit 30 of the information processing device 3 in step S68. The communication unit 30 receives the second additional information from the communication unit 13b in step S69.

撮像システム1は、例えば、図9を参照して説明したステップS43~ステップS54の処理により、第1モデル情報と第2モデル情報とを統合する。情報処理装置3のモデル統合部45は、例えば、算出した統合モデル情報を記憶部31に記憶させる。モデル統合部45は、ステップS70において、算出した統合モデル情報の整合性をチェック(判定)する。モデル統合部45は、統合モデル情報の整合性がとれていないと判定した場合に、例えば、以下の処理を行う。 The imaging system 1 integrates the first model information and the second model information, for example, through the processes of steps S43 to S54 described with reference to FIG. The model integration unit 45 of the information processing device 3 stores the calculated integrated model information in the storage unit 31, for example. In step S70, the model integration unit 45 checks (determines) the consistency of the calculated integrated model information. When the model integration unit 45 determines that the integrated model information is not consistent, the model integration unit 45 performs, for example, the following processing.

ステップS71において、情報処理装置3の制御部33は、通信部30を制御し、第1補間情報の送信を要求する指令(要求信号)を、第1撮像装置2aの通信部13aに送信する。第1補間情報は、例えば、統合モデル情報の補間に使われる情報であり、第1モデル情報が示す形状と第2モデル情報が示す形状とで重複する領域の情報を含む。ステップS72において、第1撮像装置2aの通信部13aは、ステップS68の指令を受信する。ステップS73において、第1撮像装置2aの情報算出部12aは、第1モデル情報から第1補間情報を抽出する。ステップS74において、第1撮像装置2aの通信部13aは、第1補間情報を情報処理装置3の通信部30に送信する。ステップS75において、通信部30は、第1補間情報を通信部13aから受信する。 In step S71, the control unit 33 of the information processing device 3 controls the communication unit 30 and transmits a command (request signal) requesting transmission of the first interpolation information to the communication unit 13a of the first imaging device 2a. The first interpolation information is, for example, information used for interpolating the integrated model information, and includes information on areas where the shape indicated by the first model information and the shape indicated by the second model information overlap. In step S72, the communication unit 13a of the first imaging device 2a receives the command of step S68. In step S73, the information calculation unit 12a of the first imaging device 2a extracts the first interpolation information from the first model information. In step S<b>74 , the communication section 13 a of the first imaging device 2 a transmits the first interpolation information to the communication section 30 of the information processing device 3 . In step S75, the communication unit 30 receives the first interpolation information from the communication unit 13a.

ステップS71の後のステップS76において、情報処理装置3の制御部33は、通信部30を制御し、第2補間情報の送信を要求する指令(要求信号)を、第2撮像装置2bの通信部13bに送信する。第2補間情報は、例えば、統合モデル情報の補間に使われる情報であり、第1モデル情報が示す形状と第2モデル情報が示す形状とで重複する領域の情報を含む。ステップS77において、第2撮像装置2bの通信部13bは、ステップS76の指令を受信する。ステップS78において、第2撮像装置2bの情報算出部12bは、第2モデル情報から第2補間情報を抽出する。ステップS79において、第2撮像装置2bの通信部13bは、第2補間情報を情報処理装置3の通信部30に送信する。ステップS80において、通信部30は、第2補間情報を通信部13bから受信する。 In step S76 after step S71, the control unit 33 of the information processing device 3 controls the communication unit 30 to issue a command (request signal) requesting transmission of the second interpolation information to the communication unit of the second imaging device 2b. 13b. The second interpolation information is, for example, information used for interpolating the integrated model information, and includes information on areas where the shape indicated by the first model information and the shape indicated by the second model information overlap. In step S77, the communication unit 13b of the second imaging device 2b receives the command of step S76. In step S78, the information calculation unit 12b of the second imaging device 2b extracts the second interpolation information from the second model information. In step S<b>79 , the communication section 13 b of the second imaging device 2 b transmits the second interpolation information to the communication section 30 of the information processing device 3 . In step S80, the communication unit 30 receives the second interpolation information from the communication unit 13b.

ステップS81において、情報処理装置3のモデル統合部45は、第1補間情報および第2補間情報を使って、統合モデル情報の補間処理を行う。ステップS82において、モデル統合部45は、記憶部31に記憶されている統合モデル情報を、補間処理後の統合モデル情報に更新する。 In step S81, the model integration unit 45 of the information processing device 3 uses the first interpolation information and the second interpolation information to interpolate the integrated model information. In step S82, the model integration unit 45 updates the integrated model information stored in the storage unit 31 to integrated model information after the interpolation processing.

また、例えば、モデル統合部45は、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。 Also, for example, the model integration unit 45 may combine model information (eg, first model information, second model information) or feature point data (eg, first feature point data, second feature point data) between a plurality of imaging devices. Information (eg, additional information, specified information) obtained by sharing information (eg, sharing information through two-way communication or one-way communication) is used to generate integrated model information.

[第5実施形態]
次に、第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図11は、本実施形態に係る撮像システム1を示すブロック図である。
[Fifth embodiment]
Next, a fifth embodiment will be described. In this embodiment, the same reference numerals are given to the same configurations as in the above-described embodiment, and the description thereof is simplified or omitted. FIG. 11 is a block diagram showing the imaging system 1 according to this embodiment.

本実施形態に係る撮像システム1は、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3を備える。第1撮像装置2aは、例えば、第2実施形態と同様のモデル統合部35(以下、モデル統合部35aと記す)を備える。モデル統合部35aは、情報算出部12aが算出した第1モデル情報と、通信部13aが第2撮像装置2bから受信した第2モデル情報とを統合する。通信部13aは、モデル統合部35aが算出した統合モデル情報を、情報処理装置3の通信部30に送信する。 An imaging system 1 according to the present embodiment includes a first imaging device 2 a, a second imaging device 2 b, and an information processing device 3 . The first imaging device 2a includes, for example, a model integration unit 35 (hereinafter referred to as model integration unit 35a) similar to that of the second embodiment. The model integration unit 35a integrates the first model information calculated by the information calculation unit 12a and the second model information received by the communication unit 13a from the second imaging device 2b. The communication unit 13 a transmits the integrated model information calculated by the model integration unit 35 a to the communication unit 30 of the information processing device 3 .

図12は、本実施形態に係る撮像システム1の動作を示す図である。図12において、図9等と同様の処理については、同じ符号を付してその説明を簡略化あるいは省略する。撮像システム1は、ステップS31~ステップS40の処理によって、モデル統合に使われる第1付加情報を算出する。 FIG. 12 is a diagram showing the operation of the imaging system 1 according to this embodiment. In FIG. 12, the same reference numerals are given to the same processing as in FIG. 9, etc., and the description thereof will be simplified or omitted. The imaging system 1 calculates the first additional information used for model integration through the processes of steps S31 to S40.

第1撮像装置2aは、ステップS85において、統合モデル情報のうち、第1モデル情報に担当させる第1担当領域と、第2撮像装置2bからの第2モデル情報に担当させる第2担当領域とを決定して設定する。例えば、モデル統合部35aは、第1担当領域と第2担当領域とが重複しないように、各担当領域を選択する。 In step S85, the first imaging device 2a divides the integrated model information into a first coverage area to be assigned to the first model information and a second coverage area to be assigned to the second model information from the second imaging device 2b. Decide and set. For example, the model integration unit 35a selects each assigned area so that the first assigned area and the second assigned area do not overlap.

第1撮像装置2aの制御部28は、ステップS86において、通信部13aを制御し、第2担当領域における第2モデル情報の送信を要求する指令を、第2撮像装置2bの通信部13bに送信する。第2撮像装置2bの通信部13bは、ステップS87において、ステップS86の指令を受信する。第2撮像装置2bの情報算出部12bは、ステップS88において、第2モデル情報のうち第1撮像装置2aから指定された第2担当領域の情報を抽出する。第2撮像装置2bの通信部13bは、ステップS89において、ステップS86で情報算出部12bが抽出した情報(抽出情報)を、第1撮像装置2aの通信部13aに送信する。 In step S86, the control unit 28 of the first imaging device 2a controls the communication unit 13a and transmits a command requesting transmission of the second model information in the second coverage area to the communication unit 13b of the second imaging device 2b. do. The communication unit 13b of the second imaging device 2b receives the command of step S86 in step S87. In step S88, the information calculation unit 12b of the second imaging device 2b extracts the information of the second assigned region specified by the first imaging device 2a from the second model information. In step S89, the communication unit 13b of the second imaging device 2b transmits the information (extracted information) extracted by the information calculation unit 12b in step S86 to the communication unit 13a of the first imaging device 2a.

第1撮像装置2aの情報算出部12aは、ステップS90において、第1担当領域の第1モデル情報を抽出する。また、第1撮像装置2aの通信部13aは、ステップS91において、通信部13bから抽出情報(例、第2担当領域の第2モデル情報)を受信する。第1撮像装置2aのモデル統合部35aは、ステップS92において、第1担当領域の第1モデル情報と、第2担当領域の第2モデル情報とを統合し、統合モデル情報を算出する。第1撮像装置2aの通信部13aは、ステップS93において、統合モデル情報を情報処理装置3の通信部30に送信する。通信部30は、ステップS94において、統合モデル情報を通信部13aから受信する。情報処理装置3のレンダリング処理部32は、ステップS95において、統合モデル情報を使ってレンダリング処理を行う。 The information calculation unit 12a of the first imaging device 2a extracts the first model information of the first assigned area in step S90. Moreover, the communication part 13a of the 1st imaging device 2a receives extraction information (for example, the 2nd model information of a 2nd area|region in its duty) from the communication part 13b in step S91. In step S92, the model integration unit 35a of the first imaging device 2a integrates the first model information of the first assigned area and the second model information of the second assigned area to calculate integrated model information. The communication unit 13a of the first imaging device 2a transmits the integrated model information to the communication unit 30 of the information processing device 3 in step S93. The communication unit 30 receives the integrated model information from the communication unit 13a in step S94. The rendering processing unit 32 of the information processing device 3 performs rendering processing using the integrated model information in step S95.

また、例えば、第1撮像装置2aのモデル統合部35aは、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。 Further, for example, the model integration unit 35a of the first imaging device 2a may combine model information (eg, first model information, second model information) or feature point data (eg, first feature point data, Integrated model information is generated using information (eg, additional information, specified information) obtained by sharing (eg, sharing information through two-way communication or one-way communication) the second feature point data).

[第6実施形態]
次に、第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図13は、本実施形態に係る撮像システム1を示すブロック図である。
[Sixth embodiment]
Next, a sixth embodiment will be described. In this embodiment, the same reference numerals are given to the same configurations as in the above-described embodiment, and the description thereof is simplified or omitted. FIG. 13 is a block diagram showing the imaging system 1 according to this embodiment.

本実施形態において、第1撮像装置2aおよび第2撮像装置2bは、モデル統合に使われる情報を相互に通信し、それぞれ、統合モデル情報を算出する。第1撮像装置2aは、例えば、図12を参照して説明した処理により、統合モデル情報を算出する。また、第2撮像装置2bは、例えば第1撮像装置2aと同様の処理を行うことにより、統合モデル情報を算出する。 In this embodiment, the first imaging device 2a and the second imaging device 2b mutually communicate information used for model integration, and respectively calculate integrated model information. The first imaging device 2a calculates integrated model information by the process described with reference to FIG. 12, for example. Also, the second imaging device 2b calculates the integrated model information by, for example, performing the same processing as the first imaging device 2a.

情報処理装置3は、第1撮像装置2aと第2撮像装置2bの少なくとも一方から統合モデル情報を受信し、受信した統合モデル情報を使ってレンダリング処理を実行する。例えば、情報処理装置3の通信部30は、第1撮像装置2aの通信部13aに、統合モデル情報の送信を要求する指令を送信する。第1撮像装置2aの制御部28は、通信部13aを制御し、統合モデル情報のうち指令に指定された項目の情報を、情報処理装置3の通信部30へ送信させる。情報処理装置3は、同様に、第2撮像装置2bに統合モデル情報を送信させることができる。 The information processing device 3 receives integrated model information from at least one of the first imaging device 2a and the second imaging device 2b, and executes rendering processing using the received integrated model information. For example, the communication unit 30 of the information processing device 3 transmits a command requesting transmission of integrated model information to the communication unit 13a of the first imaging device 2a. The control unit 28 of the first imaging device 2 a controls the communication unit 13 a to transmit the information of the item specified in the command among the integrated model information to the communication unit 30 of the information processing device 3 . The information processing device 3 can similarly cause the second imaging device 2b to transmit the integrated model information.

なお、情報処理装置3は、例えば、撮像システム1の各部の負荷情報(例、処理力に対する負荷の割合)を監視し、撮像システム1において相対的に負荷が小さい処理部に、モデル統合に関する処理を割り当ててもよい。例えば、第1撮像装置2aの制御部28は、第1撮像装置2aの負荷情報を生成する。第1撮像装置2aの負荷情報は、例えば、情報算出部12aの負荷情報およびモデル統合部35aの負荷情報を含む。第1撮像装置2aの通信部13aは、第1撮像装置2aの負荷情報を情報処理装置3の通信部30に送信する。同様に、第2撮像装置2bは、第2撮像装置2bの負荷情報を、情報処理装置3の通信部30に送信する。情報処理装置3の制御部33は、受信した負荷情報を元に各部の負荷を比較し、相対的に負荷が少ない処理部に、処理(モデル統合に関する処理)を一方の撮像装置のみに実行させる又は複数の撮像装置に部分的に処理(モデル統合に関する処理)を分担させて実行させる。 Note that the information processing device 3 monitors, for example, load information (eg, ratio of load to processing power) of each unit of the imaging system 1, and assigns processing related to model integration to a processing unit having a relatively small load in the imaging system 1. may be assigned. For example, the control unit 28 of the first imaging device 2a generates load information of the first imaging device 2a. The load information of the first imaging device 2a includes, for example, the load information of the information calculation unit 12a and the load information of the model integration unit 35a. The communication unit 13 a of the first imaging device 2 a transmits the load information of the first imaging device 2 a to the communication unit 30 of the information processing device 3 . Similarly, the second imaging device 2 b transmits load information of the second imaging device 2 b to the communication unit 30 of the information processing device 3 . The control unit 33 of the information processing device 3 compares the load of each unit based on the received load information, and causes the processing unit with the relatively light load to execute processing (processing related to model integration) on only one imaging device. Alternatively, a plurality of imaging devices are caused to partially share processing (processing related to model integration) and execute it.

例えば、制御部33は、第1撮像装置2aのモデル統合部35aの負荷が、第2撮像装置2bのモデル統合部35bの負荷よりも大きいと判定した場合、第1撮像装置2aによるモデル統合の少なくとも一部を制限し、制限した処理を第2撮像装置2bに実行させてもよい。例えば、制御部33は、第1撮像装置2aによる第1付加情報の算出を禁止し、第2撮像装置2bから第1撮像装置2aへ第2付加情報を送信させてもよく、第1撮像装置2aは第2付加情報を使ってモデル統合を行ってもよい。また、例えば、制御部33は、第1撮像装置2aによる担当領域の決定処理を禁止し、第2撮像装置2bから第1撮像装置2aへ担当領域を規定する担当領域情報を送信させてもよく、第1撮像装置2aは担当領域情報を使ってモデル統合を行ってもよい。また、例えば、制御部33は、第1撮像装置2aによるモデル統合を禁止し、第2撮像装置2bから統合モデル情報を受信してもよい。 For example, when the control unit 33 determines that the load of the model integration unit 35a of the first imaging device 2a is larger than the load of the model integration unit 35b of the second imaging device 2b, the model integration by the first imaging device 2a At least a part may be restricted and the restricted processing may be executed by the second imaging device 2b. For example, the control unit 33 may prohibit the calculation of the first additional information by the first imaging device 2a and cause the second imaging device 2b to transmit the second additional information to the first imaging device 2a. 2a may perform model integration using the second additional information. Further, for example, the control unit 33 may prohibit the determination processing of the assigned area by the first imaging device 2a, and transmit the assigned area information defining the assigned area from the second imaging device 2b to the first imaging device 2a. , the first imaging device 2a may perform model integration using the area-in-charge information. Further, for example, the control unit 33 may prohibit model integration by the first imaging device 2a and receive integrated model information from the second imaging device 2b.

なお、制御部33は、情報処理装置3の負荷が、第1撮像装置2aおよび第2撮像装置2bのいずれよりも小さいと判定した場合、第1撮像装置2aと第2撮像装置2bの少なくとも一方のモデル統合処理の少なくとも一部を制限し、制限した処理をモデル統合部45に実行させてもよい。例えば、制御部33は、例えば、第1撮像装置2aおよび第2撮像装置2bのそれぞれによる担当領域の決定処理を禁止し、担当領域の決定処理をモデル統合部45に実行させ、担当領域情報を第1撮像装置2aおよび第2撮像装置2bのそれぞれへ送信させてもよい。また、制御部33は、第1撮像装置2aおよび第2撮像装置2bのそれぞれによるモデル統合の処理を禁止し、情報処理装置3のモデル統合部45にモデル統合の処理を実行させてもよい。 Note that when the control unit 33 determines that the load on the information processing device 3 is smaller than either of the first imaging device 2a and the second imaging device 2b, at least one of the first imaging device 2a and the second imaging device 2b may be restricted at least part of the model integration process of , and the model integration unit 45 may be caused to execute the restricted process. For example, the control unit 33, for example, prohibits the determination processing of the responsible region by each of the first imaging device 2a and the second imaging device 2b, causes the model integration unit 45 to execute the determination processing of the responsible region, and the responsible region information You may make it transmit to each of the 1st imaging device 2a and the 2nd imaging device 2b. Further, the control unit 33 may prohibit the model integration processing by each of the first imaging device 2a and the second imaging device 2b, and cause the model integration unit 45 of the information processing device 3 to execute the model integration processing.

なお、上記の制御部33のように、撮像システム1の負荷の制御と監視の少なくとも一方を実行する負荷制御部(負荷監視部)は、第1撮像装置2a(例、制御部28)に設けられていてもよいし、第2撮像装置2b(例、制御部28)に設けられていてもよい。また、負荷制御部(負荷監視部)は、撮像システム1の外部に設けられていてもよく、撮像システム1に設けられていなくてもよい。 Note that, like the control unit 33 described above, a load control unit (load monitoring unit) that executes at least one of control and monitoring of the load of the imaging system 1 is provided in the first imaging device 2a (eg, the control unit 28). Alternatively, it may be provided in the second imaging device 2b (eg, the control unit 28). Also, the load control section (load monitoring section) may be provided outside the imaging system 1 or may not be provided in the imaging system 1 .

また、例えば、第1撮像装置2aのモデル統合部35a(又は/及び第2撮像装置2bのモデル統合部35b)は、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報を生成する。 In addition, for example, the model integration unit 35a of the first imaging device 2a (or/and the model integration unit 35b of the second imaging device 2b) may obtain model information (eg, first model information, second model information) among a plurality of imaging devices. information) or information obtained by sharing feature point data (e.g., first feature point data, second feature point data) (e.g., sharing information by two-way communication, one-way communication) information) to generate integrated model information.

[第7実施形態]
次に、第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図14は、本実施形態に係る撮像システム1を示すブロック図である。
[Seventh embodiment]
Next, a seventh embodiment will be described. In this embodiment, the same reference numerals are given to the same configurations as in the above-described embodiment, and the description thereof is simplified or omitted. FIG. 14 is a block diagram showing the imaging system 1 according to this embodiment.

本実施形態に係る撮像システム1は、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3を備える。第1撮像装置2aおよび第2撮像装置2bは、それぞれ、統合モデル情報を算出可能である。本実施形態において、情報処理装置3は、モデル統合部を備えていない。情報処理装置3は、第1撮像装置2aと第2撮像装置2bとの少なくとも一方から統合モデル情報を受信し、受信した統合モデル情報を使ってレンダリング処理を実行する。 An imaging system 1 according to the present embodiment includes a first imaging device 2 a, a second imaging device 2 b, and an information processing device 3 . The first imaging device 2a and the second imaging device 2b are each capable of calculating integrated model information. In this embodiment, the information processing device 3 does not include a model integration unit. The information processing device 3 receives integrated model information from at least one of the first imaging device 2a and the second imaging device 2b, and executes rendering processing using the received integrated model information.

図15は、本実施形態に係る撮像システム1の動作を示す図である。以下の説明において、図10などと同等の処理については、同じ符号を付してその説明を省略あるいは簡略化する。第1撮像装置2aは、第1モデル情報を算出し(ステップS31)、第1特徴点データを算出する(ステップS32)。第2撮像装置2bは、第2モデル情報を算出し(ステップS33)、第1特徴点データを算出する(ステップS34)。第1撮像装置2aの通信部13aは、第1特徴点データを第2撮像装置2bの通信部13bに送信し(ステップS60)、通信部13bは、第1特徴点データを受信する(ステップS61)。通信部13bは、第2特徴点データを第1撮像装置2aの通信部13aに送信し(ステップS62)、通信部13aは、第2特徴点データを受信する(ステップS63)。 FIG. 15 is a diagram showing the operation of the imaging system 1 according to this embodiment. In the following description, processing equivalent to that in FIG. 10, etc., will be given the same reference numerals, and the description thereof will be omitted or simplified. The first imaging device 2a calculates first model information (step S31) and calculates first feature point data (step S32). The second imaging device 2b calculates second model information (step S33) and calculates first feature point data (step S34). The communication unit 13a of the first imaging device 2a transmits the first feature point data to the communication unit 13b of the second imaging device 2b (step S60), and the communication unit 13b receives the first feature point data (step S61). ). The communication unit 13b transmits the second feature point data to the communication unit 13a of the first imaging device 2a (step S62), and the communication unit 13a receives the second feature point data (step S63).

第1撮像装置2aの情報算出部12aは、第1特徴点データおよび第2特徴点データを使って、第1付加情報を算出する(ステップS64)。第2撮像装置2bの情報算出部12bは、第1特徴点データおよび第2特徴点データを使って、第2付加情報を算出する(ステップS67)。第1撮像装置2aの通信部13aは、第1付加情報を第2撮像装置2bの通信部13bに送信し(ステップS101)、通信部13bは、第1付加情報を受信する(ステップS102)。通信部13bは、第2付加情報を第1撮像装置2aの通信部13aに送信し(ステップS103)、通信部13aは、第2付加情報を受信する(ステップS104)。 The information calculation unit 12a of the first imaging device 2a calculates first additional information using the first feature point data and the second feature point data (step S64). The information calculation unit 12b of the second imaging device 2b calculates second additional information using the first feature point data and the second feature point data (step S67). The communication unit 13a of the first imaging device 2a transmits first additional information to the communication unit 13b of the second imaging device 2b (step S101), and the communication unit 13b receives the first additional information (step S102). The communication unit 13b transmits the second additional information to the communication unit 13a of the first imaging device 2a (step S103), and the communication unit 13a receives the second additional information (step S104).

第1撮像装置2aのモデル統合部35aは、第1付加情報および第2付加情報を使って、担当領域を決定する(ステップS105)。第1撮像装置2aの情報算出部12aは、第1担当領域の第1モデル情報を抽出する(ステップS106)。第2撮像装置2bのモデル統合部35bは、第1付加情報および第2付加情報を使って、担当領域を決定する(ステップS107)。第2撮像装置2bの情報算出部12bは、第2担当領域の第2モデル情報を抽出する(ステップS108)。 The model integration unit 35a of the first imaging device 2a determines the assigned area using the first additional information and the second additional information (step S105). The information calculation unit 12a of the first imaging device 2a extracts the first model information of the first assigned area (step S106). The model integration unit 35b of the second imaging device 2b determines the assigned area using the first additional information and the second additional information (step S107). The information calculation unit 12b of the second imaging device 2b extracts the second model information of the second assigned area (step S108).

第1撮像装置2aの通信部13aは、第1担当領域の第1モデル情報を第2撮像装置2bの通信部13bに送信し(ステップS109)、通信部13bは、第1担当領域の第1モデル情報を受信する(ステップS110)。通信部13bは、第2担当領域の第2モデル情報を第1撮像装置2aの通信部13aに送信し(ステップS111)、通信部13aは、第2担当領域の第2モデル情報を受信する(ステップS112)。 The communication unit 13a of the first imaging device 2a transmits the first model information of the first coverage area to the communication unit 13b of the second imaging device 2b (step S109), and the communication unit 13b transmits the first model information of the first coverage area. Model information is received (step S110). The communication unit 13b transmits the second model information of the second assigned area to the communication unit 13a of the first imaging device 2a (step S111), and the communication unit 13a receives the second model information of the second assigned area ( step S112).

第1撮像装置2aのモデル統合部35aは、第1担当領域の第1モデル情報および第2担当領域の第2モデル情報を使って、モデル統合を行う(ステップS113)。そして、モデル統合部35aは、統合された統合モデル情報(第1統合モデル情報)をチェックする(ステップS114)。第2撮像装置2bのモデル統合部35bは、第1担当領域の第1モデル情報および第2担当領域の第2モデル情報を使って、モデル統合を行う(ステップS115)。そして、モデル統合部3baは、統合された統合モデル情報(第2統合モデル情報)をチェックする(ステップS116)。 The model integration unit 35a of the first imaging device 2a performs model integration using the first model information of the first assigned area and the second model information of the second assigned area (step S113). Then, the model integration unit 35a checks the integrated model information (first integrated model information) (step S114). The model integration unit 35b of the second imaging device 2b performs model integration using the first model information of the first assigned area and the second model information of the second assigned area (step S115). Then, the model integration unit 3ba checks the integrated model information (second integrated model information) (step S116).

第1撮像装置2aのモデル統合部35aおよび第2撮像装置2bのモデル統合部35bは、それぞれ、統合モデル情報の整合性がとれていないと判定した場合に、例えば、以下の処理を行う。第1撮像装置2aの情報算出部12aは、第1補間情報を抽出する(ステップS117)。第2撮像装置2bの情報算出部12bは、第2補間情報を抽出する(ステップS118)。 The model integration unit 35a of the first imaging device 2a and the model integration unit 35b of the second imaging device 2b perform, for example, the following processing when it is determined that the integrated model information is not consistent. The information calculation unit 12a of the first imaging device 2a extracts the first interpolation information (step S117). The information calculation unit 12b of the second imaging device 2b extracts the second interpolation information (step S118).

第1撮像装置2aの通信部13aは、第1補間情報を第2撮像装置2bの通信部13bに送信し(ステップS119)、通信部13bは、第1補間情報を受信する(ステップS120)。通信部13bは、第2補間情報を第1撮像装置2aの通信部13aに送信し(ステップS121)、通信部13aは、第2補間情報を受信する(ステップS122)。 The communication unit 13a of the first imaging device 2a transmits the first interpolation information to the communication unit 13b of the second imaging device 2b (step S119), and the communication unit 13b receives the first interpolation information (step S120). The communication unit 13b transmits the second interpolation information to the communication unit 13a of the first imaging device 2a (step S121), and the communication unit 13a receives the second interpolation information (step S122).

第1撮像装置2aのモデル統合部35aは、第1補間情報および第2補間情報を使って、補間処理を行う(ステップS123)。モデル統合部35aは、記憶部27aに記憶されている統合モデル情報を、補間処理後の統合モデル情報に更新する(ステップS124)。第2撮像装置2bのモデル統合部35bは、第1補間情報および第2補間情報を使って、補間処理を行う(ステップS125)。モデル統合部35bは、記憶部27bに記憶されている統合モデル情報を、補間処理後の統合モデル情報に更新する(ステップS126)。 The model integration unit 35a of the first imaging device 2a performs interpolation processing using the first interpolation information and the second interpolation information (step S123). The model integrating unit 35a updates the integrated model information stored in the storage unit 27a to the integrated model information after interpolation processing (step S124). The model integration unit 35b of the second imaging device 2b performs interpolation processing using the first interpolation information and the second interpolation information (step S125). The model integration unit 35b updates the integrated model information stored in the storage unit 27b to the integrated model information after interpolation processing (step S126).

情報処理装置3は、第1撮像装置2aから情報を受信する。例えば、情報処理装置3の通信部30は、レンダリング処理に使われる情報の送信を要求する指令を第1撮像装置2aの通信部13aに送信し(ステップS130)、通信部13aは、ステップS130の指令を受信する(ステップS131)。第1撮像装置2aの情報算出部12aは、例えばモデル情報(第1モデル情報または統合モデル情報)から、ステップS130の指令に指定された情報を抽出する(ステップS134)。第1撮像装置2aの通信部13aは、ステップS134で抽出された情報を情報処理装置3の通信部30に送信し(ステップS135)、通信部30は、ステップS134で送信された情報を受信する(ステップS136)。 The information processing device 3 receives information from the first imaging device 2a. For example, the communication unit 30 of the information processing device 3 transmits a command requesting transmission of information used for rendering processing to the communication unit 13a of the first imaging device 2a (step S130). A command is received (step S131). The information calculation unit 12a of the first imaging device 2a extracts the information designated by the command of step S130, for example, from the model information (first model information or integrated model information) (step S134). The communication unit 13a of the first imaging device 2a transmits the information extracted in step S134 to the communication unit 30 of the information processing device 3 (step S135), and the communication unit 30 receives the information transmitted in step S134. (Step S136).

情報処理装置3は、必要に応じて、第2撮像装置2bから情報を受信する。例えば、第2撮像装置2bが保持する情報をレンダリング処理に使う場合に、情報処理装置3の通信部30は、レンダリング処理に使われる情報の送信を要求する指令を第2撮像装置2bの通信部13bに送信し(ステップS132)、通信部13bは、ステップS132の指令を受信する(ステップS133)。第2撮像装置2bの情報算出部12bは、例えばモデル情報(第2モデル情報または統合モデル情報)から、ステップS132の指令に指定された情報を抽出する(ステップS137)。第2撮像装置2bの通信部13bは、ステップS137で抽出された情報を情報処理装置3の通信部30に送信し(ステップS138)、通信部30は、ステップS138で送信された情報を受信する(ステップS139)。 The information processing device 3 receives information from the second imaging device 2b as necessary. For example, when using information held by the second imaging device 2b for rendering processing, the communication unit 30 of the information processing device 3 sends a command requesting transmission of information used for rendering processing to the communication unit of the second imaging device 2b. 13b (step S132), and the communication unit 13b receives the command of step S132 (step S133). The information calculation unit 12b of the second imaging device 2b extracts the information designated by the command of step S132, for example, from the model information (second model information or integrated model information) (step S137). The communication unit 13b of the second imaging device 2b transmits the information extracted in step S137 to the communication unit 30 of the information processing device 3 (step S138), and the communication unit 30 receives the information transmitted in step S138. (Step S139).

情報処理装置3のレンダリング処理部32は、例えば、第1撮像装置2aから受信した情報、及び第2撮像装置2bから受信した情報を使って、レンダリング処理を行う。なお、情報処理装置3は、第2撮像装置2bが保持する情報をレンダリング処理に使わない場合、第2撮像装置2bから情報を受信しなくてもよい。例えば、情報処理装置3の通信部30は、情報の送信を要求する指令を、第2撮像装置2bの通信部13bに送信しなくてもよい。 The rendering processing unit 32 of the information processing device 3 performs rendering processing using, for example, the information received from the first imaging device 2a and the information received from the second imaging device 2b. Note that the information processing device 3 does not need to receive information from the second imaging device 2b when the information held by the second imaging device 2b is not used for rendering processing. For example, the communication unit 30 of the information processing device 3 does not have to transmit the command requesting transmission of information to the communication unit 13b of the second imaging device 2b.

また、例えば、第1撮像装置2aのモデル統合部35aは、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報(第1統合モデル情報)を生成する。例えば、第2撮像装置2bのモデル統合部35bは、複数の撮像装置間におけるモデル情報(例、第1モデル情報、第2モデル情報)又は特徴点データ(例、第1特徴点データ、第2特徴点データ)の共有(例、双方向通信、一方向通信による情報の共有)によって得られた情報(例、付加情報、指定情報)を用いて統合モデル情報(第2統合モデル情報)を生成する。このように、例えば、互いの撮像装置が同一の対象物OBを撮像して各撮像装置における統合モデル情報をそれぞれ生成する場合、複数の撮像装置(例、第1撮像装置2a、第2撮像装置2b)は、各撮像装置において対象物OB全体のモデル統合を分散処理して、統合モデル情報(例、第1統合モデル情報、第2統合モデル情報)をそれぞれ生成するように構成しても良い。この場合、例えば、撮像装置において分散処理されて生成された統合モデル情報は、対象物OBの部分的な統合モデル情報である。このような場合、例えば、分散処理によって生成された第1統合モデル情報は対象物OB全体領域の50%部分に相当する部分的な統合モデルであってもよく、第1統合モデル情報と第2統合モデル情報とが対象物OB全体の統合モデル情報を互いに分担している構成であってもよい。そして、情報処理装置3やレンダリング処理可能な装置などの再生デバイスからの要求に応じて、撮像装置はレンダリングに必要な情報(例、第1統合モデル情報、第2統合モデル情報)を情報処理装置3や再生デバイス等に送信する。 Further, for example, the model integration unit 35a of the first imaging device 2a may combine model information (eg, first model information, second model information) or feature point data (eg, first feature point data, Integrated model information (first integrated model information) using information (eg, additional information, specified information) obtained by sharing (eg, sharing information by two-way communication or one-way communication) of second feature point data) to generate For example, the model integration unit 35b of the second image pickup device 2b may extract model information (e.g., first model information, second model information) or feature point data (e.g., first feature point data, second model information) between a plurality of image pickup devices. Generate integrated model information (second integrated model information) using information (eg, additional information, specified information) obtained by sharing feature point data) (eg, sharing information by two-way communication or one-way communication) do. In this way, for example, when each imaging device images the same object OB and generates integrated model information in each imaging device, a plurality of imaging devices (eg, the first imaging device 2a, the second imaging device 2b) may be configured to perform distributed processing of model integration of the entire object OB in each imaging device and generate integrated model information (eg, first integrated model information, second integrated model information) respectively. . In this case, for example, the integrated model information generated by distributed processing in the imaging device is partial integrated model information of the object OB. In such a case, for example, the first integrated model information generated by distributed processing may be a partial integrated model corresponding to 50% of the entire area of the object OB. The integrated model information may share the integrated model information of the entire object OB with each other. Then, in response to a request from the information processing device 3 or a reproduction device such as a device capable of rendering, the imaging device transmits information necessary for rendering (eg, first integrated model information, second integrated model information) to the information processing device. 3 or a playback device.

[第8実施形態]
次に、第8実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図16は、本実施形態に係る撮像システム1を示すブロック図である。
[Eighth Embodiment]
Next, an eighth embodiment will be described. In this embodiment, the same reference numerals are given to the same configurations as in the above-described embodiment, and the description thereof is simplified or omitted. FIG. 16 is a block diagram showing the imaging system 1 according to this embodiment.

本実施形態において、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3は、いずれも上記したモデル統合部を備えていない。情報処理装置3は、例えば、第1撮像装置2aから受信した情報(例、統合モデル情報)を使って第1のレンダリング処理を実行した後、第2撮像装置2bから受信した情報(例、統合モデル情報)を使って第2のレンダリング処理を実行する。レンダリング処理部32は、例えば、第1のレンダリング処理において、第1の視点から対象物OBを見た第1の推定画像を生成する。レンダリング処理部32は、例えば、第2のレンダリング処理において、第2の視点から対象物OBを見た第2の推定画像を生成する。情報処理装置3は、例えば、第2の推定画像を生成する上で、第1撮像装置2aが保持する情報だけではモデルの欠落を生じる場合に、第2撮像装置2bに情報の送信を要求する。情報処理装置3の通信部30は、例えば、第2のレンダリング処理で使われる情報を、第1のレンダリング処理が行われる期間に順次受信してもよい。 In this embodiment, none of the first imaging device 2a, the second imaging device 2b, and the information processing device 3 includes the above-described model integration unit. For example, the information processing device 3 performs the first rendering process using the information (eg, integrated model information) received from the first imaging device 2a, and then performs the first rendering process, and then performs the information (eg, integrated model information) received from the second imaging device 2b. model information) is used to execute the second rendering process. For example, in the first rendering process, the rendering processing unit 32 generates a first estimated image of the object OB viewed from the first viewpoint. For example, in the second rendering process, the rendering processing unit 32 generates a second estimated image of the object OB viewed from the second viewpoint. For example, in generating the second estimated image, the information processing device 3 requests the transmission of information from the second imaging device 2b when the model is missing only with the information held by the first imaging device 2a. . The communication unit 30 of the information processing device 3 may, for example, sequentially receive information used in the second rendering process while the first rendering process is being performed.

このような構成の場合、例えば、情報処理装置3のレンダリング処理に必要な情報を情報処置装置3が得るために、本実施形態における撮像システム1は、モデル情報或いは付加情報などの情報を受信でき、かつ算出した統合モデル情報などの情報を外部装置に送信できる通信部と、モデル統合処理を行うモデル統合部とを含む情報処理装置(モデル統合処理装置)と、を更に備える。 In such a configuration, for example, the imaging system 1 in this embodiment can receive information such as model information or additional information so that the information processing device 3 can obtain information necessary for rendering processing of the information processing device 3. and an information processing device (model integration processing device) including a communication unit capable of transmitting information such as the calculated integrated model information to an external device, and a model integration unit that performs model integration processing.

なお、第1撮像装置2a、第2撮像装置2b、及び情報処理装置3の少なくとも1つは、モデル統合部を備えていてもよい。例えば、第2撮像装置2bは、モデル統合部を備え、第1撮像装置2aおよび情報処理装置3は、モデル統合部を備えていなくてもよい。この場合、例えば、情報処理装置3は、第1撮像装置2aから受信した情報を使って、上記の第1のレンダリング処理を実行してもよい。また、第2撮像装置2bは、第1のレンダリング処理が行われる期間に、モデル統合処理の少なくとも一部を行ってもよい。また、情報処理装置3は、第1のレンダリング処理後に、第2撮像装置2bから受信した統合モデル情報を使って第2のレンダリング処理を行ってもよい。 At least one of the first imaging device 2a, the second imaging device 2b, and the information processing device 3 may include a model integration unit. For example, the second imaging device 2b may include the model integration unit, and the first imaging device 2a and the information processing device 3 may not include the model integration unit. In this case, for example, the information processing device 3 may use the information received from the first imaging device 2a to perform the first rendering process described above. Also, the second imaging device 2b may perform at least part of the model integration process while the first rendering process is performed. After the first rendering process, the information processing device 3 may perform the second rendering process using the integrated model information received from the second imaging device 2b.

[第9実施形態]
次に、第9実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を簡略化あるいは省略する。図17は、本実施形態に係る撮像システム1を示すブロック図である。
[Ninth Embodiment]
Next, a ninth embodiment will be described. In this embodiment, the same reference numerals are given to the same configurations as in the above-described embodiment, and the description thereof is simplified or omitted. FIG. 17 is a block diagram showing the imaging system 1 according to this embodiment.

本実施形態において、撮像装置2の通信部13は、外部装置(例、第2撮像装置としての撮像装置50)から対象物OBの画像データを受信可能である。撮像装置50は、撮像システム1の一部であってもよいし、撮像システム1の外部の装置であってもよい。撮像装置50は、例えば、撮像装置2のような測距部を備えていない。この場合、撮像装置50は、撮像部51によって撮像された画像のうち視差を有する画像(視差画像)を撮像装置2へ送信する。そして、撮像装置2は、受信した視差画像を用いて撮像装置50のデプス情報を算出する。撮像装置50は、例えば、上記したモデル情報を算出しない。撮像装置50は、例えば、汎用カメラ、スマートフォンなどの高機能携電話、タブレットなどである。 In this embodiment, the communication unit 13 of the imaging device 2 can receive image data of the object OB from an external device (eg, the imaging device 50 as the second imaging device). The imaging device 50 may be a part of the imaging system 1 or may be an external device of the imaging system 1 . The imaging device 50 does not have a distance measuring unit like the imaging device 2, for example. In this case, the imaging device 50 transmits an image having parallax (parallax image) among the images captured by the imaging unit 51 to the imaging device 2 . Then, the imaging device 2 calculates depth information of the imaging device 50 using the received parallax images. The imaging device 50 does not, for example, calculate the model information described above. The imaging device 50 is, for example, a general-purpose camera, a high-performance mobile phone such as a smart phone, a tablet, or the like.

撮像装置50は、例えば、撮像部51、入力部52、記憶部53、表示部54、通信部55、及び制御部56を備える。撮像部51は、例えば、CCDイメージセンサ、CMOSイメージセンサを含み、対象物OBを撮像可能である。記憶部53は、例えば不揮発性メモリを含み、撮像部51が撮像した画像のデータ、各種設定情報を記憶する。入力部52は、例えば、ユーザからの指令などを受ける。表示部54は、例えば、記憶部53に記憶されている画像データ、あるいは各種設定情報が示す画像を表示する。通信部55は、有線または無線により、撮像装置2の通信部13と通信可能である。通信部55は、例えば、撮像部51が撮像した対象物OBの画像のデータを、撮像装置2の通信部13へ送信する。制御部56は、撮像装置50の各部を制御する。 The imaging device 50 includes an imaging unit 51, an input unit 52, a storage unit 53, a display unit 54, a communication unit 55, and a control unit 56, for example. The imaging unit 51 includes, for example, a CCD image sensor and a CMOS image sensor, and is capable of imaging the object OB. The storage unit 53 includes, for example, a non-volatile memory, and stores data of images captured by the imaging unit 51 and various setting information. The input unit 52 receives, for example, commands from the user. The display unit 54 displays, for example, image data stored in the storage unit 53 or images indicated by various setting information. The communication unit 55 can communicate with the communication unit 13 of the imaging device 2 by wire or wirelessly. The communication unit 55 , for example, transmits data of the image of the object OB captured by the imaging unit 51 to the communication unit 13 of the imaging device 2 . The control unit 56 controls each unit of the imaging device 50 .

撮像装置2の情報算出部12は、上述の実施形態で説明したように、検出部11の検出結果を使って第1モデル情報を算出する。また、撮像装置2の情報算出部12は、例えば、撮像部15が撮像した画像、及び/又は撮像装置50から受信した画像(対象物OBの画像データ)を元に、第2モデル情報を算出する。なお、情報算出部12は、第2モデル情報を算出しなくてもよく、例えば、撮像装置50から受信した画像を、補間処理などに使ってもよい。例えば、撮像装置2は、測距部16により第1のデプス情報を検出し、撮像部15が撮像した画像、及び撮像装置50から受信した画像を元に第2のデプス情報を算出し、第2デプス情報を使って第1のデプス情報を補間してもよい。 The information calculation unit 12 of the imaging device 2 calculates the first model information using the detection result of the detection unit 11 as described in the above embodiments. Further, the information calculation unit 12 of the imaging device 2 calculates the second model information based on, for example, the image captured by the imaging unit 15 and/or the image (image data of the object OB) received from the imaging device 50. do. Note that the information calculation unit 12 may not calculate the second model information, and may use, for example, an image received from the imaging device 50 for interpolation processing or the like. For example, the imaging device 2 detects the first depth information by the distance measuring unit 16, calculates the second depth information based on the image captured by the imaging unit 15 and the image received from the imaging device 50, and 2 depth information may be used to interpolate the first depth information.

撮像装置50の通信部55は、有線または無線により、情報処理装置3の通信部30と通信可能である。通信部55は、例えば、レンダリング処理の設定情報(例、推定画像の視点情報)を、情報処理装置3の通信部30に送信する。情報処理装置3のレンダリング処理部32は、例えば、撮像装置2の通信部13から受信したモデル情報、及び撮像装置30の通信部55から受信したレンダリング処理の設定情報を使って、レンダリング処理を行う。情報処理装置30の通信部30は、例えば、レンダリング処理により生成される推定画像のデータを、撮像装置50の通信部55に送信する。撮像装置50の表示部54は、例えば、情報処理装置30からの推定画像のデータを元に、推定画像を表示する。 The communication unit 55 of the imaging device 50 can communicate with the communication unit 30 of the information processing device 3 by wire or wirelessly. The communication unit 55 , for example, transmits setting information for rendering processing (eg, viewpoint information of the estimated image) to the communication unit 30 of the information processing device 3 . The rendering processing unit 32 of the information processing device 3 performs rendering processing using, for example, model information received from the communication unit 13 of the imaging device 2 and setting information for rendering processing received from the communication unit 55 of the imaging device 30. . The communication unit 30 of the information processing device 30 transmits, for example, data of an estimated image generated by rendering processing to the communication unit 55 of the imaging device 50 . The display unit 54 of the imaging device 50 displays the estimated image based on the estimated image data from the information processing device 30, for example.

なお、撮像装置50の通信部55は、情報処理装置3の通信部30と通信しなくてもよい。例えば、通信部55は、レンダリング処理の設定情報を、撮像装置2の通信部13に送信してもよい。通信部13は、撮像装置50の通信部55から受信した設定情報を、情報処理装置3の通信部30に送信してもよい。また、通信部13は、情報処理装置3の通信部30からレンダリング処理の結果を示す推定画像のデータを受信してもよい。通信部13は、情報処理装置3の通信部30から受信した推定画像のデータを、撮像装置50の通信部55に送信してもよい。撮像装置50の表示部54は、撮像装置2からの推定画像のデータを元に、推定画像を表示させてもよい。 Note that the communication unit 55 of the imaging device 50 does not have to communicate with the communication unit 30 of the information processing device 3 . For example, the communication unit 55 may transmit setting information for rendering processing to the communication unit 13 of the imaging device 2 . The communication unit 13 may transmit the setting information received from the communication unit 55 of the imaging device 50 to the communication unit 30 of the information processing device 3 . Further, the communication unit 13 may receive data of an estimated image indicating the result of rendering processing from the communication unit 30 of the information processing device 3 . The communication unit 13 may transmit the estimated image data received from the communication unit 30 of the information processing device 3 to the communication unit 55 of the imaging device 50 . The display unit 54 of the imaging device 50 may display the estimated image based on the estimated image data from the imaging device 2 .

上述した各実施形態の撮像システム1または撮像装置2は、例えば、CGなどを含む映像コンテンツの制作システムあるいは制作支援システムの少なくとも一部であってもよいし、血管や生体組織の可視化撮像システム、生物顕微鏡システム、欠陥検出システム又は物体計測システムの少なくとも一部であってもよい。また、撮像システム1または撮像装置2は、例えば、視野領域への物体、動物などの侵入、あるいは視野領域における物体、動物などの動きを検出する検出システムの少なくとも一部であってもよい。この検出システムは、例えば、セキュリティシステム、介護システム、監視システム、信号機システム、交通量などの統計データを取得する情報取得システムなどであってもよい。また、撮像システム1または撮像装置2は、シミュレータの少なくとも一部であってもよい。このシミュレータは、例えば、撮像装置2がモデルリングした空間(例、部屋)に物体(例、家具)、動物(例、人、ペット)を配置した場合の推定画像を生成してもよい。また、このシミュレータは、撮像装置2がモデルリングした物体、動物を、所定の空間(例、部屋)に配置した場合の推定画像を生成してもよい。 The imaging system 1 or the imaging device 2 of each embodiment described above may be, for example, at least part of a production system or production support system for video content including CG, a visualization imaging system for blood vessels and biological tissues, It may be at least part of a biological microscope system, defect detection system or object metrology system. Also, the imaging system 1 or the imaging device 2 may be at least part of a detection system that detects, for example, the entry of an object, animal, etc. into the viewing area, or the movement of an object, animal, etc. in the viewing area. The detection system may be, for example, a security system, a care system, a surveillance system, a traffic light system, an information acquisition system for acquiring statistical data such as traffic volume, and the like. Also, the imaging system 1 or the imaging device 2 may be at least part of the simulator. This simulator may generate, for example, an estimated image when objects (eg, furniture) and animals (eg, people, pets) are placed in a space (eg, room) modeled by the imaging device 2 . Also, this simulator may generate an estimated image when the object or animal modeled by the imaging device 2 is arranged in a predetermined space (eg, room).

また、上記した各実施形態によれば、本実施形態における撮像システムは、対象物を撮像する第1撮像部及び対象物の表面上の各点からの距離を検出する第1測距部を含む第1検出部と、第1検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第1モデル情報を算出して、第1モデル情報を用いて第1特徴点データを生成する第1情報算出部と、を備える第1撮像装置(2、2a)と、対象物を撮像する第2撮像部及び対象物の表面上の各点からの距離を検出する第2測距部を含む第2検出部と、第2検出部の検出結果を用いて対象物の形状情報およびテクスチャ情報の少なくとも一方を含む第2モデル情報を算出して、第2モデル情報を用いて第2特徴点データを生成する第2情報算出部と、を備える第2撮像装置(2、2b)と、第1撮像装置と第2撮像装置との間におけるデータ通信によって得られる第1特徴点データおよび第2特徴点データを用いて第1モデル情報と第2モデル情報とを統合して対象物の統合モデル情報を生成するモデル統合部(35、45)と、を備える構成であっても良い。このような構成の場合、モデル統合部は、少なくとも第1撮像装置、第2撮像装置、又は情報処理装置のいずれかに設けられてもよいし、別の外部端末(モデル統合処理装置)に設けられても良い。 Further, according to each of the above-described embodiments, the imaging system in this embodiment includes the first imaging unit that images the object and the first distance measuring unit that detects the distance from each point on the surface of the object. calculating first model information including at least one of shape information and texture information of an object using a first detection unit and a detection result of the first detection unit, and using the first model information to obtain first feature point data; a first imaging device (2, 2a) comprising a first information calculation unit that generates a second imaging unit that captures an image of an object; and a second measurement that detects the distance from each point on the surface of the object. Second model information including at least one of shape information and texture information of the object is calculated using a second detection unit including the distance portion and the detection result of the second detection unit, and the second model information is used to calculate the second model information. a second image capturing device (2, 2b) comprising a second information calculation unit that generates two feature point data; and first feature point data obtained by data communication between the first image capturing device and the second image capturing device. and a model integration unit (35, 45) that integrates the first model information and the second model information using the second feature point data to generate integrated model information of the object. . In such a configuration, the model integration unit may be provided in at least one of the first imaging device, the second imaging device, or the information processing device, or may be provided in another external terminal (model integration processing device). It's okay to be

なお、本発明の技術範囲は、上記の実施形態あるいは変形例に限定されるものではない。例えば、上記の実施形態あるいは変形例で説明した要件の1つ以上は、省略されることがある。また、上記の実施形態あるいは変形例で説明した要件は、適宜組み合わせることができる。 It should be noted that the technical scope of the present invention is not limited to the above embodiments or modifications. For example, one or more of the requirements described in the above embodiments or variations may be omitted. Also, the requirements described in the above embodiment or modifications can be combined as appropriate.

なお、撮像システム1が備える撮像装置の数は、3つ以上であってもよい。例えば、撮像システム1は、4台の撮像装置を備え、そのうち2台はモデル統合部を備え、残り2台はモデル統合部を備えていなくてもよい。例えば、モデル統合部を備える撮像装置は、モデル統合部を備えていない撮像装置からモデル情報を受信し、モデル統合を行ってもよい。この場合、第1統合モデル情報と、第2統合モデル情報とが算出され、情報処理装置3は、第1統合モデル情報と第2統合モデル情報とを統合してもよい。なお、本実施形態における撮像装置は、ウェアラブル端末であってもよく、腕や頭などに装着可能な装着部と、音声入力、入力ボタンやタッチ操作が可能な入力部とを本体部にそれぞれ備えていても良い。 Note that the number of imaging devices included in the imaging system 1 may be three or more. For example, the imaging system 1 may include four imaging devices, two of which may include the model integration section and the remaining two may not include the model integration section. For example, an imaging device that includes a model integration unit may receive model information from an imaging device that does not include a model integration unit and perform model integration. In this case, the first integrated model information and the second integrated model information are calculated, and the information processing device 3 may integrate the first integrated model information and the second integrated model information. Note that the imaging device according to the present embodiment may be a wearable terminal, and the main unit includes a mounting unit that can be worn on an arm or head, and an input unit that can perform voice input, input buttons, and touch operations. It's okay to be there.

1・・・撮像システム、2・・・撮像装置、3・・・情報処理装置、11・・・検出部、12・・・情報算出部、13・・・通信部、15・・・撮像部、16・・・測距部、18・・・イメージセンサ、19・・・照射部、21・・・イメージセンサ、
35・・・モデル統合部、OB・・・対象物
DESCRIPTION OF SYMBOLS 1... Imaging system, 2... Imaging device, 3... Information processing apparatus, 11... Detection part, 12... Information calculation part, 13... Communication part, 15... Imaging part , 16... ranging unit, 18... image sensor, 19... irradiation unit, 21... image sensor,
35 ... model integration part, OB ... object

Claims (15)

視野範囲の対象物を検出する検出部と、
前記検出部の検出結果に基づいて、前記対象物の形状情報を生成する情報生成部と、
外部装置からの要求信号を受信するとともに、前記形状情報を前記外部装置に送信する通信部と、を備え、
前記通信部は、前記視野範囲より狭い範囲を指定する前記要求信号を受信し、
前記情報生成部は、前記要求信号により指定される前記範囲の前記形状情報を生成し、
前記通信部は、前記範囲の前記形状情報を送信する、検出装置。
a detection unit that detects an object within a field of view;
an information generation unit that generates shape information of the object based on the detection result of the detection unit;
a communication unit that receives a request signal from an external device and transmits the shape information to the external device;
The communication unit receives the request signal specifying a range narrower than the viewing range,
The information generating unit generates the shape information of the range specified by the request signal,
The detection device, wherein the communication unit transmits the shape information of the range.
前記通信部は、互いに異なる複数の位置から前記対象物を検出して生成される複数の形状情報を統合するために用いられる付加情報を前記外部装置へ送信し、
前記要求信号は、前記付加情報を送信した後に受信される、請求項1に記載の検出装置。
The communication unit transmits to the external device additional information used for integrating a plurality of pieces of shape information generated by detecting the object from a plurality of positions different from each other,
2. The detection device according to claim 1, wherein said request signal is received after transmitting said additional information.
前記付加情報は、互いに異なる複数の位置から前記対象物を検出して生成される複数の前記形状情報の位置関係を示す情報を含む、請求項2に記載の検出装置。 3. The detection device according to claim 2, wherein said additional information includes information indicating a positional relationship between a plurality of pieces of said shape information generated by detecting said object from a plurality of positions different from each other. 前記付加情報は、前記検出部の位置情報を含む、請求項2又は請求項3に記載の検出装置。 4. The detection device according to claim 2, wherein said additional information includes position information of said detection unit. 前記付加情報は、前記検出部の検出のタイミング情報を含む、請求項2から請求項4のいずれか一項に記載の検出装置。 The detection device according to any one of claims 2 to 4, wherein the additional information includes detection timing information of the detection unit. 前記付加情報は、異なる位置から前記対象物を検出する検出装置から受信した情報を用いて生成される、請求項2から請求項5のいずれか一項に記載の検出装置。 The detection device according to any one of claims 2 to 5, wherein the additional information is generated using information received from a detection device that detects the object from different positions. 前記通信部は、前記要求信号で指定されていない範囲の前記形状情報を送信しない、請求項1から請求項6のいずれか一項に記載の検出装置。 The detection device according to any one of claims 1 to 6, wherein said communication unit does not transmit said shape information in a range not specified by said request signal. 前記検出部は、前記対象物上の複数の点までの距離を検出する、請求項1から請求項7のいずれか一項に記載の検出装置。 The detection device according to any one of claims 1 to 7, wherein the detection unit detects distances to a plurality of points on the object. 前記検出部は、前記対象物の画像を検出する、請求項1から請求項8のいずれか一項に記載の検出装置。 The detection device according to any one of claims 1 to 8, wherein the detection unit detects an image of the object. 前記検出部は、前記対象物上の複数の点までの距離と、前記対象物の画像とを検出し、前記対象物の画像の部分領域ごとに前記距離を算出する、請求項1から請求項9のいずれか一項に記載の検出装置。 The detection unit detects distances to a plurality of points on the object and an image of the object, and calculates the distance for each partial area of the image of the object. 10. The detection device according to any one of 9. 対象物の撮像画像及び前記対象物からの距離を検出し、前記対象物の表面の全てではなく一部分についての形状を示す第1形状情報を生成する第1検出装置と、前記対象物の撮像画像及び前記対象物からの距離を検出し、前記対象物の表面の全てではなく一部分についての形状を示す第2形状情報を生成する第2検出装置と、通信する情報処理装置であって、
前記第1形状情報と前記第2形状情報との位置関係を示す付加情報を受信する受信部と、
前記第1形状情報のうち前記付加情報に基づき決定される範囲の前記第1形状情報を要求する要求信号を前記第1検出装置に送信し、前記第2形状情報のうち前記付加情報に基づき決定される範囲の前記第2形状情報を要求する要求信号を前記第2検出装置に送信する送信部と、
を有する情報処理装置。
a first detection device for detecting a captured image of an object and a distance from the object, and generating first shape information indicating a shape of a part, but not all, of a surface of the object; and a captured image of the object. and a second detection device that detects a distance from the object and generates second shape information that indicates a shape of a portion, but not all, of the surface of the object, and an information processing device that communicates,
a receiver that receives additional information indicating a positional relationship between the first shape information and the second shape information;
transmitting a request signal requesting the first shape information within a range determined based on the additional information out of the first shape information to the first detecting device, and determining the range based on the additional information out of the second shape information; a transmission unit that transmits a request signal requesting the second shape information of the range to the second detection device;
Information processing device having
前記付加情報は、前記第1検出装置が前記対象物を検出したタイミングおよび前記第2検出装置が前記対象物を検出したタイミングを含む、請求項11に記載の情報処理装置。 12. The information processing apparatus according to claim 11, wherein said additional information includes timing when said first detection device detects said object and timing when said second detection device detects said object. 対象物を第1の位置から検出し、前記対象物の第1形状情報を生成する第1検出装置と、
前記第1検出装置と通信可能であり、前記対象物を第2の位置から検出し、前記対象物の第2形状情報を生成する第2検出装置と、
前記第1検出装置と前記第2検出装置と通信可能であり、前記第1形状情報と前記第2形状情報とを統合した統合形状情報を生成する情報処理装置を備え、
前記情報処理装置は、前記統合形状情報を生成するのに必要な前記第1形状情報の部分を示す情報を前記第1検出装置へ送信し、前記統合形状情報を生成するのに必要な前記第2形状情報の部分を示す情報を前記第2検出装置へ送信する、システム。
a first detection device for detecting an object from a first position and generating first shape information of the object;
a second detection device communicable with the first detection device for detecting the object from a second position and generating second shape information for the object;
An information processing device that can communicate with the first detection device and the second detection device and generates integrated shape information that integrates the first shape information and the second shape information,
The information processing device transmits information indicating a portion of the first shape information necessary to generate the integrated shape information to the first detection device, and detects the first shape information necessary to generate the integrated shape information. 2. A system for transmitting information indicative of portions of shape information to said second detection device.
前記第1検出装置は、前記第2検出装置が前記対象物を検出して生成される情報を前記第2検出装置から受信する、請求項13に記載のシステム。 14. The system of claim 13, wherein the first detection device receives information from the second detection device generated when the second detection device detects the object. 前記第1検出装置は、前記第2検出装置が前記対象物を検出して生成される情報と、前記第1検出装置が前記対象物を検出して生成される情報と、に基づいて生成される付加情報を前記情報処理装置へ送信し、
前記情報処理装置は、前記付加情報に基づいて前記統合形状情報を生成するのに必要な前記第1形状情報の範囲を決定する、請求項14に記載のシステム。
The first detection device is generated based on information generated when the second detection device detects the object and information generated when the first detection device detects the object. transmitting additional information to the information processing device;
15. The system according to claim 14, wherein said information processing device determines a range of said first shape information necessary to generate said integrated shape information based on said additional information.
JP2023106656A 2018-12-26 2023-06-29 Detection device, information processing device, and system Pending JP2023115289A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023106656A JP2023115289A (en) 2018-12-26 2023-06-29 Detection device, information processing device, and system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018242899A JP2019049572A (en) 2018-12-26 2018-12-26 Imaging device, information processing device, and imaging system
JP2021106940A JP2021144061A (en) 2018-12-26 2021-06-28 Imaging device, information processing device, and imaging system
JP2023106656A JP2023115289A (en) 2018-12-26 2023-06-29 Detection device, information processing device, and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021106940A Division JP2021144061A (en) 2018-12-26 2021-06-28 Imaging device, information processing device, and imaging system

Publications (1)

Publication Number Publication Date
JP2023115289A true JP2023115289A (en) 2023-08-18

Family

ID=65905657

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018242899A Pending JP2019049572A (en) 2018-12-26 2018-12-26 Imaging device, information processing device, and imaging system
JP2021106940A Pending JP2021144061A (en) 2018-12-26 2021-06-28 Imaging device, information processing device, and imaging system
JP2023106656A Pending JP2023115289A (en) 2018-12-26 2023-06-29 Detection device, information processing device, and system

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2018242899A Pending JP2019049572A (en) 2018-12-26 2018-12-26 Imaging device, information processing device, and imaging system
JP2021106940A Pending JP2021144061A (en) 2018-12-26 2021-06-28 Imaging device, information processing device, and imaging system

Country Status (1)

Country Link
JP (3) JP2019049572A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7553329B2 (en) 2020-11-10 2024-09-18 株式会社ミツトヨ Shape measuring device and shape measuring method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2842735B2 (en) * 1992-07-20 1999-01-06 沖電気工業株式会社 Multi-viewpoint three-dimensional image input device, image synthesizing device, and image output device thereof
JP2002031513A (en) * 2000-07-14 2002-01-31 Minolta Co Ltd Three-dimensional measuring device
JP3925057B2 (en) * 2000-09-12 2007-06-06 カシオ計算機株式会社 Camera device, shooting range display system, and shooting range display method
JP2002150315A (en) * 2000-11-09 2002-05-24 Minolta Co Ltd Image processing device and recording medium
JP2004191243A (en) * 2002-12-12 2004-07-08 Institute Of Physical & Chemical Research Automatic photographing system
JP2005215917A (en) * 2004-01-29 2005-08-11 Hitachi Plant Eng & Constr Co Ltd Working drawing creation support method and replacement model creation method
JP2009168536A (en) * 2008-01-15 2009-07-30 Fujifilm Corp Three-dimensional shape measuring device and method, three-dimensional shape regenerating device and method, and program
JP5093053B2 (en) * 2008-10-31 2012-12-05 カシオ計算機株式会社 Electronic camera
US8988437B2 (en) * 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
JP5037660B2 (en) * 2010-09-09 2012-10-03 三菱電機株式会社 Distribution apparatus and information distribution system
JP2012160904A (en) * 2011-01-31 2012-08-23 Sony Corp Information processor, information processing method, program, and imaging apparatus
JP5158223B2 (en) * 2011-04-06 2013-03-06 カシオ計算機株式会社 3D modeling apparatus, 3D modeling method, and program
JP2014132219A (en) * 2011-04-20 2014-07-17 Sanyo Electric Co Ltd Information acquisition device and object detector
JP5022508B1 (en) * 2011-06-02 2012-09-12 三菱重工業株式会社 Shape measurement method
JP2013101464A (en) * 2011-11-08 2013-05-23 Canon Inc Image processing device and image processing method
US20140028799A1 (en) * 2012-07-25 2014-01-30 James Kuffner Use of Color and Intensity Modulation of a Display for Three-Dimensional Object Information

Also Published As

Publication number Publication date
JP2019049572A (en) 2019-03-28
JP2021144061A (en) 2021-09-24

Similar Documents

Publication Publication Date Title
JP6531823B2 (en) Imaging system, imaging apparatus, imaging method, and imaging program
US11580691B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
US20170251143A1 (en) System and method for assisted 3d scanning
US11629950B2 (en) Detection device, detection system, detection method, and storage medium
US10706571B2 (en) Imaging device, image processing device, storage medium, and imaging system
US20150369593A1 (en) Orthographic image capture system
US10936900B2 (en) Color identification using infrared imaging
JP6601489B2 (en) Imaging system, imaging apparatus, imaging method, and imaging program
US20210312647A1 (en) Detecting device, information processing device, detecting method, and information processing program
JP2013254480A (en) Information processing apparatus, and information processing method and program
US11151783B2 (en) Image pickup device, information processing device, and image pickup system
JP2023115289A (en) Detection device, information processing device, and system
JP2023157018A (en) Detection device, information processing device, detection method, detection program, and detection system
JP6787389B2 (en) Detection device, detection system, detection method, information processing device, and processing program
JP2012173916A (en) Imaging device and image processing information generating program
JP2017161370A (en) Detector, detection system, detection method and detection program
JP2010127701A (en) Position measuring apparatus, object to be recognized, and program
JP2021072024A (en) Glossiness acquisition state calculation device, glossiness acquisition state calculation method, glossiness acquisition state calculation program, terminal, and glossiness acquisition state display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240730