JP2016024728A - Information processing device, method for controlling information processing device and program - Google Patents

Information processing device, method for controlling information processing device and program Download PDF

Info

Publication number
JP2016024728A
JP2016024728A JP2014150131A JP2014150131A JP2016024728A JP 2016024728 A JP2016024728 A JP 2016024728A JP 2014150131 A JP2014150131 A JP 2014150131A JP 2014150131 A JP2014150131 A JP 2014150131A JP 2016024728 A JP2016024728 A JP 2016024728A
Authority
JP
Japan
Prior art keywords
shape
image
information processing
contact surface
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014150131A
Other languages
Japanese (ja)
Inventor
武本 和樹
Kazuki Takemoto
和樹 武本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014150131A priority Critical patent/JP2016024728A/en
Publication of JP2016024728A publication Critical patent/JP2016024728A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce time and effort of inputting a three-dimensional shape without providing a constraint in a measurement target object by suppressing decrease in a processing speed.SOLUTION: An information processing device includes an acquisition part for acquiring a picked-up image obtained by imaging a first object and a second object, a first estimation part for estimating the shape of the first object on the basis of the picked-up image, a second estimation part for estimating the shape of a contact surface where the first object comes into contact with the second object on the basis of the shape of the first object, a generation part for generating an image of the shape of the second object on the basis of the shape of the contact surface, and a composition part for compositing the picked-up image and the image of the shape of the second object.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関し、特に、現実物体の3次元形状を入力する技術に関する。   The present invention relates to an information processing apparatus, a control method for the information processing apparatus, and a program, and more particularly to a technique for inputting a three-dimensional shape of a real object.

現実物体の3次元形状をリアルタイムで逐次的に入力する様々な方法が提案されている。近年では、デプス計測可能なデプスセンサにより、デプスセンサの位置姿勢を計測しながらデプス値を空間上にマッピングすることで3次元形状を入力する方法が提案されている。   Various methods for sequentially inputting a three-dimensional shape of a real object in real time have been proposed. In recent years, a method of inputting a three-dimensional shape by mapping a depth value on a space while measuring the position and orientation of the depth sensor by a depth sensor capable of depth measurement has been proposed.

非特許文献1では、デプスセンサで計測された計測値とカラーカメラで得られる画像情報に基づいて、リアルタイムに現実環境に配置された机や壁などの形状を取り込む方法が提案されている。また、デプスセンサを利用する以外にも、カメラで撮影した現実物体の映像(複数画像)から3次元形状を計測する方法も提案されている。   Non-Patent Document 1 proposes a method for capturing a shape such as a desk or a wall arranged in a real environment in real time based on a measurement value measured by a depth sensor and image information obtained by a color camera. In addition to using a depth sensor, a method of measuring a three-dimensional shape from video (a plurality of images) of a real object photographed by a camera has been proposed.

非特許文献2では、カメラで撮影した映像に映り込む物体の画像特徴点を過去のフレームにおける画像の画像特徴点と対応付け、さらに各画像におけるカメラの位置姿勢を推定することで、現実物体の3次元形状を生成する方法が提案されている。さらに、磁気センサなどの現実空間における位置姿勢が計測可能なセンサにより、現実物体の複数点をポインティングすることで、現実物体の3次元形状を入力する方法が提案されている。   In Non-Patent Document 2, an image feature point of an object reflected in an image captured by a camera is associated with an image feature point of an image in a past frame, and further, the position and orientation of the camera in each image are estimated, thereby A method for generating a three-dimensional shape has been proposed. Furthermore, a method of inputting a three-dimensional shape of a real object by pointing a plurality of points of the real object with a sensor capable of measuring the position and orientation in the real space such as a magnetic sensor has been proposed.

特許文献1では、ペン型で磁気センサが内蔵されたスタイラスを利用して、現実物体の3次元位置をポインティングすることで、3次元形状を入力する方法が提案されている。特許文献1では、3次元形状を入力する操作者が、形状を入力したい物体に対して、直接ポインティングし、入力することで直観的な操作で3次元形状を入力させることが可能となっている。   Patent Document 1 proposes a method of inputting a three-dimensional shape by pointing a three-dimensional position of a real object using a pen-type stylus with a built-in magnetic sensor. In Patent Document 1, it is possible for an operator who inputs a three-dimensional shape to directly input a three-dimensional shape by an intuitive operation by pointing and inputting the object to which the shape is to be input. .

上記の3次元形状の入力方法では、3次元形状を計測する工程でカメラ位置姿勢を推定し、逐次的に3次元形状データを出力することができるため、カメラで入力された実写映像に3次元形状をポリゴンや頂点情報などを合成して操作者に提示できる。すなわち、計測された形状がどの程度の精度を持っているのかなどを逐次的に確認することが可能となり、再計測するかどうかの判断を補助することができる。   In the above three-dimensional shape input method, the camera position and orientation can be estimated in the process of measuring the three-dimensional shape, and the three-dimensional shape data can be sequentially output. The shape can be presented to the operator by combining polygons and vertex information. That is, it is possible to sequentially check how much accuracy the measured shape has, and it is possible to assist in determining whether to remeasure.

また、3次元形状データを現実物体映像と重ねることにより、拡張現実感(Augmented Reality)や複合現実感(Mixed Reality)において、現実物体とCGモデルとの衝突表現やCGモデルの現実物体への隠れ(オクルージョン)表現が可能となり、現実感の向上に繋がる。   In addition, by superimposing 3D shape data on the real object image, in the augmented reality or mixed reality, the collision expression between the real object and the CG model and the hiding of the CG model in the real object (Occlusion) expression is possible, leading to an improvement in reality.

特開2004−62758号公報JP 2004-62758 A

Richard A. Newcombe, Shahram Izadi, Otmar Hilliges, David Molyneaux, David Kim, Andrew J. Davison, Pushmeet Kohli, Jamie Shotton, Steve Hodges, and Andrew Fitzgibbon, KinectFusion: Real-Time Dense Surface Mapping and Tracking, in IEEE ISMAR, IEEE, October 2011Richard A. Newcombe, Shahram Izadi, Otmar Hilliges, David Molyneaux, David Kim, Andrew J. Davison, Pushmeet Kohli, Jamie Shotton, Steve Hodges, and Andrew Fitzgibbon, KinectFusion: Real-Time Dense Surface Mapping and Tracking, in IEEE ISMAR, IEEE, October 2011 Pan, Q., Reitmayr, G., Drummond, T.: ProFORMA: Probabilistic Feature-based On-line Rapid Model Acquisition. in Proc. of the 20th British Machine Vision Conference (2009)Pan, Q., Reitmayr, G., Drummond, T .: ProFORMA: Probabilistic Feature-based On-line Rapid Model Acquisition. In Proc. Of the 20th British Machine Vision Conference (2009) Kenichi Hayashi, Hirokazu Kato, Shogo Nishida,Occlusion Detection of Real Objects using Contour Based Stereo Matching, in 15th International Conference on Artificial Reality and Telexistence 2005, Proc. of ICAT 2005 pp.180-186, University of Canterbury, Christchurch, New Zealand, Dec. 2005Kenichi Hayashi, Hirokazu Kato, Shogo Nishida, Occlusion Detection of Real Objects using Contour Based Stereo Matching, in 15th International Conference on Artificial Reality and Telexistence 2005, Proc. Of ICAT 2005 pp.180-186, University of Canterbury, Christchurch, New Zealand , Dec. 2005

しかしながら、非特許文献1の技術では、デプスセンサで得られる3次元形状のモデルが他の手法と比較して高精細になるため、オクルージョン表現に用いるポリゴン数が膨大で描画更新の処理速度が低下する場合がある。   However, in the technique of Non-Patent Document 1, since a three-dimensional shape model obtained by a depth sensor becomes higher definition than other methods, the number of polygons used for occlusion expression is enormous, and the drawing update processing speed decreases. There is a case.

また、非特許文献2の技術では、入力する現実物体の表面に画像特徴点となる模様が必要となり、模様の少ない壁やテーブルなどは3次元形状を入力する対象としては適していない。すなわち、入力可能な現実物体に制約があった。   In the technique of Non-Patent Document 2, a pattern as an image feature point is required on the surface of an input real object, and a wall or a table with few patterns is not suitable as a target for inputting a three-dimensional shape. That is, there are restrictions on the real objects that can be input.

さらに、特許文献1の技術では、簡易的な形状に関しては、数点の位置情報を逐次的に操作者が入力することで簡便に現実物体の3次元形状を入力することができる。しかし、平面位置を指定するためには3点以上のポインティングが必要であり、複数の平面から構成される現実物体の3次元形状を入力するためには手間を要する。さらに、曲面を含む現実物体の3次元形状を入力する場合は、入力すべき頂点数がさらに増えるため、操作者の手間が増大する。   Furthermore, in the technique of Patent Document 1, for a simple shape, the operator can input a three-dimensional shape of a real object simply by sequentially inputting several pieces of position information. However, in order to designate a plane position, three or more points are required, and it takes time and effort to input a three-dimensional shape of a real object composed of a plurality of planes. Furthermore, when inputting a three-dimensional shape of a real object including a curved surface, the number of vertices to be input further increases, which increases the labor of the operator.

本発明は、上記の課題に鑑みてなされたものであり、処理速度の低下を抑制し、計測対象物体に制約を設けることなく、3次元形状の入力の手間を軽減する情報処理装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an information processing apparatus that suppresses a reduction in processing speed and reduces the labor of inputting a three-dimensional shape without restricting a measurement target object. For the purpose.

上記の目的を達成する本発明に係る情報処理装置は、以下の構成を備える。即ち、
第1の物体および第2の物体を撮像した撮像画像を取得する取得手段と、
前記撮像画像に基づいて前記第1の物体の形状を推定する第1の推定手段と、
前記第1の物体の形状に基づいて前記第1の物体が前記第2の物体と接触する接触面の形状を推定する第2の推定手段と、
前記接触面の形状に基づいて前記第2の物体の形状の画像を生成する生成手段と、
前記撮像画像と前記第2の物体の形状の画像とを合成する合成手段と
を備える。
An information processing apparatus according to the present invention that achieves the above object has the following configuration. That is,
Acquisition means for acquiring a captured image obtained by imaging the first object and the second object;
First estimating means for estimating a shape of the first object based on the captured image;
Second estimating means for estimating a shape of a contact surface where the first object contacts the second object based on the shape of the first object;
Generating means for generating an image of the shape of the second object based on the shape of the contact surface;
Synthesis means for synthesizing the captured image and the image of the shape of the second object.

本発明によれば、リアルタイムで逐次的に現実物体の3次元形状を入力する方法において、更新等の処理速度の低下を抑制し、計測対象物体に制約を設けることなく、3次元形状の入力の手間を軽減することができる。   According to the present invention, in a method of sequentially inputting a three-dimensional shape of a real object in real time, it is possible to suppress a decrease in processing speed such as updating, and to input a three-dimensional shape without restricting a measurement target object. Time and effort can be reduced.

本発明の一実施形態における、情報処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the information processing apparatus in one Embodiment of this invention. 本発明の一実施形態における、情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus in one Embodiment of this invention. 本発明の一実施形態における、情報処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of information processing apparatus in one Embodiment of this invention. 本発明の一実施形態における、情報処理装置の接触面の推定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the estimation process of the contact surface of information processing apparatus in one Embodiment of this invention. 本発明の一実施形態における、情報処理装置の3次元形状の記録処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the recording process of the three-dimensional shape of information processing apparatus in one Embodiment of this invention. 本発明の一実施形態における、ステレオ画像に対して背景差分で手の領域を抽出する場合の模式図である。It is a schematic diagram in the case of extracting a hand region with a background difference from a stereo image in an embodiment of the present invention. 本発明の一実施形態における、手の輪郭線上の3次元位置を求めるときの算出方法を説明する模式図である。It is a schematic diagram explaining the calculation method when calculating | requiring the three-dimensional position on the outline of a hand in one Embodiment of this invention. 本発明の一実施形態における、計測対象物体の3次元形状を入力する過程の説明と表示される合成画像の例を示す模式図である。It is a schematic diagram which shows the example of the description of the process which inputs the three-dimensional shape of the measurement object in one Embodiment of this invention, and the composite image displayed.

以下、添付の図面を参照して、本発明の実施の形態について詳述する。本実施形態では、現実物体の3次元形状を入力する方法として、操作者の手の輪郭線の3次元形状をステレオカメラによって推定し、その3次元形状に基づいて手が接触している現実物体の3次元形状を計測して操作者に提示する方法を説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this embodiment, as a method for inputting the three-dimensional shape of a real object, the three-dimensional shape of the contour line of the operator's hand is estimated by a stereo camera, and the real object with which the hand is in contact based on the three-dimensional shape A method for measuring the three-dimensional shape and presenting it to the operator will be described.

<1.情報処理装置の構成>
まず、図1を参照して、本発明の一実施形態に係る情報処理装置200の機能構成を説明する。図1に示すように、情報処理装置200は、画像取得部1000と、画像記憶部1010と、形状推定部1020と、接触面形状推定部1030と、形状記憶部1040と、画像生成部1050と、画像合成部1060とを備えている。
<1. Configuration of information processing apparatus>
First, a functional configuration of an information processing apparatus 200 according to an embodiment of the present invention will be described with reference to FIG. As illustrated in FIG. 1, the information processing apparatus 200 includes an image acquisition unit 1000, an image storage unit 1010, a shape estimation unit 1020, a contact surface shape estimation unit 1030, a shape storage unit 1040, and an image generation unit 1050. And an image composition unit 1060.

画像取得部1000は、撮像装置100および撮像装置110により撮像されたステレオ画像を取得する。撮像装置100および撮像装置110の映像はステレオ計測用の処理画像として用いるため、撮像装置100および撮像装置110は互いに位置関係が固定されているものとする。撮像された映像には、操作者の手150および計測対象物体160が映り込んでいるものとする。   The image acquisition unit 1000 acquires a stereo image captured by the imaging device 100 and the imaging device 110. Since the images of the imaging device 100 and the imaging device 110 are used as processed images for stereo measurement, it is assumed that the positional relationship between the imaging device 100 and the imaging device 110 is fixed. It is assumed that the operator's hand 150 and the measurement target object 160 are reflected in the captured image.

ただし、本発明は、ステレオ画像を取得することに限定されるものではなく、計測対象物体と接触する物体の形状を取得できる方法であれば単眼の画像を用いてもよい。例えば、手の3次元形状が既知で過去に蓄積された教師画像と、画像から抽出された手・指の形状とをマッチングして形状を推定する方法であれば、単眼の画像を用いることが可能である。   However, the present invention is not limited to acquiring a stereo image, and a monocular image may be used as long as it is a method capable of acquiring the shape of an object in contact with a measurement target object. For example, a monocular image may be used if the method is a method for estimating a shape by matching a teacher image in which the three-dimensional shape of a hand is known and accumulated in the past with the shape of a hand / finger extracted from the image. Is possible.

画像記憶部1010は、画像取得部1000により取得された映像を取得して一時的に記憶する。画像取得部1000から画像記憶部1010へ、例えば1/30秒で画像データが送信される。ただし、形状推定部1020〜画像生成部1050までの各処理部での処理で利用した画像を画像合成部1060に入力する必要がある。画像生成部1050により生成された3次元形状の画像と画像記憶部1010の画像とが同期された状態で、画像合成部1060によりこれらの画像を合成するためである。そのため、画像記憶部1010は、画像の同期を実現するために、画像合成部1060の処理が終了した時点で、画像取得部1000から新しい画像を取得する。   The image storage unit 1010 acquires and temporarily stores the video acquired by the image acquisition unit 1000. Image data is transmitted from the image acquisition unit 1000 to the image storage unit 1010 in 1/30 seconds, for example. However, it is necessary to input the image used in the processing in each processing unit from the shape estimation unit 1020 to the image generation unit 1050 to the image synthesis unit 1060. This is because the image synthesizing unit 1060 synthesizes these images in a state in which the image of the three-dimensional shape generated by the image generating unit 1050 and the image of the image storage unit 1010 are synchronized. Therefore, the image storage unit 1010 acquires a new image from the image acquisition unit 1000 when the processing of the image composition unit 1060 is completed in order to realize image synchronization.

形状推定部1020は、画像記憶部1010に記憶されているステレオ画像を取得し、手150の形状を表わす輪郭線上のサンプリング点における3次元位置、すなわち、手の輪郭線の3次元形状を算出する。手150の輪郭線の3次元形状の算出方法については後述する。   The shape estimation unit 1020 acquires a stereo image stored in the image storage unit 1010, and calculates the three-dimensional position at the sampling point on the contour line representing the shape of the hand 150, that is, the three-dimensional shape of the hand contour line. . A method for calculating the three-dimensional shape of the contour line of the hand 150 will be described later.

接触面形状推定部1030は、形状推定部1020から出力された手150の輪郭線の3次元形状と、操作者のキーボード207からの入力とを取得して、計測対象物体160と手150とが接触している接触面を推定する。接触面の推定方法については後述する。   The contact surface shape estimation unit 1030 acquires the three-dimensional shape of the contour line of the hand 150 output from the shape estimation unit 1020 and the input from the operator's keyboard 207, and the measurement target object 160 and the hand 150 are obtained. Estimate the contact surface in contact. A method for estimating the contact surface will be described later.

形状記憶部1040は、接触面形状推定部1030から出力された接触面と、過去に接触面から作成された計測対象物体160の3次元形状とを接合し、更新された計測対象物体の3次元形状を生成して記憶する。   The shape storage unit 1040 joins the contact surface output from the contact surface shape estimation unit 1030 and the three-dimensional shape of the measurement target object 160 created from the contact surface in the past, and updates the three-dimensional measurement target object. Generate and store the shape.

画像生成部1050は、形状記憶部1040に記憶された計測対象物体160の3次元形状を取得し、当該取得した情報に基づいて撮像装置100および撮像装置110の視点位置姿勢における3次元形状の画像を生成する。   The image generation unit 1050 acquires the three-dimensional shape of the measurement target object 160 stored in the shape storage unit 1040, and based on the acquired information, the three-dimensional shape image at the viewpoint position and orientation of the imaging device 100 and the imaging device 110. Is generated.

画像合成部1060は、画像記憶部1010に記憶されている撮像装置100と撮像装置110の夫々の画像に対して、画像生成部1050により生成された計測対象物体160の3次元形状の夫々の画像を合成する。生成された合成画像は、ディスプレイ208に出力されて、操作者に視覚的に提示される。   The image composition unit 1060 is configured to generate images of the three-dimensional shapes of the measurement target object 160 generated by the image generation unit 1050 with respect to the images of the imaging device 100 and the imaging device 110 stored in the image storage unit 1010. Is synthesized. The generated composite image is output to the display 208 and visually presented to the operator.

図2は、本実施形態に係る情報処理装置200のハードウェア構成の一例を示すブロック図である。201はCPU、202は画像取り込み器、203は記憶媒体、204はROM、205はRAM、206はマウス、207はキーボード、208はディスプレイである。   FIG. 2 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus 200 according to the present embodiment. Reference numeral 201 denotes a CPU, 202 denotes an image capturing device, 203 denotes a storage medium, 204 denotes a ROM, 205 denotes a RAM, 206 denotes a mouse, 207 denotes a keyboard, and 208 denotes a display.

図2に示したハードウェア構成は例えば通常のパーソナルコンピュータの構成と同等である。画像取り込み器202には、撮像装置100および撮像装置110が接続されている。画像取り込み器202は撮像装置100及び110で撮影された画像をコンピュータ内に取り込むものであり、画像取得部1000に対応する。画像取り込み器202は例えばビデオキャプチャボードである。撮像装置100および撮像装置110で撮像された画像をコンピュータ内に取り込むものであれば何でもよい。CPU201は、記憶媒体203、ROM204またはRAM205、あるいは不図示の外部記憶装置等に保存されているプログラムを読み出して実行する。それにより、画像記憶部1010、形状推定部1020、接触面形状推定部1030、画像生成部1050、画像合成部1060として機能する。また夫々の処理部は、記憶媒体203に情報を保存し、あるいは記憶媒体203から情報を読み出す。この場合、記憶媒体203から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   The hardware configuration shown in FIG. 2 is the same as that of a normal personal computer, for example. The image capturing device 202 is connected to the image capturing apparatus 100 and the image capturing apparatus 110. The image capturing device 202 captures images captured by the imaging devices 100 and 110 into a computer, and corresponds to the image acquisition unit 1000. The image capturing device 202 is, for example, a video capture board. Any device that captures images captured by the imaging device 100 and the imaging device 110 into the computer may be used. The CPU 201 reads and executes a program stored in the storage medium 203, ROM 204 or RAM 205, or an external storage device (not shown). Accordingly, the image storage unit 1010, the shape estimation unit 1020, the contact surface shape estimation unit 1030, the image generation unit 1050, and the image composition unit 1060 function. Each processing unit stores information in the storage medium 203 or reads information from the storage medium 203. In this case, the program code itself read from the storage medium 203 realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

また、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   In addition, the operating system (OS) running on the computer may perform part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments may be realized by the processing. Needless to say, it is included.

さらに、記憶媒体203から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに含まれるCPU201などが実際の処理の一部または全部を行い、その処理によって本実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, the program code read from the storage medium 203 is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU 201 included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the present embodiment is realized by the processing. Needless to say.

<2.情報処理装置の処理フロー>
次に、図3のフローチャートを参照して、本実施形態に係る情報処理装置200が実施する処理の手順を説明する。
<2. Processing flow of information processing apparatus>
Next, with reference to the flowchart of FIG. 3, the procedure of the process which the information processing apparatus 200 which concerns on this embodiment implements is demonstrated.

ステップS3010において、画像取得部1000は、撮像装置100および撮像装置110から画像(ステレオ画像)を取得する。ステップS3020において、画像記憶部1010は、画像取得部1000により取得された画像を一時的にメモリに記録する。   In step S3010, the image acquisition unit 1000 acquires images (stereo images) from the imaging device 100 and the imaging device 110. In step S3020, the image storage unit 1010 temporarily records the image acquired by the image acquisition unit 1000 in the memory.

ステップS3030において、形状推定部1020は、ステレオ画像に映り込んだ手150の領域を抽出し、輪郭線を求めて輪郭線の3次元形状を取得する。輪郭線の3次元形状を取得するためには、例えば、非特許文献3で提示されている手法を用いればよい。以下、輪郭線の3次元形状を取得する処理の詳細を説明する。   In step S3030, the shape estimation unit 1020 extracts the region of the hand 150 reflected in the stereo image, obtains the contour line, and acquires the three-dimensional shape of the contour line. In order to acquire the three-dimensional shape of the contour line, for example, the technique presented in Non-Patent Document 3 may be used. Hereinafter, the details of the process of acquiring the three-dimensional shape of the contour line will be described.

(1)図6に示される手150が撮像されたステレオ画像501、502の夫々の画像について、手150の領域150A、150Bを背景差分で分離する。   (1) For each of the stereo images 501 and 502 in which the hand 150 shown in FIG. 6 is captured, the regions 150A and 150B of the hand 150 are separated by the background difference.

(2)背景差分で抽出された手150の輪郭線150A、150Bをトレースし、ラベル付けを実施する。   (2) Trace the contour lines 150A and 150B of the hand 150 extracted by the background difference, and perform labeling.

(3)左右のステレオ画像501、502の夫々の画像で、輪郭線が囲む領域の重心位置を算出し、一方の画像の重心位置に対応する、他方の画像上のエピポーラ線上に重心位置が近い輪郭線を決定する。   (3) In each of the left and right stereo images 501, 502, the center of gravity position of the region surrounded by the outline is calculated, and the center of gravity position is close to the epipolar line on the other image corresponding to the center of gravity position of one image. Determine the contour line.

(4)片方の画像の輪郭線においてサンプリング点を決定し、他方の画像の対応付けられた輪郭線とエピポーラ線との交点を決定して対応付けを行う。   (4) A sampling point is determined on the contour line of one image, and an intersection point between the contour line and the epipolar line associated with the other image is determined and associated.

(5)事前に校正した撮像装置100および撮像装置110のカメラパラメータと、各画像501、502で対応付けられたサンプリング点の画像座標値610、620(図7参照)から三角測量の原理を利用して、サンプリング点の3次元位置630を求める。カメラパラメータは、焦点距離、主点位置、レンズ歪み係数、左右カメラの相対位置姿勢等を含むパラメータである。   (5) Use the principle of triangulation from the camera parameters of the imaging device 100 and the imaging device 110 calibrated in advance and the image coordinate values 610 and 620 (see FIG. 7) of the sampling points associated with the images 501 and 502. Then, the three-dimensional position 630 of the sampling point is obtained. The camera parameters are parameters including a focal length, a principal point position, a lens distortion coefficient, a relative position and orientation of the left and right cameras, and the like.

(6)すべてのサンプリング点に対して(5)の処理を実行し、輪郭線上におけるサンプリング点の3次元位置を求め、輪郭線の3次元形状635として出力する。   (6) The processing of (5) is executed for all sampling points, the three-dimensional positions of the sampling points on the contour line are obtained, and output as the three-dimensional shape 635 of the contour line.

例えば、図8(a)に示す計測対象物体160に対して、手150を接触させたときにキーボード207で接触面形状の推定を指示すると、図8(b)の輪郭線の3次元形状635に示すような3次元点群が出力される。   For example, when the estimation of the contact surface shape is instructed with the keyboard 207 when the hand 150 is brought into contact with the measurement target object 160 shown in FIG. 8A, the three-dimensional shape 635 of the contour line in FIG. A three-dimensional point group as shown in FIG.

ただし、(1)の背景差分による抽出処理では手150以外のノイズ形状も出力される可能性があるため、3次元形状635として出力する頂点は、(2)でラベル付けされた輪郭線のうち、最も輪郭線が長い物体の3次元頂点のみを出力するものとする。   However, since the noise shape other than the hand 150 may be output in the extraction process based on the background difference in (1), the vertex output as the three-dimensional shape 635 is the contour line labeled in (2). Suppose that only the three-dimensional vertex of the object with the longest contour is output.

ただし、本発明は、形状推定部1020が非特許文献3の手法を利用することに限定されるものではなく、計測対象物体160と接触する現実物体の3次元形状を求められる方法であれば適用可能である。例えば、計測対象物体160に柔軟性のある布を接触させ、布の表面のテクスチャを利用して3次元形状を求めてもよい。   However, the present invention is not limited to using the method of Non-Patent Document 3 by the shape estimation unit 1020, and can be applied to any method that can obtain the three-dimensional shape of a real object that contacts the measurement target object 160. Is possible. For example, a flexible cloth may be brought into contact with the measurement target object 160, and the three-dimensional shape may be obtained using the texture of the cloth surface.

ステップS3040において、接触面形状推定部1030は、形状推定部1020により推定された輪郭線の3次元形状から、手150が計測対象物体160と接触している面の3次元形状を推定する。接触面の3次元形状の算出については、図4のフローチャートを参照して後述する。   In step S3040, the contact surface shape estimation unit 1030 estimates the 3D shape of the surface where the hand 150 is in contact with the measurement target object 160 from the 3D shape of the contour estimated by the shape estimation unit 1020. The calculation of the three-dimensional shape of the contact surface will be described later with reference to the flowchart of FIG.

ステップS3050において、形状記憶部1040は、接触面形状推定部1030から取得した接触面の3次元形状に基づいて、形状記憶部1040に記憶されている3次元形状の情報を更新する。ステップS3060において、画像生成部1050は、形状記憶部1040に記憶されている計測対象物体の3次元形状を取得し、ワイヤフレームでレンダリングする。   In step S3050, the shape storage unit 1040 updates the three-dimensional shape information stored in the shape storage unit 1040 based on the three-dimensional shape of the contact surface acquired from the contact surface shape estimation unit 1030. In step S3060, the image generation unit 1050 acquires the three-dimensional shape of the measurement target object stored in the shape storage unit 1040 and renders it with a wire frame.

ただし、本発明は、画像生成部1050が計測対象物体の3次元形状をワイヤフレームでレンダリングすることに限定されるものではなく、操作者が3次元形状を実写映像と合成したときの一致度を確認できる表示方法であれば適用可能である。例えば、ワイヤフレーム表示に加えて内部を半透明の色で塗りつぶしてもよい。また、CGモデルと現実物体の合成表示時のCGモデルのオクルージョン表現の状態を確認する場合は、3次元形状を透明度100%のポリゴンでレンダリングすればよい。すなわち、現実物体の画像上に透明なポリゴンが描画されるため、現実物体の3次元形状の奥に配置されたCGモデルは、透明ポリゴンにより隠れて表示されなくなり、オクルージョン表現が可能となる。   However, the present invention is not limited to the image generation unit 1050 rendering the three-dimensional shape of the measurement target object with a wire frame, and the degree of coincidence when the operator combines the three-dimensional shape with the live-action image. Any display method that can be confirmed is applicable. For example, in addition to the wire frame display, the inside may be filled with a translucent color. In order to check the state of the occlusion expression of the CG model when the CG model and the real object are combined and displayed, the three-dimensional shape may be rendered with a polygon having a transparency of 100%. That is, since a transparent polygon is drawn on the image of the real object, the CG model arranged behind the three-dimensional shape of the real object is not hidden and displayed by the transparent polygon, and occlusion expression is possible.

ステップS3070において、画像合成部1060は、画像記憶部1010に記憶されているステレオ画像と、画像生成部1050により生成された現実物体の3次元形状の画像とを合成した合成画像を生成する。   In step S3070, the image composition unit 1060 generates a composite image obtained by combining the stereo image stored in the image storage unit 1010 and the three-dimensional shape image of the real object generated by the image generation unit 1050.

ステップS3080において、画像合成部1060は、合成画像をディスプレイ208へ出力して提示させる提示制御部として機能する。以上で図3のフローチャートの各処理が終了する。   In step S3080, the image composition unit 1060 functions as a presentation control unit that outputs the composite image to the display 208 and presents it. Thus, each process of the flowchart of FIG. 3 is completed.

<3.接触面推定処理の詳細>
次に、図4のフローチャートを参照して、ステップS3040の接触面推定処理の詳細について説明する。ステップS4000において、接触面形状推定部1030は、操作者からキーボード207を介して入力を受け付ける。操作者は、手150が計測対象物体160に接触していることを認識したうえでキーボード入力し、情報処理装置200に3次元形状の記録を指示する。また、過去のフレームで取得した3次元形状が形状記憶部1040に記憶されている場合は、ディスプレイ208に表示されている計測対象物体160と3次元形状との合成画像を観察しながら、取得位置を調整しつつ記録する指示を出すことができる。操作者がキーボード207を介して接触面の記録の指示を行った場合は、ステップS4010に処理を移す。現在のフレーム(取得されたステレオ画像)では接触面を記録しない場合は、処理を終了する。
<3. Details of the contact surface estimation process>
Next, details of the contact surface estimation processing in step S3040 will be described with reference to the flowchart of FIG. In step S4000, the contact surface shape estimation unit 1030 receives input from the operator via the keyboard 207. The operator recognizes that the hand 150 is in contact with the measurement target object 160 and inputs the keyboard, and instructs the information processing apparatus 200 to record a three-dimensional shape. When the 3D shape acquired in the past frame is stored in the shape storage unit 1040, the acquisition position is obtained while observing the composite image of the measurement target object 160 displayed on the display 208 and the 3D shape. It is possible to issue an instruction to record while adjusting. If the operator gives an instruction to record the contact surface via the keyboard 207, the process proceeds to step S4010. If the contact surface is not recorded in the current frame (acquired stereo image), the process ends.

なお、本発明は、接触面の形状を記録するタイミングを操作者がキーボードを利用して入力することに限定されるものではなく、操作者の記録のタイミングを指示できるインタフェースであれば適用可能である。例えば、マウスのクリックや、撮像画像に映る操作者のもう片方の手のジェスチャを認識して接触面形状推定部1030に指示を行うようにしてもよい。   Note that the present invention is not limited to the operator inputting the timing for recording the shape of the contact surface using a keyboard, but can be applied to any interface that can instruct the recording timing of the operator. is there. For example, the contact surface shape estimation unit 1030 may be instructed by recognizing a mouse click or a gesture of the other hand of the operator shown in the captured image.

ステップS4010において、接触面形状推定部1030は、形状推定部1020により推定された輪郭線の3次元形状を取得する。ステップS4020において、接触面形状推定部1030は、ステップS4010で取得された輪郭線の3次元形状に近接する近接平面を推定する。輪郭線の3次元形状に近接する平面は、3次元形状を構成している複数の3次元頂点位置と平面が最小になるような平面のパラメータを最小二乗近似式で求めればよい。ここで、平面のパラメータとは、平面の方程式ax+by+cz=1のa,b,cの法線ベクトルを指す。   In step S4010, the contact surface shape estimation unit 1030 acquires the three-dimensional shape of the contour line estimated by the shape estimation unit 1020. In step S4020, the contact surface shape estimation unit 1030 estimates a proximity plane that is close to the three-dimensional shape of the contour line acquired in step S4010. For the plane close to the three-dimensional shape of the contour line, a plurality of three-dimensional vertex positions constituting the three-dimensional shape and the plane parameters that minimize the plane may be obtained by a least square approximation expression. Here, the plane parameter refers to a normal vector of a, b, c of the plane equation ax + by + cz = 1.

ただし、本発明は、近接する平面を推定する方法として、最小二乗近似の方法を用いることに限定されるものではなく、輪郭線の3次元形状に近い平面を算出できる方法であれば適用可能である。   However, the present invention is not limited to using the method of least square approximation as a method of estimating adjacent planes, and can be applied to any method that can calculate a plane close to the three-dimensional shape of the contour line. is there.

ステップS4030において、接触面形状推定部1030は、手150の輪郭線の3次元形状に外接する直方体を求め、ステップS4020で推定された近接平面との交線を導出して手150の平面領域を決定する。まず、輪郭線の3次元形状に外接する直方体は、3次元形状を構成する複数の3次元頂点位置が取り得るX座標値、Y座標値、Z座標値の最大値と最小値を用いて直方体の頂点位置を求めればよい。また、直方体と近接平面との交線は、直方体を構成する6平面の式を算出し、6平面と近接平面との交線を求めて、直方体の表面に乗る線分を抽出すればよい。さらに、求めた複数の線分の交点を近接する平面領域の頂点として一時的に記録する。   In step S4030, the contact surface shape estimation unit 1030 obtains a cuboid circumscribing the three-dimensional shape of the contour of the hand 150, derives a line of intersection with the proximity plane estimated in step S4020, and determines the plane region of the hand 150. decide. First, a cuboid circumscribing the three-dimensional shape of the contour line is a cuboid using the maximum and minimum values of the X coordinate value, the Y coordinate value, and the Z coordinate value that can be taken by a plurality of three-dimensional vertex positions constituting the three-dimensional shape. What is necessary is just to obtain | require the vertex position of. Further, the intersection line between the rectangular parallelepiped and the proximity plane may be calculated by calculating the formula of six planes constituting the rectangular parallelepiped, obtaining the intersection line between the six planes and the proximity plane, and extracting the line segment on the surface of the rectangular parallelepiped. Further, the intersections of the obtained plurality of line segments are temporarily recorded as the apexes of the adjacent planar area.

ただし、本発明は、平面領域を設定するために、外接する直方体を求めて直方体と近接平面の交線から平面領域を求めることに限定されるものではなく、手150の輪郭線の3次元形状に近い平面領域を算出できる方法であれば適用可能である。   However, the present invention is not limited to obtaining a circumscribed rectangular parallelepiped and obtaining a planar region from the intersection line of the rectangular parallelepiped and the adjacent plane in order to set the planar region, but the three-dimensional shape of the contour line of the hand 150 Any method can be applied as long as it can calculate a plane region close to.

ステップS4040において、接触面形状推定部1030は、ステップS4030決定された近接平面領域に対して輪郭線の3次元頂点位置を制御点としてベジエパッチを生成し、曲面を定義する。ベジエパッチは、ベジエ曲線を二つのパラメータ(u,v)で表現した曲面の表現方法の一つである。ベジエパッチで定義する曲面は、手150の輪郭線の複数の3次元頂点位置に近接する曲面(以後、近接曲面と呼ぶ)となっている。   In step S4040, the contact surface shape estimation unit 1030 generates a Bezier patch using the three-dimensional vertex position of the contour line as a control point for the proximity plane region determined in step S4030, and defines a curved surface. The Bezier patch is one method of expressing a curved surface in which a Bezier curve is expressed by two parameters (u, v). The curved surface defined by the Bezier patch is a curved surface close to a plurality of three-dimensional vertex positions of the contour line of the hand 150 (hereinafter referred to as a proximity curved surface).

なお、本発明は、ベジエパッチを用いて曲面を求めることに限定されるものではなく、手150の輪郭線の近接曲面を生成可能な手法であれば適用可能である。例えばBスプライン曲面によって曲面を定義してもよい。   The present invention is not limited to obtaining a curved surface using a Bezier patch, but can be applied to any method that can generate a close curved surface of the contour of the hand 150. For example, the curved surface may be defined by a B-spline curved surface.

ステップS4050において、接触面形状推定部1030は、手150の輪郭線付近に生成した近接曲面を、接触していると想定される面方向に平行移動する。これにより、手150の厚みの影響で、ステレオ画像計測される輪郭線と接触する面とに生じる誤差を低減することができる。接触していると想定される面方向は、例えば、ステップS4040で求めた直方体のうち面積が最大となる2面の法線うち、撮像装置100および撮像装置110の視軸方向と相対角度が小さい法線を接触面の方向ベクトルとして選択する。すなわち、手150を広げて計測対象物体160と接触させていることを想定し、ステレオ画像には映らない手のひら側にオフセット移動させることを想定する。例えば、手150の厚みを考慮してオフセット移動量は1cmとし、前述した接触面の方向ベクトルに沿って近接曲面を平行移動させることで接触面と近接平面とを近づける。ただし、本発明は、オフセット移動量を1cmにすることに限定されるものではなく、接触させる物体と接触面との差が減少するオフセット量であれば適用可能である。さらに平行移動だけではなく、回転による姿勢の変更を加えてもよい。   In step S4050, the contact surface shape estimation unit 1030 translates the proximity curved surface generated near the contour line of the hand 150 in the surface direction assumed to be in contact. Thereby, the error which arises in the surface which contacts the outline measured by a stereo image under the influence of the thickness of the hand 150 can be reduced. The surface direction assumed to be in contact has a small relative angle to the visual axis direction of the imaging device 100 and the imaging device 110, for example, among the normals of the two surfaces having the largest area among the rectangular parallelepiped obtained in step S4040. Select the normal as the direction vector of the contact surface. That is, it is assumed that the hand 150 is spread out and brought into contact with the measurement target object 160 and is offset to the palm side that is not reflected in the stereo image. For example, in consideration of the thickness of the hand 150, the offset movement amount is 1 cm, and the contact surface and the proximity plane are brought closer by translating the proximity curved surface along the direction vector of the contact surface described above. However, the present invention is not limited to setting the offset movement amount to 1 cm, and can be applied as long as the offset amount reduces the difference between the object to be contacted and the contact surface. Further, not only the parallel movement but also the posture change by rotation may be added.

ステップS4060において、接触面形状推定部1030は、ベジエパッチで表現されている近接曲面の(u,v)パラメータに定数を入力し、近接平面上の3次元位置を算出することで、ポリゴン化を行う。入力する(u,v)のパラメータは、例えば、uとvをそれぞれ、0から1の間を0.2間隔で指定し、各方向に5等分指定すればよい。このように、近接平面をポリゴン化するときに、高精細な情報にならないように制御することで、非特許文献1の方法を利用した場合のような処理速度の低下を防ぐことができる。近接曲面のポリゴン頂点が生成できたら、形状記憶部1040に近接曲面を「接触面の形状情報」として出力し、処理を終了する。なお、本発明は、uとvをそれぞれから1の間を0.2間隔で指定することに限定されるものではない。実行する装置の処理性能に応じて間隔を調整してもよい。以上で図4のフローチャートの各処理が終了する。   In step S4060, the contact surface shape estimation unit 1030 performs polygonization by inputting a constant to the (u, v) parameter of the proximity curved surface expressed by a Bezier patch and calculating a three-dimensional position on the proximity plane. . For the parameters of (u, v) to be input, for example, u and v may each be specified between 0 and 1 at 0.2 intervals and specified in 5 equal parts in each direction. As described above, when the proximity plane is made into a polygon, by controlling so as not to obtain high-definition information, it is possible to prevent a decrease in processing speed as in the case of using the method of Non-Patent Document 1. When the polygon vertices of the proximity curved surface can be generated, the proximity curved surface is output as “contact surface shape information” to the shape storage unit 1040, and the processing is terminated. The present invention is not limited to designating u and v between 1 and 0.2 at intervals of 0.2. The interval may be adjusted according to the processing performance of the device to be executed. Thus, the processes in the flowchart of FIG. 4 are completed.

<4.3次元形状の記録処理の詳細>
さらに、図5のフローチャートを参照して、ステップS3050の3次元形状の記録処理の詳細を説明する。ステップS5000において、形状記憶部1040は、接触面形状推定部1030から出力された接触面の形状情報が形状記憶部1040に入力されたか否かを判定する。入力された場合はステップS5010に処理を移す。入力されていなかった場合は処理を終了する。
<4. Details of 3D shape recording process>
Further, details of the three-dimensional shape recording process in step S3050 will be described with reference to the flowchart of FIG. In step S5000, the shape storage unit 1040 determines whether or not the contact surface shape information output from the contact surface shape estimation unit 1030 is input to the shape storage unit 1040. If input, the process proceeds to step S5010. If not entered, the process is terminated.

ステップS5010において、形状記憶部1040は、接触面形状推定部1030から入力された接触面の形状情報を読み込む。ステップS5020において、形状記憶部1040は、過去のフレームで算出された計測対象物体160の3次元形状の3次元頂点位置と、接触面の3次元頂点位置との各々の距離を算出する。算出した各々の頂点の距離リストから、例えば上位5点の対応点同士を一時的に記憶する。   In step S5010, the shape storage unit 1040 reads the contact surface shape information input from the contact surface shape estimation unit 1030. In step S5020, the shape storage unit 1040 calculates the distance between the three-dimensional vertex position of the three-dimensional shape of the measurement target object 160 calculated in the past frame and the three-dimensional vertex position of the contact surface. For example, the top five corresponding points are temporarily stored from the calculated vertex distance list.

ステップS5030において、形状記憶部1040は、ステップS5020で求めた上位5点の対応点同士を直線で接続する。なお、本発明は上位5点の対応点を直線で結ぶことに限定されるものではなく、操作者が制御可能にしてもよい。ステップS5040において、形状記憶部1040は、接続した形状を、更新した3次元形状として記録する。以上で図5のフローチャートの各処理が終了する。   In step S5030, the shape storage unit 1040 connects the corresponding upper five points obtained in step S5020 with straight lines. The present invention is not limited to connecting the corresponding points of the top five points with straight lines, and may be controlled by the operator. In step S5040, the shape storage unit 1040 records the connected shape as an updated three-dimensional shape. Thus, the processes in the flowchart of FIG. 5 are completed.

以上の処理により、計測対象物体160の3次元形状は、入力された接触面の情報を追加していくことにより、より広範囲になっていく。例えば、図8(a)に示すような計測対象物体160に、図8(b)のように操作者が手150を接触させ、操作者がキーボード207を介して入力指示を行うことで、3次元形状700が生成される。さらに、図8(c)のように時間経過後の別のフレームで、操作者が別の場所で計測対象物体160に手150を接触させ、操作者がキーボード207を介して入力指示を行うことにより、3次元形状710が既存の3次元形状700と接触面同士が接合され、新たな3次元形状として保存される。   Through the above processing, the three-dimensional shape of the measurement target object 160 becomes wider by adding the input information of the contact surface. For example, when the operator touches the measurement target object 160 as shown in FIG. 8A with the hand 150 as shown in FIG. 8B and the operator gives an input instruction via the keyboard 207, 3 A dimensional shape 700 is generated. Further, as shown in FIG. 8C, in another frame after the elapse of time, the operator causes the hand 150 to contact the measurement target object 160 in another place, and the operator gives an input instruction via the keyboard 207. As a result, the three-dimensional shape 710 is joined to the existing three-dimensional shape 700 and the contact surfaces are joined, and stored as a new three-dimensional shape.

このようにして保存された3次元形状は、画像生成部1050、画像合成部1060の処理を経て、ディスプレイ208に合成画像として提示される。操作者は、現在の計測対象物体160の3次元形状が、計測対象物体160の実画像に合成されて表示されるため、どの領域を埋めれば、より計測対象物体160に近づけられるかを判断できる。   The three-dimensional shape stored in this manner is presented as a composite image on the display 208 through the processing of the image generation unit 1050 and the image synthesis unit 1060. Since the three-dimensional shape of the current measurement target object 160 is combined with the actual image of the measurement target object 160 and displayed, the operator can determine which region should be filled closer to the measurement target object 160. .

また、計測対象物体160に対して、操作者が自身の手150を接触させることで計測できるため、計測対象物体160の表面に模様がなくても形状を入力することができる。さらに、複雑な形状に対して膨大な頂点数を入力する必要がなく、手150を計測対象物体160上で滑らせながら入力指示をしていくだけで、概略的な形状を入力することができるため手間が少ない。   In addition, since the operator can measure the measurement target object 160 by bringing his / her hand 150 into contact with the measurement target object 160, the shape can be input even if there is no pattern on the surface of the measurement target object 160. Furthermore, it is not necessary to input a huge number of vertices for a complicated shape, and it is possible to input a rough shape simply by performing an input instruction while sliding the hand 150 on the measurement target object 160. Less effort.

(変形例1:曲面ではなく平面を接触面とする)
上述の実施形態では、ステップS4040において接触面形状推定部1030が曲面を推定して近接曲面を生成し、接触面の3次元形状として出力した。しかし、本発明は、接触面として曲面を生成することに限定されるものではなく、平面を用いてもよい。
(Modification 1: A flat surface, not a curved surface, is used as a contact surface)
In the above-described embodiment, the contact surface shape estimation unit 1030 generates a proximity curved surface by estimating the curved surface in step S4040 and outputs it as a three-dimensional shape of the contact surface. However, the present invention is not limited to generating a curved surface as the contact surface, and a flat surface may be used.

平面を用いる場合、接触面形状推定部1030の処理手順を示す図4のフローチャートにおけるステップS4040とステップS4060の処理が異なる部分である。それ以外の構成や処理については、上述の実施形態と同一の処理を行えばよい。   In the case where a plane is used, the processing of step S4040 and step S4060 in the flowchart of FIG. 4 showing the processing procedure of the contact surface shape estimation unit 1030 is different. Other configurations and processes may be the same as those in the above-described embodiment.

具体的には、変形例1の接触面形状推定部1030の処理は、図4で示すフローチャートのステップS4040とステップS4060の処理を除外して、ステップS4030で取得された近接平面領域をそのまま接触面の形状として出力すればよい。   Specifically, the processing of the contact surface shape estimation unit 1030 according to the first modification excludes the processing of step S4040 and step S4060 in the flowchart shown in FIG. 4 and uses the proximity plane region acquired in step S4030 as it is as the contact surface. It may be output as the shape.

(変形例2:接触面は1つの形状として接合せず、独立の接触面として記録する)
上述の実施形態では、ステップS5030において、形状記憶部1040が、入力された接触面と既存の3次元形状との近接点を探索し、接合する処理を実施していた。
(Modification 2: The contact surface is not joined as one shape, but is recorded as an independent contact surface)
In the above-described embodiment, in step S5030, the shape storage unit 1040 searches for a proximity point between the input contact surface and the existing three-dimensional shape, and performs a process of joining.

ただし、本発明は、追加で入力される接触面の3次元形状を1つの連続した3次元形状として、接合しながら追加することに限定されるものではない。複数の平面または曲面から3次元形状を構成してもよい。   However, the present invention is not limited to adding the three-dimensional shape of the additionally input contact surface as one continuous three-dimensional shape while joining. A three-dimensional shape may be composed of a plurality of planes or curved surfaces.

複数の接触面の形状を3次元形状として記録するためには、上述の実施形態の形状記憶部1040の処理手順を示す図5のフローチャートにおけるステップS5020およびステップS5030の処理を除外して、入力された接触面の3次元形状を接合せずに3次元形状として追加すればよい。その他の構成や処理は、上述の実施形態と同様である。   In order to record the shape of a plurality of contact surfaces as a three-dimensional shape, it is input by excluding the processing of step S5020 and step S5030 in the flowchart of FIG. 5 showing the processing procedure of the shape storage unit 1040 of the above-described embodiment. The three-dimensional shape of the contact surface may be added as a three-dimensional shape without joining. Other configurations and processes are the same as those in the above-described embodiment.

(変形例3:両手を使って接触面を記録する)
上述の実施形態では、操作者が片方の手150を撮像装置100および撮像装置110が撮像することで接触面を算出する方法を例示した。ただし、本発明は、片方の手だけを観察して接触面を推定することに限定されるものではなく、両手の情報を利用して接触面を推定してもよい。
(Variation 3: Record the contact surface using both hands)
In the above-described embodiment, the method in which the operator calculates the contact surface by imaging the one hand 150 by the imaging device 100 and the imaging device 110 is illustrated. However, the present invention is not limited to estimating the contact surface by observing only one hand, and the contact surface may be estimated using information on both hands.

広い平面を持つ現実物体を計測対象物体160として入力したい場合は、両手の情報を利用して接触面を推定することにより、ステップS4020において接触面形状推定部1030が実施する近接平面の推定処理の精度を向上させられる可能性がある。また、同時に2つの接触面を推定することできるため、操作者が入力する手間が軽減される。   When it is desired to input a real object having a wide plane as the measurement target object 160, the contact plane estimation process performed by the contact plane shape estimation unit 1030 in step S4020 is performed by estimating the contact plane using information on both hands. The accuracy may be improved. In addition, since two contact surfaces can be estimated at the same time, the trouble of inputting by the operator is reduced.

具体的には、上述の実施形態の処理のうち、形状推定部1020の手の輪郭線の3次元形状635を算出する処理において、複数の物体の輪郭線を出力できるようにすればよい。例えば、上述の実施形態では、ステップS3030の処理で線が最も長い輪郭線を選択して出力していたが、線が二番目に長い輪郭線についても出力すればよい。すなわち、画像上に映りこむ2つの手は、他のノイズ物体の輪郭線よりも大きく映り込んでいるという前提を用いて両手を抽出する。ステップS3030以外の構成と処理については、上述の実施形態と同様である。   Specifically, in the process of the above-described embodiment, the process of calculating the three-dimensional shape 635 of the hand outline of the shape estimation unit 1020 may be configured to output the outlines of a plurality of objects. For example, in the above-described embodiment, the contour line with the longest line is selected and output in the process of step S3030, but the contour line with the second longest line may be output. That is, both hands are extracted using the premise that the two hands reflected in the image are reflected larger than the outline of the other noise object. The configuration and processing other than step S3030 are the same as those in the above-described embodiment.

以上説明したように、本発明によれば、リアルタイムで逐次的に現実物体の3次元形状を入力する方法において、更新等の処理速度の低下を抑制し、計測対象物体に制約を設けることなく、3次元形状の入力の手間を軽減することができる。   As described above, according to the present invention, in the method of sequentially inputting the three-dimensional shape of a real object in real time, it is possible to suppress a decrease in processing speed such as update without limiting the measurement target object, It is possible to reduce the trouble of inputting a three-dimensional shape.

また、本発明によれば、実写画像と3次元形状の画像との合成画像を、ディスプレイで操作者に提示しながら3次元形状を入力させることができるため、操作者は、現状の3次元形状と計測対象物体の部位との一致度をリアルタイムに確認できる。すなわち、操作者はどの部位を優先的に入力すればよいかを判断できるため、比較的少ない工数で計測対象物体の3次元形状を入力完了させることができる。   In addition, according to the present invention, since the composite image of the live-action image and the three-dimensional shape image can be input to the operator while presenting the operator with the display, the operator can input the current three-dimensional shape. And the degree of coincidence between the measurement target object and the part of the measurement object can be confirmed in real time. That is, since the operator can determine which part should be preferentially input, the input of the three-dimensional shape of the measurement target object can be completed with a relatively small number of man-hours.

さらに、本発明によれば、比較的少ない工数で対象とする現実物体の3次元形状入力が可能となるため、設置準備に時間が取れない状況での複合現実感(以下、MRと略す)のアプリケーションでも、現実感の向上を実現できる。すなわち、MRアプリケーションにおける現実物体とCGモデルとの衝突表現や、CGモデルの現実物体への隠れ(オクルージョン)表現に用いる3次元形状の事前準備が短縮されるため、適用シーンを広げることが可能になる。   Furthermore, according to the present invention, since it is possible to input a three-dimensional shape of a target real object with a relatively small number of man-hours, mixed reality (hereinafter abbreviated as MR) in a situation where it takes time to prepare for installation. Even in applications, realism can be improved. In other words, since the pre-preparation of the three-dimensional shape used for the collision expression between the real object and the CG model in the MR application and the hidden (occlusion) expression of the CG model on the real object is shortened, the application scene can be expanded. Become.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

200:情報処理装置、1000:画像取得部、1010:画像記憶部、1020:形状推定部、1030:接触面形状推定部、1040:形状記憶部、1050:画像生成部、1060:画像合成部   200: Information processing device 1000: Image acquisition unit 1010: Image storage unit 1020: Shape estimation unit 1030: Contact surface shape estimation unit 1040: Shape storage unit 1050: Image generation unit 1060: Image synthesis unit

Claims (13)

第1の物体および第2の物体を撮像した撮像画像を取得する取得手段と、
前記撮像画像に基づいて前記第1の物体の形状を推定する第1の推定手段と、
前記第1の物体の形状に基づいて前記第1の物体が前記第2の物体と接触する接触面の形状を推定する第2の推定手段と、
前記接触面の形状に基づいて前記第2の物体の形状の画像を生成する生成手段と、
前記撮像画像と前記第2の物体の形状の画像とを合成する合成手段と
を備えることを特徴とする情報処理装置。
Acquisition means for acquiring a captured image obtained by imaging the first object and the second object;
First estimating means for estimating a shape of the first object based on the captured image;
Second estimating means for estimating a shape of a contact surface where the first object contacts the second object based on the shape of the first object;
Generating means for generating an image of the shape of the second object based on the shape of the contact surface;
An information processing apparatus comprising: a combining unit that combines the captured image and an image of the shape of the second object.
操作者の指示を受け付ける入力手段をさらに備え、
前記第2の推定手段は、前記入力手段により受け付けられた前記操作者の指示に基づいて、前記接触面の形状を推定することを特徴とする請求項1に記載の情報処理装置。
It further comprises an input means for receiving an operator's instruction,
The information processing apparatus according to claim 1, wherein the second estimation unit estimates the shape of the contact surface based on an instruction from the operator received by the input unit.
前記第1の推定手段は、前記第1の物体の輪郭線の3次元形状を推定することを特徴とする請求項1又は2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first estimation unit estimates a three-dimensional shape of a contour line of the first object. 前記第2の推定手段は、前記第1の物体の輪郭線の3次元形状に近接する面を導出して当該面を平行移動することで前記接触面の形状を推定することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。   The second estimation means derives a surface close to the three-dimensional shape of the contour line of the first object and estimates the shape of the contact surface by translating the surface. Item 4. The information processing apparatus according to any one of Items 1 to 3. 前記生成手段は、前記第2の推定手段により推定された1又は複数の接触面の形状に基づいて、前記第2の物体の3次元形状の画像を生成することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。   The generation unit generates a three-dimensional image of the second object based on the shape of one or a plurality of contact surfaces estimated by the second estimation unit. 5. The information processing apparatus according to any one of 4. 前記生成手段は、前記第2の推定手段により推定された複数の接触面同士を接合して前記第2の物体の3次元形状の画像を生成することを特徴とする請求項5に記載の情報処理装置。   The information according to claim 5, wherein the generation unit generates a three-dimensional image of the second object by joining a plurality of contact surfaces estimated by the second estimation unit. Processing equipment. 前記第1の物体は操作者の手であることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first object is an operator's hand. 前記接触面は曲面であることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the contact surface is a curved surface. 前記接触面は平面であることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the contact surface is a flat surface. 前記撮像画像はステレオ画像であることを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the captured image is a stereo image. 前記合成手段により合成された前記撮像画像と前記第2の物体の形状の画像とをディスプレイに提示させる提示制御手段をさらに備えることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。   11. The display control unit according to claim 1, further comprising a presentation control unit that causes a display to present the captured image synthesized by the synthesis unit and an image of the shape of the second object. Information processing device. 情報処理装置の制御方法であって、
取得手段が、第1の物体および第2の物体を撮像した撮像画像を取得する工程と、
第1の推定手段が、前記撮像画像に基づいて前記第1の物体の形状を推定する工程と、
第2の推定手段が、前記第1の物体の形状に基づいて前記第1の物体が前記第2の物体と接触する接触面の形状を推定する工程と、
生成手段が、前記接触面の形状に基づいて前記第2の物体の形状の画像を生成する工程と、
合成手段が、前記撮像画像と前記第2の物体の形状の画像とを合成する工程と
を有することを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus,
An obtaining unit obtaining a captured image obtained by imaging the first object and the second object;
First estimating means estimating the shape of the first object based on the captured image;
A second estimating unit estimating a shape of a contact surface on which the first object contacts the second object based on a shape of the first object;
A step of generating an image of the shape of the second object based on the shape of the contact surface;
A method for controlling the information processing apparatus, comprising: a step of synthesizing the captured image and an image of the shape of the second object.
請求項12に記載の情報処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the control method for the information processing apparatus according to claim 12.
JP2014150131A 2014-07-23 2014-07-23 Information processing device, method for controlling information processing device and program Pending JP2016024728A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014150131A JP2016024728A (en) 2014-07-23 2014-07-23 Information processing device, method for controlling information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014150131A JP2016024728A (en) 2014-07-23 2014-07-23 Information processing device, method for controlling information processing device and program

Publications (1)

Publication Number Publication Date
JP2016024728A true JP2016024728A (en) 2016-02-08

Family

ID=55271412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014150131A Pending JP2016024728A (en) 2014-07-23 2014-07-23 Information processing device, method for controlling information processing device and program

Country Status (1)

Country Link
JP (1) JP2016024728A (en)

Similar Documents

Publication Publication Date Title
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
EP2915140B1 (en) Fast initialization for monocular visual slam
JP5773944B2 (en) Information processing apparatus and information processing method
JP5248806B2 (en) Information processing apparatus and information processing method
JP6723061B2 (en) Information processing apparatus, information processing apparatus control method, and program
US10733798B2 (en) In situ creation of planar natural feature targets
KR101410273B1 (en) Method and apparatus for environment modeling for ar
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP6955369B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP7379065B2 (en) Information processing device, information processing method, and program
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
CN110310325B (en) Virtual measurement method, electronic device and computer readable storage medium
JP2014106642A (en) Ar system using optical see-through type hmd
JP5518677B2 (en) Virtual information giving apparatus and virtual information giving program
JP2008070319A (en) Object measurement device and method
JP4926598B2 (en) Information processing method and information processing apparatus
JP7029253B2 (en) Information processing equipment and its method
US10798360B2 (en) Information processing system, method for controlling same, and program
JP2021009557A (en) Information processing device, information processing method, and program
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP6581348B2 (en) Information processing apparatus, information processing method, and program
JP2016024728A (en) Information processing device, method for controlling information processing device and program
JP7321029B2 (en) CALIBRATION DEVICE AND ITS CONTROL METHOD, PROGRAM AND STORAGE MEDIUM
JP6948363B2 (en) Information processing equipment, information processing methods, and programs
WO2023054661A1 (en) Gaze position analysis system and gaze position analysis method