JP6704700B2 - Image processing apparatus, control method thereof, and program - Google Patents

Image processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP6704700B2
JP6704700B2 JP2015187438A JP2015187438A JP6704700B2 JP 6704700 B2 JP6704700 B2 JP 6704700B2 JP 2015187438 A JP2015187438 A JP 2015187438A JP 2015187438 A JP2015187438 A JP 2015187438A JP 6704700 B2 JP6704700 B2 JP 6704700B2
Authority
JP
Japan
Prior art keywords
data
dimensional data
image processing
image
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015187438A
Other languages
Japanese (ja)
Other versions
JP2016115332A (en
Inventor
佳弘 水尾
佳弘 水尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US14/963,887 priority Critical patent/US9998724B2/en
Publication of JP2016115332A publication Critical patent/JP2016115332A/en
Application granted granted Critical
Publication of JP6704700B2 publication Critical patent/JP6704700B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置およびその制御方法ならびにプログラムに関し、特に3次元データの変換技術に関する。 The present invention relates to an image processing device, a control method therefor, and a program, and more particularly to a conversion technique for three-dimensional data.

従来、撮像画像の各画素エリアに対する距離を測定し、3次元データを取得する方法が知られている。例えば、特許文献1には、レーザーによる距離の測定と撮影画像とを組み合わせて、効果的に3次元データを取得する方法が開示されている。 Conventionally, a method is known in which the distance to each pixel area of a captured image is measured and three-dimensional data is acquired. For example, Patent Document 1 discloses a method for effectively acquiring three-dimensional data by combining distance measurement by a laser and a captured image.

特開2004−037396号公報JP, 2004-037396, A

ところで、近年、3Dプリント等と称する、物体の3次元データを入力すると当該物体の3次元形状を造形物として出力可能な技術が普及しつつある。3次元形状の造形物の出力が容易になって家庭等に普及すると、特定の種類の3次元形状データにおいては、元のデータのままの形状で縮尺あるいは倍尺を変えるだけではニーズに合っていない出力物体ができることが考えられる。 By the way, in recent years, a technique called 3D printing, which can output the three-dimensional shape of the object as a modeled object, is becoming popular. If the output of 3D shaped objects becomes easy and spreads in households, it is possible to meet the needs of a particular type of 3D shape data by simply changing the scale or scale of the original data. It is possible that there is no output object.

本発明は、上述の従来技術の問題点に鑑みてなされ、造形物を出力させるための3次元の形状データを、造形物に適した縮尺あるいは倍尺で変形することが可能な画像処理装置およびその制御方法ならびにプログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems of the conventional art, and an image processing apparatus capable of transforming three-dimensional shape data for outputting a modeled object at a scale or a double scale suitable for the modeled object. It is intended to provide a control method and a program therefor.

この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、物体を含む空間を描写する3次元データを取得する取得手段と、3次元データの所定方向の位置のデータを、物体の存在する位置に応じてそれぞれ位置を変換する変換手段と、所定方向の位置が変換された3次元データを出力する出力手段と、を有し、前記変換手段は、複数の物体が存在する場合、当該複数の物体の存在しない空間に対応する範囲の位置のデータを、当該複数の物体が存在する空間に対応する範囲の位置のデータに比べて大きな圧縮率で変換する、ことを特徴とする。 In order to solve this problem, for example, the image processing apparatus of the present invention has the following configuration. That is, an acquisition unit that acquires three-dimensional data representing a space including an object, a conversion unit that converts the position data of the three-dimensional data in a predetermined direction, and a conversion unit that converts the position according to the position where the object exists, and the predetermined direction. possess an output means for the position of the outputs of the three-dimensional data transformed, wherein the conversion means, if multiple objects are present, the data of the position of the range corresponding to spaces without the plurality of objects It is characterized in that the conversion is performed with a larger compression rate than the data of the position in the range corresponding to the space in which the plurality of objects exist .

本発明によれば、造形物を出力させるための3次元の形状データを、造形物に適した縮尺あるいは倍尺で変形することが可能になる。 According to the present invention, it is possible to transform three-dimensional shape data for outputting a modeled object at a scale or a double scale suitable for the modeled object.

本発明に係る3次元データの変換処理を適用すべき課題を説明する図The figure explaining the subject which should apply the conversion process of the three-dimensional data which concerns on this invention. 実施形態1に係る画像処理装置の一例としてのデジタルカメラ200の機能構成例を示すブロック図FIG. 3 is a block diagram showing a functional configuration example of a digital camera 200 as an example of the image processing apparatus according to the first embodiment. 実施形態1に係る3次元データの変換処理の一連の動作を示すフローチャート3 is a flowchart showing a series of operations of conversion processing of three-dimensional data according to the first embodiment. 実施形態1に係る主要物体の範囲の検出処理を説明する図FIG. 6 is a diagram illustrating a detection process of a range of a main object according to the first embodiment. 実施形態1に係る3次元データの奥行方向の圧縮を説明する図FIG. 3 is a diagram illustrating compression in the depth direction of three-dimensional data according to the first embodiment. 実施形態1に係る3次元データのデータフォーマットの例Example of data format of three-dimensional data according to the first embodiment 実施形態1に係るポリゴン情報による3次元データの奥行方向の圧縮を説明する図FIG. 3 is a diagram illustrating compression in the depth direction of three-dimensional data using polygon information according to the first embodiment. 実施形態1に係る変形例としての3次元データの奥行方向の圧縮を説明する図FIG. 3 is a diagram illustrating compression of three-dimensional data in a depth direction as a modified example according to the first embodiment. 実施形態2に係る3次元データの変換処理の一連の動作を示すフローチャート3 is a flowchart showing a series of operations of conversion processing of three-dimensional data according to the second embodiment. 実施形態2における主要物体およびサブ主要物体の範囲の検出処理を説明する図FIG. 6 is a diagram illustrating a detection process of a range of a main object and a sub-main object in the second embodiment 実施形態2に係る3次元データの奥行方向の圧縮を説明する図FIG. 5 is a diagram illustrating compression of three-dimensional data in the depth direction according to the second embodiment. 実施形態3に係る3次元データの変換処理の一連の動作を示すフローチャート3 is a flowchart showing a series of operations of conversion processing of three-dimensional data according to the third embodiment. 実施形態3に係る主要物体の範囲の検出処理を説明する図FIG. 8 is a diagram illustrating a detection process of a range of a main object according to the third embodiment. 実施形態3に係る3次元データの奥行方向の圧縮を説明する図FIG. 6 is a diagram illustrating compression of three-dimensional data in the depth direction according to the third embodiment. 実施形態3に係る奥行方向と垂直平面方向の大きさの補正処理を説明する図7A and 7B are diagrams illustrating a size correction process in a depth direction and a vertical plane direction according to a third embodiment. 実施形態3に係る主要物体範囲の検出方法を説明する図FIG. 6 is a diagram illustrating a method of detecting a main object range according to the third embodiment.

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では画像処理装置の一例として、被写体の3次元形状の計測(3Dスキャンともいう)が可能な構成を備えたデジタルカメラに本発明を適用した例を説明する。しかし、本発明でいう画像処理装置は、被写体の3次元形状の計測が可能な構成に限らず、計測した3次元の形状データを取得可能な任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. An example in which the present invention is applied to a digital camera having a configuration capable of measuring a three-dimensional shape of a subject (also referred to as 3D scanning) will be described below as an example of an image processing apparatus. However, the image processing device according to the present invention is not limited to the configuration capable of measuring the three-dimensional shape of the subject, and can be applied to any electronic device capable of acquiring the measured three-dimensional shape data. These electronic devices may include, for example, a mobile phone, a game machine, a tablet terminal, a personal computer, a clock-type or eyeglass-type information terminal, and the like.

(デジタルカメラ200の構成)
図2は、本実施形態の画像処理装置の一例としてデジタルカメラ200の機能構成例を示すブロック図である。なお、図2に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Structure of digital camera 200)
FIG. 2 is a block diagram showing a functional configuration example of a digital camera 200 as an example of the image processing apparatus of this embodiment. Note that one or more of the functional blocks illustrated in FIG. 2 may be implemented by hardware such as an ASIC or a programmable logic array (PLA), or by a programmable processor such as a CPU or MPU executing software. May be. Also, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the main subject of operation, the same hardware can be mainly implemented.

撮像部201は、複数の撮像光学系と撮像素子によって構成され、それぞれの撮像光学系と撮像素子によって得られる視差画像を出力する。撮像部201の内部に備えられる撮像素子は、1つの撮像光学系により結像された被写体光学像を、2次元に配置された複数の画素を構成する複数の光電変換素子で受光し、画素ごとに光電変換してアナログ信号を出力する。撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子であってよい。撮像素子は、タイミングジェネレータにより供給されるタイミング信号に従って、画素ごとのアナログ信号を出力する。各撮像素子から出力された各像のアナログ信号はそれぞれA/D変換され、視差を有するデジタルの画像データ(視差画像データ)として出力される。制御部206は、撮像部201から出力された視差画像データを用いて視差情報を取得し、当該視差情報に基づいて被写体である物体の3次元の形状データ(以降、単に3次元データともいう)を算出する。なお、1つの撮像素子により、例えば全有効画素のひとつひとつの画素を独立した複数のフォトダイオードで構成し、撮像光学系の複数の異なる瞳領域の光束をそれぞれ受光させる構成であってもよい。異なる瞳領域の光束に対応する画像データは互いに視差を有する画像データであり、上記視差画像データと同様に、異なる瞳領域に対応する1対の画像信号から奥行き方向のデータを取得することができる。またこのようにすれば、1つの撮像光学系を用いて視差画像データを得ることができる。 The image pickup unit 201 includes a plurality of image pickup optical systems and image pickup elements, and outputs parallax images obtained by the respective image pickup optical systems and image pickup elements. The image pickup device provided inside the image pickup unit 201 receives the subject optical image formed by one image pickup optical system by a plurality of photoelectric conversion elements forming a plurality of two-dimensionally arranged pixels, and receives each pixel. Photoelectrically converted to and output an analog signal. The image pickup device may be an image pickup device such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The image sensor outputs an analog signal for each pixel according to the timing signal supplied by the timing generator. The analog signal of each image output from each image sensor is A/D converted and output as digital image data having parallax (parallax image data). The control unit 206 acquires parallax information using the parallax image data output from the imaging unit 201, and based on the parallax information, three-dimensional shape data of an object as a subject (hereinafter, also simply referred to as three-dimensional data). To calculate. It should be noted that one image sensor may be used to configure, for example, each pixel of all effective pixels by a plurality of independent photodiodes to receive the light fluxes of a plurality of different pupil regions of the imaging optical system. Image data corresponding to light fluxes in different pupil regions are image data having parallax with each other, and like the parallax image data, data in the depth direction can be acquired from a pair of image signals corresponding to different pupil regions. .. Further, with this configuration, parallax image data can be obtained using one imaging optical system.

画面表示部202は、3次元データを取得中に撮像部201から出力された画像を表示するほか、既に取得した形状データに関する情報(既スキャン情報)、撮像画像等の確認を行う。 The screen display unit 202 displays the image output from the image capturing unit 201 during the acquisition of the three-dimensional data, and confirms the information (already scanned information) regarding the already acquired shape data, the captured image, and the like.

画面操作部203は、例えば画面表示部202の表示面上に配置されており、ユーザによる例えば接触操作などを検出すると、制御部206に操作指示の検出を通知する。制御部206は、画面操作部203からの通知に応じて、例えばメニュー表示等の表示を変更するために画面表示部202を制御する。 The screen operation unit 203 is arranged, for example, on the display surface of the screen display unit 202, and when detecting, for example, a touch operation by the user, notifies the control unit 206 of the detection of the operation instruction. The control unit 206 controls the screen display unit 202 in order to change the display such as the menu display in response to the notification from the screen operation unit 203.

物体検出部204は、撮像部201によって得られる画像データに対して後述する物体検出処理を行う。物体検出処理は、画像内部の人物や物体の検出や、それらの位置、大きさなどを特定するための算出処理を行い、算出結果を制御部206に出力する。 The object detection unit 204 performs an object detection process described below on the image data obtained by the image pickup unit 201. The object detection processing performs calculation processing for detecting a person or an object inside the image and specifying their position, size, etc., and outputs the calculation result to the control unit 206.

ボタン操作部205は、操作ボタン等に対するユーザからの操作指示を検出し、制御部206に操作指示の検出あるいはその検出内容を通知する。制御部206は、ボタン操作部205からの通知に応じてデジタルカメラ200の各部を制御する。 The button operation unit 205 detects an operation instruction from the user with respect to the operation button or the like, and notifies the control unit 206 of the detection of the operation instruction or the detection content thereof. The control unit 206 controls each unit of the digital camera 200 according to the notification from the button operation unit 205.

制御部206は、例えばCPUあるいはMPUであり、ROM207に格納されたプログラムをRAM208の作業エリアに展開し、実行することにより、デジタルカメラ200全体を制御する。制御部206は、視差画像データから得られる視差情報に基づいて、3次元データを算出するとともに、算出した3次元データに対して、後述する3次元データの変換処理を行う。 The control unit 206 is, for example, a CPU or MPU, and controls the entire digital camera 200 by expanding a program stored in the ROM 207 into a work area of the RAM 208 and executing the program. The control unit 206 calculates three-dimensional data based on the parallax information obtained from the parallax image data, and performs conversion processing of three-dimensional data, which will be described later, on the calculated three-dimensional data.

ROM207は、半導体メモリや磁気ディスク等から構成される不揮発性の記憶装置であり、制御部206が実行するプログラムやデジタルカメラ200に設定された設定値を記憶する。 The ROM 207 is a non-volatile storage device including a semiconductor memory, a magnetic disk, and the like, and stores a program executed by the control unit 206 and setting values set in the digital camera 200.

RAM208は、揮発性の記憶装置であり、デジタルカメラ200の電源を切った後は消えても構わないような一時的なデータを記憶する装置である。RAM208は、処理中の一時的なデータを記憶する役割を担う。 The RAM 208 is a volatile storage device that stores temporary data that may be erased after the digital camera 200 is powered off. The RAM 208 is responsible for storing temporary data being processed.

メモリスロット209は、記録データをメモリカード210に読み書きするためのインタフェースである。メモリカード210は、磁気や半導体で構成される記録メディアであり、撮影された画像や3次元データ、デジタルカメラ200に対する設定値がメモリスロット209を介して記録される。 The memory slot 209 is an interface for reading/writing recorded data from/to the memory card 210. The memory card 210 is a recording medium composed of magnetism or a semiconductor, and captured images, three-dimensional data, and setting values for the digital camera 200 are recorded via the memory slot 209.

加速度センサ211およびジャイロセンサ212は、デジタルカメラ200自体の移動、回転をそれぞれ検出する。制御部206は、検出された移動量や回転量の情報と、撮像部201の出力から算出可能な1方向の物体形状情報(即ち視差画像データから得られる3次元の情報)を多数の視点で取得した情報とを組み合わせて、3次元物体データを生成することができる。なお、本実施形態では、奥行き方向(Z軸方向)の情報を取得する手段として、視差画像データを用いたが、これに限らず、例えば赤外線などを用いたTOFセンサなど、奥行き方向の情報を取得する手段は、他の手法であってもよい。 The acceleration sensor 211 and the gyro sensor 212 detect movement and rotation of the digital camera 200 itself. The control unit 206 provides information on the detected movement amount and rotation amount and the object shape information in one direction that can be calculated from the output of the imaging unit 201 (that is, three-dimensional information obtained from the parallax image data) from many viewpoints. Three-dimensional object data can be generated by combining the acquired information. In the present embodiment, parallax image data is used as a means for acquiring information in the depth direction (Z-axis direction), but the present invention is not limited to this, and information in the depth direction such as a TOF sensor using infrared rays or the like is used. The method of acquiring may be another method.

撮像部201〜ジャイロセンサ212の各機能ブロックは、バスによって互いに接続され、データの送受信を行うことができる。 The functional blocks of the imaging unit 201 to the gyro sensor 212 are connected to each other by a bus and can send and receive data.

(本実施形態に係る3次元データの変換処理の必要性)
図1を参照して、被写体で構成される空間を3Dスキャンすることにより得られた3次元データを、造形物として出力する場合の課題の例を説明する。図1(a)は、デジタルカメラ200と、被写体となる物体101〜104の実物物体の位置関係を示している。物体101〜104は、デジタルカメラ200から奥行方向(Z軸方向)の各位置に存在し、それぞれが物体固有の奥行き(厚み)を有している。物体101および物体102は、Z軸からそれぞれプラスX方向、マイナスX方向に所定の距離を離れて位置し、デジタルカメラ200からZ軸方向の同等の距離に位置している。物体101および物体102より遠方(プラスZ軸方向)に物体103、物体104がそれぞれ所定の距離を隔てて位置している。このような物体101〜104の3次元データを、デジタルカメラ200により3Dスキャンするものとする。ここで、本実施形態のように、2次元に配列された光電変換素子を有する撮像素子で取得された画像信号によりX軸方向、Y軸方向の2次元データを取得し、さらに奥行き情報を取得する構成によって生成される3次元データについて説明する。例えば撮像部201の有する撮像素子で撮像する場合、撮像された画像内の被写体の大きさは、デジタルカメラ200からの距離に応じて実際の大きさより小さく撮像される。従って、単純に撮像部201から得られる2次元データ(画像データ)に奥行き情報のZ軸方向のデータを加えて3次元データを生成しても、実空間における各被写体の大きさの関係を再現しているとは限らない。実空間における3次元データをモデリングするためには、奥行き情報に基づいて、XY方向の各被写体の大きさも変形する必要がある。ただし、本実施形態では、2次元の画像データとして鑑賞可能なデータを持つユーザが、その画像の3次元化を求めて造形物を出力することを想定している。このため、3D出力装置へ提供する3次元データとしては、必ずしも各被写体の大きさの関係まで再現した3次元データである必要はなく、むしろXY軸方向の物体(被写体)の大きさの関係を画像データと等しくした前者の3次元データの方が好ましい場合も考えられる。従って、本実施形態では、物体を含む空間を描写する3次元データとしてXY方向のデータはどちらのデータも考えられるものとする。
(Necessity of conversion processing of three-dimensional data according to this embodiment)
With reference to FIG. 1, an example of a problem in the case where three-dimensional data obtained by performing a 3D scan on a space formed by a subject is output as a modeled object will be described. FIG. 1A shows the positional relationship between the digital camera 200 and the physical objects 101 to 104 which are subjects. The objects 101 to 104 exist at respective positions in the depth direction (Z-axis direction) from the digital camera 200, and each has a depth (thickness) peculiar to the object. The object 101 and the object 102 are located at predetermined distances from the Z axis in the plus X direction and the minus X direction, respectively, and are located at equal distances from the digital camera 200 in the Z axis direction. Objects 103 and 104 are located farther (plus Z-axis direction) than the objects 101 and 102 with a predetermined distance. It is assumed that the digital camera 200 performs 3D scanning on the three-dimensional data of the objects 101 to 104. Here, as in the present embodiment, two-dimensional data in the X-axis direction and the Y-axis direction is acquired by the image signal acquired by the image sensor having the photoelectric conversion elements arranged in two dimensions, and further depth information is acquired. The three-dimensional data generated by the configuration will be described. For example, when an image is captured by the image sensor of the image capturing unit 201, the size of the subject in the captured image is smaller than the actual size according to the distance from the digital camera 200. Therefore, even if two-dimensional data (image data) obtained from the image pickup unit 201 is simply added to the Z-axis direction data of the depth information to generate three-dimensional data, the relationship of the size of each subject in the real space is reproduced. It's not always done. In order to model three-dimensional data in the real space, it is necessary to change the size of each subject in the XY directions based on the depth information. However, in the present embodiment, it is assumed that a user who has data that can be viewed as two-dimensional image data outputs a modeled object in order to make the image three-dimensional. Therefore, the three-dimensional data provided to the 3D output device does not necessarily have to be the three-dimensional data that reproduces the relationship of the size of each subject, but rather the relationship of the size of the object (subject) in the XY axis directions. In some cases, the former three-dimensional data that is equal to the image data may be preferable. Therefore, in this embodiment, both of the XY direction data can be considered as the three-dimensional data describing the space including the object.

上述の3Dスキャンにより得られた3次元データについて、さらに奥行き方向の情報について考える。得られた3次元データのうちの奥行き情報は、例えば図1(b)に示すように、3D出力装置で出力可能な大きさに縮尺を変更される(正規化される)。3次元データ中の各オブジェクト109〜112は、物体101〜104にそれぞれ対応する。図1(b)に示す各オブジェクトは、Z軸方向が一律に3D出力装置のレンジに合わせて縮小され、物体101〜104の間の奥行き方向の位置関係を維持して縮小されている。 Regarding the three-dimensional data obtained by the above-described 3D scan, the information in the depth direction will be further considered. The depth information of the obtained three-dimensional data is scaled (normalized) to a size that can be output by the 3D output device, for example, as shown in FIG. The objects 109 to 112 in the three-dimensional data correspond to the objects 101 to 104, respectively. Each object illustrated in FIG. 1B is uniformly reduced in the Z-axis direction according to the range of the 3D output device, and is reduced while maintaining the positional relationship in the depth direction between the objects 101 to 104.

しかし、撮影した3次元データを記念物体等として出力する場合、例えば図1(c)のように、奥行方向の縮尺を、物体の特徴に合わせて適切に縮小させる、または図1(d)のように、レリーフ状の3D出力物体として出力させるなどのニーズがある。また、図1(b)に示すような種類の3次元形状データの出力では、オブジェクト111とオブジェクト112の間のスペースが無駄になる場合や、画像データ内に存在していた例えばオブジェクト111などの重要な被写体が強調されず、印象的に見えないなど、ユーザの意図に沿わない構成になってしまう場合がある。従って、必ずしも各物体の位置関係や奥行きを正確に再現するのではなく、必要に応じてオブジェクト間の奥行きを変更する、3次元データの変換処理を行うことが望まれる。 However, when outputting the photographed three-dimensional data as a memorial object or the like, for example, as shown in FIG. 1C, the scale in the depth direction is appropriately reduced in accordance with the features of the object, or in FIG. As described above, there is a need for outputting as a relief-shaped 3D output object. Further, in the output of the three-dimensional shape data of the type shown in FIG. 1B, when the space between the object 111 and the object 112 is wasted, or when the space existing between the object 111 and the object data such as the object 111 exists. In some cases, the important subject is not emphasized and does not look impressive, and the configuration may not meet the user's intention. Therefore, it is not always necessary to accurately reproduce the positional relationship and depth of each object, and it is desirable to perform conversion processing of three-dimensional data that changes the depth between objects as necessary.

そこで、本実施形態では、例えばz軸方向などの所定の方向の位置のデータの縮尺を変更し、さらにz軸方向の位置(範囲)に応じて縮尺(圧縮率)を変更可能にする。すなわち、本実施形態では、3次元データの所定方向の位置のデータを、物体の存在する位置に応じてそれぞれ変換する。例えば図1(c)および図1(d)に示すように、オブジェクト111とオブジェクト112の間の奥行き部分の縮尺をオブジェクト111やオブジェクト112の範囲の縮尺よりも大きくする。すなわち、本実施形態では、以下に説明する3次元データの変換処理によって例えば奥行方向の縮尺を奥行方向の位置に応じて変更するようにする。z軸方向の縮尺は、z軸方向と直交するx軸方向やy軸方向の縮尺と独立して行われてもよいし、何らかで関連付けられていてもよい。 Therefore, in this embodiment, for example, the scale of data at a position in a predetermined direction such as the z-axis direction is changed, and the scale (compression ratio) can be changed according to the position (range) in the z-axis direction. That is, in the present embodiment, the data of the position in the predetermined direction of the three-dimensional data is converted according to the position where the object exists. For example, as shown in FIGS. 1C and 1D, the scale of the depth portion between the object 111 and the object 112 is made larger than the scale of the range of the objects 111 and 112. That is, in this embodiment, for example, the scale of the depth direction is changed according to the position in the depth direction by the conversion process of three-dimensional data described below. The scale reduction in the z-axis direction may be performed independently of the scale reduction in the x-axis direction or the y-axis direction orthogonal to the z-axis direction, or may be associated with some scale.

(3次元データの変換処理に係る一連の動作)
次に、図3を参照して、デジタルカメラ200による3次元データの変換処理に係る一連の動作を説明する。本処理は、例えばデジタルカメラ200のボタン操作部205に対するユーザによる撮影指示が検出された場合に開始される。なお、本処理に係る各ステップは、制御部206の指示に応じて実行され、制御部206がROM207に記憶されたプログラムをRAM208の作業用領域に展開し、実行することにより実現される。
(A series of operations related to conversion processing of three-dimensional data)
Next, with reference to FIG. 3, a series of operations relating to conversion processing of three-dimensional data by the digital camera 200 will be described. This process is started, for example, when a user's shooting instruction to the button operation unit 205 of the digital camera 200 is detected. It should be noted that each step related to this processing is executed in response to an instruction from the control unit 206, and is realized by the control unit 206 expanding a program stored in the ROM 207 into a work area of the RAM 208 and executing the program.

S301において、制御部206は、撮像部201から出力される視差画像データ、加速度センサ211の出力およびジャイロセンサ212の出力を取得する3Dスキャンと、取得した各データに基づく3次元データの成形処理を行う。本実施形態では、図1(a)に示した被写体となる物体101〜104を3Dスキャンの対象とした場合を例に説明する。本実施形態では、ある位置、方向(例えば図1(a)のデジタルカメラ200)の画像を基準として多方向からスキャン、即ち複数の方向から複数回の撮影を行なう。撮影の際には、デジタルカメラ200の撮影位置や向きの変動が各撮影と対応づけて取得され、得られたデータから被写体の3次元形状を得る。複数の視差画像データおよび撮影位置や向きの変動に基づいて、被写体となる物体の3次元形状を得る方法については、公知の方法を用いることができる。例えば、加速度センサ211、ジャイロセンサ212の情報を利用すると、撮影を行った複数の位置の位置関係が把握できるため、全ての3Dデータとしての点群データを、1つの3次元空間上での位置に落とし込むことができる。この合成操作によって、被写体の裏表も含めた表面形状の3D点群データを取得することができる。図1(a)に示す物体の3次元形状をスキャンした後、制御部206は、3次元データの成形処理、即ち例えばSTLファイルフォーマット等の一般的な3次元データに成形する処理を行う。 In step S<b>301, the control unit 206 performs a 3D scan that acquires the parallax image data output from the imaging unit 201, the output of the acceleration sensor 211, and the output of the gyro sensor 212, and a shaping process of three-dimensional data based on each acquired data. To do. In the present embodiment, a case will be described as an example where the objects 101 to 104, which are the subjects illustrated in FIG. 1A, are targets of 3D scanning. In this embodiment, an image at a certain position and direction (for example, the digital camera 200 in FIG. 1A) is used as a reference, and scanning is performed from multiple directions, that is, imaging is performed multiple times from multiple directions. At the time of shooting, changes in the shooting position and orientation of the digital camera 200 are acquired in association with each shooting, and the three-dimensional shape of the subject is obtained from the obtained data. A known method can be used as a method of obtaining the three-dimensional shape of an object, which is a subject, based on a plurality of pieces of parallax image data and variations in the shooting position and orientation. For example, by using the information of the acceleration sensor 211 and the gyro sensor 212, it is possible to grasp the positional relationship between a plurality of positions at which the image is taken. Therefore, all the point cloud data as 3D data are located in one three-dimensional space. Can be dropped into. By this combining operation, 3D point cloud data of the surface shape including the front and back of the subject can be acquired. After scanning the three-dimensional shape of the object shown in FIG. 1A, the control unit 206 performs a three-dimensional data shaping process, that is, a process of shaping into a general three-dimensional data such as an STL file format.

STLファイルフォーマットにおいては、3次元形状を3角形の面の集合として表現する方式を用いており、3次元点群データを3角形の集合データに変換する必要がある。この変換に関しては、一般的にいくつかの方法が知られているが、本実施形態では広く知られているアルゴリズムである3次元ドロネー分割法を用いるものとする。ROM207の中には、あらかじめこのドロネー分割法のアルゴリズムが格納されており、前述の手順で得られた物体の点群データを3角形平面集合に変換し、それを3次元空間内での3角形の集合体データであるSTLファイル形式に変換する。 The STL file format uses a method of expressing a three-dimensional shape as a set of triangular surfaces, and it is necessary to convert the three-dimensional point cloud data into triangular set data. Although several methods are generally known for this conversion, the three-dimensional Delaunay division method, which is a widely known algorithm, is used in this embodiment. An algorithm of this Delaunay division method is stored in advance in the ROM 207, and the point cloud data of the object obtained by the above-mentioned procedure is converted into a triangular plane set, which is converted into a triangle in a three-dimensional space. It is converted to the STL file format which is the aggregate data of.

本実施形態においては、本ステップの成形処理により、3D出力装置で可能な大きさに縮尺を変更し、x、y、z軸のそれぞれが同じ縮尺で縮小された3次元データを生成するものとして説明する。制御部206は、データの成形処理が終了するとメモリスロット209を介してメモリカード210に成形後のデータを格納する。本実施形態では複数の撮像光学系とその視差画像データを利用した3Dスキャンについて説明するが、3次元データが得られる限り、レーザー照射を利用する形態や像面位相差センサを利用する形態など他の形態も適用可能である。撮像部201に像面位相差検出機構が搭載されている場合、画素単位での距離データ取得が可能である。よって特定のある位置から撮像処理を行って得られる画像データには、画像内の各画素に対する色データと、加えて各画素毎にデジタルカメラ200から各画素に対応する被写体の表面部までの距離情報を取得することができる。この各画素に対して奥行方向の距離を配置した点群データが取得できる生の3Dデータとなる。 In the present embodiment, it is assumed that the molding process in this step changes the scale to a size that can be performed by the 3D output device and generates three-dimensional data in which the x, y, and z axes are reduced to the same scale. explain. When the data shaping process is completed, the control unit 206 stores the shaped data in the memory card 210 via the memory slot 209. In the present embodiment, a 3D scan using a plurality of imaging optical systems and their parallax image data will be described. However, as long as three-dimensional data can be obtained, a mode using laser irradiation, a mode using an image plane phase difference sensor, etc. The form of is also applicable. When the image plane phase difference detection mechanism is mounted on the image pickup unit 201, it is possible to acquire distance data in pixel units. Therefore, the image data obtained by performing the imaging process from a specific position includes color data for each pixel in the image, and in addition, for each pixel, the distance from the digital camera 200 to the surface portion of the subject corresponding to each pixel. Information can be obtained. Point cloud data in which a distance in the depth direction is arranged for each pixel is raw 3D data that can be acquired.

S302において、制御部206は、奥行方向を定義するために座標軸を決定する。本実施形態では、例えばz方向を奥行方向として定義する。y方向は地面に対して鉛直方向を表し、3Dスキャン中に加速度センサ211によって重力加速度の方向を特定することで定義する。3Dスキャン中はデジタルカメラ自体が様々な方向を向くため、スキャン直後にはどちらがz軸方向であるかが決定されていない。このため、制御部206は、スキャン結果の3次元データの概形を画面表示部202に表示し、画面操作部203のユーザインターフェースを介してユーザにより奥行方向であるz軸方向を決定する。z軸方向を決定すると上述したy軸の定義にしたがってy軸方向を決定し、さらにx軸方向を決定する。制御部206は、S301において生成した3次元データを新たに決定した座標系の3次元データに変換してメモリカード210に記憶させる。なお、以降の説明では図1(a)で示したz軸を選択したものとして説明する。 In S302, the control unit 206 determines a coordinate axis to define the depth direction. In this embodiment, for example, the z direction is defined as the depth direction. The y direction represents a vertical direction with respect to the ground, and is defined by identifying the direction of gravitational acceleration by the acceleration sensor 211 during 3D scanning. Since the digital camera itself faces various directions during the 3D scan, it is not determined which is the z-axis direction immediately after the scan. Therefore, the control unit 206 displays the outline of the three-dimensional data of the scan result on the screen display unit 202, and determines the z-axis direction which is the depth direction by the user via the user interface of the screen operation unit 203. When the z-axis direction is determined, the y-axis direction is determined according to the definition of the y-axis, and further the x-axis direction is determined. The control unit 206 converts the three-dimensional data generated in S301 into the three-dimensional data of the newly determined coordinate system and stores it in the memory card 210. In the following description, it is assumed that the z axis shown in FIG. 1A is selected.

また、3Dスキャン中に記憶した2次元の撮像画像のうち、3次元データの所定の断面に対応する画像を決定する。即ち、決定したz軸方向に向かって撮像した画像であって、上述の物体101〜104が画角内に収まった画像を1枚決定し、3次元データの付加情報としてメモリカード210に記憶する。 Further, among the two-dimensional captured images stored during the 3D scan, an image corresponding to a predetermined cross section of the three-dimensional data is determined. That is, one image that is captured in the determined z-axis direction and in which the above-described objects 101 to 104 are within the angle of view is determined and stored in the memory card 210 as additional information of three-dimensional data. ..

本実施形態では、多方向からスキャン(即ち撮影)することを前提とするためユーザによるz軸方向の設定を行うようにしている。しかし、1方向からのスキャンのみで背面情報を取得しない等のスキャン方法の場合は、スキャン時の方向をそのままz軸として設定するようにしてもよい。この場合ユーザによるz軸指定は不要となる。 In the present embodiment, since it is premised that scanning (that is, photographing) from multiple directions, the user sets the z-axis direction. However, in the case of a scanning method such as only scanning from one direction and not obtaining back surface information, the scanning direction may be set as the z axis. In this case, the user does not need to specify the z axis.

S303において、制御部206は、被写体である物体のうち、注目すべき主要物体を決定する。図4(a)は、S302において決定した2次元画像と当該画像に対する物体の検出結果の一例を示している。物体検出部204は、制御部206の指示に応じて、2次元画像において画像内の物体を検出し、その後、制御部206は、物体検出部204による検出結果を画面表示部202に表示する。なお、2次元画像内の物体の検出においては、公知の物体検出技術を用いることができるため、物体検出技術についての詳細な説明は省略する。図4(a)における表示例では、検出された画像内の4つの物体、即ち物体401〜404に対して、それぞれが検出されたことを明示するための物体検出枠405〜408が表示されている。ユーザは、画面操作部203に対する指示操作によって、物体検出枠405〜408のどれかを選択することで主要物体を特定する。制御部206は、ユーザ操作により所定の物体が特定されると、特定された物体を主要物体として決定する。なお、主要物体の決定方法については、上述したユーザの手動による決定方法だけでなく、制御部206が自動的に主要物体を決定するようにしてもよい。この場合には、画角内の物体の位置、物体が人物であるかといった物体の特性等の情報によって決定すればよい。 In S303, the control unit 206 determines a main object to be noticed among the objects which are the subjects. FIG. 4A shows an example of the two-dimensional image determined in S302 and the detection result of the object in the image. The object detection unit 204 detects an object in the image in the two-dimensional image according to an instruction from the control unit 206, and then the control unit 206 displays the detection result of the object detection unit 204 on the screen display unit 202. Since a known object detection technique can be used for detecting an object in a two-dimensional image, detailed description of the object detection technique will be omitted. In the display example in FIG. 4A, object detection frames 405 to 408 for clearly indicating that each of the four objects in the detected image, that is, the objects 401 to 404 are detected are displayed. There is. The user specifies the main object by selecting one of the object detection frames 405 to 408 by an instruction operation on the screen operation unit 203. When a predetermined object is specified by a user operation, the control unit 206 determines the specified object as a main object. Regarding the method of determining the main object, the control unit 206 may automatically determine the main object in addition to the manual determination method by the user described above. In this case, it may be determined based on information such as the position of the object within the angle of view and the characteristics of the object such as whether the object is a person.

S304において、制御部206は、決定した主要物体の奥行方向の厚みを検出する。図4(a)に示す画像を撮影した位置および向きは、3Dスキャン中に記録された位置関係から得ることができ、図4(b)に示すデジタルカメラ200の位置および光軸の向きであるものとする。制御部206は、図4(a)の物体検出枠407が、取得済みの3次元データ内でどのような関係になるかを特定することができる。より具体的には、図4(b)は、物体検出枠407が3次元データにおいてどのような位置にあるかを示している。制御部206は、この物体検出枠407をz軸方向に走査し、走査してできた直方体410に含まれる物体領域の3次元データを検出する。 In S304, the control unit 206 detects the thickness of the determined main object in the depth direction. The position and orientation of the image shown in FIG. 4A can be obtained from the positional relationship recorded during the 3D scan, and is the position of the digital camera 200 and the orientation of the optical axis shown in FIG. 4B. I shall. The control unit 206 can specify what relationship the object detection frame 407 in FIG. 4A has in the acquired three-dimensional data. More specifically, FIG. 4B shows the position of the object detection frame 407 in the three-dimensional data. The control unit 206 scans the object detection frame 407 in the z-axis direction, and detects three-dimensional data of the object region included in the rectangular parallelepiped 410 formed by the scanning.

さらに具体的には、3次元データは、例えばSTLファイルフォーマット等の場合、ポリゴンと呼ばれる最少単位の3次元上の三角形情報の集合体として表現されている。制御部206は、まず上述した直方体内に含まれるポリゴンを全て検出する。その上で、検出したポリゴン間での接続状況を考慮して、上述の直方体410内でポリゴン群が閉曲面を構成しているか、またその閉曲面で構成される範囲のxy平面への写像が物体検出枠407の一定量以上の割合を占めているか、を判定する。いずれの判定をも満たす場合、制御部206は、直方体410に含まれる3次元データを主要物体の物体領域として決定する。一方、上述した条件を満たしている場合において、ポリゴン閉曲面で構成された物体が複数検出された場合、例えば「より前面にある」等の条件を加えることにより1つの物体に関する3次元データを決定する。本実施形態の場合、このような処理を行うことで、物体103を構成するポリゴン情報を抽出することができる。検出した物体103を構成するポリゴン情報のうち、z軸成分が一番小さいものと、一番大きいものとの差分を用いて物体103の厚みを推定することにより算出する。算出された厚みは、図4(b)における物体厚み409となる。 More specifically, in the case of the STL file format or the like, the three-dimensional data is represented as a set of three-dimensional triangular information of a minimum unit called a polygon. The control unit 206 first detects all polygons included in the above-mentioned rectangular parallelepiped. Further, in consideration of the connection state between the detected polygons, whether the polygon group constitutes a closed curved surface in the above-mentioned rectangular parallelepiped 410, and the mapping of the range constituted by the closed curved surface onto the xy plane is performed. It is determined whether the object detection frame 407 occupies a certain amount or more. When both of the determinations are satisfied, the control unit 206 determines the three-dimensional data included in the rectangular parallelepiped 410 as the object area of the main object. On the other hand, when the above conditions are satisfied and three or more objects formed of polygonal closed curved surfaces are detected, three-dimensional data relating to one object is determined by adding a condition such as “in front of”. To do. In the case of the present embodiment, the polygon information forming the object 103 can be extracted by performing such processing. It is calculated by estimating the thickness of the object 103 by using the difference between the one having the smallest z-axis component and the one having the largest z-axis component among the detected polygon information constituting the object 103. The calculated thickness becomes the object thickness 409 in FIG.

S305において、制御部206は、S304において算出した物体103のz軸方向の位置と厚みに基づいて、z軸方向に対する圧縮プロファイル関数H(z)を生成する。具体的には、圧縮プロファイル関数H(z)は、z軸上のどの位置にある成分をどれだけの倍率で圧縮するかを示すzの関数であり、z方向に対する変換特性を表す。圧縮プロファイル関数H(z)は、S304において算出したオブジェクト111のz軸方向の位置および厚みを利用して生成される。図5を参照して、圧縮プロファイル関数H(z)の生成処理を含むz軸方向の圧縮について説明する。なお、以降の説明は簡単のためにz方向について説明するが、x、y方向については例えば圧縮率1で変換するものする。 In S305, the control unit 206 generates a compression profile function H(z) in the z-axis direction based on the position and the thickness of the object 103 in the z-axis direction calculated in S304. Specifically, the compression profile function H(z) is a function of z indicating at what position on the z axis the component is compressed and at what scale, and represents a conversion characteristic in the z direction. The compression profile function H(z) is generated using the position and thickness of the object 111 in the z-axis direction calculated in S304. With reference to FIG. 5, the compression in the z-axis direction including the generation processing of the compression profile function H(z) will be described. In the following description, the z direction will be described for simplicity, but the x and y directions will be converted at a compression rate of 1, for example.

図5(a)は、z軸と垂直な方向(x軸のプラス側)から見た3次元データにおける位置関係を模式的に示している。また、図5(b)は、圧縮プロファイル関数H(z)の特性を示しており、横軸は奥行き(z)、縦軸は圧縮率を示している。例えば、圧縮率が1の場合、z軸方向の成分はそのまま維持される。また、例えば圧縮率が2の場合、z軸方向の距離はさらに1/2に圧縮される。オブジェクト111については、オブジェクト111の存在する位置と厚み範囲に対応する部分の圧縮率が1であるため、位置および厚みは変化しない。一方、オブジェクト111以外の位置については、その位置から離れるに従って線形に圧縮率が上がる特性を示している。このため、オブジェクト111と、オブジェクト109およびオブジェクト112とのそれぞれのz軸方向の位置関係はそれぞれ圧縮され、図5(c)に示すように、オブジェクト501と502の間、オブジェクト502と503の間の距離のように短縮される。また、オブジェクト109およびオブジェクト112の厚みもそれぞれ圧縮されるため、それぞれが図5(c)に示すオブジェクト501および503の厚みに圧縮される。このように、制御部206は、主要物体のz軸方向の位置と厚みに基づいて、主要物体に関して圧縮率を低く保ち、主要物体からの距離に応じて線形に圧縮率が上がる(即ち単調増加する)ように、圧縮プロファイル関数を生成する。 FIG. 5A schematically shows the positional relationship in the three-dimensional data as viewed from the direction perpendicular to the z axis (the positive side of the x axis). Further, FIG. 5B shows the characteristics of the compression profile function H(z), the horizontal axis shows the depth (z), and the vertical axis shows the compression rate. For example, when the compression rate is 1, the z-axis direction component is maintained as it is. Further, for example, when the compression rate is 2, the distance in the z-axis direction is further compressed to 1/2. As for the object 111, since the compression ratio of the portion corresponding to the position where the object 111 exists and the thickness range is 1, the position and the thickness do not change. On the other hand, for the positions other than the object 111, the compression rate linearly increases with the distance from the position. Therefore, the positional relationship between the object 111 and the objects 109 and 112 in the z-axis direction is compressed, and as shown in FIG. 5C, between the objects 501 and 502 and between the objects 502 and 503. Is shortened like the distance. Further, since the thickness of each of the objects 109 and 112 is also compressed, each is compressed to the thickness of each of the objects 501 and 503 shown in FIG. 5C. In this way, the control unit 206 keeps the compression rate low for the main object based on the position and thickness of the main object in the z-axis direction, and linearly increases the compression rate according to the distance from the main object (that is, monotonically increases). , The compression profile function is generated.

S306において、制御部206は、圧縮プロファイル関数から、実際に3次元データのz軸データを変換するための変換関数G(z)を生成する。連続系の数式で表すと、変換関数G(z)は、数式1で表される数式によって圧縮プロファイル関数H(z)から生成できる。数式1は、CPU演算等に適した離散系の数式では、数式2で表される数式となる。 In S306, the control unit 206 generates a conversion function G(z) for actually converting the z-axis data of the three-dimensional data from the compression profile function. Expressed by a continuous system formula, the conversion function G(z) can be generated from the compression profile function H(z) by the formula represented by Formula 1. The mathematical expression 1 is a mathematical expression represented by the mathematical expression 2 in a discrete system mathematical expression suitable for CPU calculation and the like.

z軸方向における圧縮プロファイル関数H(z)、変換関数G(z)および変換後のz’について、図5(c)を参照して説明する。説明の簡略化のため、横軸zは0〜100に正規化されているものとする。z=0の位置がz軸方向のデータ範囲の最前面位置、z=100の位置がz軸方向のデータ範囲の最後方位置に相当する。図5(d)は、圧縮プロファイル関数H(z)を表し、主要物体の範囲(z=30〜40)以外の圧縮率は任意に設定可能である。主要物体の範囲以外の圧縮率は、例えばz軸方向の最前面位置および最後方位置の圧縮率をそれぞれ予め定めた圧縮率として、主要物体の位置および厚みとの関係から算出するようにしてもよい。図5(e)に示す変換関数G(z)は、図5(d)に示す圧縮プロファイル関数H(z)に数式1および数式2が適用されて算出される関数である。圧縮変換する前の座標をz、zに対応する変換後の座標をz’とすると、zとz’の関係は数式3で表される。このzとz’の関係をグラフにしたものが図5(f)となる。 The compression profile function H(z) in the z-axis direction, the conversion function G(z), and z'after conversion will be described with reference to FIG. For simplification of description, the horizontal axis z is assumed to be normalized to 0-100. The position of z=0 corresponds to the forefront position of the data range in the z-axis direction, and the position of z=100 corresponds to the rearmost position of the data range in the z-axis direction. FIG. 5D shows the compression profile function H(z), and the compression rate other than the range (z=30 to 40) of the main object can be set arbitrarily. The compression rate outside the range of the main object may be calculated from the relationship with the position and the thickness of the main object, for example, with the compression rates at the frontmost position and the rearmost position in the z-axis direction as the predetermined compression rates. Good. The conversion function G(z) shown in FIG. 5(e) is a function calculated by applying Equations 1 and 2 to the compression profile function H(z) shown in FIG. 5(d). When the coordinate before compression conversion is z and the coordinate after conversion corresponding to z is z′, the relationship between z and z′ is expressed by Equation 3. FIG. 5(f) is a graph showing the relationship between z and z'.

S307において、制御部206は、S306で決定したz軸方向における変換関数G(z)を用いて、S302で得られた3次元データのz軸方向のデータを変換する処理を行う。図6は、3次元データのファイルフォーマットの一例であるSTL(STereoLithography)ファイルフォーマットの構文を示している。図6に示すように、3次元データは、3次元空間上での三角形情報であるポリゴン情報を列挙した形式で表現されている。より具体的には、”facet normal”行から”endfacet”行までが三角形データの具体的なデータを構成し、具体的なデータは”facet normal”行および”vertex”行に記述される。”facet normal”行は、三角形の法線ベクトルを表し、3つの”vertex”行は三角形データの各頂点の座標を表すとともに、各頂点はx、y、z成分の数値を持つ。従って、制御部206は、三角形の各頂点の情報に対して、変換関数G(z)を適用してz軸方向に位置を変換する。 In step S307, the control unit 206 performs a process of converting the z-axis direction data of the three-dimensional data obtained in step S302 using the z-axis conversion function G(z) determined in step S306. FIG. 6 shows a syntax of an STL (STereoLithography) file format which is an example of a file format of three-dimensional data. As shown in FIG. 6, the three-dimensional data is represented in a format in which polygon information, which is triangular information in a three-dimensional space, is listed. More specifically, the "facet normal" line to the "endfacet" line form concrete data of the triangle data, and the concrete data is described in the "facet normal" line and the "vertex" line. The "facet normal" row represents the normal vector of the triangle, the three "vertex" rows represent the coordinates of each vertex of the triangle data, and each vertex has a numerical value of x, y, and z components. Therefore, the control unit 206 converts the position in the z-axis direction by applying the conversion function G(z) to the information on each vertex of the triangle.

図7は、ポリゴンの3角形情報をz軸変換関数G(z)を使ってz軸方向にどのように変換するかを示している。図7(a)においてSで示すポリゴン情報は、A(x1、y1、z1)、B(x2、y2、z2)およびC(x3、y3、z3)の3頂点から構成されている。制御部206は、3次元データに含まれている全てのポリゴン情報に関して、x成分、y成分は変更せず、z成分のみについて数式3で示すz’を算出して、zをz’で変更したデータを作成する。図7(b)は、図7(a)に示すSが、式3によってz成分のみが圧縮されてS’となったポリゴン情報を示している。Sを構成するA〜Cの各頂点情報が、それぞれA’(x1、y1、z1’)、B’(x2、y2、z2’)、C’(x3、y3、z3’)に変換されている。 FIG. 7 shows how the polygon triangle information is converted in the z-axis direction using the z-axis conversion function G(z). The polygon information indicated by S in FIG. 7A is composed of three vertices of A (x1, y1, z1), B (x2, y2, z2) and C (x3, y3, z3). The control unit 206 does not change the x component and the y component with respect to all the polygon information included in the three-dimensional data, calculates z′ shown in Expression 3 only for the z component, and changes z by z′. Create the data that you created. FIG. 7B shows polygon information in which S shown in FIG. 7A is S′ by compressing only the z component by Expression 3. The respective vertex information of A to C constituting S is converted into A'(x1, y1, z1'), B'(x2, y2, z2'), C'(x3, y3, z3'), respectively. There is.

制御部206は、全てのポリゴン情報に対する変換処理を完了すると、STL形式で列挙した変換後のポリゴンデータをメモリスロット209を介してメモリカード210に記憶させる。制御部206は、変換後の3次元データを記憶させると、3次元データの変換処理に係る一連の動作を終了する。 When the conversion processing for all the polygon information is completed, the control unit 206 stores the converted polygon data listed in the STL format in the memory card 210 via the memory slot 209. When the control unit 206 stores the converted three-dimensional data, the control unit 206 ends the series of operations related to the conversion process of the three-dimensional data.

なお、本実施形態では、S301において3Dスキャンにより得られた3次元データに対して、予めx、y、z方向を同一の縮尺で縮小したうえで、さらにz軸方向に対する変換処理を行うようにした。しかし、S301において予め同一の縮尺による縮小を行わずに、圧縮プロファイル関数に基づいて得られる縮尺であって、x軸およびy軸方向と異なる縮尺をz軸方向に対して適用するようにしてもよい。この場合、圧縮プロファイル関数H(z)を、実物体に対する縮尺を表す関数にすれば、本実施形態の処理を実現することができる。 In this embodiment, the three-dimensional data obtained by the 3D scan in S301 is reduced in advance in the same scale in the x, y, and z directions, and then the conversion process in the z-axis direction is performed. did. However, in S301, the scale obtained based on the compression profile function, which is different from the x-axis direction and the y-axis direction, may be applied to the z-axis direction without performing the reduction by the same scale in advance. Good. In this case, if the compression profile function H(z) is a function representing the scale of the real object, the processing of this embodiment can be realized.

また、本実施形態では、圧縮プロファイル関数H(z)において、主要物体以外の領域では、線形に圧縮率を変化させて3次元データの奥行方向を変換するようにした。しかし、圧縮プロファイル関数H(z)の特性は、ユーザの意図や物体の特徴に合わせて様々な特性にすることができる。例えばH(z)の変形例を図8(a)〜(c)に示す。図8(a)は上述した図5(a)と同一であるが、図5(b)は、図8(a)で示す3次元データのz軸方向の距離をどれだけ圧縮するかを決定する圧縮プロファイル関数H(z)の特性を示している。図8(b)に示すH(z)では、主要物体のz軸上の終了位置から階段状に一気に圧縮率を上げるようにしている。このようにすることで、図8(c)に示すように、変換後のオブジェクト901とオブジェクト902(主要物体)の位置関係を維持しつつ、主要物体より奥側のオブジェクト903については位置関係および奥行きを大幅に縮小した構成にすることができる。また、別の変形例を図8(d)〜(f)に示す。図8(d)は図8(a)と同様であるが、図8(e)は、図5(b)に示した圧縮プロファイル関数H(z)において、さらに主要物体のz軸上の開始位置、終了位置の前後で階段状に一気に圧縮率を上げ下げするようにしている。このようにすれば、変換後の主要物体の厚みを維持しつつ、オブジェクト1002(主要物体)の前後については位置関係および奥行きを等倍率で縮小する。この場合、オブジェクト1001および1002の間隔とオブジェクト1002および1003の間隔を実物体の位置関係と合わせつつ主要物体を強調することができる。 Further, in the present embodiment, in the compression profile function H(z), the compression ratio is linearly changed in the region other than the main object to convert the depth direction of the three-dimensional data. However, the characteristics of the compression profile function H(z) can be various characteristics according to the user's intention or the characteristics of the object. For example, modified examples of H(z) are shown in FIGS. 8A is the same as FIG. 5A described above, but FIG. 5B determines how much the distance in the z-axis direction of the three-dimensional data shown in FIG. 8A is compressed. The characteristic of the compression profile function H(z) is shown. In H(z) shown in FIG. 8B, the compression ratio is increased in a stepwise manner from the end position on the z axis of the main object. By doing so, as shown in FIG. 8C, while maintaining the positional relationship between the converted object 901 and the object 902 (main object), the object 903 on the inner side of the main object can be The depth can be reduced significantly. Moreover, another modification is shown in FIGS. 8(d) is the same as FIG. 8(a), but FIG. 8(e) shows the start of the main object on the z-axis in the compression profile function H(z) shown in FIG. 5(b). Before and after the position and the end position, the compression ratio is raised and lowered in a stepwise fashion. In this way, the positional relationship and the depth of the object 1002 (main object) before and after the object 1002 (main object) are reduced at the same magnification while maintaining the thickness of the converted main object. In this case, the main object can be emphasized while matching the distance between the objects 1001 and 1002 and the distance between the objects 1002 and 1003 with the positional relationship of the real objects.

以上説明したように、本実施形態では、z軸方向などの所定方向の位置のデータに対する縮尺を変更し、さらにz軸方向の位置(範囲)に応じて縮尺(圧縮率)を変更可能にした。すなわち、奥行方向について圧縮プロファイル関数H(z)を定め、3次元データの奥行方向の位置のデータを物体の存在する位置に応じてそれぞれ変換するようにした。このようにすれば、造形物を出力させるための3次元データを、造形物に適した縮尺あるいは倍尺で変形することが可能になる。 As described above, in the present embodiment, the scale for the data at the position in the predetermined direction such as the z-axis direction is changed, and the scale (compression rate) can be changed according to the position (range) in the z-axis direction. .. That is, the compression profile function H(z) is determined in the depth direction, and the data of the position in the depth direction of the three-dimensional data is converted according to the position where the object exists. By doing so, it becomes possible to transform the three-dimensional data for outputting the modeled object at a scale or a double scale suitable for the modeled object.

また、奥行方向の位置に応じて縮尺を変更する際に、物体の種類に応じて、すなわち主要物体の領域に対する奥行方向の圧縮率を下げる一方、主要物体の領域以外において圧縮率を上げて、3次元データの奥行きを変形するようにした。即ち、全体の奥行方向の圧縮率と、特定の被写体の奥行方向の圧縮率とをそれぞれ設定するようにした。このようにすることで、図5(c)に示すように主要物体を他の物体に対して強調したり存在感を与えたりすることができ、記念物体やインテリアオブジェクト等として適切な造形物を生成することが可能になる。 Also, when changing the scale according to the position in the depth direction, depending on the type of object, that is, while reducing the compression rate in the depth direction with respect to the area of the main object, increase the compression rate in areas other than the area of the main object, The depth of the 3D data is modified. That is, the overall compression rate in the depth direction and the compression rate in the depth direction of a specific subject are set. By doing so, the main object can be emphasized or given a presence as compared with other objects as shown in FIG. 5C, and a modeled object suitable as a memorial object or an interior object can be obtained. It will be possible to generate.

(実施形態2)
次に実施形態2について説明する。実施形態1では、選択された主要物体の圧縮率を下げて他の領域の圧縮率を上げる圧縮プロファイル関数を用いて3次元データの変換処理を行った。本実施形態では、複数の主要物体、即ち主要物体以外のサブ主要物体に対する圧縮率を下げた圧縮プロファイル関数を用いて3次元データの変換処理を行う。このため、サブ主要物体を決定する処理および決定される圧縮プロファイル関数が実施形態1と異なり、その他の構成は実施形態1と同一である。このため、同一の構成およびステップについては同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next, a second embodiment will be described. In the first embodiment, the three-dimensional data conversion process is performed using the compression profile function that lowers the compression rate of the selected main object and increases the compression rate of the other area. In the present embodiment, conversion processing of three-dimensional data is performed using a compression profile function with a reduced compression rate for a plurality of main objects, that is, sub-main objects other than the main object. For this reason, the processing for determining the sub main object and the determined compression profile function are different from those of the first embodiment, and the other configurations are the same as those of the first embodiment. For this reason, the same configurations and steps are denoted by the same reference numerals, duplicate description is omitted, and different points will be mainly described.

本実施形態における処理の流れを図9に示すフローチャートを参照して説明する。 The flow of processing in this embodiment will be described with reference to the flowchart shown in FIG.

まず制御部206は図3に示したS301〜S303の処理を行う。 First, the control unit 206 performs the processing of S301 to S303 shown in FIG.

次にS901において、制御部206は、S303で選択した主要物体より優先度が下がるが、主要度の高いサブ主要物体を決定する。図4(a)に示したように、S303における処理によって検出された画像内の4つの物体、即ち物体401〜404に対して、それぞれが検出されたことを明示するための物体検出枠405〜408が表示されている。ユーザは、画面操作部203への操作によって、S303において選択した主要物体以外の物体検出枠のいずれかを選択する。制御部206は、画面操作部203によりユーザ操作の通知を受けると、対応する物体をサブ主要物体として決定する。ここでは、ユーザが物体検出枠408を選択したことに応じて、制御部206がオブジェクト112をサブ主要物体として決定したものとする。なお、サブ主要物体の決定は、ユーザによるマニュアル選択だけでなく、制御部206が自動的に決定してもよい。この場合は、画角内でどのあたりに位置するか、物体が人物であるか、を判定することによってサブ主要物体を決定するようにすればよい。また、必要であればサブ主要物体を複数指定するようにしてもよい。 Next, in step S901, the control unit 206 determines a sub-main object whose priority is lower than that of the main object selected in step S303, but which has high priority. As shown in FIG. 4A, with respect to the four objects in the image detected by the process in S303, that is, the objects 401 to 404, the object detection frames 405 to clearly indicate that they have been detected. 408 is displayed. The user operates the screen operation unit 203 to select one of the object detection frames other than the main object selected in S303. Upon receiving the user operation notification from the screen operation unit 203, the control unit 206 determines the corresponding object as the sub-main object. Here, it is assumed that the control unit 206 determines the object 112 as the sub-main object in response to the user selecting the object detection frame 408. Note that the sub-main object may be automatically determined by the control unit 206 instead of being manually selected by the user. In this case, the sub-main object may be determined by determining where the object is within the angle of view and whether the object is a person. If necessary, a plurality of sub-main objects may be designated.

S902において、制御部206は、主要物体およびサブ主要物体それぞれについてz軸方向の厚みを算出する。制御部206は、S305において説明した方法と同様にして、主要物体およびサブ主要物体の厚みをそれぞれで算出する。例えば、図10に示すように、制御部206は、サブ主要物体の物体検出枠408をz軸方向に走査していき、走査してできた直方体内1010に含まれる3次元データを検出する。このとき、例えば直方体410のように他の直方体が検出された場合、直方体のxy平面の面積と物体検出枠408との比率が最も高い直方体を選択するようにしてもよい。 In S902, the control unit 206 calculates the thickness in the z-axis direction for each of the main object and the sub-main object. The control unit 206 calculates the thickness of each of the main object and the sub-main object in the same manner as the method described in S305. For example, as shown in FIG. 10, the control unit 206 scans the object detection frame 408 of the sub main object in the z-axis direction, and detects the three-dimensional data included in the rectangular parallelepiped body 1010 formed by the scanning. At this time, when another rectangular parallelepiped such as the rectangular parallelepiped 410 is detected, the rectangular parallelepiped having the highest ratio of the area of the xy plane of the rectangular parallelepiped to the object detection frame 408 may be selected.

S903において、制御部206は、S902で算出した主要物体およびサブ主要物体のz軸方向における位置と厚みに基づいて、圧縮プロファイル関数H(z)を生成する。本実施形態に係る圧縮プロファイル関数H(z)について、図11を参照して説明する。 In S903, the control unit 206 generates the compression profile function H(z) based on the positions and thicknesses of the main object and the sub-main object in the z-axis direction calculated in S902. The compression profile function H(z) according to this embodiment will be described with reference to FIG.

図11(a)は、z軸と垂直な方向(プラスx軸方向)から見た物体の位置関係を模式的に示している。図11(b)は、図5(b)と同様の物体形状データのz軸方向情報をどれだけ圧縮するかを決定する圧縮プロファイル関数である。図11(b)において、主要物体の存在する位置と厚み範囲に対しては、図5(b)と同様に圧縮率が1に設定されている。一方、サブ主要物体であるオブジェクト112の存在する位置と厚み範囲に対応する距離については、圧縮率が一律で2に設定されている。オブジェクト111およびオブジェクト112の位置および厚み領域以外については、オブジェクト111の位置から離れるに従って線形に圧縮率が上がるように設定されている。 FIG. 11A schematically shows the positional relationship of the objects viewed from the direction perpendicular to the z axis (plus x axis direction). FIG. 11B is a compression profile function that determines how much the z-axis direction information of the object shape data similar to that in FIG. 5B is compressed. In FIG. 11B, the compression ratio is set to 1 for the position where the main object exists and the thickness range, as in FIG. 5B. On the other hand, with respect to the distance corresponding to the position where the object 112, which is the sub main object, exists and the thickness range, the compression rate is uniformly set to 2. Except for the positions of the objects 111 and 112 and the thickness region, the compression rate is set to increase linearly with the distance from the position of the object 111.

このように本実施形態では、制御部206は、主要物体に対する圧縮率が低く、かつ主要物体からの距離に応じて線形に圧縮率が上がるように設定するが、サブ主要物体については例外的に圧縮率が低くなるように圧縮プロファイル関数H(z)を生成する。このようにすることで、図11(c)に示すように、縮小されたz’では、オブジェクト1102(主要物体)の厚みが維持されることに加え、オブジェクト1103(サブ主要物体)の厚みも維持されて縮小されている。即ち、オブジェクト1101〜1103間の位置関係は縮小されているが主要物体およびサブ主要物体は相対的に大きくなっており、これらの物体の存在が強調されている。また、サブ主要物体に対する圧縮率は、主要物体とは別の圧縮率が設定されているため、サブ主要物体は、主要物体よりもやや高い縮尺で縮小され、主要物体がサブ主要物体より強調されるように調整されている。 As described above, in the present embodiment, the control unit 206 sets such that the compression rate for the main object is low and the compression rate increases linearly according to the distance from the main object, but exceptionally for the sub-main object. The compression profile function H(z) is generated so that the compression rate becomes low. By doing so, as shown in FIG. 11C, in the reduced z′, in addition to maintaining the thickness of the object 1102 (main object), the thickness of the object 1103 (sub-main object) is also reduced. It has been maintained and reduced. That is, the positional relationship between the objects 1101 to 1103 is reduced, but the main object and the sub-main object are relatively large, and the existence of these objects is emphasized. Since the compression rate for the sub-main object is set to a compression rate different from that of the main object, the sub-main object is reduced at a slightly higher scale than the main object, and the main object is emphasized more than the sub-main object. Has been adjusted.

次に、制御部206は、図3に示したS306およびS307の処理を行って、本処理に係る一連の処理を終了する。なお、図11(e)は、上述の方法で生成された図11(d)に示す圧縮プロファイル関数H(z)を、数式1および数式2により生成した変換関数G(z)を示している。また、図11(f)は、変換関数G(z)で変換されるzと変換後のz’の関係性をそれぞれ表している。 Next, the control unit 206 performs the processes of S306 and S307 shown in FIG. 3 and ends the series of processes related to this process. It should be noted that FIG. 11E shows a conversion function G(z) generated by Equation 1 and Equation 2 from the compression profile function H(z) shown in FIG. 11D generated by the above method. .. In addition, FIG. 11F shows the relationship between z converted by the conversion function G(z) and z′ after conversion.

なお、本実施形態では、圧縮プロファイル関数H(z)については、主要物体以外の範囲において線形に圧縮率を上げるものとしたが、主要物体およびサブ主要物体のz軸上の終了位置から階段状に圧縮率を上げるようにしてもよい。また、主要物体およびサブ主要物体のz軸上の開始位置、終了位置の前後で階段状に一気に圧縮率を上げ下げするように自動生成してもよい。 In the present embodiment, the compression profile function H(z) is set to linearly increase the compression rate in the range other than the main object. However, it is stepwise from the end position on the z axis of the main object and the sub-main object. The compression rate may be increased. Alternatively, the compression rate may be automatically generated in a stepwise manner before and after the start position and the end position on the z axis of the main object and the sub main object.

また、圧縮プロファイル関数H(z)において、主要物体等の範囲の圧縮率を予め定められた値として説明した。しかし、画面操作部203等のユーザインターフェースへの入力によって、奥行方向の縮尺(または圧縮率)を位置に応じて設定または変更できるようにしてもよい。このようにすれば、よりユーザの望む縮尺で主要物体を強調した造形物を生成することができる。 Further, in the compression profile function H(z), the compression ratio in the range of the main object or the like has been described as a predetermined value. However, the scale (or compression rate) in the depth direction may be set or changed according to the position by inputting to the user interface of the screen operation unit 203 or the like. By doing so, it is possible to generate a modeled object in which the main object is emphasized at a scale desired by the user.

以上説明したように本実施形態では、図11(b)に示したように主要物体とサブ主要物体の圧縮率を下げた圧縮プロファイル関数を用いて、3次元データの変換処理を行うようにした。このようにすることで、主要物体のみならず、サブ主要物体を強調したり存在感を与えたりすることができ、記念物体やインテリアオブジェクト等として適切な造形物を生成することが可能になる。
(実施形態3)
次に実施形態3について説明する。上述した実施形態では、選択された複数の主要物体(主要物体及びサブ主要物体)の圧縮率を下げ、かつ他の領域の圧縮率を上げる圧縮プロファイル関数を用いて3次元データの変換処理を行った。本実施形態では、3次元データの変換処理において、複数の主要物体の一部(例えばサブ主要物体)のxy平面方向の大きさを補正する処理を更に行う。このため、当該大きさの補正処理以外の処理及び構成については実施形態2と同様である。このため、同一の構成およびステップについては同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
As described above, in the present embodiment, the conversion processing of three-dimensional data is performed using the compression profile function in which the compression rates of the main object and the sub-main object are reduced as shown in FIG. .. By doing so, not only the main object but also the sub-main object can be emphasized or given a presence, and it becomes possible to generate a modeled object suitable as a memorial object or an interior object.
(Embodiment 3)
Next, a third embodiment will be described. In the above-described embodiment, the three-dimensional data conversion process is performed using the compression profile function that lowers the compression rate of the selected main objects (main object and sub-main object) and increases the compression rate of other areas. It was In the present embodiment, in the conversion process of three-dimensional data, a process of correcting the size in the xy plane direction of a part of a plurality of main objects (for example, sub main objects) is further performed. Therefore, the processes and configurations other than the correction process of the size are the same as those in the second embodiment. For this reason, the same configurations and steps are denoted by the same reference numerals, duplicate description is omitted, and different points will be mainly described.

まず、本実施形態において想定する主要物体及びサブ主要物体の大きさと位置の関係について、図13(a)の一部を参照して説明する(図13(a)の詳細は別途後述する)。本実施形態では、主要物体1301及びサブ主要物体1302において、主要物体1301の実際の大きさがサブ主要物体1302の実際の大きさの例えば半分である場合を想定する。これは、例えば主要物体1301が子供であり、サブ主要物体1302が大人である場合等があげられる。また、デジタルカメラ200からの主要物体1301までの距離(L1)が、デジタルカメラ200からのサブ主要物体1302までの距離(L2)の半分であるとする。この場合、デジタルカメラ200の位置から撮像されたxy方向の2次元画像は、例えば図13(a)のようになる。すなわち、主要物体1301の実際の大きさはサブ主要物体1302の半分であるのに、2次元画像上では同じ大きさになる。仮に最終的な3次元形状の造形物をこの比率で出力する場合、この造形物を図13(a)に示す方向、位置から観賞するとは限らないため、大きさの関係が不自然になる可能性がある。このため、本実施形態では、主要物体のxy平面方向の大きさを基準にして、サブ主要物体のxy平面方向の大きさを正規化(すなわち補正)する。以下、本実施形態では、大人と子供の大きさがより適切に反映された造形物を生成するための補正処理を例に説明する。 First, the relationship between the size and the position of the main object and the sub-main object assumed in this embodiment will be described with reference to part of FIG. 13A (details of FIG. 13A will be described later). In the present embodiment, it is assumed that the main object 1301 and the sub-main object 1302 have an actual size of the main object 1301 that is, for example, half the actual size of the sub-main object 1302. For example, the main object 1301 is a child and the sub-main object 1302 is an adult. It is also assumed that the distance (L1) from the digital camera 200 to the main object 1301 is half the distance (L2) from the digital camera 200 to the sub-main object 1302. In this case, the two-dimensional image in the xy directions taken from the position of the digital camera 200 is as shown in FIG. That is, although the actual size of the main object 1301 is half that of the sub-main object 1302, it becomes the same size on the two-dimensional image. If the final three-dimensional shaped object is output at this ratio, this object may not be viewed from the direction and position shown in FIG. 13A, and the size relationship may be unnatural. There is a nature. Therefore, in the present embodiment, the size of the sub-main object in the xy plane direction is normalized (that is, corrected) with reference to the size of the main object in the xy plane direction. Hereinafter, in the present embodiment, a correction process for generating a modeled object in which the sizes of an adult and a child are more appropriately reflected will be described as an example.

(3次元データの変換処理に係る一連の動作)
次に、本実施形態に係る3次元データの変換処理の一連の動作について、図12に示すフローチャートを参照して説明する。
(A series of operations related to conversion processing of three-dimensional data)
Next, a series of operations of the conversion processing of three-dimensional data according to the present embodiment will be described with reference to the flowchart shown in FIG.

まず制御部206は、図3又は図9に示したS301〜S303の処理を行う。 First, the control unit 206 performs the processing of S301 to S303 shown in FIG.

S1201において、制御部206は、S303で選択した主要被写体よりは優先度が落ちるが、主要度の高いサブ主要物体を特定する。本ステップに係る処理は上述したS901の処理と同様であるが、改めて図13(a)を参照して説明する。S302において選択された2次元画像には、S303において検出された2つの物体(1301及び1302)と、各物体が検出されたことを明示する物体検出枠1303及び1304とが表示されている。このとき、ユーザが画面表示部202への操作によって、S303で選択した主要物体以外に対する物体検出枠を選択すると、制御部206は、選択された物体検出枠に対応する物体をサブ主要物体として決定する。例えば、ユーザが物体検出枠1304を選択すると、サブ主要物体1302がサブ主要物体として決定される。 In step S1201, the control unit 206 identifies a sub-main object having a higher priority than the main subject selected in step S303 but having a lower priority. The process of this step is the same as the process of S901 described above, but it will be described with reference to FIG. In the two-dimensional image selected in S302, the two objects (1301 and 1302) detected in S303 and object detection frames 1303 and 1304 that clearly indicate that each object has been detected are displayed. At this time, when the user operates the screen display unit 202 to select an object detection frame other than the main object selected in S303, the control unit 206 determines the object corresponding to the selected object detection frame as the sub-main object. To do. For example, when the user selects the object detection frame 1304, the sub main object 1302 is determined as the sub main object.

S1202において、制御部206は、主要物体及びサブ主要物体のそれぞれに対するz軸方向の厚みを算出する。制御部206は、S305に示した方法と同様にしてz軸方向の厚みをそれぞれ算出する。例えば、図13(b)に示すように、制御部206は、主要物体1301(オブジェクト1307)に対する物体検出枠1303と、サブ主要物体1302(オブジェクト1308)に対する物体検出枠1304をz軸方向に走査する。そして、走査してできた直方体1309及び1310に含まれる3次元データを検出してオブジェクトの厚み1305及び1306を検出する。 In step S1202, the control unit 206 calculates the thickness in the z-axis direction for each of the main object and the sub-main object. The control unit 206 calculates the thickness in the z-axis direction in the same manner as the method shown in S305. For example, as shown in FIG. 13B, the control unit 206 scans the object detection frame 1303 for the main object 1301 (object 1307) and the object detection frame 1304 for the sub main object 1302 (object 1308) in the z-axis direction. To do. Then, the three-dimensional data included in the rectangular parallelepiped 1309 and 1310 formed by scanning is detected to detect the thicknesses 1305 and 1306 of the object.

S1203において、制御部206は、S1202で算出したオブジェクト1307、オブジェクト1308に対するz軸方向における位置と厚みに基づいて、圧縮プロファイル関数H(z)を生成する。本実施形態に係る圧縮プロファイル関数H(z)について、図14(a)、図14(b)、図14(d)〜図14(f)を適宜参照して説明する。 In step S1203, the control unit 206 generates a compression profile function H(z) based on the position and the thickness in the z-axis direction with respect to the object 1307 and the object 1308 calculated in step S1202. The compression profile function H(z) according to this embodiment will be described with reference to FIGS. 14A, 14B, and 14D to 14F as appropriate.

図14(a)は、z軸と垂直な方向(プラスx軸方向)から見た物体の位置関係を模式的に示している。図14(b)は、上述した実施形態における圧縮プロファイル関数と同様、物体形状データのz軸方向情報をどれだけ圧縮するかを決定する圧縮プロファイル関数を示している。図14(b)において、主要物体であるオブジェクト1307が存在する位置と厚み範囲に対しては、図11(b)と同様に圧縮率が1に設定されている。一方、サブ主要物体であるオブジェクト1308が存在する位置と厚み範囲に対応する距離については、圧縮率が一律で2に設定されている。オブジェクト1307およびオブジェクト1308の位置および厚み領域以外については、オブジェクト1307の位置から離れるに従って線形に圧縮率が上がるように設定されている。 FIG. 14A schematically shows the positional relationship of the objects viewed from the direction perpendicular to the z axis (plus x axis direction). FIG. 14B shows a compression profile function that determines how much the z-axis direction information of the object shape data is compressed, similar to the compression profile function in the above-described embodiment. In FIG. 14B, the compression ratio is set to 1 for the position and thickness range where the object 1307, which is the main object, exists, as in FIG. 11B. On the other hand, for the distance corresponding to the position where the object 1308 which is the sub-main object exists and the thickness range, the compression rate is set to 2 uniformly. Except for the positions of the object 1307 and the object 1308 and the thickness region, the compression rate is set to increase linearly with the distance from the position of the object 1307.

このように本実施形態では、制御部206は、主要物体に対する圧縮率が低く、かつ主要物体からの距離に応じて線形に圧縮率が上がるように設定しつつ、サブ主要物体については例外的に圧縮率が低くなるように圧縮プロファイル関数H(z)を生成する。このようにすることで、縮小されたz’では、オブジェクト1307(主要物体)の厚みが維持されることに加え、オブジェクト1308(サブ主要物体)の厚みも維持されて縮小される。 As described above, in the present embodiment, the control unit 206 sets the compression rate for the main object to be low and the compression rate to increase linearly according to the distance from the main object, while exceptionally setting the sub-main object. The compression profile function H(z) is generated so that the compression rate becomes low. By doing so, in the reduced z′, in addition to maintaining the thickness of the object 1307 (main object), the thickness of the object 1308 (sub-main object) is also maintained and reduced.

次に、制御部206は、図3に示したS306およびS307の処理を行う。なお、図14(e)は、上述の方法で生成された図14(d)に示す圧縮プロファイル関数H(z)を、数式1および数式2により生成した変換関数G(z)を示している。また、図11(f)は、変換関数G(z)で変換されるzと変換後のz’の関係性をそれぞれ表している。 Next, the control unit 206 performs the processes of S306 and S307 shown in FIG. Note that FIG. 14E shows a conversion function G(z) generated by the mathematical formulas 1 and 2 from the compression profile function H(z) shown in FIG. 14D generated by the above method. .. In addition, FIG. 11F shows the relationship between z converted by the conversion function G(z) and z′ after conversion.

さらに、S1204及びS1205では、制御部206は、主要物体に対して、サブ主要物体のxy平面方向の大きさを補正する。 Further, in S1204 and S1205, the control unit 206 corrects the size of the sub main object in the xy plane direction with respect to the main object.

まずS1204において、制御部206は、xy平面方向のオブジェクト1308(サブ主要物体)の大きさを補正するか否かを選択した、ユーザによる設定を取得する。この設定は、例えば、xy平面方向のオブジェクト1308(サブ主要物体)の大きさを、オブジェクト1307(主要物体)の大きさに合わせて補正するか否かを選択するものである。制御部206は、取得した設定が補正を行う設定である場合はS1205に処理を進め、補正を行わない設定である場合は、補正を行うこと無く本処理に係る一連の動作を終了する。 First, in step S1204, the control unit 206 acquires the setting by the user who has selected whether or not to correct the size of the object 1308 (sub-main object) in the xy plane direction. This setting is for selecting whether or not to correct the size of the object 1308 (sub-main object) in the xy plane direction according to the size of the object 1307 (main object). The control unit 206 advances the processing to S1205 when the acquired setting is the setting for performing the correction, and ends the series of operations related to the present processing without performing the correction when it is the setting for not performing the correction.

S1205において、制御部206は、オブジェクト1308(サブ主要物体)の大きさを補正する。より具体的には、制御部206は、オブジェクトの大きさを補正するパラメータを各オブジェクトまでの距離の比率を用いて算出する。例えば、図15には、図13(b)をx軸方向から見たyz平面の模式図を示している。例えば、デジタルカメラ200から主要物体1301までの距離がL1、デジタルカメラ200からサブ主要物体1302までの距離がL2であり、L2=L1×2の関係があるものとする。また、主要物体1301のy方向の長さがH1、サブ主要物体1302のy方向の長さがH2であり、H2=H1×2の関係があるものとする。さらに、デジタルカメラ200の画角をθとする。このとき、L1の距離における画角の範囲に相当する縦幅を画角縦幅1、同様にL2の距離における画角の範囲に相当する縦幅を画角縦幅2とすると、相似の関係より画角縦幅2は画角縦幅1の2倍となる。従って、ある撮像位置から撮影した場合の2次元画像内における各オブジェクトの大きさは、物体までの距離に反比例する。すなわち、制御部206は、オブジェクト1308(サブ主要物体)の3Dデータ情報のx方向、y方向の大きさをL2/L1の比率を用いて補正(すなわち変倍)して、オブジェクト1402のサブ主要物体データに変換する。例えば、図14(c)には、オブジェクト1308に対する大きさの補正を行った結果であるオブジェクト1401及びオブジェクト1402を示している。 In step S1205, the control unit 206 corrects the size of the object 1308 (sub main object). More specifically, the control unit 206 calculates a parameter for correcting the size of the object using the ratio of the distance to each object. For example, FIG. 15 shows a schematic view of the yz plane when FIG. 13B is viewed from the x-axis direction. For example, it is assumed that the distance from the digital camera 200 to the main object 1301 is L1, the distance from the digital camera 200 to the sub-main object 1302 is L2, and there is a relationship of L2=L1×2. Further, it is assumed that the length of the main object 1301 in the y direction is H1, the length of the sub main object 1302 in the y direction is H2, and there is a relationship of H2=H1×2. Further, the angle of view of the digital camera 200 is θ. At this time, if the vertical width corresponding to the range of the angle of view at the distance of L1 is the vertical angle of view 1 and the vertical width corresponding to the range of the angle of view at the distance of L2 is the vertical angle of view 2, the similar relationship is obtained. Therefore, the view angle vertical width 2 is twice the view angle vertical width 1. Therefore, the size of each object in the two-dimensional image when taken from a certain imaging position is inversely proportional to the distance to the object. That is, the control unit 206 corrects (that is, scales) the size in the x direction and the y direction of the 3D data information of the object 1308 (sub-major object) using the ratio of L2/L1, and the sub-major of the object 1402. Convert to object data. For example, FIG. 14C shows an object 1401 and an object 1402 which are the result of the size correction performed on the object 1308.

このようにすれば、変換後のオブジェクト1401と変換後のオブジェクト1402とのxy平面方向の大きさをより現実に即した大きさ関係にすることができる。また、実施形態2と同様、オブジェクト1402のサブ主要物体データは、実施形態1の方法による変換後のオブジェクト(例えば503)と比べて厚みを持って強調された造形にもなる。 By doing so, it is possible to make the size of the converted object 1401 and the converted object 1402 in the xy plane directions more realistic. Further, as in the second embodiment, the sub-main object data of the object 1402 also becomes a model with a thickness emphasized as compared with the object (for example, 503) after the conversion by the method of the first embodiment.

そして、制御部206は、オブジェクト1402のサブ主要物体データを生成すると、本処理に係る一連の動作を終了する。 Then, when the control unit 206 generates the sub main object data of the object 1402, the control unit 206 ends the series of operations related to this processing.

なお、上述したS1204では、サブ主要物体の大きさの補正を行うか否かを選択して設定する例を説明した。このように、補正を行うか否かを選択可能にするのは、補正をOFFにすることがより適切な場合もあり得るためである。例えば、図16(a)及び図16(b)に示す例では、主要物体2001及びサブ主要物体2002が2次元画像内の被写体として撮影され、対応する3次元状のオブジェクト2003(主要物体)及びオブジェクト2004(サブ主要物体)を示している。 Note that in S1204 described above, an example has been described in which whether or not to correct the size of the sub main object is selected and set. As described above, the reason why correction is to be performed is selectable because it may be more appropriate to turn correction off. For example, in the example shown in FIGS. 16A and 16B, the main object 2001 and the sub-main object 2002 are photographed as subjects in the two-dimensional image, and the corresponding three-dimensional object 2003 (main object) and An object 2004 (sub-main object) is shown.

この例では、主要物体2001が人物であり、サブ主要物体2002がタワーなど巨大なランドマークである場合を示している。このとき、デジタルカメラ200からオブジェクト2003までの距離L3に比べて、オブジェクト2004までの距離L4が非常に長いものとする。また、図16(a)に示す画像は、例えば記念写真のように、人物である主要物体2001と共にタワーであるサブ主要物体2002の全体を写し込もうとする構図になっている。このような場合にS1205で説明した補正処理を行うと、サブ主要物体2002の3Dデータが現実の比率によって拡大されて過度に巨大となり、図16(a)を撮影する際に意図した被写体の関係が崩れる可能性がある。従って、図16に示すような撮影を行った場合には、サブ主要物体の大きさの補正を行わない(すなわちOFFにする)ように制御できることが望ましい。 In this example, the main object 2001 is a person, and the sub-main object 2002 is a huge landmark such as a tower. At this time, it is assumed that the distance L4 from the digital camera 200 to the object 2003 is much longer than the distance L4 from the object 2004. Further, the image shown in FIG. 16A has a composition in which the entire main subobject main body 2002, which is a tower, is projected together with the main main object 2001, which is a person, such as a commemorative photo. When the correction process described in S1205 is performed in such a case, the 3D data of the sub main object 2002 is enlarged by the actual ratio and becomes excessively large, and the relationship between the subjects intended when the image of FIG. May collapse. Therefore, it is desirable to be able to perform control so that the size of the sub-main object is not corrected (that is, turned off) when the image capturing shown in FIG. 16 is performed.

すなわち、本実施形態によれば、撮影内容に応じて、主要物体1301とサブ主要物体1302のxy平面方向の大きさの補正処理の有無を制御することができる。この補正処理を行わない場合であっても、図11(c)に示したように主要物体とサブ主要物体とをそれぞれ強調した形で当該物体以外の部分を圧縮し、記念品やインテリアオブジェクト等としての造形物を出力する場合に適したデータに変換できる。 That is, according to the present embodiment, it is possible to control the presence/absence of the correction processing of the sizes of the main object 1301 and the sub-main object 1302 in the xy plane direction according to the shooting content. Even if this correction process is not performed, as shown in FIG. 11(c), the main object and the sub-main object are emphasized, and the parts other than the object are compressed, so that a souvenir, an interior object, etc. The data can be converted to data suitable for outputting the modeled object.

なお、本実施形態では、S1201においてサブ主要物体がユーザ操作によって決定される例を説明した。しかし、例えばサブ主要物体の画角内の位置や、物体が人物であるか等の判定結果に基づいて、制御部206が1以上のサブ主要物体を自動的に決定するようにしてもよい。 In the present embodiment, an example in which the sub main object is determined by a user operation in S1201 has been described. However, the control unit 206 may automatically determine one or more sub-main objects based on, for example, the position within the angle of view of the sub-main object or the determination result of whether the object is a person or the like.

また、本実施形態では、S1204において補正処理の有無の選択がユーザ操作によって選択される例を説明したが、ユーザ操作によらず、例えば物体の種別の認識や物体の大きさ等の認識結果に基づいて、補正処理の有無を自動的に選択してもよい。例えば、制御部206は、主要物体とサブ主要物体の大きさの差が予め定めた閾値より大きい場合に補正処理をOFFにするようにしてもよい。また、例えば、制御部206は、主要物体、サブ主要物体がともに人物であると判定した場合に、補正処理をONにするようにしてもよい。 Further, in the present embodiment, an example in which the selection of the presence/absence of the correction process is selected by the user operation in S1204 has been described. On the basis of this, the presence/absence of correction processing may be automatically selected. For example, the control unit 206 may turn off the correction process when the difference in size between the main object and the sub-main object is larger than a predetermined threshold. Further, for example, the control unit 206 may turn on the correction process when it is determined that both the main object and the sub-main object are persons.

以上説明したように本実施形態では、サブ主要物体のxy平面方向の大きさを、主要物体とサブ主要物体との奥行方向の距離の比に基づいて補正するようにした。このようにすることにより、造形物を出力させるための3次元の形状データについて、奥行方向と垂直な方向(xy平面方向)の大きさをより現実に即した大きさ関係に変換して出力することができる。また、この補正を行うか否かを設定可能にし、特に主要物体とサブ主要物体との奥行方向の距離の比が適切な関係にない場合には、当該補正を行わないようにした。このようにすることにより、造形物を出力させるための3次元の形状データを、造形物に適した縮尺あるいは倍尺で変形することが可能になる。 As described above, in the present embodiment, the size of the sub main object in the xy plane direction is corrected based on the ratio of the distance between the main object and the sub main object in the depth direction. By doing so, with respect to the three-dimensional shape data for outputting the modeled object, the size in the direction perpendicular to the depth direction (xy plane direction) is converted to a more realistic size relationship and output. be able to. Further, whether or not to perform this correction can be set, and in particular, when the ratio of the distance in the depth direction between the main object and the sub-main object does not have an appropriate relationship, the correction is not performed. By doing so, it becomes possible to transform the three-dimensional shape data for outputting the modeled object at a scale or a double scale suitable for the modeled object.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201…撮像部、202…画面表示部、203…画面操作部、204…物体検出部、205…ボタン操作部、206…制御部 201... Imaging unit, 202... Screen display unit, 203... Screen operation unit, 204... Object detection unit, 205... Button operation unit, 206... Control unit

Claims (15)

物体を含む空間を描写する3次元データを取得する取得手段と、
前記3次元データの所定方向の位置のデータを、物体の存在する位置に応じてそれぞれ位置を変換する変換手段と、
前記所定方向の位置が変換された3次元データを出力する出力手段と、を有し、
前記変換手段は、複数の物体が存在する場合、当該複数の物体の存在しない空間に対応する範囲の位置のデータを、当該複数の物体が存在する空間に対応する範囲の位置のデータに比べて大きな圧縮率で変換する、ことを特徴とする画像処理装置。
Acquisition means for acquiring three-dimensional data describing a space including an object,
Conversion means for converting the position data of the three-dimensional data in a predetermined direction according to the position of the object,
Have a, and output means for outputting the three-dimensional data position in the predetermined direction is converted,
When there are a plurality of objects, the conversion means compares the position data in the range corresponding to the space in which the plurality of objects do not exist with the position data in the range corresponding to the space in which the plurality of objects exist. An image processing apparatus, characterized in that conversion is performed at a large compression rate .
前記変換手段は、前記3次元データに存在する物体の種類に基づいて前記所定方向における各位置を変換することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the conversion unit converts each position in the predetermined direction based on a type of an object existing in the three-dimensional data. 前記変換手段は、前記3次元データの前記所定方向における位置のデータについて、基準とする物体の存在する空間に対応する位置からの距離が第1の距離である範囲の位置のデータよりも、前記第1の距離より遠い第2の距離である範囲の位置のデータをより大きな圧縮率で変換することを特徴とする請求項1又は2に記載の画像処理装置。 With respect to the data of the position in the predetermined direction of the three-dimensional data, the converting means may be more than the data of the position in the range in which the distance from the position corresponding to the space in which the reference object exists is the first distance. 3. The image processing apparatus according to claim 1, wherein data at a position in a second distance that is farther than the first distance is converted with a larger compression rate. 前記変換手段は、前記基準とする物体の存在する空間に対応する位置からの距離に応じて、圧縮率が単調増加するように位置のデータを圧縮することを特徴とする請求項に記載の画像処理装置。 And the converting means, according to claim 3, in accordance with the distance from the position corresponding to the existing space of the object to the reference, the compression ratio is characterized by compressing the data of the position to increase monotonously Image processing device. 前記所定方向の位置のデータの圧縮率に対するユーザの操作が入力される第1の入力手段を更に有し、
前記変換手段は、前記第1の入力手段に入力された操作に基づいて前記3次元データの前記所定方向の位置のデータを変換することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
Further comprising first input means for inputting a user operation for the compression ratio of the data at the position in the predetermined direction,
And the converting means, in any one of claims 1 to 4, characterized in that converting the data of position of said predetermined direction of said three-dimensional data based on the input to the first input means operation The image processing device described.
前記変換手段は、前記複数の物体のうちの所定の物体が存在する空間に対応する範囲の位置のデータを、前記所定の物体を含む2つの物体のそれぞれまでの所定の位置からの距離の比率に基づいて、前記所定方向に垂直な方向にも変倍する、ことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。 The conversion means converts the data of the position in the range corresponding to the space in which the predetermined object exists among the plurality of objects, to the ratio of the distance from the predetermined position to each of the two objects including the predetermined object. The image processing apparatus according to any one of claims 1 to 5, characterized in that the magnification is also changed in a direction perpendicular to the predetermined direction based on the above. 前記所定方向に垂直な方向にも変倍するか否かを決定する決定手段を更に有し、
前記決定手段は、前記所定方向に垂直な方向にも変倍するか否かを選択するユーザ操作を取得する第2の入力手段、又は、前記所定の物体の種別に基づいて前記所定方向に垂直な方向にも変倍するか否かを判定する判定手段を含み、
前記変換手段は、前記決定手段により前記所定方向に垂直な方向にも変倍するように決定された場合、前記複数の物体のうちの所定の物体が存在する空間に対応する範囲の位置のデータを、前記所定の方向に垂直な方向にも変倍する、ことを特徴とする請求項に記載の画像処理装置。
Further comprising a determining means for determining whether to change the magnification also in a direction perpendicular to the predetermined direction,
The determining means is a second input means for acquiring a user operation for selecting whether or not to change the magnification also in a direction perpendicular to the predetermined direction, or a vertical direction in the predetermined direction based on the type of the predetermined object. Including a determining means for determining whether to scale in any direction,
When the conversion unit determines to scale in the direction perpendicular to the predetermined direction by the determination unit, the data of the position of the range corresponding to the space in which the predetermined object of the plurality of objects exists. The image processing apparatus according to claim 6 , wherein the image is also magnified in a direction perpendicular to the predetermined direction.
前記3次元データは、2次元に配列された光電変換素子を有する撮像素子から得られる2次元の画像データと、前記所定方向の位置のデータとしての、被写体の奥行き方向のデータとを含むことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The three-dimensional data includes two-dimensional image data obtained from an image pickup device having two-dimensionally arranged photoelectric conversion elements, and data in the depth direction of the subject as position data in the predetermined direction. The image processing apparatus according to any one of claims 1 to 7 , which is characterized. 前記画像データから特定の物体を検出する検出手段を更に有し、
前記変換手段は、前記検出手段による検出結果に基づいて前記3次元データ内に存在する物体を判定することを特徴とする請求項に記載の画像処理装置。
Further comprising a detection means for detecting a specific object from the image data,
The image processing apparatus according to claim 8 , wherein the conversion unit determines an object existing in the three-dimensional data based on a detection result of the detection unit.
前記変換手段は、前記検出手段により前記画像データから検出された物体が前記3次元データの前記所定方向において存在する範囲を、予め記憶されている前記検出手段により検出される物体の厚み情報に基づいて推定することを特徴とする請求項に記載の画像処理装置。 The converting means determines the range in which the object detected from the image data by the detecting means exists in the predetermined direction of the three-dimensional data based on the thickness information of the object detected by the detecting means which is stored in advance. The image processing apparatus according to claim 9 , wherein the image processing apparatus estimates the image according to the method. 前記撮像素子は複数の前記光電変換素子によって撮像光学系の複数の異なる瞳領域の光束をそれぞれ受光し、
前記3次元データの前記所定方向の位置のデータは、前記異なる瞳領域に対応する1対の画像信号から算出されたものであることを特徴とする請求項乃至10のいずれか1項に記載の画像処理装置。
The image pickup device receives light fluxes of a plurality of different pupil regions of the image pickup optical system by the plurality of photoelectric conversion elements,
Data of the position in the predetermined direction of the three-dimensional data, according to any one of claims 8 to 10, wherein the those calculated from a pair of image signals corresponding to different pupil areas Image processing device.
前記出力手段は、前記変換手段により変換された3次元データを3次元の造形物の生成に用いるために所定の形式に変換し、出力することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 And the output means, the converted into a predetermined format in order to use the three-dimensional data converted by the conversion means to generate a three-dimensional shaped object, any one of claims 1 to 11, characterized in that output 1 The image processing device according to item. 前記出力手段は、前記3次元データをSTLファイル形式に変換し、出力することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 It said output means converts the 3-dimensional data in the STL file format, the image processing apparatus according to any one of claims 1 to 12, characterized in that output. 取得手段が、物体を含む空間を描写する3次元データを取得する取得工程と、
変換手段が、前記3次元データの所定方向の位置のデータを、物体の存在する位置に応じてそれぞれ位置を変換する変換工程と、
出力手段が、前記所定方向の位置が変換された3次元データを出力する出力工程と、を有し、
前記変換工程では、複数の物体が存在する場合、当該複数の物体の存在しない空間に対応する範囲の位置のデータを、当該複数の物体が存在する空間に対応する範囲の位置のデータに比べて大きな圧縮率で変換する、ことを特徴とする画像処理装置の制御方法。
An acquisition step in which the acquisition means acquires three-dimensional data describing a space including an object;
A conversion step in which the conversion means converts the position data of the three-dimensional data in a predetermined direction according to the position of the object;
Output means, have a, and an output step of outputting the three-dimensional data position in the predetermined direction is converted,
In the conversion step, when a plurality of objects are present, the position data in the range corresponding to the space in which the plurality of objects do not exist is compared with the position data in the range corresponding to the space in which the plurality of objects exist. A method for controlling an image processing device, characterized in that conversion is performed at a large compression rate .
コンピュータを、請求項1乃至13のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 Program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 13.
JP2015187438A 2014-12-15 2015-09-24 Image processing apparatus, control method thereof, and program Active JP6704700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/963,887 US9998724B2 (en) 2014-12-15 2015-12-09 Image processing apparatus and method for processing three-dimensional data that describes a space that includes physical objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014253414 2014-12-15
JP2014253414 2014-12-15

Publications (2)

Publication Number Publication Date
JP2016115332A JP2016115332A (en) 2016-06-23
JP6704700B2 true JP6704700B2 (en) 2020-06-03

Family

ID=56141985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015187438A Active JP6704700B2 (en) 2014-12-15 2015-09-24 Image processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6704700B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6876445B2 (en) * 2017-01-20 2021-05-26 パイオニア株式会社 Data compressors, control methods, programs and storage media

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3395569B2 (en) * 1997-04-04 2003-04-14 ミノルタ株式会社 3D reproduction device
JPH11325853A (en) * 1998-05-19 1999-11-26 Minolta Co Ltd Three-dimensional shape input device
JP2001208521A (en) * 2000-01-26 2001-08-03 Minolta Co Ltd Three-dimensional data processor
JP2002067174A (en) * 2000-08-30 2002-03-05 Minolta Co Ltd Device and method for data processing, and device and method for three-dimensional molding
CN102428501A (en) * 2009-09-18 2012-04-25 株式会社东芝 Image processing apparatus
JP6214236B2 (en) * 2013-03-05 2017-10-18 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2016115332A (en) 2016-06-23

Similar Documents

Publication Publication Date Title
JP6425780B1 (en) Image processing system, image processing apparatus, image processing method and program
KR102316061B1 (en) Image processing apparatus, method, and computer program
US20140218354A1 (en) View image providing device and method using omnidirectional image and 3-dimensional data
JP5110138B2 (en) AR processing apparatus, AR processing method, and program
WO2014083721A1 (en) Information processing device and information processing method
JP5067450B2 (en) Imaging apparatus, imaging apparatus control apparatus, imaging apparatus control program, and imaging apparatus control method
JP6677098B2 (en) Spherical video shooting system and program
JP2011250125A (en) Image processing apparatus and method thereof
WO2014002521A1 (en) Image processing device and image processing method
US20230062973A1 (en) Image processing apparatus, image processing method, and storage medium
KR20150068895A (en) Apparatus and method for generating three dimensional output data
US9998724B2 (en) Image processing apparatus and method for processing three-dimensional data that describes a space that includes physical objects
CN111742352B (en) Method for modeling three-dimensional object and electronic equipment
WO2012169174A1 (en) Image processing device and image processing method
JP6704700B2 (en) Image processing apparatus, control method thereof, and program
JP2019121945A (en) Imaging apparatus, control method of the same, and program
KR101632514B1 (en) Method and apparatus for upsampling depth image
JP6685814B2 (en) Imaging device and control method thereof
JP2010152529A (en) Vertex texture mapping device and program
JP2019062436A (en) Image processing apparatus, image processing method, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
KR101439406B1 (en) Image Processing Apparatus and Method for obtaining depth information using an image
JP7197211B2 (en) Three-dimensional graphics data creation method, program, and three-dimensional graphics data creation system
JP5126442B2 (en) 3D model generation apparatus and 3D model generation method
TW202311701A (en) Dimension measurement device, dimension measurement method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200513

R151 Written notification of patent or utility model registration

Ref document number: 6704700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151