JP2016115332A - Image processing device and control method and program therefor - Google Patents

Image processing device and control method and program therefor Download PDF

Info

Publication number
JP2016115332A
JP2016115332A JP2015187438A JP2015187438A JP2016115332A JP 2016115332 A JP2016115332 A JP 2016115332A JP 2015187438 A JP2015187438 A JP 2015187438A JP 2015187438 A JP2015187438 A JP 2015187438A JP 2016115332 A JP2016115332 A JP 2016115332A
Authority
JP
Japan
Prior art keywords
data
image processing
dimensional data
processing apparatus
predetermined direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015187438A
Other languages
Japanese (ja)
Other versions
JP6704700B2 (en
Inventor
佳弘 水尾
Yoshihiro Mizuo
佳弘 水尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US14/963,887 priority Critical patent/US9998724B2/en
Publication of JP2016115332A publication Critical patent/JP2016115332A/en
Application granted granted Critical
Publication of JP6704700B2 publication Critical patent/JP6704700B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of transforming three-dimensional form data for outputting a modeled object in a reduced scale or an enlarged scale suitable for the modeled object.SOLUTION: An image processing device includes: an acquisition means which acquires three-dimensional data describing space containing an object; a conversion means which respectively converts positional data of a predetermined direction of the three-dimensional data corresponding to a position where the object exists; and an output means which outputs the three-dimensional data in which the position of the predetermined direction is converted.SELECTED DRAWING: Figure 5

Description

本発明は、画像処理装置およびその制御方法ならびにプログラムに関し、特に3次元データの変換技術に関する。   The present invention relates to an image processing apparatus, a control method thereof, and a program, and more particularly to a three-dimensional data conversion technique.

従来、撮像画像の各画素エリアに対する距離を測定し、3次元データを取得する方法が知られている。例えば、特許文献1には、レーザーによる距離の測定と撮影画像とを組み合わせて、効果的に3次元データを取得する方法が開示されている。   2. Description of the Related Art Conventionally, a method for measuring the distance to each pixel area of a captured image and acquiring three-dimensional data is known. For example, Patent Document 1 discloses a method for effectively acquiring three-dimensional data by combining distance measurement with a laser and a captured image.

特開2004−037396号公報JP 2004-037396 A

ところで、近年、3Dプリント等と称する、物体の3次元データを入力すると当該物体の3次元形状を造形物として出力可能な技術が普及しつつある。3次元形状の造形物の出力が容易になって家庭等に普及すると、特定の種類の3次元形状データにおいては、元のデータのままの形状で縮尺あるいは倍尺を変えるだけではニーズに合っていない出力物体ができることが考えられる。   By the way, in recent years, a technique called 3D printing or the like, which can output the three-dimensional shape of an object as a modeled object when inputting the three-dimensional data of the object, is becoming widespread. When the output of a three-dimensional shaped object becomes easy and spreads to homes, etc., with a certain type of three-dimensional shape data, it will meet the needs just by changing the scale or scale of the original data as it is. It is possible that there is no output object.

本発明は、上述の従来技術の問題点に鑑みてなされ、造形物を出力させるための3次元の形状データを、造形物に適した縮尺あるいは倍尺で変形することが可能な画像処理装置およびその制御方法ならびにプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and an image processing apparatus capable of transforming three-dimensional shape data for outputting a modeled object at a scale or a scale suitable for the modeled object, and An object is to provide a control method and a program thereof.

この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、物体を含む空間を描写する3次元データを取得する取得手段と、3次元データの所定方向の位置のデータを、物体の存在する位置に応じてそれぞれ位置を変換する変換手段と、所定方向の位置が変換された3次元データを出力する出力手段と、を有する、ことを特徴とする。   In order to solve this problem, for example, an image processing apparatus of the present invention has the following configuration. That is, an acquisition unit that acquires three-dimensional data describing a space including an object, a conversion unit that converts the position data of the three-dimensional data in a predetermined direction according to the position where the object exists, and a predetermined direction Output means for outputting the three-dimensional data in which the position of is converted.

本発明によれば、造形物を出力させるための3次元の形状データを、造形物に適した縮尺あるいは倍尺で変形することが可能になる。   According to the present invention, three-dimensional shape data for outputting a modeled object can be deformed at a scale or a scale suitable for the modeled object.

本発明に係る3次元データの変換処理を適用すべき課題を説明する図The figure explaining the subject which should apply the conversion processing of three-dimensional data concerning the present invention 実施形態1に係る画像処理装置の一例としてのデジタルカメラ200の機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a digital camera 200 as an example of an image processing apparatus according to a first embodiment. 実施形態1に係る3次元データの変換処理の一連の動作を示すフローチャート3 is a flowchart showing a series of operations for three-dimensional data conversion processing according to the first embodiment. 実施形態1に係る主要物体の範囲の検出処理を説明する図The figure explaining the detection process of the range of the main object which concerns on Embodiment 1. 実施形態1に係る3次元データの奥行方向の圧縮を説明する図The figure explaining compression of the depth direction of the three-dimensional data which concerns on Embodiment 1. FIG. 実施形態1に係る3次元データのデータフォーマットの例Example of data format of three-dimensional data according to Embodiment 1 実施形態1に係るポリゴン情報による3次元データの奥行方向の圧縮を説明する図The figure explaining compression of the depth direction of the three-dimensional data by the polygon information which concerns on Embodiment 1. FIG. 実施形態1に係る変形例としての3次元データの奥行方向の圧縮を説明する図The figure explaining compression of the depth direction of the three-dimensional data as a modification which concerns on Embodiment 1. FIG. 実施形態2に係る3次元データの変換処理の一連の動作を示すフローチャート9 is a flowchart showing a series of operations for three-dimensional data conversion processing according to the second embodiment. 実施形態2における主要物体およびサブ主要物体の範囲の検出処理を説明する図FIG. 10 is a diagram for explaining detection processing of a range of a main object and a sub main object in Embodiment 2. 実施形態2に係る3次元データの奥行方向の圧縮を説明する図The figure explaining compression of the depth direction of the three-dimensional data which concerns on Embodiment 2. FIG. 実施形態3に係る3次元データの変換処理の一連の動作を示すフローチャート9 is a flowchart showing a series of operations for three-dimensional data conversion processing according to the third embodiment. 実施形態3に係る主要物体の範囲の検出処理を説明する図The figure explaining the detection process of the range of the main object which concerns on Embodiment 3. 実施形態3に係る3次元データの奥行方向の圧縮を説明する図The figure explaining compression of the depth direction of the three-dimensional data which concerns on Embodiment 3. 実施形態3に係る奥行方向と垂直平面方向の大きさの補正処理を説明する図The figure explaining the correction process of the magnitude | size of the depth direction and perpendicular | vertical plane direction which concerns on Embodiment 3. FIG. 実施形態3に係る主要物体範囲の検出方法を説明する図FIG. 6 is a diagram for explaining a main object range detection method according to the third embodiment.

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では画像処理装置の一例として、被写体の3次元形状の計測(3Dスキャンともいう)が可能な構成を備えたデジタルカメラに本発明を適用した例を説明する。しかし、本発明でいう画像処理装置は、被写体の3次元形状の計測が可能な構成に限らず、計測した3次元の形状データを取得可能な任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, an example in which the present invention is applied to a digital camera having a configuration capable of measuring a three-dimensional shape of a subject (also referred to as 3D scanning) will be described as an example of an image processing apparatus. However, the image processing apparatus referred to in the present invention is not limited to a configuration capable of measuring a three-dimensional shape of a subject, and can be applied to any electronic device that can acquire measured three-dimensional shape data. These electronic devices may include, for example, a mobile phone, a game machine, a tablet terminal, a personal computer, a clock-type or glasses-type information terminal.

(デジタルカメラ200の構成)
図2は、本実施形態の画像処理装置の一例としてデジタルカメラ200の機能構成例を示すブロック図である。なお、図2に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Configuration of digital camera 200)
FIG. 2 is a block diagram illustrating a functional configuration example of a digital camera 200 as an example of the image processing apparatus of the present embodiment. Note that one or more of the functional blocks shown in FIG. 2 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or by executing software by a programmable processor such as a CPU or MPU. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

撮像部201は、複数の撮像光学系と撮像素子によって構成され、それぞれの撮像光学系と撮像素子によって得られる視差画像を出力する。撮像部201の内部に備えられる撮像素子は、1つの撮像光学系により結像された被写体光学像を、2次元に配置された複数の画素を構成する複数の光電変換素子で受光し、画素ごとに光電変換してアナログ信号を出力する。撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子であってよい。撮像素子は、タイミングジェネレータにより供給されるタイミング信号に従って、画素ごとのアナログ信号を出力する。各撮像素子から出力された各像のアナログ信号はそれぞれA/D変換され、視差を有するデジタルの画像データ(視差画像データ)として出力される。制御部206は、撮像部201から出力された視差画像データを用いて視差情報を取得し、当該視差情報に基づいて被写体である物体の3次元の形状データ(以降、単に3次元データともいう)を算出する。なお、1つの撮像素子により、例えば全有効画素のひとつひとつの画素を独立した複数のフォトダイオードで構成し、撮像光学系の複数の異なる瞳領域の光束をそれぞれ受光させる構成であってもよい。異なる瞳領域の光束に対応する画像データは互いに視差を有する画像データであり、上記視差画像データと同様に、異なる瞳領域に対応する1対の画像信号から奥行き方向のデータを取得することができる。またこのようにすれば、1つの撮像光学系を用いて視差画像データを得ることができる。   The imaging unit 201 includes a plurality of imaging optical systems and imaging elements, and outputs parallax images obtained by the imaging optical systems and imaging elements. The image sensor provided in the imaging unit 201 receives a subject optical image formed by one imaging optical system by a plurality of photoelectric conversion elements constituting a plurality of pixels arranged two-dimensionally, and each pixel The signal is photoelectrically converted to an analog signal. The image sensor may be an image sensor such as a complementary metal oxide semiconductor (CMOS) image sensor. The image sensor outputs an analog signal for each pixel in accordance with the timing signal supplied from the timing generator. The analog signal of each image output from each image sensor is A / D converted and output as digital image data (parallax image data) having parallax. The control unit 206 acquires parallax information using the parallax image data output from the imaging unit 201, and based on the parallax information, three-dimensional shape data of an object that is a subject (hereinafter also simply referred to as three-dimensional data). Is calculated. Note that one imaging element may be configured, for example, such that each pixel of all effective pixels is configured by a plurality of independent photodiodes and receives light beams from a plurality of different pupil regions of the imaging optical system. The image data corresponding to the light fluxes of different pupil regions is image data having parallax with each other, and the data in the depth direction can be acquired from a pair of image signals corresponding to the different pupil regions, similarly to the parallax image data. . In this way, parallax image data can be obtained using one imaging optical system.

画面表示部202は、3次元データを取得中に撮像部201から出力された画像を表示するほか、既に取得した形状データに関する情報(既スキャン情報)、撮像画像等の確認を行う。   The screen display unit 202 displays an image output from the imaging unit 201 during acquisition of the three-dimensional data, and confirms information on already acquired shape data (existing scan information), a captured image, and the like.

画面操作部203は、例えば画面表示部202の表示面上に配置されており、ユーザによる例えば接触操作などを検出すると、制御部206に操作指示の検出を通知する。制御部206は、画面操作部203からの通知に応じて、例えばメニュー表示等の表示を変更するために画面表示部202を制御する。   The screen operation unit 203 is disposed on the display surface of the screen display unit 202, for example, and notifies the control unit 206 of detection of an operation instruction when detecting a contact operation, for example, by the user. In response to the notification from the screen operation unit 203, the control unit 206 controls the screen display unit 202 in order to change a display such as a menu display.

物体検出部204は、撮像部201によって得られる画像データに対して後述する物体検出処理を行う。物体検出処理は、画像内部の人物や物体の検出や、それらの位置、大きさなどを特定するための算出処理を行い、算出結果を制御部206に出力する。   The object detection unit 204 performs object detection processing described later on the image data obtained by the imaging unit 201. In the object detection process, a calculation process is performed to detect a person or an object in the image and specify the position and size thereof, and the calculation result is output to the control unit 206.

ボタン操作部205は、操作ボタン等に対するユーザからの操作指示を検出し、制御部206に操作指示の検出あるいはその検出内容を通知する。制御部206は、ボタン操作部205からの通知に応じてデジタルカメラ200の各部を制御する。   The button operation unit 205 detects an operation instruction from the user for the operation button or the like, and notifies the control unit 206 of the detection of the operation instruction or the content of the detection. The control unit 206 controls each unit of the digital camera 200 in response to a notification from the button operation unit 205.

制御部206は、例えばCPUあるいはMPUであり、ROM207に格納されたプログラムをRAM208の作業エリアに展開し、実行することにより、デジタルカメラ200全体を制御する。制御部206は、視差画像データから得られる視差情報に基づいて、3次元データを算出するとともに、算出した3次元データに対して、後述する3次元データの変換処理を行う。   The control unit 206 is, for example, a CPU or MPU, and controls the entire digital camera 200 by developing and executing a program stored in the ROM 207 in the work area of the RAM 208. The control unit 206 calculates three-dimensional data based on the parallax information obtained from the parallax image data, and performs conversion processing of three-dimensional data described later on the calculated three-dimensional data.

ROM207は、半導体メモリや磁気ディスク等から構成される不揮発性の記憶装置であり、制御部206が実行するプログラムやデジタルカメラ200に設定された設定値を記憶する。   The ROM 207 is a non-volatile storage device composed of a semiconductor memory, a magnetic disk, or the like, and stores programs executed by the control unit 206 and setting values set in the digital camera 200.

RAM208は、揮発性の記憶装置であり、デジタルカメラ200の電源を切った後は消えても構わないような一時的なデータを記憶する装置である。RAM208は、処理中の一時的なデータを記憶する役割を担う。   The RAM 208 is a volatile storage device that stores temporary data that may be erased after the digital camera 200 is turned off. The RAM 208 plays a role of storing temporary data being processed.

メモリスロット209は、記録データをメモリカード210に読み書きするためのインタフェースである。メモリカード210は、磁気や半導体で構成される記録メディアであり、撮影された画像や3次元データ、デジタルカメラ200に対する設定値がメモリスロット209を介して記録される。   The memory slot 209 is an interface for reading / writing recording data from / to the memory card 210. The memory card 210 is a recording medium composed of magnetism or a semiconductor, and recorded images, three-dimensional data, and setting values for the digital camera 200 are recorded via the memory slot 209.

加速度センサ211およびジャイロセンサ212は、デジタルカメラ200自体の移動、回転をそれぞれ検出する。制御部206は、検出された移動量や回転量の情報と、撮像部201の出力から算出可能な1方向の物体形状情報(即ち視差画像データから得られる3次元の情報)を多数の視点で取得した情報とを組み合わせて、3次元物体データを生成することができる。なお、本実施形態では、奥行き方向(Z軸方向)の情報を取得する手段として、視差画像データを用いたが、これに限らず、例えば赤外線などを用いたTOFセンサなど、奥行き方向の情報を取得する手段は、他の手法であってもよい。   The acceleration sensor 211 and the gyro sensor 212 respectively detect the movement and rotation of the digital camera 200 itself. The control unit 206 uses information about the detected movement amount and rotation amount, and unidirectional object shape information that can be calculated from the output of the imaging unit 201 (that is, three-dimensional information obtained from the parallax image data) from multiple viewpoints. In combination with the acquired information, three-dimensional object data can be generated. In this embodiment, the parallax image data is used as a means for acquiring information in the depth direction (Z-axis direction). However, the present invention is not limited to this, and information on the depth direction, such as a TOF sensor using infrared rays, is used. The means for obtaining may be another method.

撮像部201〜ジャイロセンサ212の各機能ブロックは、バスによって互いに接続され、データの送受信を行うことができる。   The functional blocks of the imaging unit 201 to the gyro sensor 212 are connected to each other by a bus and can transmit and receive data.

(本実施形態に係る3次元データの変換処理の必要性)
図1を参照して、被写体で構成される空間を3Dスキャンすることにより得られた3次元データを、造形物として出力する場合の課題の例を説明する。図1(a)は、デジタルカメラ200と、被写体となる物体101〜104の実物物体の位置関係を示している。物体101〜104は、デジタルカメラ200から奥行方向(Z軸方向)の各位置に存在し、それぞれが物体固有の奥行き(厚み)を有している。物体101および物体102は、Z軸からそれぞれプラスX方向、マイナスX方向に所定の距離を離れて位置し、デジタルカメラ200からZ軸方向の同等の距離に位置している。物体101および物体102より遠方(プラスZ軸方向)に物体103、物体104がそれぞれ所定の距離を隔てて位置している。このような物体101〜104の3次元データを、デジタルカメラ200により3Dスキャンするものとする。ここで、本実施形態のように、2次元に配列された光電変換素子を有する撮像素子で取得された画像信号によりX軸方向、Y軸方向の2次元データを取得し、さらに奥行き情報を取得する構成によって生成される3次元データについて説明する。例えば撮像部201の有する撮像素子で撮像する場合、撮像された画像内の被写体の大きさは、デジタルカメラ200からの距離に応じて実際の大きさより小さく撮像される。従って、単純に撮像部201から得られる2次元データ(画像データ)に奥行き情報のZ軸方向のデータを加えて3次元データを生成しても、実空間における各被写体の大きさの関係を再現しているとは限らない。実空間における3次元データをモデリングするためには、奥行き情報に基づいて、XY方向の各被写体の大きさも変形する必要がある。ただし、本実施形態では、2次元の画像データとして鑑賞可能なデータを持つユーザが、その画像の3次元化を求めて造形物を出力することを想定している。このため、3D出力装置へ提供する3次元データとしては、必ずしも各被写体の大きさの関係まで再現した3次元データである必要はなく、むしろXY軸方向の物体(被写体)の大きさの関係を画像データと等しくした前者の3次元データの方が好ましい場合も考えられる。従って、本実施形態では、物体を含む空間を描写する3次元データとしてXY方向のデータはどちらのデータも考えられるものとする。
(Necessity of 3D data conversion processing according to this embodiment)
With reference to FIG. 1, the example of the subject in the case of outputting the three-dimensional data obtained by carrying out 3D scanning of the space comprised by a subject as a molded article is demonstrated. FIG. 1A shows the positional relationship between the digital camera 200 and the real objects 101 to 104 that are the subjects. The objects 101 to 104 exist at respective positions in the depth direction (Z-axis direction) from the digital camera 200, and each has an object-specific depth (thickness). The object 101 and the object 102 are located at a predetermined distance from the Z axis in the plus X direction and the minus X direction, respectively, and are located at the same distance from the digital camera 200 in the Z axis direction. An object 103 and an object 104 are located at a predetermined distance away from the object 101 and the object 102 (in the plus Z-axis direction). It is assumed that 3D data of such objects 101 to 104 is 3D scanned by the digital camera 200. Here, as in this embodiment, two-dimensional data in the X-axis direction and the Y-axis direction are acquired from image signals acquired by an image sensor having photoelectric conversion elements arranged two-dimensionally, and depth information is further acquired. The three-dimensional data generated by the configuration to be described will be described. For example, when imaging is performed with an imaging element included in the imaging unit 201, the size of the subject in the captured image is captured smaller than the actual size according to the distance from the digital camera 200. Therefore, even if the three-dimensional data is generated by simply adding the data in the Z-axis direction of the depth information to the two-dimensional data (image data) obtained from the imaging unit 201, the relationship of the size of each subject in the real space is reproduced. Not necessarily. In order to model the three-dimensional data in the real space, it is necessary to change the size of each subject in the XY directions based on the depth information. However, in the present embodiment, it is assumed that a user who has data that can be viewed as two-dimensional image data seeks to make the image three-dimensional and outputs a shaped object. For this reason, the three-dimensional data provided to the 3D output device does not necessarily have to be three-dimensional data reproduced to the relationship of the size of each subject. In some cases, the former three-dimensional data equal to the image data is preferable. Therefore, in this embodiment, it is assumed that both data in the XY directions can be considered as three-dimensional data describing a space including an object.

上述の3Dスキャンにより得られた3次元データについて、さらに奥行き方向の情報について考える。得られた3次元データのうちの奥行き情報は、例えば図1(b)に示すように、3D出力装置で出力可能な大きさに縮尺を変更される(正規化される)。3次元データ中の各オブジェクト109〜112は、物体101〜104にそれぞれ対応する。図1(b)に示す各オブジェクトは、Z軸方向が一律に3D出力装置のレンジに合わせて縮小され、物体101〜104の間の奥行き方向の位置関係を維持して縮小されている。   Regarding the three-dimensional data obtained by the above-described 3D scanning, information on the depth direction will be further considered. The depth information in the obtained three-dimensional data is changed (normalized) to a size that can be output by the 3D output device, for example, as shown in FIG. The objects 109 to 112 in the three-dimensional data correspond to the objects 101 to 104, respectively. In each object shown in FIG. 1B, the Z-axis direction is uniformly reduced in accordance with the range of the 3D output device, and the object 101 to 104 is reduced while maintaining the positional relationship in the depth direction.

しかし、撮影した3次元データを記念物体等として出力する場合、例えば図1(c)のように、奥行方向の縮尺を、物体の特徴に合わせて適切に縮小させる、または図1(d)のように、レリーフ状の3D出力物体として出力させるなどのニーズがある。また、図1(b)に示すような種類の3次元形状データの出力では、オブジェクト111とオブジェクト112の間のスペースが無駄になる場合や、画像データ内に存在していた例えばオブジェクト111などの重要な被写体が強調されず、印象的に見えないなど、ユーザの意図に沿わない構成になってしまう場合がある。従って、必ずしも各物体の位置関係や奥行きを正確に再現するのではなく、必要に応じてオブジェクト間の奥行きを変更する、3次元データの変換処理を行うことが望まれる。   However, when the photographed three-dimensional data is output as a memorial object or the like, for example, as shown in FIG. 1C, the scale in the depth direction is appropriately reduced according to the characteristics of the object, or as shown in FIG. Thus, there is a need for outputting as a relief-like 3D output object. Further, in the output of the three-dimensional shape data of the type as shown in FIG. 1B, the space between the object 111 and the object 112 is wasted, or the object 111 or the like that existed in the image data is used. In some cases, an important subject is not emphasized and cannot be viewed impressively, and the configuration does not match the user's intention. Therefore, it is not always necessary to accurately reproduce the positional relationship and depth of each object, but it is desirable to perform a three-dimensional data conversion process that changes the depth between objects as necessary.

そこで、本実施形態では、例えばz軸方向などの所定の方向の位置のデータの縮尺を変更し、さらにz軸方向の位置(範囲)に応じて縮尺(圧縮率)を変更可能にする。すなわち、本実施形態では、3次元データの所定方向の位置のデータを、物体の存在する位置に応じてそれぞれ変換する。例えば図1(c)および図1(d)に示すように、オブジェクト111とオブジェクト112の間の奥行き部分の縮尺をオブジェクト111やオブジェクト112の範囲の縮尺よりも大きくする。すなわち、本実施形態では、以下に説明する3次元データの変換処理によって例えば奥行方向の縮尺を奥行方向の位置に応じて変更するようにする。z軸方向の縮尺は、z軸方向と直交するx軸方向やy軸方向の縮尺と独立して行われてもよいし、何らかで関連付けられていてもよい。   Therefore, in this embodiment, for example, the scale of data at a position in a predetermined direction such as the z-axis direction is changed, and the scale (compression ratio) can be changed according to the position (range) in the z-axis direction. That is, in this embodiment, the data of the position in the predetermined direction of the three-dimensional data is converted according to the position where the object exists. For example, as shown in FIGS. 1C and 1D, the scale of the depth portion between the object 111 and the object 112 is made larger than the scale of the range of the object 111 or the object 112. That is, in the present embodiment, for example, the scale in the depth direction is changed according to the position in the depth direction by the conversion process of three-dimensional data described below. The scale in the z-axis direction may be performed independently of the scale in the x-axis direction and the y-axis direction orthogonal to the z-axis direction, or may be associated with something.

(3次元データの変換処理に係る一連の動作)
次に、図3を参照して、デジタルカメラ200による3次元データの変換処理に係る一連の動作を説明する。本処理は、例えばデジタルカメラ200のボタン操作部205に対するユーザによる撮影指示が検出された場合に開始される。なお、本処理に係る各ステップは、制御部206の指示に応じて実行され、制御部206がROM207に記憶されたプログラムをRAM208の作業用領域に展開し、実行することにより実現される。
(A series of operations related to conversion processing of three-dimensional data)
Next, with reference to FIG. 3, a series of operations related to the conversion process of the three-dimensional data by the digital camera 200 will be described. This process is started when, for example, a shooting instruction from the user to the button operation unit 205 of the digital camera 200 is detected. Note that each step related to this processing is executed in accordance with an instruction from the control unit 206, and is realized by the control unit 206 developing and executing a program stored in the ROM 207 in the work area of the RAM 208.

S301において、制御部206は、撮像部201から出力される視差画像データ、加速度センサ211の出力およびジャイロセンサ212の出力を取得する3Dスキャンと、取得した各データに基づく3次元データの成形処理を行う。本実施形態では、図1(a)に示した被写体となる物体101〜104を3Dスキャンの対象とした場合を例に説明する。本実施形態では、ある位置、方向(例えば図1(a)のデジタルカメラ200)の画像を基準として多方向からスキャン、即ち複数の方向から複数回の撮影を行なう。撮影の際には、デジタルカメラ200の撮影位置や向きの変動が各撮影と対応づけて取得され、得られたデータから被写体の3次元形状を得る。複数の視差画像データおよび撮影位置や向きの変動に基づいて、被写体となる物体の3次元形状を得る方法については、公知の方法を用いることができる。例えば、加速度センサ211、ジャイロセンサ212の情報を利用すると、撮影を行った複数の位置の位置関係が把握できるため、全ての3Dデータとしての点群データを、1つの3次元空間上での位置に落とし込むことができる。この合成操作によって、被写体の裏表も含めた表面形状の3D点群データを取得することができる。図1(a)に示す物体の3次元形状をスキャンした後、制御部206は、3次元データの成形処理、即ち例えばSTLファイルフォーマット等の一般的な3次元データに成形する処理を行う。   In step S301, the control unit 206 performs a 3D scan for acquiring the parallax image data output from the imaging unit 201, the output of the acceleration sensor 211, and the output of the gyro sensor 212, and a three-dimensional data shaping process based on the acquired data. Do. In the present embodiment, an example will be described in which the objects 101 to 104 to be subjects shown in FIG. 1A are targeted for 3D scanning. In the present embodiment, scanning from multiple directions is performed with reference to an image at a certain position and direction (for example, the digital camera 200 in FIG. 1A), that is, photographing is performed a plurality of times from a plurality of directions. At the time of shooting, a change in shooting position and orientation of the digital camera 200 is acquired in association with each shooting, and the three-dimensional shape of the subject is obtained from the obtained data. As a method for obtaining a three-dimensional shape of an object as a subject based on a plurality of parallax image data and photographing position and orientation fluctuations, a known method can be used. For example, if the information of the acceleration sensor 211 and the gyro sensor 212 is used, the positional relationship between a plurality of positions where photographing has been performed can be grasped. Therefore, the point cloud data as all 3D data can be converted into positions in one 3D space. Can be dropped. By this combining operation, 3D point cloud data of the surface shape including the back and front of the subject can be acquired. After scanning the three-dimensional shape of the object shown in FIG. 1A, the control unit 206 performs a three-dimensional data forming process, that is, a process for forming general three-dimensional data such as an STL file format.

STLファイルフォーマットにおいては、3次元形状を3角形の面の集合として表現する方式を用いており、3次元点群データを3角形の集合データに変換する必要がある。この変換に関しては、一般的にいくつかの方法が知られているが、本実施形態では広く知られているアルゴリズムである3次元ドロネー分割法を用いるものとする。ROM207の中には、あらかじめこのドロネー分割法のアルゴリズムが格納されており、前述の手順で得られた物体の点群データを3角形平面集合に変換し、それを3次元空間内での3角形の集合体データであるSTLファイル形式に変換する。   The STL file format uses a method of expressing a three-dimensional shape as a set of triangle faces, and it is necessary to convert the three-dimensional point cloud data into triangle set data. For this conversion, several methods are generally known. In this embodiment, a three-dimensional Delaunay division method, which is a widely known algorithm, is used. The algorithm of the Delaunay division method is stored in advance in the ROM 207, and the point cloud data of the object obtained by the above procedure is converted into a triangular plane set, which is converted into a triangular shape in a three-dimensional space. Is converted into the STL file format which is the aggregate data.

本実施形態においては、本ステップの成形処理により、3D出力装置で可能な大きさに縮尺を変更し、x、y、z軸のそれぞれが同じ縮尺で縮小された3次元データを生成するものとして説明する。制御部206は、データの成形処理が終了するとメモリスロット209を介してメモリカード210に成形後のデータを格納する。本実施形態では複数の撮像光学系とその視差画像データを利用した3Dスキャンについて説明するが、3次元データが得られる限り、レーザー照射を利用する形態や像面位相差センサを利用する形態など他の形態も適用可能である。撮像部201に像面位相差検出機構が搭載されている場合、画素単位での距離データ取得が可能である。よって特定のある位置から撮像処理を行って得られる画像データには、画像内の各画素に対する色データと、加えて各画素毎にデジタルカメラ200から各画素に対応する被写体の表面部までの距離情報を取得することができる。この各画素に対して奥行方向の距離を配置した点群データが取得できる生の3Dデータとなる。   In this embodiment, it is assumed that the scale processing is changed to a size that can be performed by the 3D output device by the molding process in this step, and three-dimensional data in which each of the x, y, and z axes is reduced at the same scale is generated. explain. When the data shaping process ends, the control unit 206 stores the shaped data in the memory card 210 via the memory slot 209. In this embodiment, a 3D scan using a plurality of imaging optical systems and parallax image data thereof will be described. However, as long as three-dimensional data is obtained, a mode using laser irradiation, a mode using an image plane phase difference sensor, and the like. This form is also applicable. When the image plane phase difference detection mechanism is mounted on the imaging unit 201, distance data can be obtained in units of pixels. Therefore, the image data obtained by performing the imaging process from a specific position includes color data for each pixel in the image and, in addition, the distance from the digital camera 200 to the surface portion of the subject corresponding to each pixel for each pixel. Information can be acquired. The point cloud data in which the distance in the depth direction is arranged for each pixel is raw 3D data that can be acquired.

S302において、制御部206は、奥行方向を定義するために座標軸を決定する。本実施形態では、例えばz方向を奥行方向として定義する。y方向は地面に対して鉛直方向を表し、3Dスキャン中に加速度センサ211によって重力加速度の方向を特定することで定義する。3Dスキャン中はデジタルカメラ自体が様々な方向を向くため、スキャン直後にはどちらがz軸方向であるかが決定されていない。このため、制御部206は、スキャン結果の3次元データの概形を画面表示部202に表示し、画面操作部203のユーザインターフェースを介してユーザにより奥行方向であるz軸方向を決定する。z軸方向を決定すると上述したy軸の定義にしたがってy軸方向を決定し、さらにx軸方向を決定する。制御部206は、S301において生成した3次元データを新たに決定した座標系の3次元データに変換してメモリカード210に記憶させる。なお、以降の説明では図1(a)で示したz軸を選択したものとして説明する。   In S302, the control unit 206 determines a coordinate axis to define the depth direction. In the present embodiment, for example, the z direction is defined as the depth direction. The y direction represents a vertical direction with respect to the ground, and is defined by specifying the direction of gravitational acceleration by the acceleration sensor 211 during 3D scanning. Since the digital camera itself faces in various directions during 3D scanning, it is not determined which one is in the z-axis direction immediately after scanning. For this reason, the control unit 206 displays the outline of the three-dimensional data of the scan result on the screen display unit 202, and determines the z-axis direction that is the depth direction by the user via the user interface of the screen operation unit 203. When the z-axis direction is determined, the y-axis direction is determined according to the definition of the y-axis described above, and the x-axis direction is further determined. The control unit 206 converts the three-dimensional data generated in S301 into the three-dimensional data of the newly determined coordinate system and stores it in the memory card 210. In the following description, it is assumed that the z-axis shown in FIG.

また、3Dスキャン中に記憶した2次元の撮像画像のうち、3次元データの所定の断面に対応する画像を決定する。即ち、決定したz軸方向に向かって撮像した画像であって、上述の物体101〜104が画角内に収まった画像を1枚決定し、3次元データの付加情報としてメモリカード210に記憶する。   In addition, an image corresponding to a predetermined cross section of the three-dimensional data is determined from the two-dimensional captured image stored during the 3D scan. In other words, one image taken in the determined z-axis direction and having the above-described objects 101 to 104 within the angle of view is determined and stored in the memory card 210 as additional information of three-dimensional data. .

本実施形態では、多方向からスキャン(即ち撮影)することを前提とするためユーザによるz軸方向の設定を行うようにしている。しかし、1方向からのスキャンのみで背面情報を取得しない等のスキャン方法の場合は、スキャン時の方向をそのままz軸として設定するようにしてもよい。この場合ユーザによるz軸指定は不要となる。   In the present embodiment, since it is assumed that scanning (that is, photographing) is performed from multiple directions, the user sets the z-axis direction. However, in the case of a scanning method in which back information is not acquired only by scanning from one direction, the scanning direction may be set as the z axis as it is. In this case, the user does not need to specify the z axis.

S303において、制御部206は、被写体である物体のうち、注目すべき主要物体を決定する。図4(a)は、S302において決定した2次元画像と当該画像に対する物体の検出結果の一例を示している。物体検出部204は、制御部206の指示に応じて、2次元画像において画像内の物体を検出し、その後、制御部206は、物体検出部204による検出結果を画面表示部202に表示する。なお、2次元画像内の物体の検出においては、公知の物体検出技術を用いることができるため、物体検出技術についての詳細な説明は省略する。図4(a)における表示例では、検出された画像内の4つの物体、即ち物体401〜404に対して、それぞれが検出されたことを明示するための物体検出枠405〜408が表示されている。ユーザは、画面操作部203に対する指示操作によって、物体検出枠405〜408のどれかを選択することで主要物体を特定する。制御部206は、ユーザ操作により所定の物体が特定されると、特定された物体を主要物体として決定する。なお、主要物体の決定方法については、上述したユーザの手動による決定方法だけでなく、制御部206が自動的に主要物体を決定するようにしてもよい。この場合には、画角内の物体の位置、物体が人物であるかといった物体の特性等の情報によって決定すればよい。   In step S <b> 303, the control unit 206 determines a main object to be noted among objects that are subjects. FIG. 4A shows an example of the two-dimensional image determined in S302 and an object detection result for the image. The object detection unit 204 detects an object in the image in the two-dimensional image in accordance with an instruction from the control unit 206, and then the control unit 206 displays the detection result by the object detection unit 204 on the screen display unit 202. Note that since a known object detection technique can be used for detecting an object in a two-dimensional image, a detailed description of the object detection technique is omitted. In the display example in FIG. 4A, object detection frames 405 to 408 for clearly indicating that each of the four objects in the detected image, that is, the objects 401 to 404 are detected, are displayed. Yes. The user specifies a main object by selecting one of the object detection frames 405 to 408 by an instruction operation on the screen operation unit 203. When a predetermined object is specified by a user operation, the control unit 206 determines the specified object as a main object. Note that the main object determination method is not limited to the above-described manual determination method by the user, and the control unit 206 may automatically determine the main object. In this case, it may be determined by information such as the position of the object within the angle of view and the characteristics of the object such as whether the object is a person.

S304において、制御部206は、決定した主要物体の奥行方向の厚みを検出する。図4(a)に示す画像を撮影した位置および向きは、3Dスキャン中に記録された位置関係から得ることができ、図4(b)に示すデジタルカメラ200の位置および光軸の向きであるものとする。制御部206は、図4(a)の物体検出枠407が、取得済みの3次元データ内でどのような関係になるかを特定することができる。より具体的には、図4(b)は、物体検出枠407が3次元データにおいてどのような位置にあるかを示している。制御部206は、この物体検出枠407をz軸方向に走査し、走査してできた直方体410に含まれる物体領域の3次元データを検出する。   In step S304, the control unit 206 detects the thickness of the determined main object in the depth direction. The position and orientation at which the image shown in FIG. 4A is taken can be obtained from the positional relationship recorded during the 3D scan, and is the position and optical axis orientation of the digital camera 200 shown in FIG. 4B. Shall. The control unit 206 can specify how the object detection frame 407 in FIG. 4A is in the acquired three-dimensional data. More specifically, FIG. 4B shows what position the object detection frame 407 is in the three-dimensional data. The control unit 206 scans the object detection frame 407 in the z-axis direction, and detects three-dimensional data of the object region included in the rectangular parallelepiped 410 formed by the scanning.

さらに具体的には、3次元データは、例えばSTLファイルフォーマット等の場合、ポリゴンと呼ばれる最少単位の3次元上の三角形情報の集合体として表現されている。制御部206は、まず上述した直方体内に含まれるポリゴンを全て検出する。その上で、検出したポリゴン間での接続状況を考慮して、上述の直方体410内でポリゴン群が閉曲面を構成しているか、またその閉曲面で構成される範囲のxy平面への写像が物体検出枠407の一定量以上の割合を占めているか、を判定する。いずれの判定をも満たす場合、制御部206は、直方体410に含まれる3次元データを主要物体の物体領域として決定する。一方、上述した条件を満たしている場合において、ポリゴン閉曲面で構成された物体が複数検出された場合、例えば「より前面にある」等の条件を加えることにより1つの物体に関する3次元データを決定する。本実施形態の場合、このような処理を行うことで、物体103を構成するポリゴン情報を抽出することができる。検出した物体103を構成するポリゴン情報のうち、z軸成分が一番小さいものと、一番大きいものとの差分を用いて物体103の厚みを推定することにより算出する。算出された厚みは、図4(b)における物体厚み409となる。   More specifically, for example, in the case of the STL file format or the like, the three-dimensional data is expressed as a collection of triangular information on a three-dimensional minimum unit called a polygon. First, the control unit 206 detects all the polygons included in the above-mentioned rectangular parallelepiped. In addition, in consideration of the connection status between the detected polygons, whether the polygon group forms a closed curved surface in the above-mentioned rectangular parallelepiped 410, or the mapping of the range formed by the closed curved surface to the xy plane is performed. It is determined whether the object detection frame 407 occupies a certain amount or more. If both determinations are satisfied, the control unit 206 determines the three-dimensional data included in the rectangular parallelepiped 410 as the object region of the main object. On the other hand, when a plurality of objects composed of polygonal closed curved surfaces are detected when the above-described conditions are satisfied, for example, three-dimensional data relating to one object is determined by adding a condition such as “in front of”. To do. In the case of this embodiment, the polygon information which comprises the object 103 is extractable by performing such a process. It is calculated by estimating the thickness of the object 103 using the difference between the smallest z-axis component and the largest z-axis component of the detected polygon information constituting the object 103. The calculated thickness is the object thickness 409 in FIG.

S305において、制御部206は、S304において算出した物体103のz軸方向の位置と厚みに基づいて、z軸方向に対する圧縮プロファイル関数H(z)を生成する。具体的には、圧縮プロファイル関数H(z)は、z軸上のどの位置にある成分をどれだけの倍率で圧縮するかを示すzの関数であり、z方向に対する変換特性を表す。圧縮プロファイル関数H(z)は、S304において算出したオブジェクト111のz軸方向の位置および厚みを利用して生成される。図5を参照して、圧縮プロファイル関数H(z)の生成処理を含むz軸方向の圧縮について説明する。なお、以降の説明は簡単のためにz方向について説明するが、x、y方向については例えば圧縮率1で変換するものする。   In S305, the control unit 206 generates a compression profile function H (z) for the z-axis direction based on the position and thickness in the z-axis direction of the object 103 calculated in S304. Specifically, the compression profile function H (z) is a function of z indicating how much the component at which position on the z-axis is to be compressed, and represents a conversion characteristic in the z direction. The compression profile function H (z) is generated using the position and thickness in the z-axis direction of the object 111 calculated in S304. With reference to FIG. 5, compression in the z-axis direction including generation processing of the compression profile function H (z) will be described. In the following description, the z direction will be described for the sake of simplicity, but the x and y directions are converted at a compression rate of 1, for example.

図5(a)は、z軸と垂直な方向(x軸のプラス側)から見た3次元データにおける位置関係を模式的に示している。また、図5(b)は、圧縮プロファイル関数H(z)の特性を示しており、横軸は奥行き(z)、縦軸は圧縮率を示している。例えば、圧縮率が1の場合、z軸方向の成分はそのまま維持される。また、例えば圧縮率が2の場合、z軸方向の距離はさらに1/2に圧縮される。オブジェクト111については、オブジェクト111の存在する位置と厚み範囲に対応する部分の圧縮率が1であるため、位置および厚みは変化しない。一方、オブジェクト111以外の位置については、その位置から離れるに従って線形に圧縮率が上がる特性を示している。このため、オブジェクト111と、オブジェクト109およびオブジェクト112とのそれぞれのz軸方向の位置関係はそれぞれ圧縮され、図5(c)に示すように、オブジェクト501と502の間、オブジェクト502と503の間の距離のように短縮される。また、オブジェクト109およびオブジェクト112の厚みもそれぞれ圧縮されるため、それぞれが図5(c)に示すオブジェクト501および503の厚みに圧縮される。このように、制御部206は、主要物体のz軸方向の位置と厚みに基づいて、主要物体に関して圧縮率を低く保ち、主要物体からの距離に応じて線形に圧縮率が上がる(即ち単調増加する)ように、圧縮プロファイル関数を生成する。   FIG. 5A schematically shows the positional relationship in the three-dimensional data viewed from the direction perpendicular to the z axis (the positive side of the x axis). FIG. 5B shows the characteristics of the compression profile function H (z). The horizontal axis indicates the depth (z), and the vertical axis indicates the compression rate. For example, when the compression ratio is 1, the component in the z-axis direction is maintained as it is. For example, when the compression ratio is 2, the distance in the z-axis direction is further compressed to ½. For the object 111, the position and thickness do not change because the compression ratio of the portion corresponding to the position where the object 111 exists and the thickness range is 1. On the other hand, the positions other than the object 111 show a characteristic in which the compression rate increases linearly with distance from the position. For this reason, the positional relationship in the z-axis direction between the object 111, the object 109, and the object 112 is respectively compressed, and between the objects 501 and 502 and between the objects 502 and 503, as shown in FIG. The distance is shortened. Further, since the thicknesses of the object 109 and the object 112 are also compressed, respectively, the thicknesses are compressed to the thicknesses of the objects 501 and 503 shown in FIG. As described above, the control unit 206 keeps the compression rate low with respect to the main object based on the position and thickness of the main object in the z-axis direction, and the compression rate increases linearly according to the distance from the main object (that is, monotonously increases). To generate a compression profile function.

S306において、制御部206は、圧縮プロファイル関数から、実際に3次元データのz軸データを変換するための変換関数G(z)を生成する。連続系の数式で表すと、変換関数G(z)は、数式1で表される数式によって圧縮プロファイル関数H(z)から生成できる。数式1は、CPU演算等に適した離散系の数式では、数式2で表される数式となる。   In S306, the control unit 206 generates a conversion function G (z) for actually converting z-axis data of the three-dimensional data from the compression profile function. When expressed by a continuous equation, the conversion function G (z) can be generated from the compression profile function H (z) by the equation represented by Equation 1. Formula 1 is a discrete formula suitable for CPU calculation or the like and is expressed by Formula 2.

z軸方向における圧縮プロファイル関数H(z)、変換関数G(z)および変換後のz’について、図5(c)を参照して説明する。説明の簡略化のため、横軸zは0〜100に正規化されているものとする。z=0の位置がz軸方向のデータ範囲の最前面位置、z=100の位置がz軸方向のデータ範囲の最後方位置に相当する。図5(d)は、圧縮プロファイル関数H(z)を表し、主要物体の範囲(z=30〜40)以外の圧縮率は任意に設定可能である。主要物体の範囲以外の圧縮率は、例えばz軸方向の最前面位置および最後方位置の圧縮率をそれぞれ予め定めた圧縮率として、主要物体の位置および厚みとの関係から算出するようにしてもよい。図5(e)に示す変換関数G(z)は、図5(d)に示す圧縮プロファイル関数H(z)に数式1および数式2が適用されて算出される関数である。圧縮変換する前の座標をz、zに対応する変換後の座標をz’とすると、zとz’の関係は数式3で表される。このzとz’の関係をグラフにしたものが図5(f)となる。   The compression profile function H (z), conversion function G (z), and z ′ after conversion in the z-axis direction will be described with reference to FIG. For simplicity of explanation, it is assumed that the horizontal axis z is normalized to 0-100. The position of z = 0 corresponds to the forefront position of the data range in the z-axis direction, and the position of z = 100 corresponds to the rearmost position of the data range in the z-axis direction. FIG. 5D shows a compression profile function H (z), and compression ratios other than the main object range (z = 30 to 40) can be arbitrarily set. The compression ratios other than the range of the main object may be calculated from the relationship between the position and thickness of the main object, for example, with the compression ratios at the forefront position and the rearmost position in the z-axis direction as predetermined compression ratios. Good. The conversion function G (z) shown in FIG. 5 (e) is a function calculated by applying Equations 1 and 2 to the compression profile function H (z) shown in FIG. 5 (d). If the coordinate before compression conversion is z and the coordinate after conversion corresponding to z is z ′, the relationship between z and z ′ is expressed by Equation 3. FIG. 5F is a graph showing the relationship between z and z ′.

S307において、制御部206は、S306で決定したz軸方向における変換関数G(z)を用いて、S302で得られた3次元データのz軸方向のデータを変換する処理を行う。図6は、3次元データのファイルフォーマットの一例であるSTL(STereoLithography)ファイルフォーマットの構文を示している。図6に示すように、3次元データは、3次元空間上での三角形情報であるポリゴン情報を列挙した形式で表現されている。より具体的には、”facet normal”行から”endfacet”行までが三角形データの具体的なデータを構成し、具体的なデータは”facet normal”行および”vertex”行に記述される。”facet normal”行は、三角形の法線ベクトルを表し、3つの”vertex”行は三角形データの各頂点の座標を表すとともに、各頂点はx、y、z成分の数値を持つ。従って、制御部206は、三角形の各頂点の情報に対して、変換関数G(z)を適用してz軸方向に位置を変換する。   In S307, the control unit 206 performs a process of converting the data in the z-axis direction of the three-dimensional data obtained in S302 using the conversion function G (z) in the z-axis direction determined in S306. FIG. 6 shows the syntax of an STL (STereoLithography) file format, which is an example of a three-dimensional data file format. As shown in FIG. 6, the three-dimensional data is expressed in a format in which polygon information that is triangle information in a three-dimensional space is listed. More specifically, the “facet normal” line to the “endfacet” line constitute specific data of triangle data, and the specific data is described in the “facet normal” line and the “vertex” line. The “facet normal” line represents the normal vector of the triangle, the three “vertex” lines represent the coordinates of each vertex of the triangle data, and each vertex has numerical values of x, y, and z components. Accordingly, the control unit 206 converts the position in the z-axis direction by applying the conversion function G (z) to the information on each vertex of the triangle.

図7は、ポリゴンの3角形情報をz軸変換関数G(z)を使ってz軸方向にどのように変換するかを示している。図7(a)においてSで示すポリゴン情報は、A(x1、y1、z1)、B(x2、y2、z2)およびC(x3、y3、z3)の3頂点から構成されている。制御部206は、3次元データに含まれている全てのポリゴン情報に関して、x成分、y成分は変更せず、z成分のみについて数式3で示すz’を算出して、zをz’で変更したデータを作成する。図7(b)は、図7(a)に示すSが、式3によってz成分のみが圧縮されてS’となったポリゴン情報を示している。Sを構成するA〜Cの各頂点情報が、それぞれA’(x1、y1、z1’)、B’(x2、y2、z2’)、C’(x3、y3、z3’)に変換されている。   FIG. 7 shows how polygon triangle information is converted in the z-axis direction using the z-axis conversion function G (z). The polygon information indicated by S in FIG. 7A is composed of three vertices of A (x1, y1, z1), B (x2, y2, z2) and C (x3, y3, z3). The control unit 206 does not change the x component and the y component with respect to all polygon information included in the three-dimensional data, calculates z ′ represented by Equation 3 for only the z component, and changes z by z ′. Create the data. FIG. 7B shows polygon information in which S shown in FIG. 7A is S ′ after only the z component is compressed by Equation 3. Each vertex information of A to C constituting S is converted into A ′ (x1, y1, z1 ′), B ′ (x2, y2, z2 ′), C ′ (x3, y3, z3 ′), respectively. Yes.

制御部206は、全てのポリゴン情報に対する変換処理を完了すると、STL形式で列挙した変換後のポリゴンデータをメモリスロット209を介してメモリカード210に記憶させる。制御部206は、変換後の3次元データを記憶させると、3次元データの変換処理に係る一連の動作を終了する。   When the conversion processing for all the polygon information is completed, the control unit 206 stores the converted polygon data listed in the STL format in the memory card 210 via the memory slot 209. When the control unit 206 stores the converted three-dimensional data, the control unit 206 ends a series of operations related to the three-dimensional data conversion process.

なお、本実施形態では、S301において3Dスキャンにより得られた3次元データに対して、予めx、y、z方向を同一の縮尺で縮小したうえで、さらにz軸方向に対する変換処理を行うようにした。しかし、S301において予め同一の縮尺による縮小を行わずに、圧縮プロファイル関数に基づいて得られる縮尺であって、x軸およびy軸方向と異なる縮尺をz軸方向に対して適用するようにしてもよい。この場合、圧縮プロファイル関数H(z)を、実物体に対する縮尺を表す関数にすれば、本実施形態の処理を実現することができる。   In the present embodiment, the three-dimensional data obtained by the 3D scan in S301 is preliminarily reduced at the same scale in the x, y, and z directions, and further converted in the z-axis direction. did. However, in S301, a scale obtained based on the compression profile function without performing a reduction at the same scale in advance and a scale different from the x-axis and y-axis directions may be applied to the z-axis direction. Good. In this case, if the compression profile function H (z) is a function representing a scale for an actual object, the processing of this embodiment can be realized.

また、本実施形態では、圧縮プロファイル関数H(z)において、主要物体以外の領域では、線形に圧縮率を変化させて3次元データの奥行方向を変換するようにした。しかし、圧縮プロファイル関数H(z)の特性は、ユーザの意図や物体の特徴に合わせて様々な特性にすることができる。例えばH(z)の変形例を図8(a)〜(c)に示す。図8(a)は上述した図5(a)と同一であるが、図5(b)は、図8(a)で示す3次元データのz軸方向の距離をどれだけ圧縮するかを決定する圧縮プロファイル関数H(z)の特性を示している。図8(b)に示すH(z)では、主要物体のz軸上の終了位置から階段状に一気に圧縮率を上げるようにしている。このようにすることで、図8(c)に示すように、変換後のオブジェクト901とオブジェクト902(主要物体)の位置関係を維持しつつ、主要物体より奥側のオブジェクト903については位置関係および奥行きを大幅に縮小した構成にすることができる。また、別の変形例を図8(d)〜(f)に示す。図8(d)は図8(a)と同様であるが、図8(e)は、図5(b)に示した圧縮プロファイル関数H(z)において、さらに主要物体のz軸上の開始位置、終了位置の前後で階段状に一気に圧縮率を上げ下げするようにしている。このようにすれば、変換後の主要物体の厚みを維持しつつ、オブジェクト1002(主要物体)の前後については位置関係および奥行きを等倍率で縮小する。この場合、オブジェクト1001および1002の間隔とオブジェクト1002および1003の間隔を実物体の位置関係と合わせつつ主要物体を強調することができる。   In this embodiment, in the compression profile function H (z), in the region other than the main object, the depth direction of the three-dimensional data is converted by changing the compression rate linearly. However, the compression profile function H (z) can have various characteristics according to the user's intention and the characteristics of the object. For example, modified examples of H (z) are shown in FIGS. 8A is the same as FIG. 5A described above, but FIG. 5B determines how much the distance in the z-axis direction of the three-dimensional data shown in FIG. 8A is compressed. The characteristic of the compression profile function H (z) is shown. In H (z) shown in FIG. 8B, the compression rate is increased in a staircase pattern from the end position on the z-axis of the main object. By doing so, as shown in FIG. 8C, while maintaining the positional relationship between the converted object 901 and the object 902 (main object), the positional relationship and The depth can be greatly reduced. Another modification is shown in FIGS. 8D to 8F. FIG. 8 (d) is similar to FIG. 8 (a), but FIG. 8 (e) further illustrates the start of the main object on the z-axis in the compression profile function H (z) shown in FIG. 5 (b). The compression rate is raised and lowered in a staircase before and after the position and end position. In this way, the positional relationship and the depth of the object 1002 (main object) before and after the object 1002 (main object) are reduced at the same magnification while maintaining the thickness of the converted main object. In this case, the main object can be emphasized while matching the distance between the objects 1001 and 1002 and the distance between the objects 1002 and 1003 with the positional relationship of the real objects.

以上説明したように、本実施形態では、z軸方向などの所定方向の位置のデータに対する縮尺を変更し、さらにz軸方向の位置(範囲)に応じて縮尺(圧縮率)を変更可能にした。すなわち、奥行方向について圧縮プロファイル関数H(z)を定め、3次元データの奥行方向の位置のデータを物体の存在する位置に応じてそれぞれ変換するようにした。このようにすれば、造形物を出力させるための3次元データを、造形物に適した縮尺あるいは倍尺で変形することが可能になる。   As described above, in the present embodiment, the scale for the data in a predetermined direction such as the z-axis direction is changed, and the scale (compression ratio) can be changed according to the position (range) in the z-axis direction. . That is, the compression profile function H (z) is defined for the depth direction, and the data at the position in the depth direction of the three-dimensional data is converted according to the position where the object exists. If it does in this way, it will become possible to deform | transform the three-dimensional data for outputting a molded article with the reduced scale or double scale suitable for a molded article.

また、奥行方向の位置に応じて縮尺を変更する際に、物体の種類に応じて、すなわち主要物体の領域に対する奥行方向の圧縮率を下げる一方、主要物体の領域以外において圧縮率を上げて、3次元データの奥行きを変形するようにした。即ち、全体の奥行方向の圧縮率と、特定の被写体の奥行方向の圧縮率とをそれぞれ設定するようにした。このようにすることで、図5(c)に示すように主要物体を他の物体に対して強調したり存在感を与えたりすることができ、記念物体やインテリアオブジェクト等として適切な造形物を生成することが可能になる。   Also, when changing the scale according to the position in the depth direction, depending on the type of object, that is, while reducing the compression rate in the depth direction with respect to the area of the main object, while increasing the compression ratio outside the area of the main object, Modified the depth of 3D data. That is, the overall compression rate in the depth direction and the compression rate in the depth direction of a specific subject are set. In this way, as shown in FIG. 5C, the main object can be emphasized or given presence to other objects, and a suitable shaped object can be used as a memorial object or interior object. Can be generated.

(実施形態2)
次に実施形態2について説明する。実施形態1では、選択された主要物体の圧縮率を下げて他の領域の圧縮率を上げる圧縮プロファイル関数を用いて3次元データの変換処理を行った。本実施形態では、複数の主要物体、即ち主要物体以外のサブ主要物体に対する圧縮率を下げた圧縮プロファイル関数を用いて3次元データの変換処理を行う。このため、サブ主要物体を決定する処理および決定される圧縮プロファイル関数が実施形態1と異なり、その他の構成は実施形態1と同一である。このため、同一の構成およびステップについては同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In Embodiment 1, three-dimensional data conversion processing is performed using a compression profile function that lowers the compression rate of the selected main object and increases the compression rate of other regions. In this embodiment, three-dimensional data conversion processing is performed using a compression profile function with a reduced compression rate for a plurality of main objects, that is, sub-main objects other than the main object. For this reason, the process for determining the sub main object and the compression profile function to be determined are different from those in the first embodiment, and other configurations are the same as those in the first embodiment. For this reason, the same configurations and steps will be denoted by the same reference numerals, and redundant description will be omitted, and differences will be mainly described.

本実施形態における処理の流れを図9に示すフローチャートを参照して説明する。   The flow of processing in this embodiment will be described with reference to the flowchart shown in FIG.

まず制御部206は図3に示したS301〜S303の処理を行う。   First, the control unit 206 performs the processing of S301 to S303 shown in FIG.

次にS901において、制御部206は、S303で選択した主要物体より優先度が下がるが、主要度の高いサブ主要物体を決定する。図4(a)に示したように、S303における処理によって検出された画像内の4つの物体、即ち物体401〜404に対して、それぞれが検出されたことを明示するための物体検出枠405〜408が表示されている。ユーザは、画面操作部203への操作によって、S303において選択した主要物体以外の物体検出枠のいずれかを選択する。制御部206は、画面操作部203によりユーザ操作の通知を受けると、対応する物体をサブ主要物体として決定する。ここでは、ユーザが物体検出枠408を選択したことに応じて、制御部206がオブジェクト112をサブ主要物体として決定したものとする。なお、サブ主要物体の決定は、ユーザによるマニュアル選択だけでなく、制御部206が自動的に決定してもよい。この場合は、画角内でどのあたりに位置するか、物体が人物であるか、を判定することによってサブ主要物体を決定するようにすればよい。また、必要であればサブ主要物体を複数指定するようにしてもよい。   In step S <b> 901, the control unit 206 determines a sub main object having higher priority than the main object selected in step S <b> 303. As shown in FIG. 4A, object detection frames 405 to 405 for clearly indicating that the four objects in the image detected by the process in S303, that is, the objects 401 to 404 are detected. 408 is displayed. The user selects one of the object detection frames other than the main object selected in S303 by operating the screen operation unit 203. Upon receiving a user operation notification from the screen operation unit 203, the control unit 206 determines the corresponding object as a sub main object. Here, it is assumed that the control unit 206 determines the object 112 as the sub main object in response to the user selecting the object detection frame 408. The sub main object may be determined not only by manual selection by the user but also by the control unit 206 automatically. In this case, the sub main object may be determined by determining where it is located within the angle of view and whether the object is a person. If necessary, a plurality of sub main objects may be designated.

S902において、制御部206は、主要物体およびサブ主要物体それぞれについてz軸方向の厚みを算出する。制御部206は、S305において説明した方法と同様にして、主要物体およびサブ主要物体の厚みをそれぞれで算出する。例えば、図10に示すように、制御部206は、サブ主要物体の物体検出枠408をz軸方向に走査していき、走査してできた直方体内1010に含まれる3次元データを検出する。このとき、例えば直方体410のように他の直方体が検出された場合、直方体のxy平面の面積と物体検出枠408との比率が最も高い直方体を選択するようにしてもよい。   In step S902, the control unit 206 calculates the thickness in the z-axis direction for each of the main object and the sub main object. The control unit 206 calculates the thicknesses of the main object and the sub main object, respectively, in the same manner as described in S305. For example, as illustrated in FIG. 10, the control unit 206 scans the object detection frame 408 of the sub main object in the z-axis direction, and detects three-dimensional data included in the rectangular parallelepiped 1010 that has been scanned. At this time, for example, when another rectangular parallelepiped is detected, such as the rectangular parallelepiped 410, a rectangular parallelepiped having the highest ratio between the area of the xy plane of the rectangular parallelepiped and the object detection frame 408 may be selected.

S903において、制御部206は、S902で算出した主要物体およびサブ主要物体のz軸方向における位置と厚みに基づいて、圧縮プロファイル関数H(z)を生成する。本実施形態に係る圧縮プロファイル関数H(z)について、図11を参照して説明する。   In step S903, the control unit 206 generates a compression profile function H (z) based on the positions and thicknesses of the main object and the sub main object calculated in step S902 in the z-axis direction. The compression profile function H (z) according to the present embodiment will be described with reference to FIG.

図11(a)は、z軸と垂直な方向(プラスx軸方向)から見た物体の位置関係を模式的に示している。図11(b)は、図5(b)と同様の物体形状データのz軸方向情報をどれだけ圧縮するかを決定する圧縮プロファイル関数である。図11(b)において、主要物体の存在する位置と厚み範囲に対しては、図5(b)と同様に圧縮率が1に設定されている。一方、サブ主要物体であるオブジェクト112の存在する位置と厚み範囲に対応する距離については、圧縮率が一律で2に設定されている。オブジェクト111およびオブジェクト112の位置および厚み領域以外については、オブジェクト111の位置から離れるに従って線形に圧縮率が上がるように設定されている。   FIG. 11A schematically shows the positional relationship of an object viewed from a direction perpendicular to the z-axis (plus x-axis direction). FIG. 11B shows a compression profile function that determines how much z-axis direction information of the object shape data is compressed as in FIG. In FIG. 11 (b), the compression ratio is set to 1 for the position and thickness range where the main object exists, as in FIG. 5 (b). On the other hand, the compression rate is uniformly set to 2 for the distance corresponding to the position and thickness range of the object 112 as the sub main object. Except for the positions and thickness regions of the object 111 and the object 112, the compression rate is set to increase linearly with distance from the position of the object 111.

このように本実施形態では、制御部206は、主要物体に対する圧縮率が低く、かつ主要物体からの距離に応じて線形に圧縮率が上がるように設定するが、サブ主要物体については例外的に圧縮率が低くなるように圧縮プロファイル関数H(z)を生成する。このようにすることで、図11(c)に示すように、縮小されたz’では、オブジェクト1102(主要物体)の厚みが維持されることに加え、オブジェクト1103(サブ主要物体)の厚みも維持されて縮小されている。即ち、オブジェクト1101〜1103間の位置関係は縮小されているが主要物体およびサブ主要物体は相対的に大きくなっており、これらの物体の存在が強調されている。また、サブ主要物体に対する圧縮率は、主要物体とは別の圧縮率が設定されているため、サブ主要物体は、主要物体よりもやや高い縮尺で縮小され、主要物体がサブ主要物体より強調されるように調整されている。   As described above, in the present embodiment, the control unit 206 sets the compression rate for the main object to be low and the compression rate to increase linearly according to the distance from the main object. A compression profile function H (z) is generated so that the compression rate becomes low. By doing so, as shown in FIG. 11C, in the reduced z ′, the thickness of the object 1102 (main main object) is maintained in addition to the thickness of the object 1102 (main main object). Maintained and reduced. That is, although the positional relationship between the objects 1101 to 1103 is reduced, the main object and the sub main object are relatively large, and the presence of these objects is emphasized. In addition, the compression ratio for the sub main object is set differently from the main object, so the sub main object is reduced at a slightly higher scale than the main object, and the main object is emphasized more than the sub main object. It has been adjusted so that.

次に、制御部206は、図3に示したS306およびS307の処理を行って、本処理に係る一連の処理を終了する。なお、図11(e)は、上述の方法で生成された図11(d)に示す圧縮プロファイル関数H(z)を、数式1および数式2により生成した変換関数G(z)を示している。また、図11(f)は、変換関数G(z)で変換されるzと変換後のz’の関係性をそれぞれ表している。   Next, the control unit 206 performs the processes of S306 and S307 illustrated in FIG. 3 and ends a series of processes related to this process. In addition, FIG.11 (e) has shown the conversion function G (z) which produced | generated the compression profile function H (z) shown in FIG.11 (d) produced | generated by the above-mentioned method by Numerical formula 1 and Numerical formula 2. FIG. . FIG. 11F shows the relationship between z converted by the conversion function G (z) and z ′ after conversion.

なお、本実施形態では、圧縮プロファイル関数H(z)については、主要物体以外の範囲において線形に圧縮率を上げるものとしたが、主要物体およびサブ主要物体のz軸上の終了位置から階段状に圧縮率を上げるようにしてもよい。また、主要物体およびサブ主要物体のz軸上の開始位置、終了位置の前後で階段状に一気に圧縮率を上げ下げするように自動生成してもよい。   In this embodiment, the compression profile function H (z) is linearly increased in the range other than the main object. However, the compression profile function H (z) is stepped from the end positions on the z axis of the main object and the sub main object. Alternatively, the compression rate may be increased. Alternatively, the compression ratio may be automatically generated so as to increase and decrease the compression rate in a stepwise manner before and after the start position and the end position on the z axis of the main object and the sub main object.

また、圧縮プロファイル関数H(z)において、主要物体等の範囲の圧縮率を予め定められた値として説明した。しかし、画面操作部203等のユーザインターフェースへの入力によって、奥行方向の縮尺(または圧縮率)を位置に応じて設定または変更できるようにしてもよい。このようにすれば、よりユーザの望む縮尺で主要物体を強調した造形物を生成することができる。   In the compression profile function H (z), the compression rate in the range of the main object has been described as a predetermined value. However, the scale (or compression rate) in the depth direction may be set or changed according to the position by input to the user interface such as the screen operation unit 203. In this way, it is possible to generate a modeled object that emphasizes the main object at a scale desired by the user.

以上説明したように本実施形態では、図11(b)に示したように主要物体とサブ主要物体の圧縮率を下げた圧縮プロファイル関数を用いて、3次元データの変換処理を行うようにした。このようにすることで、主要物体のみならず、サブ主要物体を強調したり存在感を与えたりすることができ、記念物体やインテリアオブジェクト等として適切な造形物を生成することが可能になる。
(実施形態3)
次に実施形態3について説明する。上述した実施形態では、選択された複数の主要物体(主要物体及びサブ主要物体)の圧縮率を下げ、かつ他の領域の圧縮率を上げる圧縮プロファイル関数を用いて3次元データの変換処理を行った。本実施形態では、3次元データの変換処理において、複数の主要物体の一部(例えばサブ主要物体)のxy平面方向の大きさを補正する処理を更に行う。このため、当該大きさの補正処理以外の処理及び構成については実施形態2と同様である。このため、同一の構成およびステップについては同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
As described above, in this embodiment, three-dimensional data conversion processing is performed using the compression profile function in which the compression ratio of the main object and the sub main object is lowered as shown in FIG. . In this way, not only the main object but also the sub main object can be emphasized or given a presence, and it is possible to generate an appropriate shaped object as a memorial object, interior object, or the like.
(Embodiment 3)
Next, Embodiment 3 will be described. In the above-described embodiment, conversion processing of three-dimensional data is performed using a compression profile function that lowers the compression rate of a plurality of selected main objects (main object and sub-main object) and increases the compression rate of other regions. It was. In the present embodiment, in the conversion process of three-dimensional data, a process of correcting the size in the xy plane direction of a part of a plurality of main objects (for example, sub main objects) is further performed. For this reason, the processing and configuration other than the size correction processing are the same as those in the second embodiment. For this reason, the same configurations and steps will be denoted by the same reference numerals, and redundant description will be omitted, and differences will be mainly described.

まず、本実施形態において想定する主要物体及びサブ主要物体の大きさと位置の関係について、図13(a)の一部を参照して説明する(図13(a)の詳細は別途後述する)。本実施形態では、主要物体1301及びサブ主要物体1302において、主要物体1301の実際の大きさがサブ主要物体1302の実際の大きさの例えば半分である場合を想定する。これは、例えば主要物体1301が子供であり、サブ主要物体1302が大人である場合等があげられる。また、デジタルカメラ200からの主要物体1301までの距離(L1)が、デジタルカメラ200からのサブ主要物体1302までの距離(L2)の半分であるとする。この場合、デジタルカメラ200の位置から撮像されたxy方向の2次元画像は、例えば図13(a)のようになる。すなわち、主要物体1301の実際の大きさはサブ主要物体1302の半分であるのに、2次元画像上では同じ大きさになる。仮に最終的な3次元形状の造形物をこの比率で出力する場合、この造形物を図13(a)に示す方向、位置から観賞するとは限らないため、大きさの関係が不自然になる可能性がある。このため、本実施形態では、主要物体のxy平面方向の大きさを基準にして、サブ主要物体のxy平面方向の大きさを正規化(すなわち補正)する。以下、本実施形態では、大人と子供の大きさがより適切に反映された造形物を生成するための補正処理を例に説明する。   First, the relationship between the size and position of the main object and the sub main object assumed in the present embodiment will be described with reference to a part of FIG. 13A (details of FIG. 13A will be separately described later). In the present embodiment, it is assumed that the main object 1301 and the sub main object 1302 have an actual size of the main object 1301 that is, for example, half the actual size of the sub main object 1302. This is the case, for example, when the main object 1301 is a child and the sub main object 1302 is an adult. Further, it is assumed that the distance (L1) from the digital camera 200 to the main object 1301 is half of the distance (L2) from the digital camera 200 to the sub main object 1302. In this case, the two-dimensional image in the xy direction captured from the position of the digital camera 200 is, for example, as shown in FIG. That is, the actual size of the main object 1301 is half that of the sub main object 1302, but the same size on the two-dimensional image. If a final three-dimensional shaped object is output at this ratio, the size relationship may be unnatural because the object is not necessarily viewed from the direction and position shown in FIG. There is sex. Therefore, in the present embodiment, the size of the sub main object in the xy plane direction is normalized (ie, corrected) based on the size of the main object in the xy plane direction. Hereinafter, in the present embodiment, a correction process for generating a model in which the sizes of adults and children are more appropriately reflected will be described as an example.

(3次元データの変換処理に係る一連の動作)
次に、本実施形態に係る3次元データの変換処理の一連の動作について、図12に示すフローチャートを参照して説明する。
(A series of operations related to conversion processing of three-dimensional data)
Next, a series of operations of the three-dimensional data conversion process according to the present embodiment will be described with reference to the flowchart shown in FIG.

まず制御部206は、図3又は図9に示したS301〜S303の処理を行う。   First, the control unit 206 performs the processing of S301 to S303 shown in FIG. 3 or FIG.

S1201において、制御部206は、S303で選択した主要被写体よりは優先度が落ちるが、主要度の高いサブ主要物体を特定する。本ステップに係る処理は上述したS901の処理と同様であるが、改めて図13(a)を参照して説明する。S302において選択された2次元画像には、S303において検出された2つの物体(1301及び1302)と、各物体が検出されたことを明示する物体検出枠1303及び1304とが表示されている。このとき、ユーザが画面表示部202への操作によって、S303で選択した主要物体以外に対する物体検出枠を選択すると、制御部206は、選択された物体検出枠に対応する物体をサブ主要物体として決定する。例えば、ユーザが物体検出枠1304を選択すると、サブ主要物体1302がサブ主要物体として決定される。   In step S1201, the control unit 206 identifies a sub main object having a higher priority but having a lower priority than the main subject selected in step S303. The processing according to this step is the same as the processing of S901 described above, but will be described again with reference to FIG. In the two-dimensional image selected in S302, two objects (1301 and 1302) detected in S303 and object detection frames 1303 and 1304 that clearly indicate that each object has been detected are displayed. At this time, when the user selects an object detection frame other than the main object selected in S303 by operating the screen display unit 202, the control unit 206 determines an object corresponding to the selected object detection frame as a sub main object. To do. For example, when the user selects the object detection frame 1304, the sub main object 1302 is determined as the sub main object.

S1202において、制御部206は、主要物体及びサブ主要物体のそれぞれに対するz軸方向の厚みを算出する。制御部206は、S305に示した方法と同様にしてz軸方向の厚みをそれぞれ算出する。例えば、図13(b)に示すように、制御部206は、主要物体1301(オブジェクト1307)に対する物体検出枠1303と、サブ主要物体1302(オブジェクト1308)に対する物体検出枠1304をz軸方向に走査する。そして、走査してできた直方体1309及び1310に含まれる3次元データを検出してオブジェクトの厚み1305及び1306を検出する。   In step S1202, the control unit 206 calculates the thickness in the z-axis direction for each of the main object and the sub main object. The control unit 206 calculates the thickness in the z-axis direction in the same manner as in the method shown in S305. For example, as shown in FIG. 13B, the control unit 206 scans the object detection frame 1303 for the main object 1301 (object 1307) and the object detection frame 1304 for the sub main object 1302 (object 1308) in the z-axis direction. To do. Then, the three-dimensional data included in the rectangular parallelepipeds 1309 and 1310 obtained by scanning is detected to detect the object thicknesses 1305 and 1306.

S1203において、制御部206は、S1202で算出したオブジェクト1307、オブジェクト1308に対するz軸方向における位置と厚みに基づいて、圧縮プロファイル関数H(z)を生成する。本実施形態に係る圧縮プロファイル関数H(z)について、図14(a)、図14(b)、図14(d)〜図14(f)を適宜参照して説明する。   In step S1203, the control unit 206 generates a compression profile function H (z) based on the position and thickness in the z-axis direction with respect to the object 1307 and the object 1308 calculated in step S1202. The compression profile function H (z) according to the present embodiment will be described with reference to FIGS. 14 (a), 14 (b), and 14 (d) to 14 (f) as appropriate.

図14(a)は、z軸と垂直な方向(プラスx軸方向)から見た物体の位置関係を模式的に示している。図14(b)は、上述した実施形態における圧縮プロファイル関数と同様、物体形状データのz軸方向情報をどれだけ圧縮するかを決定する圧縮プロファイル関数を示している。図14(b)において、主要物体であるオブジェクト1307が存在する位置と厚み範囲に対しては、図11(b)と同様に圧縮率が1に設定されている。一方、サブ主要物体であるオブジェクト1308が存在する位置と厚み範囲に対応する距離については、圧縮率が一律で2に設定されている。オブジェクト1307およびオブジェクト1308の位置および厚み領域以外については、オブジェクト1307の位置から離れるに従って線形に圧縮率が上がるように設定されている。   FIG. 14A schematically shows the positional relationship of objects viewed from a direction perpendicular to the z axis (plus x axis direction). FIG. 14B shows a compression profile function that determines how much the z-axis direction information of the object shape data is compressed, similar to the compression profile function in the above-described embodiment. In FIG. 14B, the compression ratio is set to 1 for the position and thickness range where the object 1307 as the main object exists, as in FIG. On the other hand, for the distance corresponding to the position where the object 1308 as the sub main object exists and the thickness range, the compression rate is uniformly set to 2. Except for the positions and thickness regions of the objects 1307 and 1308, the compression rate is set to increase linearly as the distance from the position of the object 1307 increases.

このように本実施形態では、制御部206は、主要物体に対する圧縮率が低く、かつ主要物体からの距離に応じて線形に圧縮率が上がるように設定しつつ、サブ主要物体については例外的に圧縮率が低くなるように圧縮プロファイル関数H(z)を生成する。このようにすることで、縮小されたz’では、オブジェクト1307(主要物体)の厚みが維持されることに加え、オブジェクト1308(サブ主要物体)の厚みも維持されて縮小される。   As described above, in the present embodiment, the control unit 206 is set so that the compression ratio for the main object is low and the compression ratio is linearly increased according to the distance from the main object, while the sub main object is exceptionally set. A compression profile function H (z) is generated so that the compression rate becomes low. In this way, in the reduced z ′, the thickness of the object 1308 (main main object) is maintained and the thickness of the object 1308 (sub main object) is maintained and reduced.

次に、制御部206は、図3に示したS306およびS307の処理を行う。なお、図14(e)は、上述の方法で生成された図14(d)に示す圧縮プロファイル関数H(z)を、数式1および数式2により生成した変換関数G(z)を示している。また、図11(f)は、変換関数G(z)で変換されるzと変換後のz’の関係性をそれぞれ表している。   Next, the control unit 206 performs the processes of S306 and S307 shown in FIG. FIG. 14 (e) shows a conversion function G (z) generated by the expression 1 and the expression 2 from the compression profile function H (z) shown in FIG. 14 (d) generated by the above method. . FIG. 11F shows the relationship between z converted by the conversion function G (z) and z ′ after conversion.

さらに、S1204及びS1205では、制御部206は、主要物体に対して、サブ主要物体のxy平面方向の大きさを補正する。   Further, in S1204 and S1205, the control unit 206 corrects the size of the sub main object in the xy plane direction with respect to the main object.

まずS1204において、制御部206は、xy平面方向のオブジェクト1308(サブ主要物体)の大きさを補正するか否かを選択した、ユーザによる設定を取得する。この設定は、例えば、xy平面方向のオブジェクト1308(サブ主要物体)の大きさを、オブジェクト1307(主要物体)の大きさに合わせて補正するか否かを選択するものである。制御部206は、取得した設定が補正を行う設定である場合はS1205に処理を進め、補正を行わない設定である場合は、補正を行うこと無く本処理に係る一連の動作を終了する。   First, in step S1204, the control unit 206 acquires a setting by the user who has selected whether or not to correct the size of the object 1308 (sub main object) in the xy plane direction. For example, this setting is used to select whether or not to correct the size of the object 1308 (sub-main object) in the xy plane direction in accordance with the size of the object 1307 (main object). If the acquired setting is a setting for performing correction, the control unit 206 advances the process to S1205. If the acquired setting is a setting for performing no correction, the control unit 206 ends the series of operations related to this processing without performing the correction.

S1205において、制御部206は、オブジェクト1308(サブ主要物体)の大きさを補正する。より具体的には、制御部206は、オブジェクトの大きさを補正するパラメータを各オブジェクトまでの距離の比率を用いて算出する。例えば、図15には、図13(b)をx軸方向から見たyz平面の模式図を示している。例えば、デジタルカメラ200から主要物体1301までの距離がL1、デジタルカメラ200からサブ主要物体1302までの距離がL2であり、L2=L1×2の関係があるものとする。また、主要物体1301のy方向の長さがH1、サブ主要物体1302のy方向の長さがH2であり、H2=H1×2の関係があるものとする。さらに、デジタルカメラ200の画角をθとする。このとき、L1の距離における画角の範囲に相当する縦幅を画角縦幅1、同様にL2の距離における画角の範囲に相当する縦幅を画角縦幅2とすると、相似の関係より画角縦幅2は画角縦幅1の2倍となる。従って、ある撮像位置から撮影した場合の2次元画像内における各オブジェクトの大きさは、物体までの距離に反比例する。すなわち、制御部206は、オブジェクト1308(サブ主要物体)の3Dデータ情報のx方向、y方向の大きさをL2/L1の比率を用いて補正(すなわち変倍)して、オブジェクト1402のサブ主要物体データに変換する。例えば、図14(c)には、オブジェクト1308に対する大きさの補正を行った結果であるオブジェクト1401及びオブジェクト1402を示している。   In step S1205, the control unit 206 corrects the size of the object 1308 (sub main object). More specifically, the control unit 206 calculates a parameter for correcting the size of the object using the ratio of the distance to each object. For example, FIG. 15 shows a schematic diagram of the yz plane when FIG. 13B is viewed from the x-axis direction. For example, it is assumed that the distance from the digital camera 200 to the main object 1301 is L1, the distance from the digital camera 200 to the sub main object 1302 is L2, and there is a relationship of L2 = L1 × 2. Further, it is assumed that the length of the main object 1301 in the y direction is H1, the length of the sub main object 1302 in the y direction is H2, and there is a relationship of H2 = H1 × 2. Furthermore, the angle of view of the digital camera 200 is θ. At this time, assuming that the vertical width corresponding to the range of the angle of view at the distance of L1 is the vertical angle of view angle 1, and similarly the vertical width corresponding to the range of the angle of view at the distance of L2 is vertical angle of view 2, the similar relationship Further, the angle of view length 2 is twice as large as the angle of view length 1. Therefore, the size of each object in the two-dimensional image when imaged from a certain imaging position is inversely proportional to the distance to the object. That is, the control unit 206 corrects (that is, changes magnification) the x-direction and y-direction sizes of the 3D data information of the object 1308 (sub-main object) using the ratio of L2 / L1, and sub-major the object 1402 Convert to object data. For example, FIG. 14C shows an object 1401 and an object 1402 that are the results of correcting the size of the object 1308.

このようにすれば、変換後のオブジェクト1401と変換後のオブジェクト1402とのxy平面方向の大きさをより現実に即した大きさ関係にすることができる。また、実施形態2と同様、オブジェクト1402のサブ主要物体データは、実施形態1の方法による変換後のオブジェクト(例えば503)と比べて厚みを持って強調された造形にもなる。   In this way, the size of the converted object 1401 and the converted object 1402 in the xy plane direction can be set to a more realistic size relationship. In addition, as in the second embodiment, the sub main object data of the object 1402 also becomes a model that is emphasized with a thickness as compared with the object (for example, 503) after the conversion by the method of the first embodiment.

そして、制御部206は、オブジェクト1402のサブ主要物体データを生成すると、本処理に係る一連の動作を終了する。   And the control part 206 will complete | finish a series of operation | movement which concerns on this process, if the sub main body data of the object 1402 are produced | generated.

なお、上述したS1204では、サブ主要物体の大きさの補正を行うか否かを選択して設定する例を説明した。このように、補正を行うか否かを選択可能にするのは、補正をOFFにすることがより適切な場合もあり得るためである。例えば、図16(a)及び図16(b)に示す例では、主要物体2001及びサブ主要物体2002が2次元画像内の被写体として撮影され、対応する3次元状のオブジェクト2003(主要物体)及びオブジェクト2004(サブ主要物体)を示している。   In S1204 described above, an example has been described in which whether or not to correct the size of the sub main object is selected and set. The reason why it is possible to select whether or not to perform correction in this way is that it may be more appropriate to turn correction off. For example, in the example shown in FIGS. 16A and 16B, the main object 2001 and the sub main object 2002 are photographed as subjects in the two-dimensional image, and the corresponding three-dimensional object 2003 (main object) and An object 2004 (sub main object) is shown.

この例では、主要物体2001が人物であり、サブ主要物体2002がタワーなど巨大なランドマークである場合を示している。このとき、デジタルカメラ200からオブジェクト2003までの距離L3に比べて、オブジェクト2004までの距離L4が非常に長いものとする。また、図16(a)に示す画像は、例えば記念写真のように、人物である主要物体2001と共にタワーであるサブ主要物体2002の全体を写し込もうとする構図になっている。このような場合にS1205で説明した補正処理を行うと、サブ主要物体2002の3Dデータが現実の比率によって拡大されて過度に巨大となり、図16(a)を撮影する際に意図した被写体の関係が崩れる可能性がある。従って、図16に示すような撮影を行った場合には、サブ主要物体の大きさの補正を行わない(すなわちOFFにする)ように制御できることが望ましい。   In this example, the main object 2001 is a person, and the sub main object 2002 is a huge landmark such as a tower. At this time, it is assumed that the distance L4 to the object 2004 is much longer than the distance L3 from the digital camera 200 to the object 2003. Also, the image shown in FIG. 16A has a composition in which, for example, a commemorative photo, the main object 2001 as a person and the sub main object 2002 as a tower are to be copied. In such a case, if the correction processing described in S1205 is performed, the 3D data of the sub main object 2002 is enlarged by an actual ratio and becomes excessively large, and the relationship of the intended subject when shooting FIG. May collapse. Therefore, it is desirable to be able to perform control so that the size of the sub main object is not corrected (that is, turned off) when photographing as shown in FIG. 16 is performed.

すなわち、本実施形態によれば、撮影内容に応じて、主要物体1301とサブ主要物体1302のxy平面方向の大きさの補正処理の有無を制御することができる。この補正処理を行わない場合であっても、図11(c)に示したように主要物体とサブ主要物体とをそれぞれ強調した形で当該物体以外の部分を圧縮し、記念品やインテリアオブジェクト等としての造形物を出力する場合に適したデータに変換できる。   That is, according to the present embodiment, it is possible to control the presence / absence of a correction process for the size of the main object 1301 and the sub main object 1302 in the xy plane direction according to the content of shooting. Even if this correction processing is not performed, as shown in FIG. 11 (c), the main object and the sub main object are emphasized, and the parts other than the object are compressed, souvenirs, interior objects, etc. Can be converted into data suitable for outputting a modeled object.

なお、本実施形態では、S1201においてサブ主要物体がユーザ操作によって決定される例を説明した。しかし、例えばサブ主要物体の画角内の位置や、物体が人物であるか等の判定結果に基づいて、制御部206が1以上のサブ主要物体を自動的に決定するようにしてもよい。   In the present embodiment, the example in which the sub main object is determined by the user operation in S1201 has been described. However, for example, the control unit 206 may automatically determine one or more sub main objects based on the determination result such as the position within the angle of view of the sub main object and whether the object is a person.

また、本実施形態では、S1204において補正処理の有無の選択がユーザ操作によって選択される例を説明したが、ユーザ操作によらず、例えば物体の種別の認識や物体の大きさ等の認識結果に基づいて、補正処理の有無を自動的に選択してもよい。例えば、制御部206は、主要物体とサブ主要物体の大きさの差が予め定めた閾値より大きい場合に補正処理をOFFにするようにしてもよい。また、例えば、制御部206は、主要物体、サブ主要物体がともに人物であると判定した場合に、補正処理をONにするようにしてもよい。   In the present embodiment, an example in which the selection of whether or not to perform correction processing is selected by a user operation in S1204 has been described. However, for example, the recognition of an object type, an object size, or the like is performed regardless of a user operation. Based on this, the presence / absence of correction processing may be automatically selected. For example, the control unit 206 may turn off the correction process when the difference in size between the main object and the sub main object is larger than a predetermined threshold. Further, for example, the control unit 206 may turn on the correction process when it is determined that both the main object and the sub main object are persons.

以上説明したように本実施形態では、サブ主要物体のxy平面方向の大きさを、主要物体とサブ主要物体との奥行方向の距離の比に基づいて補正するようにした。このようにすることにより、造形物を出力させるための3次元の形状データについて、奥行方向と垂直な方向(xy平面方向)の大きさをより現実に即した大きさ関係に変換して出力することができる。また、この補正を行うか否かを設定可能にし、特に主要物体とサブ主要物体との奥行方向の距離の比が適切な関係にない場合には、当該補正を行わないようにした。このようにすることにより、造形物を出力させるための3次元の形状データを、造形物に適した縮尺あるいは倍尺で変形することが可能になる。   As described above, in the present embodiment, the size of the sub main object in the xy plane direction is corrected based on the ratio of the distance between the main object and the sub main object in the depth direction. By doing in this way, about the three-dimensional shape data for outputting a modeling thing, the magnitude | size of the direction (xy plane direction) perpendicular | vertical to a depth direction is converted into a more realistic magnitude relationship, and is output. be able to. In addition, it is possible to set whether or not to perform this correction, and in particular, when the ratio of the distance in the depth direction between the main object and the sub main object is not in an appropriate relationship, the correction is not performed. By doing in this way, it becomes possible to deform | transform the three-dimensional shape data for outputting a molded article with the reduced scale or double scale suitable for a molded article.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201…撮像部、202…画面表示部、203…画面操作部、204…物体検出部、205…ボタン操作部、206…制御部 DESCRIPTION OF SYMBOLS 201 ... Imaging part, 202 ... Screen display part, 203 ... Screen operation part, 204 ... Object detection part, 205 ... Button operation part, 206 ... Control part

Claims (17)

物体を含む空間を描写する3次元データを取得する取得手段と、
前記3次元データの所定方向の位置のデータを、物体の存在する位置に応じてそれぞれ位置を変換する変換手段と、
前記所定方向の位置が変換された3次元データを出力する出力手段と、を有することを特徴とする画像処理装置。
Acquisition means for acquiring three-dimensional data describing a space including an object;
Conversion means for converting the position data of the three-dimensional data in a predetermined direction according to the position where the object exists,
And an output means for outputting three-dimensional data in which the position in the predetermined direction is converted.
前記変換手段は、前記3次元データに存在する物体の種類に基づいて前記所定方向における各位置を変換することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the conversion unit converts each position in the predetermined direction based on a type of an object existing in the three-dimensional data. 前記変換手段は、前記3次元データの前記所定方向における位置のデータについて、物体の存在しない空間に対応する範囲の位置のデータを、物体が存在する空間に対応する範囲の位置のデータに比べて大きな圧縮率で変換することを特徴とする請求項1または2に記載の画像処理装置。   For the position data in the predetermined direction of the three-dimensional data, the conversion means compares position data in a range corresponding to a space where no object exists with position data in a range corresponding to a space where the object exists. The image processing apparatus according to claim 1, wherein the conversion is performed with a large compression ratio. 前記変換手段は、前記3次元データの前記所定方向における位置のデータについて、基準とする物体の存在する空間に対応する位置からの距離が第1の距離である範囲の位置のデータよりも、前記第1の距離より遠い第2の距離である範囲の位置のデータをより大きな圧縮率で変換することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The conversion unit is configured to determine the position data in the predetermined direction of the three-dimensional data, rather than the position data in a range where the distance from the position corresponding to the space where the reference object exists is a first distance. 4. The image processing apparatus according to claim 1, wherein data in a position in a range that is a second distance farther than the first distance is converted with a larger compression rate. 5. 前記変換手段は、前記基準とする物体の存在する空間に対応する位置からの距離に応じて、圧縮率が単調増加するように位置のデータを圧縮することを特徴とする請求項4に記載の画像処理装置。   The said conversion means compresses the data of a position so that a compression rate increases monotonously according to the distance from the position corresponding to the space where the object as the reference exists. Image processing device. 前記所定方向の位置のデータの圧縮率に対するユーザの操作が入力される第1の入力手段を更に有し、
前記変換手段は、前記第1の入力手段に入力された操作に基づいて前記3次元データの前記所定方向の位置のデータを変換することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
A first input means for inputting a user's operation for the compression ratio of the data at the position in the predetermined direction;
The said conversion means converts the data of the position of the said predetermined direction of the said three-dimensional data based on the operation input into the said 1st input means. The image processing apparatus described.
前記変換手段は、複数の物体が存在する場合、当該複数の物体の存在しない空間に対応する範囲の位置のデータを、当該複数の物体が存在する空間に対応する範囲の位置のデータに比べて大きな圧縮率で変換することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   In the case where there are a plurality of objects, the conversion means compares the position data in the range corresponding to the space where the plurality of objects do not exist with the position data in the range corresponding to the space where the plurality of objects exist. The image processing apparatus according to claim 1, wherein conversion is performed with a large compression rate. 前記変換手段は、前記複数の物体のうちの所定の物体が存在する空間に対応する範囲の位置のデータを、前記所定の物体を含む2つの物体のそれぞれまでの所定の位置からの距離の比率に基づいて、前記所定方向に垂直な方向にも変倍する、ことを特徴とする請求項7に記載の画像処理装置。   The converting means converts the position data in a range corresponding to a space where the predetermined object of the plurality of objects exists, and a ratio of the distance from the predetermined position to each of the two objects including the predetermined object. The image processing apparatus according to claim 7, wherein scaling is also performed in a direction perpendicular to the predetermined direction. 前記所定方向に垂直な方向にも変倍するか否かを決定する決定手段を更に有し、
前記決定手段は、前記所定方向に垂直な方向にも変倍するか否かを選択するユーザ操作を取得する第2の入力手段、又は、前記所定の物体の種別に基づいて前記所定方向に垂直な方向にも変倍するか否かを判定する判定手段を含み、
前記変換手段は、前記決定手段により前記所定方向に垂直な方向にも変倍するように決定された場合、前記複数の物体のうちの所定の物体が存在する空間に対応する範囲の位置のデータを、前記所定の方向に垂直な方向にも変倍する、ことを特徴とする請求項8に記載の画像処理装置。
A decision means for deciding whether or not to zoom in a direction perpendicular to the predetermined direction;
The determination means is a second input means for acquiring a user operation for selecting whether or not to zoom in a direction perpendicular to the predetermined direction, or is perpendicular to the predetermined direction based on the type of the predetermined object. Determining means for determining whether or not to scale in any direction,
In the case where the converting unit is determined by the determining unit so as to scale the image in a direction perpendicular to the predetermined direction, the position data in a range corresponding to a space where the predetermined object is present among the plurality of objects. The image processing apparatus according to claim 8, wherein the image processing apparatus is also scaled in a direction perpendicular to the predetermined direction.
前記3次元データは、2次元に配列された光電変換素子を有する撮像素子から得られる2次元の画像データと、前記所定方向の位置のデータとしての、被写体の奥行き方向のデータとを含むことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The three-dimensional data includes two-dimensional image data obtained from an image sensor having photoelectric conversion elements arranged two-dimensionally, and data in the depth direction of a subject as position data in the predetermined direction. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized. 前記画像データから特定の物体を検出する検出手段を更に有し、
前記変換手段は、前記検出手段による検出結果に基づいて前記3次元データ内に存在する物体を判定することを特徴とする請求項10に記載の画像処理装置。
It further comprises detection means for detecting a specific object from the image data,
The image processing apparatus according to claim 10, wherein the conversion unit determines an object existing in the three-dimensional data based on a detection result by the detection unit.
前記変換手段は、前記検出手段により前記画像データから検出された物体が前記3次元データの前記所定方向において存在する範囲を、予め記憶されている前記検出手段により検出される物体の厚み情報に基づいて推定することを特徴とする請求項11に記載の画像処理装置。   The conversion means is based on the thickness information of the object detected by the detection means stored in advance in a range in which the object detected from the image data by the detection means exists in the predetermined direction of the three-dimensional data. The image processing apparatus according to claim 11, wherein the image processing apparatus estimates the image. 前記撮像素子は複数の前記光電変換素子によって撮像光学系の複数の異なる瞳領域の光束をそれぞれ受光し、
前記3次元データの前記所定方向の位置のデータは、前記異なる瞳領域に対応する1対の画像信号から算出されたものであることを特徴とする請求項10乃至12のいずれか1項に記載の画像処理装置。
The imaging element receives light beams of a plurality of different pupil regions of the imaging optical system by the plurality of photoelectric conversion elements,
The position data in the predetermined direction of the three-dimensional data is calculated from a pair of image signals corresponding to the different pupil regions. Image processing apparatus.
前記出力手段は、前記変換手段により変換された3次元データを3次元の造形物の生成に用いるために所定の形式に変換し、出力することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。   The output means converts the three-dimensional data converted by the conversion means into a predetermined format for use in generating a three-dimensional structure, and outputs the converted data. The image processing apparatus according to item. 前記出力手段は、前記3次元データをSTLファイル形式に変換し、出力することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit converts the three-dimensional data into an STL file format and outputs the STL file format. 取得手段が、物体を含む空間を描写する3次元データを取得する取得工程と、
変換手段が、前記3次元データの所定方向の位置のデータを、物体の存在する位置に応じてそれぞれ位置を変換する変換工程と、
出力手段が、前記所定方向の位置が変換された3次元データを出力する出力工程と、を有することを特徴とする画像処理装置の制御方法。
An acquisition step in which the acquisition means acquires three-dimensional data describing a space including the object;
A conversion step in which conversion means converts the position data of the three-dimensional data in a predetermined direction according to the position where the object exists;
An output method, wherein the output means includes an output step of outputting the three-dimensional data in which the position in the predetermined direction is converted.
コンピュータを、請求項1乃至15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 15.
JP2015187438A 2014-12-15 2015-09-24 Image processing apparatus, control method thereof, and program Active JP6704700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/963,887 US9998724B2 (en) 2014-12-15 2015-12-09 Image processing apparatus and method for processing three-dimensional data that describes a space that includes physical objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014253414 2014-12-15
JP2014253414 2014-12-15

Publications (2)

Publication Number Publication Date
JP2016115332A true JP2016115332A (en) 2016-06-23
JP6704700B2 JP6704700B2 (en) 2020-06-03

Family

ID=56141985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015187438A Active JP6704700B2 (en) 2014-12-15 2015-09-24 Image processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6704700B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116004A (en) * 2017-01-20 2018-07-26 パイオニア株式会社 Data compression apparatus, control method, program and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10277878A (en) * 1997-04-04 1998-10-20 Minolta Co Ltd Three-dimensional duplicate forming device
JPH11325853A (en) * 1998-05-19 1999-11-26 Minolta Co Ltd Three-dimensional shape input device
JP2001208521A (en) * 2000-01-26 2001-08-03 Minolta Co Ltd Three-dimensional data processor
JP2002067174A (en) * 2000-08-30 2002-03-05 Minolta Co Ltd Device and method for data processing, and device and method for three-dimensional molding
WO2011033673A1 (en) * 2009-09-18 2011-03-24 株式会社 東芝 Image processing apparatus
JP2014197824A (en) * 2013-03-05 2014-10-16 キヤノン株式会社 Image processing apparatus, image capturing apparatus, image processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10277878A (en) * 1997-04-04 1998-10-20 Minolta Co Ltd Three-dimensional duplicate forming device
JPH11325853A (en) * 1998-05-19 1999-11-26 Minolta Co Ltd Three-dimensional shape input device
JP2001208521A (en) * 2000-01-26 2001-08-03 Minolta Co Ltd Three-dimensional data processor
JP2002067174A (en) * 2000-08-30 2002-03-05 Minolta Co Ltd Device and method for data processing, and device and method for three-dimensional molding
WO2011033673A1 (en) * 2009-09-18 2011-03-24 株式会社 東芝 Image processing apparatus
JP2014197824A (en) * 2013-03-05 2014-10-16 キヤノン株式会社 Image processing apparatus, image capturing apparatus, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116004A (en) * 2017-01-20 2018-07-26 パイオニア株式会社 Data compression apparatus, control method, program and storage medium

Also Published As

Publication number Publication date
JP6704700B2 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
JP6685827B2 (en) Image processing apparatus, image processing method and program
JP5781353B2 (en) Information processing apparatus, information processing method, and data structure of position information
US10572971B2 (en) Projection device, projection method and program storage medium
US20110187829A1 (en) Image capture apparatus, image capture method and computer readable medium
JP2019057248A (en) Image processing system, image processing device, image processing method and program
JP5110138B2 (en) AR processing apparatus, AR processing method, and program
WO2014083721A1 (en) Information processing device and information processing method
JP5067450B2 (en) Imaging apparatus, imaging apparatus control apparatus, imaging apparatus control program, and imaging apparatus control method
WO2014064870A1 (en) Image processing device and image processing method
KR102455468B1 (en) Method and apparatus for reconstructing three dimensional model of object
JP2011250125A (en) Image processing apparatus and method thereof
KR20150068895A (en) Apparatus and method for generating three dimensional output data
US20230062973A1 (en) Image processing apparatus, image processing method, and storage medium
US9998724B2 (en) Image processing apparatus and method for processing three-dimensional data that describes a space that includes physical objects
CN111742352A (en) 3D object modeling method and related device and computer program product
JP2019121945A (en) Imaging apparatus, control method of the same, and program
JP6704700B2 (en) Image processing apparatus, control method thereof, and program
KR101632514B1 (en) Method and apparatus for upsampling depth image
JP2015197374A (en) Three-dimensional shape estimation device and three-dimensional shape estimation method
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP2012073930A (en) Image processing apparatus, image processing method, and program
US20130343636A1 (en) Image processing apparatus, control method of the same and non-transitory computer-readable storage medium
JP2019205205A (en) Image processing apparatus, image processing method, and program
JP6297965B2 (en) Image processing apparatus, image processing method, and image processing program
JP5126442B2 (en) 3D model generation apparatus and 3D model generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200513

R151 Written notification of patent or utility model registration

Ref document number: 6704700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151