JP2017056607A - Data processing device, data processing method, and program - Google Patents

Data processing device, data processing method, and program Download PDF

Info

Publication number
JP2017056607A
JP2017056607A JP2015182404A JP2015182404A JP2017056607A JP 2017056607 A JP2017056607 A JP 2017056607A JP 2015182404 A JP2015182404 A JP 2015182404A JP 2015182404 A JP2015182404 A JP 2015182404A JP 2017056607 A JP2017056607 A JP 2017056607A
Authority
JP
Japan
Prior art keywords
objects
overlap
data
data processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015182404A
Other languages
Japanese (ja)
Inventor
岩下 幸司
Koji Iwashita
幸司 岩下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015182404A priority Critical patent/JP2017056607A/en
Publication of JP2017056607A publication Critical patent/JP2017056607A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it easier to manage a plurality of objects regarding a subject by synthesizing the objects as a batch.SOLUTION: An object processing device 100 acquires three-dimensional data from a server 101 and acquires a plurality of objects regarding a subject from the three-dimensional data. An overlapping volume calculation part 104 calculates an overlapping amount of regions where the plurality of objects overlap with each other as an overlapping volume. An overlapping volume setting part 105 accepts designation of an overlapping volume requested by a user and sets an overlapping volume value. An object synthesizing part 112 synthesizes the plurality of objects when the overlapping volume calculated by the overlapping volume calculation part 104 reaches a prescribed value or reaches the value set by the overlapping volume setting part 105. A liquid crystal panel 114 displays an image of the object after the regions of the overlapping volume are colored and synthesized.SELECTED DRAWING: Figure 1

Description

本発明は、3D(3次元)プリンタで印刷するための3次元データを処理する技術に関する。   The present invention relates to a technique for processing three-dimensional data for printing with a 3D (three-dimensional) printer.

3Dプリンタでは、ユーザが3D動画データから所望のシーンを選んで印刷することができる。特許文献1には、被写体像の動きを見やすく表示する方法として、切り出した被写体像が重ならないようにレイアウトして合成画像を生成する方法が開示されている。特許文献1に開示の画像記録装置は、動画データから、動きのある被写体が存在する画像領域を検出し、切り出し領域を設定して所定のサンプリング間隔で抽出し、水平または垂直方向に並べて結合することで合成画像を生成する。   In the 3D printer, the user can select and print a desired scene from the 3D moving image data. Patent Document 1 discloses a method of generating a composite image by laying out the cut out subject images so as not to overlap as a method of displaying the movement of the subject images in an easy-to-see manner. The image recording apparatus disclosed in Patent Literature 1 detects an image area where a moving subject exists from moving image data, sets a cut-out area, extracts it at a predetermined sampling interval, and arranges them in a horizontal or vertical direction and combines them. Thus, a composite image is generated.

特開2012−99876号公報JP 2012-99876 A

特許文献1では、時系列上で連続的に切り出した同一被写体に係る複数のオブジェクトを並べて3Dプリンタで印刷すると、各オブジェクトの立体物(生成物)がバラバラに生成されるため、管理が大変である。
本発明の目的は、被写体に係る複数のオブジェクトを合成してひとまとめにすることで管理しやすくすることである。
In Patent Document 1, when a plurality of objects related to the same subject that are continuously cut out in time series are arranged and printed by a 3D printer, a solid object (product) of each object is generated separately, which makes management difficult. is there.
An object of the present invention is to facilitate management by combining a plurality of objects related to a subject into a group.

本発明の一実施形態の装置は、3次元データを取得する第1の取得手段と、前記3次元データから被写体に係る複数のオブジェクトを取得する第2の取得手段と、取得された前記複数のオブジェクトが重なっている領域の重なり量を演算する演算手段と、前記演算手段により演算された前記重なり量がゼロでなく、互いに重なり合っている前記複数のオブジェクトを合成する合成手段を備える。   An apparatus according to an embodiment of the present invention includes: a first acquisition unit that acquires three-dimensional data; a second acquisition unit that acquires a plurality of objects related to a subject from the three-dimensional data; Computation means for computing the amount of overlap of the region where the objects overlap, and composition means for composing the plurality of objects that overlap each other when the amount of overlap computed by the computation means is not zero.

本発明によれば、被写体に係る複数のオブジェクトを合成してひとまとめにすることにより、管理が容易になる。   According to the present invention, management is facilitated by combining a plurality of objects related to a subject into a group.

本発明の第1実施形態に係るオブジェクト処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the object processing apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る3次元データの生成処理のフローチャートである。It is a flowchart of the production | generation process of the three-dimensional data which concerns on 1st Embodiment of this invention. 図2に後続する処理を示すフローチャートである。It is a flowchart which shows the process which follows FIG. 本発明の第1実施形態に係る基準オブジェクトの登録処理のフローチャートである。It is a flowchart of the registration process of the reference | standard object which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る3次元データの生成処理を説明するための図である。It is a figure for demonstrating the production | generation process of the three-dimensional data which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る3次元データの生成処理のフローチャートである。It is a flowchart of the production | generation process of the three-dimensional data which concerns on 2nd Embodiment of this invention. 図6に後続する処理を示すフローチャートである。It is a flowchart which shows the process which follows FIG. 本発明の第2実施形態に係る3次元データの生成処理を説明するための図である。It is a figure for demonstrating the production | generation process of the three-dimensional data which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態にて重なり体積を設定する動作を説明するための図である。It is a figure for demonstrating the operation | movement which sets an overlap volume in 2nd Embodiment of this invention.

以下、本発明の各実施形態を図面に基づいて詳細に説明する。各実施形態では、3次元データ処理装置としてオブジェクト処理装置を例示して説明する。
[第1実施形態]
図1は、本発明の第1実施形態に係るオブジェクト処理装置100の構成例を示すブロック図である。オブジェクト処理装置100は外部のサーバ101と通信可能である。サーバ101の記憶装置には、3D動画データが格納されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each embodiment, an object processing device will be described as an example of a three-dimensional data processing device.
[First Embodiment]
FIG. 1 is a block diagram illustrating a configuration example of an object processing apparatus 100 according to the first embodiment of the present invention. The object processing apparatus 100 can communicate with an external server 101. The storage device of the server 101 stores 3D moving image data.

3Dデータ取得部102は、サーバ101から3D動画データを取得する。被写体オブジェクト取得部103は、フレームナンバーとそのフレームの座標情報に基づいて被写体の検出および抽出を行い、3Dプリンタで印刷可能な3Dデータを取得する。以下では、この3Dデータ(被写体オブジェクトデータ)を、OBJデータと略記する。重なり体積演算部104は、被写体のオブジェクト同士が重なっている部分の重なり量として体積(以下、重なり体積という)を演算する。重なり体積の演算は論理積演算を用いて行われる。重なり体積設定部105は、被写体のオブジェクト同士の重なり体積を設定する。   The 3D data acquisition unit 102 acquires 3D moving image data from the server 101. The subject object acquisition unit 103 detects and extracts a subject based on the frame number and the coordinate information of the frame, and acquires 3D data that can be printed by a 3D printer. Hereinafter, this 3D data (subject object data) is abbreviated as OBJ data. The overlap volume calculation unit 104 calculates a volume (hereinafter referred to as an overlap volume) as an overlap amount of a portion where the subject objects overlap. The overlap volume is calculated using a logical product operation. The overlap volume setting unit 105 sets an overlap volume between objects of the subject.

マイクロコンピュータ106はシステム全体を制御する制御中枢部である。マイクロコンピュータ(以下、制御部という)106は、CPU(中央演算処理装置)、プログラムを格納する不揮発性メモリ(ROM)、作業領域となる揮発性メモリ(RAM)を有する。制御部106は、他のハードウェアとデータの受け渡しや制御用レジスタをアクセスするための外部バス、時間を計測するタイマを少なくとも有する。バス107には、各ブロック(符号102から106、108、111、112、115参照)が接続されている。バス107は制御部106の制御に従ってデータの受け渡しを行う伝送路である。   The microcomputer 106 is a control center that controls the entire system. A microcomputer (hereinafter referred to as a control unit) 106 includes a CPU (Central Processing Unit), a nonvolatile memory (ROM) for storing programs, and a volatile memory (RAM) serving as a work area. The control unit 106 has at least an external bus for transferring data with other hardware and accessing a control register, and a timer for measuring time. Each block (see reference numerals 102 to 106, 108, 111, 112, and 115) is connected to the bus 107. A bus 107 is a transmission path for transferring data according to the control of the control unit 106.

インタフェース部108は、制御部106の制御下にて、制御部106とメモリ109およびデータ送信部110とのデータの受け渡しを制御する。メモリ109は各ブロックが作業用に使用可能な記憶デバイスであり、サーバ101から入力された3D動画データを一時的に記憶するバッファ手段としても使用される。データ送信部110は、不図示の3Dプリンタへ立体データ(3次元データ)を送信する。   The interface unit 108 controls data transfer between the control unit 106, the memory 109, and the data transmission unit 110 under the control of the control unit 106. The memory 109 is a storage device in which each block can be used for work, and is also used as buffer means for temporarily storing 3D moving image data input from the server 101. The data transmission unit 110 transmits stereoscopic data (three-dimensional data) to a 3D printer (not shown).

2D変換部111は、3D動画データを2D(2次元)画像データに変換して再生する処理を行う。オブジェクト合成部112は、複数のOBJデータを取得して合成し、合成後のOBJデータを出力する。スイッチ操作部113は、ユーザがオブジェクト処理装置100を操作するためのスイッチなどを備え、制御部106はユーザ操作による操作指示を受け付ける。例えばスイッチ操作部113は、3D動画データを再生する操作スイッチや、各種パラメータを変更する操作ボタンを備える。   The 2D conversion unit 111 performs processing for converting 3D moving image data into 2D (two-dimensional) image data and reproducing it. The object combining unit 112 acquires and combines a plurality of OBJ data, and outputs the combined OBJ data. The switch operation unit 113 includes a switch for a user to operate the object processing apparatus 100, and the control unit 106 receives an operation instruction by a user operation. For example, the switch operation unit 113 includes an operation switch for reproducing 3D moving image data and operation buttons for changing various parameters.

液晶パネル114は表示部を構成し、オブジェクトや仮想ボタンの画像を画面に表示する。タッチパネル操作部115は、液晶パネル114と一体に使用される操作デバイスを有する。液晶パネル114がサムネイル画像や仮想ボタンの画像を画面に表示した状態で、ユーザがタッチパネル操作部115を用いてオブジェクト処理装置100に指示すると、制御部106は操作指示を受け付ける。   The liquid crystal panel 114 constitutes a display unit and displays images of objects and virtual buttons on the screen. The touch panel operation unit 115 includes an operation device that is used integrally with the liquid crystal panel 114. When the user instructs the object processing apparatus 100 using the touch panel operation unit 115 while the liquid crystal panel 114 displays thumbnail images and virtual button images on the screen, the control unit 106 receives the operation instructions.

次に、図2から図5を参照して、3Dプリンタで印刷するための3次元データの生成処理について説明する。図2から図4は処理例を示すフローチャートである。ユーザがスイッチ操作部113で再生モードに設定することにより制御部106は下記処理を実行する。
図2のS201で制御部106は、基準となるオブジェクト(基準オブジェクト)を設定する。図4のフローチャートを参照して、基準オブジェクトの設定処理を説明する。
Next, a process for generating three-dimensional data for printing with a 3D printer will be described with reference to FIGS. 2 to 4 are flowcharts showing processing examples. When the user sets the playback mode using the switch operation unit 113, the control unit 106 executes the following processing.
In S201 of FIG. 2, the control unit 106 sets a reference object (reference object). The reference object setting process will be described with reference to the flowchart of FIG.

図4のS301では、制御部106の指示により、3Dデータ取得部102が再生対象のコンテンツデータをサーバ101から取得する。コンテンツデータは3D動画データである。取得された3D動画データは、制御部106の指示により、2D変換部111が2D変換して再生され、液晶パネル114に画像表示される。S302では、ユーザがタッチパネル操作部115で液晶表示画面をタッチすることにより、制御部106が2D変換部111の再生を一時停止させる。一時停止したフレームを基準フレームとして、制御部106はフレームナンバーをメモリ109に保持する。   In S301 of FIG. 4, the 3D data acquisition unit 102 acquires content data to be reproduced from the server 101 in accordance with an instruction from the control unit 106. The content data is 3D moving image data. The acquired 3D moving image data is reproduced by 2D conversion by the 2D conversion unit 111 in accordance with an instruction from the control unit 106, and an image is displayed on the liquid crystal panel 114. In S <b> 302, when the user touches the liquid crystal display screen with the touch panel operation unit 115, the control unit 106 temporarily stops the reproduction of the 2D conversion unit 111. The control unit 106 holds the frame number in the memory 109 using the temporarily stopped frame as a reference frame.

S303では、基準オブジェクト(以下、基準OBJとも記す)の選択処理が行われる。基準OBJは、S302で設定されたフレーム内に存在する被写体の画像を、ユーザがタッチパネル操作部115で液晶表示画面上をタッチすることで選択される。制御部106は、ユーザの操作で選択された座標のデータをメモリ109に保持する。S304で制御部106は、選択されたオブジェクトを登録する。オブジェクトの登録では、制御部106がメモリ109に保持されているフレームナンバーと座標を読み出し、3Dデータ取得部102および被写体オブジェクト取得部103に設定する。3Dデータ取得部102は該当フレームの3D動画データをサーバ101より取得し、被写体オブジェクト取得部103へ入力する。被写体オブジェクト取得部103は、制御部106で設定された座標から、被写体の検出および抽出処理を行い、OBJデータを取得する。取得されたOBJデータは、制御部106がオブジェクト合成部112に登録する。オブジェクト合成部112は、入力されたOBJデータをメモリ109に保持する。図5(A)を参照して、処理の具体例を説明する。   In S303, a reference object (hereinafter also referred to as reference OBJ) selection process is performed. The reference OBJ is selected when the user touches the liquid crystal display screen with the touch panel operation unit 115 on the image of the subject existing in the frame set in S302. The control unit 106 holds data of coordinates selected by a user operation in the memory 109. In step S304, the control unit 106 registers the selected object. In object registration, the control unit 106 reads out the frame number and coordinates held in the memory 109 and sets them in the 3D data acquisition unit 102 and the subject object acquisition unit 103. The 3D data acquisition unit 102 acquires the 3D moving image data of the corresponding frame from the server 101 and inputs it to the subject object acquisition unit 103. The subject object acquisition unit 103 performs subject detection and extraction processing from the coordinates set by the control unit 106, and acquires OBJ data. The control unit 106 registers the acquired OBJ data in the object composition unit 112. The object composition unit 112 holds the input OBJ data in the memory 109. A specific example of processing will be described with reference to FIG.

図5(A)は、2D変換部111によって2D変換された動画が、液晶パネル114の画面に表示されている状態を例示し、被写体が画面の右側から左側に移動する様子を示す。ユーザは、再生中の動画を一時停止させる操作を行ってから、所望のシーンの被写体オブジェクトを基準オブジェクトとして登録する。   FIG. 5A illustrates a state in which the moving image that has been 2D-converted by the 2D conversion unit 111 is displayed on the screen of the liquid crystal panel 114, and illustrates how the subject moves from the right side to the left side of the screen. The user registers the subject object of the desired scene as a reference object after performing an operation to pause the moving image being played back.

図2のS202からS206では、重なり体積が小さいオブジェクトをサーチする処理が実行される。S202では、制御部106が再生を一時停止した3Dデータ取得部102のフレームを、1V進ませるように3Dデータ取得部102に指示する。1Vは、フレームレートに対応する垂直周期を表す。3Dデータ取得部102は該当フレームの3D動画データをサーバ101より取得し、被写体オブジェクト取得部103に入力する。被写体オブジェクト取得部103は、新たに入力された3D動画データと、その1V前の画像の座標から算出した座標よりOBJデータを取得する。座標については、1V前の被写体の顔画像を、色差等から制御部106が算出する。これにより、制御部106が比較するオブジェクト(以下、比較OBJという)のデータを取得することができる。   In S202 to S206 of FIG. 2, a process for searching for an object having a small overlapping volume is executed. In S202, the control unit 106 instructs the 3D data acquisition unit 102 to advance the frame of the 3D data acquisition unit 102 whose reproduction has been paused by 1V. 1V represents a vertical period corresponding to the frame rate. The 3D data acquisition unit 102 acquires 3D moving image data of the corresponding frame from the server 101 and inputs it to the subject object acquisition unit 103. The subject object acquisition unit 103 acquires OBJ data from the newly input 3D moving image data and the coordinates calculated from the coordinates of the image before 1V. For the coordinates, the control unit 106 calculates the face image of the subject before 1V from the color difference or the like. Thereby, the data of the object (hereinafter referred to as comparison OBJ) to be compared by the control unit 106 can be acquired.

図2のS203で重なり体積演算部104は、基準OBJとS202で設定した比較OBJとの重なり体積を演算する。重なり体積演算部104は、被写体のオブジェクト同士の重なり体積を、公知の方法である論理積を用いて演算する。S204で制御部106は、一回目の演算であるか否かを判定する。今回の演算が一回目の演算である場合、S205に処理を進め、また二回目以降の演算である場合にはS207に遷移する。S205で比較OBJデータがメモリ109に保持される。S207では、S203の演算結果に基づいて、重なり体積が小さい比較OBJデータがメモリ109に保持される。   In S203 of FIG. 2, the overlapping volume calculation unit 104 calculates the overlapping volume between the reference OBJ and the comparison OBJ set in S202. The overlap volume calculation unit 104 calculates the overlap volume between the objects of the subject using a logical product that is a known method. In S204, the control unit 106 determines whether it is the first calculation. If the current calculation is the first calculation, the process proceeds to S205, and if it is the second or subsequent calculation, the process proceeds to S207. In step S205, the comparison OBJ data is held in the memory 109. In S207, comparison OBJ data with a small overlap volume is held in the memory 109 based on the calculation result of S203.

S205またはS207の処理後、S206で制御部106は、基準OBJと比較OBJとの重なりが無くなったか否かを判定する。重なりの有無の判定処理では、制御部106がオブジェクト同士の重なり体積がゼロであるか否かで判定する。オブジェクト同士が重なっている場合にはS203に戻り、1V後の比較OBJと基準OBJとの重なり体積の演算処理が実行される。S203からS206の処理が繰り返し実行される。これにより、複数の比較OBJデータのうち、基準OBJデータに対して重なり体積が最小となる比較OBJデータが検出される。   After the processing in S205 or S207, in S206, the control unit 106 determines whether or not there is no overlap between the reference OBJ and the comparison OBJ. In the determination process of whether or not there is an overlap, the control unit 106 determines whether or not the overlap volume between objects is zero. If the objects overlap each other, the process returns to S203, and the calculation process of the overlapping volume between the comparison OBJ after 1V and the reference OBJ is executed. The processing from S203 to S206 is repeatedly executed. Thereby, the comparison OBJ data in which the overlapping volume is minimized with respect to the reference OBJ data among the plurality of comparison OBJ data is detected.

一方、S206で、オブジェクト同士が重なっていないと判定された場合には、S208に処理を進める。S208で制御部106は、メモリ109に保持された、重なり体積が小さい比較OBJデータを印刷用のオブジェクトに追加する。印刷用オブジェクトの追加処理は、メモリ109に保持された比較オブジェクトのOBJデータを、オブジェクト合成部112に登録することにより行われる。オブジェクト合成部112は、登録された比較OBJデータを、基準OBJデータと合成してメモリ109上に保持する。図5(B)を参照して具体的に説明する。図5(B)の中央に基準オブジェクトが位置しており、その左側にオブジェクトA1,A2と、右側にオブジェクトM1,M2を示す。これらのオブジェクトA1,A2,M1,M2は、基準オブジェクトの被写体と同一の被写体のオブジェクトである。基準オブジェクトのフレームから数Vの時間経過後のオブジェクトA1が抽出され、印刷用オブジェクトに追加される。   On the other hand, if it is determined in S206 that the objects do not overlap, the process proceeds to S208. In step S <b> 208, the control unit 106 adds the comparison OBJ data having a small overlapping volume held in the memory 109 to the object for printing. The print object addition process is performed by registering the OBJ data of the comparison object held in the memory 109 in the object composition unit 112. The object synthesis unit 112 synthesizes the registered comparison OBJ data with the reference OBJ data and holds it on the memory 109. A specific description will be given with reference to FIG. The reference object is located at the center of FIG. 5B, and the objects A1 and A2 are shown on the left side and the objects M1 and M2 are shown on the right side. These objects A1, A2, M1, and M2 are objects of the same subject as that of the reference object. The object A1 after the elapse of several V from the frame of the reference object is extracted and added to the print object.

図2のS209で制御部106は、図5(B)のオブジェクトA1のOBJデータを基準OBJデータに変更してメモリ109に保持する。S210では、動画再生が終了したか否かについて判定処理が行われる。動画再生が終了していない場合には、S202に戻って、オブジェクトA1を基準オブジェクトに変更して、重なり体積が小さいオブジェクトのサーチ処理が実行される。これにより、図5(B)に示すオブジェクトA1に対して、重なり体積が小さいオブジェクトA2が抽出される。抽出されたオブジェクトA2のOBJデータは、オブジェクト合成部112に登録されて、印刷用オブジェクトに追加される。S203〜S210の処理によって、基準オブジェクトおよびオブジェクトA1,A2を合成したOBJデータが生成される。   In S209 of FIG. 2, the control unit 106 changes the OBJ data of the object A1 of FIG. 5B to the reference OBJ data and holds it in the memory 109. In S210, a determination process is performed as to whether or not the moving image reproduction has ended. If the moving image reproduction has not ended, the process returns to S202, the object A1 is changed to the reference object, and search processing for an object having a small overlapping volume is executed. Thereby, an object A2 having a small overlapping volume is extracted from the object A1 shown in FIG. The extracted OBJ data of the object A2 is registered in the object composition unit 112 and added to the print object. Through the processes of S203 to S210, OBJ data obtained by combining the reference object and the objects A1 and A2 is generated.

S210で動画が終了したことが判定された場合には、図3のS211に処理を進める。S211で制御部106は基準OBJの設定を戻し、図2のS201で設定した基準OBJのフレームナンバーとオブジェクトの座標をメモリ109に保持する。S212で制御部106は再生を一時停止した3Dデータ取得部102のフレームを、1V前に戻すように3Dデータ取得部102に指示する。3Dデータ取得部102は、該当フレームの3D動画データをサーバ101より取得し、被写体オブジェクト取得部103に入力する。被写体オブジェクト取得部103は、新たに入力された3D動画データと、その1V後の画像の座標から算出した座標よりOBJデータを取得する。座標については、1V後の被写体の顔画像を、色差等から制御部106が算出する。   If it is determined in S210 that the moving image has ended, the process proceeds to S211 in FIG. In step S211, the control unit 106 returns the setting of the reference OBJ, and holds the frame number and object coordinates of the reference OBJ set in step S201 in FIG. In step S212, the control unit 106 instructs the 3D data acquisition unit 102 to return the frame of the 3D data acquisition unit 102 whose playback has been paused to 1V. The 3D data acquisition unit 102 acquires 3D moving image data of the corresponding frame from the server 101 and inputs it to the subject object acquisition unit 103. The subject object acquisition unit 103 acquires OBJ data from newly input 3D moving image data and coordinates calculated from the coordinates of the image after 1V. For the coordinates, the control unit 106 calculates the face image of the subject after 1V from the color difference or the like.

S213〜S220の各処理はS203〜S210の各処理に対応するが、基準オブジェクトのフレームよりも時間的に前のフレームに対して実行される。つまり、処理対象が異なること以外、その他については同様の処理が行われるため、それらの詳細を省略する。   The processes of S213 to S220 correspond to the processes of S203 to S210, but are executed on a frame temporally prior to the frame of the reference object. That is, except that the processing targets are different, the same processing is performed for the other parts, and details thereof are omitted.

S213〜S220の処理の結果、図5(B)に示すオブジェクトM1,M2が設定される。抽出されたM1およびM2のOBJデータは、オブジェクト合成部112に登録される。オブジェクト合成部112は、メモリ109に保持されている合成データにM1,M2のOBJデータを合成してメモリ109に保持する。基準オブジェクトと、さらにオブジェクトM1,M2を合成したOBJデータが生成される。その結果、基準オブジェクトと、オブジェクトA1、A2,M1,M2が合成されたOBJデータが作成され、メモリ109に保存される。   As a result of the processing of S213 to S220, objects M1 and M2 shown in FIG. 5B are set. The extracted M1 and M2 OBJ data is registered in the object composition unit 112. The object combining unit 112 combines the OBJ data of M1 and M2 with the combined data stored in the memory 109 and stores the combined data in the memory 109. OBJ data obtained by combining the reference object and the objects M1 and M2 is generated. As a result, OBJ data in which the reference object and the objects A 1, A 2, M 1, and M 2 are combined is created and stored in the memory 109.

S220で動画の終了が判定されると、処理を終了する。図5(B)に示すように、被写体の動きに応じた基準OBJとオブジェクトA1、A2,M1,M2が液晶パネル114の画面に表示される。3Dプリンタで印刷を行う場合、制御部106はメモリ109から合成されたOBJデータを取得し、データ送信部110から3Dプリンタへ転送する。3Dプリンタは、図5(D)に示すようにひとまとまりの立体物を生成する。   If the end of the moving image is determined in S220, the process ends. As shown in FIG. 5B, the reference OBJ corresponding to the movement of the subject and the objects A1, A2, M1, and M2 are displayed on the screen of the liquid crystal panel 114. When printing with a 3D printer, the control unit 106 acquires the synthesized OBJ data from the memory 109 and transfers it from the data transmission unit 110 to the 3D printer. The 3D printer generates a group of three-dimensional objects as shown in FIG.

複数のオブジェクト同士の重なり体積をユーザに分かり易いように提示する目的で、オブジェクト同士が重なっている領域については、当該オブジェクトが重なっていない領域に対して表示色や明度などが区別して表示される。例えば、オブジェクト同士の重なっている領域が色付けにより区別されて液晶パネル114に表示される。図5(C)では中央に基準オブジェクトを示し、その左右にオブジェクトA1とM1をそれぞれ示す。基準オブジェクトとオブジェクトM1の重なり領域K1では、重なり体積の領域が色分けして表示される。基準オブジェクトとオブジェクトA1との重なり領域K2についても同様に、重なり体積の領域が色分けして表示される。
本実施形態によれば、3次元データから取得される被写体に係る複数のオブジェクト同士の重なり量に基づき、互いに重なり合っている複数のオブジェクトを、合成処理によって1つのオブジェクトにまとめることで生成物の管理が容易になる。また重なり量が最小となる複数のオブジェクトを合成することにより、オブジェクトが重なり過ぎることを回避できる。
For the purpose of presenting the overlapping volume of multiple objects in a way that is easy for the user to understand, for areas where objects overlap, the display color, brightness, etc. are displayed separately from areas where the objects do not overlap . For example, a region where the objects overlap is distinguished by coloring and displayed on the liquid crystal panel 114. In FIG. 5C, the reference object is shown in the center, and the objects A1 and M1 are shown on the left and right, respectively. In the overlapping area K1 between the reference object and the object M1, the overlapping volume area is displayed in different colors. Similarly, for the overlapping area K2 between the reference object and the object A1, the overlapping volume area is displayed in different colors.
According to this embodiment, based on the amount of overlap between a plurality of objects related to a subject acquired from three-dimensional data, product management is performed by combining a plurality of objects that overlap each other into a single object through a synthesis process. Becomes easier. Further, by combining a plurality of objects having the smallest amount of overlap, it is possible to avoid the objects from overlapping too much.

[第2実施形態]
次に本発明の第2実施形態を説明する。本実施形態では、重なり体積をユーザが設定する例を説明する。図6から図9を用いて、3Dプリンタで印刷するための3次元データを生成する動作を説明する。図6および図7は処理例を説明するフローチャートである。図8は3次元データの生成処理を説明するための図である。図8(A)は被写体の移動を示し、図8(B)は同一被写体に係る基準オブジェクトおよび複数のオブジェクトを示す図である。図8(C)はオブジェクトの生成物を示す模式図である。図9は重なり体積の設定処理の説明図である。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, an example in which the user sets the overlapping volume will be described. An operation for generating three-dimensional data for printing by a 3D printer will be described with reference to FIGS. 6 and 7 are flowcharts for explaining processing examples. FIG. 8 is a diagram for explaining a process of generating three-dimensional data. 8A shows the movement of the subject, and FIG. 8B shows the reference object and a plurality of objects related to the same subject. FIG. 8C is a schematic diagram showing a product of an object. FIG. 9 is an explanatory diagram of the overlap volume setting process.

図6のS501では、被写体のオブジェクト同士の重なり体積について設定処理が行われる。制御部106は液晶パネル114の表示画面上にて重なり体積値を選択できることをユーザに通知する。ユーザは、重なり体積を大きくするか、または小さくするかについて、タッチパネル操作部115を用いて選択する。制御部106は、重なり体積をユーザが選択したことを検出すると、重なり体積設定部105に重なり体積値を設定する。重なり体積設定部105は、制御部106が設定した重なり体積値をメモリ109に保持する。重なり体積値は、被写体のオブジェクト同士の少なくとも一部が重なるときの値、つまりゼロより大きい値である。
図6および図7のS502〜S521の各処理は、図2および図3のS201〜S220の各処理に対応している。ユーザの操作指示により設定された重なり体積値に近いオブジェクトが抽出されること(S508,S518参照)以外、同様の処理が行われるため、それらの詳細な説明を省略し、相違点を説明する。
In S501 of FIG. 6, a setting process is performed for the overlapping volume of the subject objects. The control unit 106 notifies the user that the overlapping volume value can be selected on the display screen of the liquid crystal panel 114. The user uses the touch panel operation unit 115 to select whether to increase or decrease the overlapping volume. When detecting that the user has selected the overlapping volume, the control unit 106 sets the overlapping volume value in the overlapping volume setting unit 105. The overlapping volume setting unit 105 holds the overlapping volume value set by the control unit 106 in the memory 109. The overlapping volume value is a value when at least a part of the objects of the subject overlap, that is, a value larger than zero.
Each process of S502 to S521 in FIGS. 6 and 7 corresponds to each process of S201 to S220 in FIGS. Since the same processing is performed except that an object close to the overlapping volume value set by the user's operation instruction is extracted (see S508 and S518), detailed description thereof will be omitted and differences will be described.

S521で動画の終了が判定された場合、S522で制御部106は被写体のオブジェクト同士の重なり体積を更新するか否かについて判定する。制御部106は重なり体積を更新すると判定した場合、図6のS501に処理を戻す。図9は、画面中央に基準オブジェクトを示し、その左右にオブジェクトB1とN1をそれぞれ示す。オブジェクトB1とN1は、基準オブジェクトの被写体と同一の被写体のオブジェクトである。ユーザは液晶パネル114の画面上に表示された被写体の画像にタッチ操作で変更の指示を行う。図9の例では、基準オブジェクトの右側においてオブジェクトN1が重なっている。ユーザがオブジェクトN1の位置をタッチパネル操作部115でタッチすると、制御部106がタッチされた座標を認識して、基準オブジェクトに対するオブジェクトN1の重なり体積を変更する。ユーザが手指を右側に動かすと、基準オブジェクトとオブジェクトN1との重なり体積は小さくなり、手指を左側に動かすと、基準オブジェクトとオブジェクトN1との重なり体積は大きくなる。基準オブジェクトに対して、ユーザが選択するオブジェクトの少なくとも一部が重なるように、重なり体積の設定範囲が制限される。   When the end of the moving image is determined in S521, in S522, the control unit 106 determines whether or not to update the overlapping volume of the subject objects. If the control unit 106 determines to update the overlap volume, the process returns to S501 in FIG. FIG. 9 shows the reference object in the center of the screen, and objects B1 and N1 on the left and right, respectively. Objects B1 and N1 are objects of the same subject as the reference object. The user gives an instruction to change the subject image displayed on the screen of the liquid crystal panel 114 by a touch operation. In the example of FIG. 9, the object N1 overlaps on the right side of the reference object. When the user touches the position of the object N1 with the touch panel operation unit 115, the control unit 106 recognizes the touched coordinates and changes the overlapping volume of the object N1 with respect to the reference object. When the user moves the finger to the right, the overlapping volume between the reference object and the object N1 decreases, and when the user moves the finger to the left, the overlapping volume between the reference object and the object N1 increases. The overlapping volume setting range is limited such that at least a part of the object selected by the user overlaps the reference object.

S522で制御部106が重なり体積を更新しない場合には、処理を終了する。図8(B)に示すように、被写体の動きに応じた基準OBJとオブジェクトA3,A4,M3,M4が液晶パネル114の画面に表示される。3Dプリンタで印刷を行う場合、制御部106はメモリ109から合成されたOBJデータを取得し、データ送信部110から3Dプリンタに送信する。3Dプリンタは、図8(C)に示すひとまとまりの立体物を生成する。
本実施形態では、オブジェクト同士の重なり量を、ユーザ操作による指定に応じて任意に設定できるので、ユーザの利便性が向上する。
If the control unit 106 does not update the overlapping volume in S522, the process ends. As shown in FIG. 8B, the reference OBJ corresponding to the movement of the subject and the objects A3, A4, M3, and M4 are displayed on the screen of the liquid crystal panel 114. When printing with a 3D printer, the control unit 106 acquires the combined OBJ data from the memory 109 and transmits the data from the data transmission unit 110 to the 3D printer. The 3D printer generates a group of three-dimensional objects shown in FIG.
In the present embodiment, the amount of overlap between objects can be arbitrarily set according to designation by a user operation, so that convenience for the user is improved.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

102 3Dデータ取得部
103 被写体オブジェクト取得部
104 重なり体積演算部
105 重なり体積設定部
112 オブジェクト合成部

102 3D data acquisition unit 103 Subject object acquisition unit 104 Overlap volume calculation unit 105 Overlap volume setting unit 112 Object composition unit

Claims (8)

3次元データを取得する第1の取得手段と、
前記3次元データから被写体に係る複数のオブジェクトを取得する第2の取得手段と、
取得された前記複数のオブジェクトが重なっている領域の重なり量を演算する演算手段と、
前記演算手段により演算された前記重なり量がゼロでなく、互いに重なり合っている前記複数のオブジェクトを合成する合成手段を備えることを特徴とするデータ処理装置。
First acquisition means for acquiring three-dimensional data;
Second acquisition means for acquiring a plurality of objects related to the subject from the three-dimensional data;
A calculation means for calculating an overlapping amount of the area where the plurality of acquired objects overlap;
A data processing apparatus comprising: a combining unit that combines the plurality of objects that overlap each other when the amount of overlap calculated by the calculating unit is not zero.
前記合成手段は、前記複数のオブジェクトのうちの、第1のオブジェクトと、当該第1のオブジェクトとは異なるフレームのオブジェクトであって前記演算手段が演算した前記重なり量が最小の第2のオブジェクトを合成することを特徴とする請求項1に記載のデータ処理装置。   The synthesizing unit includes: a first object of the plurality of objects; and a second object that is an object of a frame different from the first object and has the minimum overlap amount calculated by the calculation unit. The data processing apparatus according to claim 1, wherein the data processing apparatus combines the data. ユーザ操作により前記複数のオブジェクトの重なり量を設定する設定手段をさらに備え、
前記合成手段は、前記演算手段による前記重なり量の演算結果が、前記設定手段により設定された前記重なり量である場合、互いに重なり合っている前記複数のオブジェクトを合成することを特徴とする請求項1または2に記載のデータ処理装置。
A setting unit configured to set an overlapping amount of the plurality of objects by a user operation;
2. The composition means, when the calculation result of the overlap amount by the calculation means is the overlap amount set by the setting means, combines the plurality of objects overlapping each other. Or the data processing apparatus of 2.
前記演算手段は前記重なり量として体積を演算することを特徴とする請求項1から3のいずれか1項に記載のデータ処理装置。   The data processing apparatus according to claim 1, wherein the calculation unit calculates a volume as the overlap amount. 前記複数のオブジェクトの画像を表示する表示手段を備え、
前記表示手段は、前記複数のオブジェクトが重なっている領域と前記複数のオブジェクトが重なっていない領域とを区別して表示することを特徴とする請求項1から4のいずれか1項に記載のデータ処理装置。
Display means for displaying images of the plurality of objects;
5. The data processing according to claim 1, wherein the display unit distinguishes and displays a region where the plurality of objects overlap and a region where the plurality of objects do not overlap. 6. apparatus.
前記表示手段は、前記複数のオブジェクトが重なっている領域を色付けして表示することを特徴とする請求項5に記載のデータ処理装置。   The data processing apparatus according to claim 5, wherein the display unit displays an area in which the plurality of objects overlap with color. 3次元データを処理するデータ処理装置にて実行されるデータ処理方法であって、
前記3次元データから被写体に係る複数のオブジェクトを取得するステップと、
前記複数のオブジェクトが重なっている領域の重なり量を演算するステップと、
前記重なり量がゼロであるか否かを判定するステップと、
前記重なり量がゼロでないと判定された場合に、互いに重なり合っている前記複数のオブジェクトを合成するステップを有することを特徴とするデータ処理方法。
A data processing method executed by a data processing apparatus for processing three-dimensional data,
Obtaining a plurality of objects related to the subject from the three-dimensional data;
Calculating an overlap amount of an area where the plurality of objects overlap;
Determining whether the amount of overlap is zero; and
A data processing method comprising: combining the plurality of objects overlapping each other when it is determined that the overlap amount is not zero.
請求項7に記載の各ステップを前記データ処理装置のコンピュータに実行させるプログラム。

A program for causing a computer of the data processing apparatus to execute each step according to claim 7.

JP2015182404A 2015-09-16 2015-09-16 Data processing device, data processing method, and program Pending JP2017056607A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015182404A JP2017056607A (en) 2015-09-16 2015-09-16 Data processing device, data processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015182404A JP2017056607A (en) 2015-09-16 2015-09-16 Data processing device, data processing method, and program

Publications (1)

Publication Number Publication Date
JP2017056607A true JP2017056607A (en) 2017-03-23

Family

ID=58388799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015182404A Pending JP2017056607A (en) 2015-09-16 2015-09-16 Data processing device, data processing method, and program

Country Status (1)

Country Link
JP (1) JP2017056607A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018206039A (en) * 2017-06-02 2018-12-27 株式会社第一興商 Three-dimensional printer data distribution device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018206039A (en) * 2017-06-02 2018-12-27 株式会社第一興商 Three-dimensional printer data distribution device

Similar Documents

Publication Publication Date Title
JP7330683B2 (en) Information processing device, information processing method and program
US10600169B2 (en) Image processing system and image processing method
TWI544447B (en) System and method for augmented reality
JP6585929B2 (en) System, control method of system
JP6742869B2 (en) Image processing apparatus and image processing method
US20120320047A1 (en) Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
CN102668556A (en) Medical support apparatus, medical support method, and medical support system
WO2019093457A1 (en) Information processing device, information processing method and program
JP2020024619A (en) Information processing apparatus, information processing method, and program
JP5831151B2 (en) Control processing program, image display apparatus, and image display method
CN105912101B (en) Projection control method and electronic equipment
US9646009B2 (en) Method and apparatus for generating a visual representation of object timelines in a multimedia user interface
JP2017056607A (en) Data processing device, data processing method, and program
JP5115457B2 (en) Cursor movement control method, apparatus, and program
JP6512787B2 (en) Image processing apparatus, image processing method, imaging apparatus
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
JP4333309B2 (en) Multi-screen image display system, multi-image display device relative position detection method, multi-image display device relative position detection program, and multi-image display device relative position detection program
CN102473042B (en) System, method and computer program for operating a plurality of computing devices
JP7179633B2 (en) Measuring method, measuring device and program
JP2022054254A (en) Image processing apparatus, image processing method, and program
JP6266229B2 (en) Image processing apparatus, method, and program
JP6182930B2 (en) Depth production support device, depth production method, and program
JP6425534B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP2015119339A (en) Information processing device, control device of the same, information processing system, information processing method, and program
EP4432242A1 (en) Information processing apparatus and method, and program