JP2017056607A - Data processing device, data processing method, and program - Google Patents
Data processing device, data processing method, and program Download PDFInfo
- Publication number
- JP2017056607A JP2017056607A JP2015182404A JP2015182404A JP2017056607A JP 2017056607 A JP2017056607 A JP 2017056607A JP 2015182404 A JP2015182404 A JP 2015182404A JP 2015182404 A JP2015182404 A JP 2015182404A JP 2017056607 A JP2017056607 A JP 2017056607A
- Authority
- JP
- Japan
- Prior art keywords
- objects
- overlap
- data
- data processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、3D(3次元)プリンタで印刷するための3次元データを処理する技術に関する。 The present invention relates to a technique for processing three-dimensional data for printing with a 3D (three-dimensional) printer.
3Dプリンタでは、ユーザが3D動画データから所望のシーンを選んで印刷することができる。特許文献1には、被写体像の動きを見やすく表示する方法として、切り出した被写体像が重ならないようにレイアウトして合成画像を生成する方法が開示されている。特許文献1に開示の画像記録装置は、動画データから、動きのある被写体が存在する画像領域を検出し、切り出し領域を設定して所定のサンプリング間隔で抽出し、水平または垂直方向に並べて結合することで合成画像を生成する。 In the 3D printer, the user can select and print a desired scene from the 3D moving image data. Patent Document 1 discloses a method of generating a composite image by laying out the cut out subject images so as not to overlap as a method of displaying the movement of the subject images in an easy-to-see manner. The image recording apparatus disclosed in Patent Literature 1 detects an image area where a moving subject exists from moving image data, sets a cut-out area, extracts it at a predetermined sampling interval, and arranges them in a horizontal or vertical direction and combines them. Thus, a composite image is generated.
特許文献1では、時系列上で連続的に切り出した同一被写体に係る複数のオブジェクトを並べて3Dプリンタで印刷すると、各オブジェクトの立体物(生成物)がバラバラに生成されるため、管理が大変である。
本発明の目的は、被写体に係る複数のオブジェクトを合成してひとまとめにすることで管理しやすくすることである。
In Patent Document 1, when a plurality of objects related to the same subject that are continuously cut out in time series are arranged and printed by a 3D printer, a solid object (product) of each object is generated separately, which makes management difficult. is there.
An object of the present invention is to facilitate management by combining a plurality of objects related to a subject into a group.
本発明の一実施形態の装置は、3次元データを取得する第1の取得手段と、前記3次元データから被写体に係る複数のオブジェクトを取得する第2の取得手段と、取得された前記複数のオブジェクトが重なっている領域の重なり量を演算する演算手段と、前記演算手段により演算された前記重なり量がゼロでなく、互いに重なり合っている前記複数のオブジェクトを合成する合成手段を備える。 An apparatus according to an embodiment of the present invention includes: a first acquisition unit that acquires three-dimensional data; a second acquisition unit that acquires a plurality of objects related to a subject from the three-dimensional data; Computation means for computing the amount of overlap of the region where the objects overlap, and composition means for composing the plurality of objects that overlap each other when the amount of overlap computed by the computation means is not zero.
本発明によれば、被写体に係る複数のオブジェクトを合成してひとまとめにすることにより、管理が容易になる。 According to the present invention, management is facilitated by combining a plurality of objects related to a subject into a group.
以下、本発明の各実施形態を図面に基づいて詳細に説明する。各実施形態では、3次元データ処理装置としてオブジェクト処理装置を例示して説明する。
[第1実施形態]
図1は、本発明の第1実施形態に係るオブジェクト処理装置100の構成例を示すブロック図である。オブジェクト処理装置100は外部のサーバ101と通信可能である。サーバ101の記憶装置には、3D動画データが格納されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each embodiment, an object processing device will be described as an example of a three-dimensional data processing device.
[First Embodiment]
FIG. 1 is a block diagram illustrating a configuration example of an
3Dデータ取得部102は、サーバ101から3D動画データを取得する。被写体オブジェクト取得部103は、フレームナンバーとそのフレームの座標情報に基づいて被写体の検出および抽出を行い、3Dプリンタで印刷可能な3Dデータを取得する。以下では、この3Dデータ(被写体オブジェクトデータ)を、OBJデータと略記する。重なり体積演算部104は、被写体のオブジェクト同士が重なっている部分の重なり量として体積(以下、重なり体積という)を演算する。重なり体積の演算は論理積演算を用いて行われる。重なり体積設定部105は、被写体のオブジェクト同士の重なり体積を設定する。
The 3D
マイクロコンピュータ106はシステム全体を制御する制御中枢部である。マイクロコンピュータ(以下、制御部という)106は、CPU(中央演算処理装置)、プログラムを格納する不揮発性メモリ(ROM)、作業領域となる揮発性メモリ(RAM)を有する。制御部106は、他のハードウェアとデータの受け渡しや制御用レジスタをアクセスするための外部バス、時間を計測するタイマを少なくとも有する。バス107には、各ブロック(符号102から106、108、111、112、115参照)が接続されている。バス107は制御部106の制御に従ってデータの受け渡しを行う伝送路である。
The
インタフェース部108は、制御部106の制御下にて、制御部106とメモリ109およびデータ送信部110とのデータの受け渡しを制御する。メモリ109は各ブロックが作業用に使用可能な記憶デバイスであり、サーバ101から入力された3D動画データを一時的に記憶するバッファ手段としても使用される。データ送信部110は、不図示の3Dプリンタへ立体データ(3次元データ)を送信する。
The
2D変換部111は、3D動画データを2D(2次元)画像データに変換して再生する処理を行う。オブジェクト合成部112は、複数のOBJデータを取得して合成し、合成後のOBJデータを出力する。スイッチ操作部113は、ユーザがオブジェクト処理装置100を操作するためのスイッチなどを備え、制御部106はユーザ操作による操作指示を受け付ける。例えばスイッチ操作部113は、3D動画データを再生する操作スイッチや、各種パラメータを変更する操作ボタンを備える。
The
液晶パネル114は表示部を構成し、オブジェクトや仮想ボタンの画像を画面に表示する。タッチパネル操作部115は、液晶パネル114と一体に使用される操作デバイスを有する。液晶パネル114がサムネイル画像や仮想ボタンの画像を画面に表示した状態で、ユーザがタッチパネル操作部115を用いてオブジェクト処理装置100に指示すると、制御部106は操作指示を受け付ける。
The
次に、図2から図5を参照して、3Dプリンタで印刷するための3次元データの生成処理について説明する。図2から図4は処理例を示すフローチャートである。ユーザがスイッチ操作部113で再生モードに設定することにより制御部106は下記処理を実行する。
図2のS201で制御部106は、基準となるオブジェクト(基準オブジェクト)を設定する。図4のフローチャートを参照して、基準オブジェクトの設定処理を説明する。
Next, a process for generating three-dimensional data for printing with a 3D printer will be described with reference to FIGS. 2 to 4 are flowcharts showing processing examples. When the user sets the playback mode using the
In S201 of FIG. 2, the
図4のS301では、制御部106の指示により、3Dデータ取得部102が再生対象のコンテンツデータをサーバ101から取得する。コンテンツデータは3D動画データである。取得された3D動画データは、制御部106の指示により、2D変換部111が2D変換して再生され、液晶パネル114に画像表示される。S302では、ユーザがタッチパネル操作部115で液晶表示画面をタッチすることにより、制御部106が2D変換部111の再生を一時停止させる。一時停止したフレームを基準フレームとして、制御部106はフレームナンバーをメモリ109に保持する。
In S301 of FIG. 4, the 3D
S303では、基準オブジェクト(以下、基準OBJとも記す)の選択処理が行われる。基準OBJは、S302で設定されたフレーム内に存在する被写体の画像を、ユーザがタッチパネル操作部115で液晶表示画面上をタッチすることで選択される。制御部106は、ユーザの操作で選択された座標のデータをメモリ109に保持する。S304で制御部106は、選択されたオブジェクトを登録する。オブジェクトの登録では、制御部106がメモリ109に保持されているフレームナンバーと座標を読み出し、3Dデータ取得部102および被写体オブジェクト取得部103に設定する。3Dデータ取得部102は該当フレームの3D動画データをサーバ101より取得し、被写体オブジェクト取得部103へ入力する。被写体オブジェクト取得部103は、制御部106で設定された座標から、被写体の検出および抽出処理を行い、OBJデータを取得する。取得されたOBJデータは、制御部106がオブジェクト合成部112に登録する。オブジェクト合成部112は、入力されたOBJデータをメモリ109に保持する。図5(A)を参照して、処理の具体例を説明する。
In S303, a reference object (hereinafter also referred to as reference OBJ) selection process is performed. The reference OBJ is selected when the user touches the liquid crystal display screen with the touch
図5(A)は、2D変換部111によって2D変換された動画が、液晶パネル114の画面に表示されている状態を例示し、被写体が画面の右側から左側に移動する様子を示す。ユーザは、再生中の動画を一時停止させる操作を行ってから、所望のシーンの被写体オブジェクトを基準オブジェクトとして登録する。
FIG. 5A illustrates a state in which the moving image that has been 2D-converted by the
図2のS202からS206では、重なり体積が小さいオブジェクトをサーチする処理が実行される。S202では、制御部106が再生を一時停止した3Dデータ取得部102のフレームを、1V進ませるように3Dデータ取得部102に指示する。1Vは、フレームレートに対応する垂直周期を表す。3Dデータ取得部102は該当フレームの3D動画データをサーバ101より取得し、被写体オブジェクト取得部103に入力する。被写体オブジェクト取得部103は、新たに入力された3D動画データと、その1V前の画像の座標から算出した座標よりOBJデータを取得する。座標については、1V前の被写体の顔画像を、色差等から制御部106が算出する。これにより、制御部106が比較するオブジェクト(以下、比較OBJという)のデータを取得することができる。
In S202 to S206 of FIG. 2, a process for searching for an object having a small overlapping volume is executed. In S202, the
図2のS203で重なり体積演算部104は、基準OBJとS202で設定した比較OBJとの重なり体積を演算する。重なり体積演算部104は、被写体のオブジェクト同士の重なり体積を、公知の方法である論理積を用いて演算する。S204で制御部106は、一回目の演算であるか否かを判定する。今回の演算が一回目の演算である場合、S205に処理を進め、また二回目以降の演算である場合にはS207に遷移する。S205で比較OBJデータがメモリ109に保持される。S207では、S203の演算結果に基づいて、重なり体積が小さい比較OBJデータがメモリ109に保持される。
In S203 of FIG. 2, the overlapping
S205またはS207の処理後、S206で制御部106は、基準OBJと比較OBJとの重なりが無くなったか否かを判定する。重なりの有無の判定処理では、制御部106がオブジェクト同士の重なり体積がゼロであるか否かで判定する。オブジェクト同士が重なっている場合にはS203に戻り、1V後の比較OBJと基準OBJとの重なり体積の演算処理が実行される。S203からS206の処理が繰り返し実行される。これにより、複数の比較OBJデータのうち、基準OBJデータに対して重なり体積が最小となる比較OBJデータが検出される。
After the processing in S205 or S207, in S206, the
一方、S206で、オブジェクト同士が重なっていないと判定された場合には、S208に処理を進める。S208で制御部106は、メモリ109に保持された、重なり体積が小さい比較OBJデータを印刷用のオブジェクトに追加する。印刷用オブジェクトの追加処理は、メモリ109に保持された比較オブジェクトのOBJデータを、オブジェクト合成部112に登録することにより行われる。オブジェクト合成部112は、登録された比較OBJデータを、基準OBJデータと合成してメモリ109上に保持する。図5(B)を参照して具体的に説明する。図5(B)の中央に基準オブジェクトが位置しており、その左側にオブジェクトA1,A2と、右側にオブジェクトM1,M2を示す。これらのオブジェクトA1,A2,M1,M2は、基準オブジェクトの被写体と同一の被写体のオブジェクトである。基準オブジェクトのフレームから数Vの時間経過後のオブジェクトA1が抽出され、印刷用オブジェクトに追加される。
On the other hand, if it is determined in S206 that the objects do not overlap, the process proceeds to S208. In step S <b> 208, the
図2のS209で制御部106は、図5(B)のオブジェクトA1のOBJデータを基準OBJデータに変更してメモリ109に保持する。S210では、動画再生が終了したか否かについて判定処理が行われる。動画再生が終了していない場合には、S202に戻って、オブジェクトA1を基準オブジェクトに変更して、重なり体積が小さいオブジェクトのサーチ処理が実行される。これにより、図5(B)に示すオブジェクトA1に対して、重なり体積が小さいオブジェクトA2が抽出される。抽出されたオブジェクトA2のOBJデータは、オブジェクト合成部112に登録されて、印刷用オブジェクトに追加される。S203〜S210の処理によって、基準オブジェクトおよびオブジェクトA1,A2を合成したOBJデータが生成される。
In S209 of FIG. 2, the
S210で動画が終了したことが判定された場合には、図3のS211に処理を進める。S211で制御部106は基準OBJの設定を戻し、図2のS201で設定した基準OBJのフレームナンバーとオブジェクトの座標をメモリ109に保持する。S212で制御部106は再生を一時停止した3Dデータ取得部102のフレームを、1V前に戻すように3Dデータ取得部102に指示する。3Dデータ取得部102は、該当フレームの3D動画データをサーバ101より取得し、被写体オブジェクト取得部103に入力する。被写体オブジェクト取得部103は、新たに入力された3D動画データと、その1V後の画像の座標から算出した座標よりOBJデータを取得する。座標については、1V後の被写体の顔画像を、色差等から制御部106が算出する。
If it is determined in S210 that the moving image has ended, the process proceeds to S211 in FIG. In step S211, the
S213〜S220の各処理はS203〜S210の各処理に対応するが、基準オブジェクトのフレームよりも時間的に前のフレームに対して実行される。つまり、処理対象が異なること以外、その他については同様の処理が行われるため、それらの詳細を省略する。 The processes of S213 to S220 correspond to the processes of S203 to S210, but are executed on a frame temporally prior to the frame of the reference object. That is, except that the processing targets are different, the same processing is performed for the other parts, and details thereof are omitted.
S213〜S220の処理の結果、図5(B)に示すオブジェクトM1,M2が設定される。抽出されたM1およびM2のOBJデータは、オブジェクト合成部112に登録される。オブジェクト合成部112は、メモリ109に保持されている合成データにM1,M2のOBJデータを合成してメモリ109に保持する。基準オブジェクトと、さらにオブジェクトM1,M2を合成したOBJデータが生成される。その結果、基準オブジェクトと、オブジェクトA1、A2,M1,M2が合成されたOBJデータが作成され、メモリ109に保存される。
As a result of the processing of S213 to S220, objects M1 and M2 shown in FIG. 5B are set. The extracted M1 and M2 OBJ data is registered in the
S220で動画の終了が判定されると、処理を終了する。図5(B)に示すように、被写体の動きに応じた基準OBJとオブジェクトA1、A2,M1,M2が液晶パネル114の画面に表示される。3Dプリンタで印刷を行う場合、制御部106はメモリ109から合成されたOBJデータを取得し、データ送信部110から3Dプリンタへ転送する。3Dプリンタは、図5(D)に示すようにひとまとまりの立体物を生成する。
If the end of the moving image is determined in S220, the process ends. As shown in FIG. 5B, the reference OBJ corresponding to the movement of the subject and the objects A1, A2, M1, and M2 are displayed on the screen of the
複数のオブジェクト同士の重なり体積をユーザに分かり易いように提示する目的で、オブジェクト同士が重なっている領域については、当該オブジェクトが重なっていない領域に対して表示色や明度などが区別して表示される。例えば、オブジェクト同士の重なっている領域が色付けにより区別されて液晶パネル114に表示される。図5(C)では中央に基準オブジェクトを示し、その左右にオブジェクトA1とM1をそれぞれ示す。基準オブジェクトとオブジェクトM1の重なり領域K1では、重なり体積の領域が色分けして表示される。基準オブジェクトとオブジェクトA1との重なり領域K2についても同様に、重なり体積の領域が色分けして表示される。
本実施形態によれば、3次元データから取得される被写体に係る複数のオブジェクト同士の重なり量に基づき、互いに重なり合っている複数のオブジェクトを、合成処理によって1つのオブジェクトにまとめることで生成物の管理が容易になる。また重なり量が最小となる複数のオブジェクトを合成することにより、オブジェクトが重なり過ぎることを回避できる。
For the purpose of presenting the overlapping volume of multiple objects in a way that is easy for the user to understand, for areas where objects overlap, the display color, brightness, etc. are displayed separately from areas where the objects do not overlap . For example, a region where the objects overlap is distinguished by coloring and displayed on the
According to this embodiment, based on the amount of overlap between a plurality of objects related to a subject acquired from three-dimensional data, product management is performed by combining a plurality of objects that overlap each other into a single object through a synthesis process. Becomes easier. Further, by combining a plurality of objects having the smallest amount of overlap, it is possible to avoid the objects from overlapping too much.
[第2実施形態]
次に本発明の第2実施形態を説明する。本実施形態では、重なり体積をユーザが設定する例を説明する。図6から図9を用いて、3Dプリンタで印刷するための3次元データを生成する動作を説明する。図6および図7は処理例を説明するフローチャートである。図8は3次元データの生成処理を説明するための図である。図8(A)は被写体の移動を示し、図8(B)は同一被写体に係る基準オブジェクトおよび複数のオブジェクトを示す図である。図8(C)はオブジェクトの生成物を示す模式図である。図9は重なり体積の設定処理の説明図である。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, an example in which the user sets the overlapping volume will be described. An operation for generating three-dimensional data for printing by a 3D printer will be described with reference to FIGS. 6 and 7 are flowcharts for explaining processing examples. FIG. 8 is a diagram for explaining a process of generating three-dimensional data. 8A shows the movement of the subject, and FIG. 8B shows the reference object and a plurality of objects related to the same subject. FIG. 8C is a schematic diagram showing a product of an object. FIG. 9 is an explanatory diagram of the overlap volume setting process.
図6のS501では、被写体のオブジェクト同士の重なり体積について設定処理が行われる。制御部106は液晶パネル114の表示画面上にて重なり体積値を選択できることをユーザに通知する。ユーザは、重なり体積を大きくするか、または小さくするかについて、タッチパネル操作部115を用いて選択する。制御部106は、重なり体積をユーザが選択したことを検出すると、重なり体積設定部105に重なり体積値を設定する。重なり体積設定部105は、制御部106が設定した重なり体積値をメモリ109に保持する。重なり体積値は、被写体のオブジェクト同士の少なくとも一部が重なるときの値、つまりゼロより大きい値である。
図6および図7のS502〜S521の各処理は、図2および図3のS201〜S220の各処理に対応している。ユーザの操作指示により設定された重なり体積値に近いオブジェクトが抽出されること(S508,S518参照)以外、同様の処理が行われるため、それらの詳細な説明を省略し、相違点を説明する。
In S501 of FIG. 6, a setting process is performed for the overlapping volume of the subject objects. The
Each process of S502 to S521 in FIGS. 6 and 7 corresponds to each process of S201 to S220 in FIGS. Since the same processing is performed except that an object close to the overlapping volume value set by the user's operation instruction is extracted (see S508 and S518), detailed description thereof will be omitted and differences will be described.
S521で動画の終了が判定された場合、S522で制御部106は被写体のオブジェクト同士の重なり体積を更新するか否かについて判定する。制御部106は重なり体積を更新すると判定した場合、図6のS501に処理を戻す。図9は、画面中央に基準オブジェクトを示し、その左右にオブジェクトB1とN1をそれぞれ示す。オブジェクトB1とN1は、基準オブジェクトの被写体と同一の被写体のオブジェクトである。ユーザは液晶パネル114の画面上に表示された被写体の画像にタッチ操作で変更の指示を行う。図9の例では、基準オブジェクトの右側においてオブジェクトN1が重なっている。ユーザがオブジェクトN1の位置をタッチパネル操作部115でタッチすると、制御部106がタッチされた座標を認識して、基準オブジェクトに対するオブジェクトN1の重なり体積を変更する。ユーザが手指を右側に動かすと、基準オブジェクトとオブジェクトN1との重なり体積は小さくなり、手指を左側に動かすと、基準オブジェクトとオブジェクトN1との重なり体積は大きくなる。基準オブジェクトに対して、ユーザが選択するオブジェクトの少なくとも一部が重なるように、重なり体積の設定範囲が制限される。
When the end of the moving image is determined in S521, in S522, the
S522で制御部106が重なり体積を更新しない場合には、処理を終了する。図8(B)に示すように、被写体の動きに応じた基準OBJとオブジェクトA3,A4,M3,M4が液晶パネル114の画面に表示される。3Dプリンタで印刷を行う場合、制御部106はメモリ109から合成されたOBJデータを取得し、データ送信部110から3Dプリンタに送信する。3Dプリンタは、図8(C)に示すひとまとまりの立体物を生成する。
本実施形態では、オブジェクト同士の重なり量を、ユーザ操作による指定に応じて任意に設定できるので、ユーザの利便性が向上する。
If the
In the present embodiment, the amount of overlap between objects can be arbitrarily set according to designation by a user operation, so that convenience for the user is improved.
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
102 3Dデータ取得部
103 被写体オブジェクト取得部
104 重なり体積演算部
105 重なり体積設定部
112 オブジェクト合成部
102 3D
Claims (8)
前記3次元データから被写体に係る複数のオブジェクトを取得する第2の取得手段と、
取得された前記複数のオブジェクトが重なっている領域の重なり量を演算する演算手段と、
前記演算手段により演算された前記重なり量がゼロでなく、互いに重なり合っている前記複数のオブジェクトを合成する合成手段を備えることを特徴とするデータ処理装置。 First acquisition means for acquiring three-dimensional data;
Second acquisition means for acquiring a plurality of objects related to the subject from the three-dimensional data;
A calculation means for calculating an overlapping amount of the area where the plurality of acquired objects overlap;
A data processing apparatus comprising: a combining unit that combines the plurality of objects that overlap each other when the amount of overlap calculated by the calculating unit is not zero.
前記合成手段は、前記演算手段による前記重なり量の演算結果が、前記設定手段により設定された前記重なり量である場合、互いに重なり合っている前記複数のオブジェクトを合成することを特徴とする請求項1または2に記載のデータ処理装置。 A setting unit configured to set an overlapping amount of the plurality of objects by a user operation;
2. The composition means, when the calculation result of the overlap amount by the calculation means is the overlap amount set by the setting means, combines the plurality of objects overlapping each other. Or the data processing apparatus of 2.
前記表示手段は、前記複数のオブジェクトが重なっている領域と前記複数のオブジェクトが重なっていない領域とを区別して表示することを特徴とする請求項1から4のいずれか1項に記載のデータ処理装置。 Display means for displaying images of the plurality of objects;
5. The data processing according to claim 1, wherein the display unit distinguishes and displays a region where the plurality of objects overlap and a region where the plurality of objects do not overlap. 6. apparatus.
前記3次元データから被写体に係る複数のオブジェクトを取得するステップと、
前記複数のオブジェクトが重なっている領域の重なり量を演算するステップと、
前記重なり量がゼロであるか否かを判定するステップと、
前記重なり量がゼロでないと判定された場合に、互いに重なり合っている前記複数のオブジェクトを合成するステップを有することを特徴とするデータ処理方法。 A data processing method executed by a data processing apparatus for processing three-dimensional data,
Obtaining a plurality of objects related to the subject from the three-dimensional data;
Calculating an overlap amount of an area where the plurality of objects overlap;
Determining whether the amount of overlap is zero; and
A data processing method comprising: combining the plurality of objects overlapping each other when it is determined that the overlap amount is not zero.
A program for causing a computer of the data processing apparatus to execute each step according to claim 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015182404A JP2017056607A (en) | 2015-09-16 | 2015-09-16 | Data processing device, data processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015182404A JP2017056607A (en) | 2015-09-16 | 2015-09-16 | Data processing device, data processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017056607A true JP2017056607A (en) | 2017-03-23 |
Family
ID=58388799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015182404A Pending JP2017056607A (en) | 2015-09-16 | 2015-09-16 | Data processing device, data processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017056607A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018206039A (en) * | 2017-06-02 | 2018-12-27 | 株式会社第一興商 | Three-dimensional printer data distribution device |
-
2015
- 2015-09-16 JP JP2015182404A patent/JP2017056607A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018206039A (en) * | 2017-06-02 | 2018-12-27 | 株式会社第一興商 | Three-dimensional printer data distribution device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7330683B2 (en) | Information processing device, information processing method and program | |
US10600169B2 (en) | Image processing system and image processing method | |
TWI544447B (en) | System and method for augmented reality | |
JP6585929B2 (en) | System, control method of system | |
JP6742869B2 (en) | Image processing apparatus and image processing method | |
US20120320047A1 (en) | Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium | |
CN102668556A (en) | Medical support apparatus, medical support method, and medical support system | |
WO2019093457A1 (en) | Information processing device, information processing method and program | |
JP2020024619A (en) | Information processing apparatus, information processing method, and program | |
JP5831151B2 (en) | Control processing program, image display apparatus, and image display method | |
CN105912101B (en) | Projection control method and electronic equipment | |
US9646009B2 (en) | Method and apparatus for generating a visual representation of object timelines in a multimedia user interface | |
JP2017056607A (en) | Data processing device, data processing method, and program | |
JP5115457B2 (en) | Cursor movement control method, apparatus, and program | |
JP6512787B2 (en) | Image processing apparatus, image processing method, imaging apparatus | |
JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method | |
JP4333309B2 (en) | Multi-screen image display system, multi-image display device relative position detection method, multi-image display device relative position detection program, and multi-image display device relative position detection program | |
CN102473042B (en) | System, method and computer program for operating a plurality of computing devices | |
JP7179633B2 (en) | Measuring method, measuring device and program | |
JP2022054254A (en) | Image processing apparatus, image processing method, and program | |
JP6266229B2 (en) | Image processing apparatus, method, and program | |
JP6182930B2 (en) | Depth production support device, depth production method, and program | |
JP6425534B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM | |
JP2015119339A (en) | Information processing device, control device of the same, information processing system, information processing method, and program | |
EP4432242A1 (en) | Information processing apparatus and method, and program |