JP2007280014A - Display parameter input device - Google Patents
Display parameter input device Download PDFInfo
- Publication number
- JP2007280014A JP2007280014A JP2006105100A JP2006105100A JP2007280014A JP 2007280014 A JP2007280014 A JP 2007280014A JP 2006105100 A JP2006105100 A JP 2006105100A JP 2006105100 A JP2006105100 A JP 2006105100A JP 2007280014 A JP2007280014 A JP 2007280014A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- model
- display
- parameter input
- display parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、3次元コンピュータグラフィックスを投影して2次元画像を得る際に、好適なパラメータを入力するための技術に関する。 The present invention relates to a technique for inputting suitable parameters when a two-dimensional image is obtained by projecting three-dimensional computer graphics.
従来より、3次元コンピュータグラフィックス(CG)により、物体のモデルを生成し、これを所定の平面に投影して2次元画像を生成することが行われている。3次元CGモデルから2次元画像を生成するためには、モデルとの距離や視点方向等を特定する必要があるが、現状では、表示装置を備えた汎用型コンピュータにおいて、距離や視点方向を変化させながら画面に表示させ、好ましい距離や視点方向を決定し、2次元画像を生成している(例えば、特許文献1参照)。
しかしながら、上記従来の手法では、汎用型コンピュータ上で距離や視点方向を設定するため、直感的な設定が行いづらいという問題がある。特に、広告等に掲載するための2次元画像を取得する場合には、距離や視点方向の決定についてセンスが問われることになるが、汎用型コンピュータを用いて行う場合、直感的な操作を行うことが難しいという問題がある。 However, the conventional method has a problem that it is difficult to perform intuitive setting because the distance and the viewpoint direction are set on a general-purpose computer. In particular, when acquiring a two-dimensional image for posting in an advertisement, etc., the sense of determining the distance and viewpoint direction will be asked, but when using a general-purpose computer, an intuitive operation is performed. There is a problem that it is difficult.
そこで、本発明は、実写のカメラ撮影と同様の手法により、3次元CGモデルに対して距離や視点方向を設定することが可能な表示パラメータ入力装置を提供することを課題とする。 Therefore, an object of the present invention is to provide a display parameter input device capable of setting a distance and a viewpoint direction with respect to a three-dimensional CG model by a method similar to that for shooting a real camera.
上記課題を解決するため、本発明では、CGモデルの表示パラメータを入力する装置であって、現実空間における所定の位置に対応付けて3次元CGモデルを記憶した3次元CGモデル記憶手段と、現在の位置および傾きを特定するセンサと、前記3次元CGモデル記憶手段に記憶された3次元CGモデルの位置と、前記センサにより特定された現在の位置および傾きの関係から、当該3次元CGモデルを現在の位置および視線方向に投影した2次元画像を生成する2次元画像生成手段と、前記生成した2次元画像を表示する画像表示手段と、前記位置および傾きの情報を表示パラメータとして入力する指示を行うパラメータ入力指示手段と、前記設定された表示パラメータを記憶する表示パラメータ記憶手段を有する表示パラメータ入力装置を提供する。 In order to solve the above-described problems, the present invention is an apparatus for inputting display parameters of a CG model, and a three-dimensional CG model storage unit that stores a three-dimensional CG model in association with a predetermined position in real space, The three-dimensional CG model is obtained from the relationship between the position and inclination of the sensor, the position of the three-dimensional CG model stored in the three-dimensional CG model storage means, and the current position and inclination specified by the sensor. Two-dimensional image generation means for generating a two-dimensional image projected in the current position and line-of-sight direction, image display means for displaying the generated two-dimensional image, and an instruction to input the position and tilt information as display parameters Display parameter input device having parameter input instruction means for performing display parameter storage means for storing the set display parameters To provide.
本発明によれば、センサを備えた携帯型の表示パラメータ入力装置を用い、センサが特定した現在の位置および傾きと、事前に記憶されている3次元CGモデルの現実空間における位置の関係から、視点位置および方向に投影した2次元画像を生成して表示するとともに、入力指示された時点の位置および傾きの情報を記憶するようにしたので、実写のカメラ撮影と同様の手法により、3次元CGに対して距離や視点方向を設定することが可能となる。 According to the present invention, using a portable display parameter input device equipped with a sensor, from the relationship between the current position and inclination specified by the sensor and the position of the three-dimensional CG model stored in advance in the real space, Since a two-dimensional image projected at the viewpoint position and direction is generated and displayed, and information on the position and tilt at the time when the input is instructed is stored, a three-dimensional CG is obtained in the same manner as in the real camera shooting. It is possible to set the distance and the viewpoint direction with respect to.
(1.装置の構成)
以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。図1は、本発明に係る表示パラメータ入力装置の構成図である。図1において、100は表示パラメータ入力装置、110は3次元CGモデル記憶手段、120は磁気センサ、130は2次元画像生成手段、140は画像表示手段、150はパラメータ入力指示手段、160は表示パラメータ記憶手段である。
(1. Configuration of the device)
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a configuration diagram of a display parameter input device according to the present invention. In FIG. 1, 100 is a display parameter input device, 110 is a three-dimensional CG model storage means, 120 is a magnetic sensor, 130 is a two-dimensional image generation means, 140 is an image display means, 150 is a parameter input instruction means, and 160 is a display parameter. It is a storage means.
図1に示すように、表示パラメータ入力装置100は、3次元CGモデル記憶手段110、磁気センサ120、2次元画像生成手段130、画像表示手段140、パラメータ入力指示手段150、表示パラメータ記憶手段160により構成される。3次元CGモデル記憶手段110は、3次元CGモデルを記憶した記憶手段である。3次元CGモデルの内容としては、モデルの形状を特定するデータ(モデルの頂点座標、線分、面等のデータ、またはポリゴンデータ)や、モデルの材質、色彩、模様等を特定するテクスチャ、反射率等のデータが含まれる。3次元CGモデル記憶手段110においては、3次元CGモデルは、磁気トランスミッタが設置されている現実空間における位置と対応付けて記憶されている。磁気センサ120は、磁気トランスミッタから発せられる磁気を検知することにより、自身の存在する位置および傾きを特定する機能を有している。このような磁気センサおよび磁気トランスミッタとしては、米国ポヒマス社製のFASTRAK等を採用することができる。この磁気センサ120は、位置については、磁気トランスミッタを原点とする位置座標として、X,Y,Z方向それぞれの値をミリメートル単位で出力し、傾きについては、磁気トランスミッタを原点とする方位角として、ヨー、ピッチ、ロールの角度をそれぞれ「°」で出力する。
As shown in FIG. 1, the display
2次元画像生成手段130は、3次元CGモデル記憶手段110に記憶された3次元CGモデルの位置と、磁気センサ120により特定された現在の位置および傾きの関係から、3次元CGモデルを現在の位置および視線方向に投影した2次元画像を生成する機能を有している。具体的には、射影変換、クリッピング、隠面消去、シェーディング、テクスチャマッピング等を含むレンダリング処理を行って2次元画像を生成する処理を行う。特に、2次元画像生成手段130は、磁気センサ120からの情報の変化に応じて、随時2次元画像の生成を行うので、リアルタイムレンダリング処理を行う。画像表示手段140は、2次元画像生成手段130が生成した2次元画像を表示するためのものであり、液晶ディスプレイ装置等で実現される。パラメータ入力指示手段150は、磁気センサ120が取得した位置および傾きの情報を表示パラメータとして入力する指示を行う機能を有している。表示パラメータ記憶手段160は、設定された表示パラメータを記憶する機能を有している。
The two-dimensional
表示パラメータ入力装置100は、現実のカメラと同様の形態、大きさとなっており、シャッターボタンや、ズーム用レバーが搭載されている。また、表示パラメータ入力装置100は、CPUおよびメモリを搭載しており、上記各手段は、CPUが専用のプログラムを実行することにより実現される。
The display
(2.処理動作)
次に、図1に示した装置の処理動作について説明する。装置を起動すると、磁気センサ120は、自身の位置および傾きの情報を取得する。また、2次元画像生成手段130は、3次元CGモデル記憶手段110から3次元CGデータを抽出する。続いて、2次元画像生成手段130は、磁気センサ120から取得した位置および傾きと、抽出した3次元CGデータの関係から、磁気センサ120の位置を視点とした3次元CGデータの投影画像を生成する。このような、視点位置および視線方向から見た2次元の投影画像を3次元CGデータから生成する技術は公知のものであるので、ここでは、詳細な説明は省略する。2次元画像生成手段130により生成された2次元画像は、画像表示手段140により表示される。
(2. Processing operation)
Next, the processing operation of the apparatus shown in FIG. 1 will be described. When the apparatus is activated, the
磁気センサ120は、所定のタイミングで随時自身の位置および傾きの情報を取得し、2次元画像生成手段130は、磁気センサ120から位置および傾きを取得する度に2次元画像の生成を行う。そして、生成された2次元画像は、画像表示手段140に表示される。したがって、利用者から見れば、表示パラメータ入力装置100を動かすと、その動きに応じて2次元画像が変化しているように見えることになる。例えば、自動車の3次元CGモデルを現実空間に対応させたある位置に設定している場合、表示パラメータ入力装置100を動きに応じて、異なるアングルから見た状態の自動車が表示手段140に表示されることになる。
The
このように、随時、位置に応じた2次元画像が生成され、画面に表示されている状態で、パラメータ入力指示手段150を駆動させる。実際には、表示パラメータ入力装置100の筐体に備えられたシャッター型のボタンを押すことにより、パラメータ入力指示手段150が駆動されることになる。シャッター型のボタンが押されると、パラメータ入力指示手段150は、磁気センサ120にパラメータ入力指示を与える。磁気センサ120は、パラメータ入力指示手段150から指示を受けると、その時点で取得している最新の位置および傾きを表示パラメータ記憶手段160に記憶させる。すなわち、パラメータ入力指示手段150から指示が与えられる度に、その時点における位置および傾きが表示パラメータ記憶手段160に記憶されていくことになる。
As described above, the parameter
したがって、利用者は、現実のカメラにより被写体を撮影するときのように、表示パラメータ入力装置100を動かしながら、表示手段140に表示された2次元画像の状態を確認し、気に入ったアングルとなった瞬間にシャッター型のボタンを押してパラメータ入力指示手段150を駆動させ、その瞬間の位置および傾きを表示パラメータ記憶手段160に記憶させることができる。
Therefore, the user checks the state of the two-dimensional image displayed on the
以上のようにして、利用者がシャッター型のボタンを押した瞬間の位置および傾きの情報が、表示パラメータ記憶手段160に蓄積される。蓄積された位置および傾きは、画像選定作業に利用される。具体的には、上記3次元CGモデル記憶手段110、2次元画像生成手段130、画像表示手段140としての機能を備えたコンピュータに、蓄積された位置および傾き情報を入力し、各位置および傾き情報に対応した2次元画像を表示させながら、最適な画像を選ぶことになる。このように、本装置を利用することにより、3次元CGモデルから2次元画像を生成する場合であっても、本物のカメラを用いて撮影する場合と全く同様の感覚で作業を行うことが可能となる。
As described above, the position and tilt information at the moment when the user presses the shutter-type button is accumulated in the display
上記の例では、カメラと同様の形態をした表示パラメータ入力装置100単体で機能するようにしたが、図2に示すように記憶手段を分離した形態としても良い。図2の例では、表示パラメータ入力装置を処理サーバ200と携帯型装置300により構成している。図2において、図1の装置と同様の機能を有する構成要素については、同一符号を付して説明を省略する。図2の例では、図1に示した表示パラメータ入力装置100と同一形状の携帯型装置300に、3次元CGモデル記憶手段110、表示パラメータ記憶手段160に代えて、通信手段180を搭載し、処理サーバ200に3次元CGモデル記憶手段110、表示パラメータ記憶手段160を搭載して、互いに通信するようにしている。すなわち、画像を表示させる際には、3次元CGモデル記憶手段110から通信手段170および通信手段180を介して携帯型装置300で3次元CGモデルを受信し、これを利用して2次元画像生成手段130が2次元画像の生成を行う。一方、シャッターボタンが押された際には、その瞬間の位置および傾きの情報が、通信手段180および通信手段170を介して処理サーバ200に送信され、表示パラメータ記憶手段160に記憶される。
In the above example, the display
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、磁気センサが取得する位置および傾きの情報のみを表示パラメータとして表示パラメータ記憶手段160に記憶させるようにしたが、さらに視野角を記憶させるようにしたも良い。この場合、表示パラメータ入力装置100の筐体にズームレバーを儲け、このズームレバーの操作に応じて視野角が変化するように設定する。そして、2次元画像生成手段130は、磁気センサ120から取得した位置および傾きと3次元CGデータとの位置関係を求めた後、取得した視野角を利用して投影画像を生成し、画像表示手段140に表示する。そして、シャッター型のボタンが押されると、その時点で取得している最新の位置および傾きに加えて、設定されている視野角を表示パラメータ記憶手段160に記憶させる。さらに、絞り、焦点、シャッタースピード等のカメラパラメータを表示パラメータの一部として加えるようにしても良い。
The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above embodiments, and various modifications can be made. For example, in the above embodiment, only the position and tilt information acquired by the magnetic sensor is stored in the display
100・・・表示パラメータ入力装置
110・・・3次元CGモデル記憶手段
120・・・磁気センサ
130・・・2次元画像生成手段
140・・・画像表示手段
150・・・パラメータ入力指示手段
160・・・表示パラメータ記憶手段
170・・・通信手段
180・・・通信手段
200・・・処理サーバ
300・・・携帯型装置
DESCRIPTION OF
Claims (3)
現実空間における所定の位置に対応付けて3次元CGモデルを記憶した3次元CGモデル記憶手段と、
現在の位置および傾きを特定するセンサと、
前記3次元CGモデル記憶手段に記憶された3次元CGモデルの位置と、前記センサにより特定された現在の位置および傾きの関係から、当該3次元CGモデルを現在の位置および視線方向に投影した2次元画像を生成する2次元画像生成手段と、
前記生成した2次元画像を表示する画像表示手段と、
前記位置および傾きの情報を表示パラメータとして入力する指示を行うパラメータ入力指示手段と、
前記設定された表示パラメータを記憶する表示パラメータ記憶手段と、
を有することを特徴とする表示パラメータ入力装置。 A device for inputting display parameters of a CG model,
Three-dimensional CG model storage means for storing a three-dimensional CG model in association with a predetermined position in the real space;
A sensor that identifies the current position and tilt;
Based on the relationship between the position of the three-dimensional CG model stored in the three-dimensional CG model storage means and the current position and inclination specified by the sensor, the three-dimensional CG model is projected in the current position and line-of-sight direction 2 Two-dimensional image generation means for generating a two-dimensional image;
Image display means for displaying the generated two-dimensional image;
Parameter input instruction means for instructing to input the position and inclination information as display parameters;
Display parameter storage means for storing the set display parameters;
A display parameter input device.
前記処理サーバは、前記3次元CGモデル記憶手段、前記表示パラメータ記憶手段を有するものであり、
前記携帯型装置は、前記センサ、前記2次元画像生成手段、前記画像表示手段、前記パラメータ入力指示手段を有するものであることを特徴とする請求項1または請求項2に記載の表示パラメータ入力装置。
The display parameter input device includes a processing server and a portable device that can communicate with each other,
The processing server includes the three-dimensional CG model storage unit and the display parameter storage unit,
The display parameter input device according to claim 1, wherein the portable device includes the sensor, the two-dimensional image generation unit, the image display unit, and the parameter input instruction unit. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006105100A JP2007280014A (en) | 2006-04-06 | 2006-04-06 | Display parameter input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006105100A JP2007280014A (en) | 2006-04-06 | 2006-04-06 | Display parameter input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007280014A true JP2007280014A (en) | 2007-10-25 |
Family
ID=38681407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006105100A Pending JP2007280014A (en) | 2006-04-06 | 2006-04-06 | Display parameter input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007280014A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010165220A (en) * | 2009-01-16 | 2010-07-29 | Uchida Yoko Co Ltd | Real-time rendering system and real-time rendering method |
JP2013246719A (en) * | 2012-05-28 | 2013-12-09 | Nintendo Co Ltd | Information processing program, information processing device, information processing system and information processing method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1051711A (en) * | 1996-08-05 | 1998-02-20 | Sony Corp | Three-dimension virtual object display device and its method |
-
2006
- 2006-04-06 JP JP2006105100A patent/JP2007280014A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1051711A (en) * | 1996-08-05 | 1998-02-20 | Sony Corp | Three-dimension virtual object display device and its method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010165220A (en) * | 2009-01-16 | 2010-07-29 | Uchida Yoko Co Ltd | Real-time rendering system and real-time rendering method |
JP2013246719A (en) * | 2012-05-28 | 2013-12-09 | Nintendo Co Ltd | Information processing program, information processing device, information processing system and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110022470B (en) | Method and system for training object detection algorithm using composite image and storage medium | |
US9864495B2 (en) | Indirect 3D scene positioning control | |
JP4739002B2 (en) | Image processing method and image processing apparatus | |
US8388146B2 (en) | Anamorphic projection device | |
US20210283496A1 (en) | Realistic Virtual/Augmented/Mixed Reality Viewing and Interactions | |
US20130229396A1 (en) | Surface aware, object aware, and image aware handheld projector | |
KR20170122725A (en) | Modifying scenes of augmented reality using markers with parameters | |
CN105074617A (en) | Three-dimensional user interface device and three-dimensional operation processing method | |
US20160063764A1 (en) | Image processing apparatus, image processing method, and computer program product | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
JP2020173529A (en) | Information processing device, information processing method, and program | |
JP2020119095A (en) | Control device, control method and program | |
US20050078053A1 (en) | Image-displaying apparatus and method for obtaining pixel data therefor | |
JP6295296B2 (en) | Complex system and target marker | |
US10444509B2 (en) | Near eye diffractive holographic projection method | |
CN111813214B (en) | Virtual content processing method and device, terminal equipment and storage medium | |
JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
JP2007280014A (en) | Display parameter input device | |
JP4447896B2 (en) | Image processing apparatus and method | |
JP2009212582A (en) | Feedback system for virtual studio | |
JP6371547B2 (en) | Image processing apparatus, method, and program | |
JP5830899B2 (en) | Projection system, projection apparatus, projection method and program | |
JP6859763B2 (en) | Program, information processing device | |
JP6601392B2 (en) | Display control apparatus, display control method, and program | |
WO2021166751A1 (en) | Information-processing device, information-processing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110531 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111004 |