JP2000235656A - Image processor, method and program providing medium - Google Patents

Image processor, method and program providing medium

Info

Publication number
JP2000235656A
JP2000235656A JP11036337A JP3633799A JP2000235656A JP 2000235656 A JP2000235656 A JP 2000235656A JP 11036337 A JP11036337 A JP 11036337A JP 3633799 A JP3633799 A JP 3633799A JP 2000235656 A JP2000235656 A JP 2000235656A
Authority
JP
Japan
Prior art keywords
image
dimensional
image information
virtual
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11036337A
Other languages
Japanese (ja)
Inventor
Noriaki Kondo
紀陽 近藤
Shigeru Mori
繁 盛
Junichi Sakagami
順一 坂上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11036337A priority Critical patent/JP2000235656A/en
Publication of JP2000235656A publication Critical patent/JP2000235656A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of fetching picked up image information and easily reflecting the image information on a three-dimensional display object with high quality. SOLUTION: Two-dimensional image information within a specified range is segmented from two-dimensional image information fetched in an image fetching part 12 by using a frame for specifying a segmenting range with a gauge provided corresponding to a characteristic position of a virtual three- dimensional object by a working and correcting part 13. The two-dimensional image information within the specified range is stuck to the virtual three- dimensional object by a character registering part 14. The virtual three- dimensional object to which the two-dimensional image information is stuck by the character registering part 14 is transmitted to a recording control part 15 and a character selecting part 17. The virtual three-dimensional object is recorded in a memory card 16 by the recording control part 15. A user is enabled to select the virtual three-dimensional object by the character selecting part 17.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、2次元の画像情報
を仮想3次元物体に貼り付ける画像処理装置及び方法、
並びにその方法をソフトウェアにより実現させることの
できるプログラム提供媒体に関する。
The present invention relates to an image processing apparatus and method for pasting two-dimensional image information to a virtual three-dimensional object,
Further, the present invention relates to a program providing medium capable of realizing the method by software.

【0002】[0002]

【従来の技術】従来、撮像装置で撮影した2次元の画像
情報を通信手段や記録媒体を介してビデオゲームシステ
ムに入力し、入力した撮影画像から使用者が所定範囲を
指定した画像情報を仮想空間内の仮想2次元物体に貼り
付けることが行われている。しかし、ビデオゲームシス
テムに求められる現実味に因る迫力を考慮すると、仮想
2次元にはめ込むのでは迫力に欠けることになる。
2. Description of the Related Art Conventionally, two-dimensional image information photographed by an image pickup apparatus is input to a video game system via a communication means or a recording medium, and image information in which a user designates a predetermined range from the input photographed image is virtually reproduced. Pasting to a virtual two-dimensional object in space is performed. However, in consideration of the power due to the reality required of the video game system, it is not powerful to fit in the virtual two-dimensional.

【0003】ビデオゲームシステムのソフトウェアを製
作する際には、予め撮影画像を3次元空間内の仮想3次
元物体に対し貼り付ける技術は既に存在する。しかし、
ユーザサイドから見て、既に撮影されたユーザと関係の
無い画像ではなく、ユーザの撮影した画像や思い入れの
ある画像をはめ込むことができないのでは、ビデオゲー
ムシステムに備えられているインタラクティブ性を充分
生かしているとは言い難い。
When producing software for a video game system, there is already a technique for pasting a captured image to a virtual three-dimensional object in a three-dimensional space. But,
From the user's point of view, if it is not possible to fit an image taken by the user or an image with a feeling of interest, instead of an image that has not been related to the user already taken, we will make full use of the interactivity provided in the video game system It is hard to say that.

【0004】また、業務用の3次元シミュレータでは、
3次元物体を複数方向から撮影し、合成して仮想3次元
物体に貼り付ける技術が存在するが、ビデオゲームシス
テムに求められる手軽さを考慮すると、簡単な操作で仮
想3次元物体にはめ込むことが望まれている。
In a commercial three-dimensional simulator,
There is a technology that takes a 3D object from multiple directions, combines it, and attaches it to a virtual 3D object. However, considering the simplicity required for video game systems, it is easy to fit into a virtual 3D object by simple operations. Is desired.

【0005】[0005]

【発明が解決しようとする課題】ところが、従来、撮像
装置で撮影した2次元の画像情報を通信手段や記録媒体
を介してビデオゲームシステムに入力し、入力した撮影
画像から使用者が枠を用いて指定した画像情報を仮想3
次元空間内の仮想3次元物体に対して貼り付けるグラフ
ィックユーザインターフェース(GUI)は存在してい
なかった。
However, conventionally, two-dimensional image information photographed by an imaging device is input to a video game system via a communication means or a recording medium, and a user uses a frame from the input photographed image. Image information specified by virtual 3
There has been no graphic user interface (GUI) to be attached to a virtual three-dimensional object in a three-dimensional space.

【0006】本発明は、上記実情に鑑みてなされたもの
であり、撮像した画像情報を取り込み、容易にかつ高品
質に3次元の表示物に対して反映できる画像処理装置及
び方法、並びにプログラム提供媒体の提供を目的とす
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and provides an image processing apparatus and method capable of capturing captured image information and reflecting the information on a three-dimensional display object easily and with high quality, and providing a program. The purpose is to provide media.

【0007】[0007]

【課題を解決するための手段】本発明に係る画像処理装
置は、上記課題を解決するために、2次元の画像情報を
取り込む画像取り込み手段と、上記画像取り込み手段で
取り込まれた2次元の画像情報から、仮想3次元物体の
特徴位置に対応して設けられているゲージを備えている
切り抜き範囲指定用の枠を使って所定範囲の2次元画像
情報を切り出す画像切り出し手段と、上記画像切り出し
手段で切り出した所定範囲の2次元画像情報を仮想3次
元物体に貼り付ける画像貼り付け手段とを備えてなる。
In order to solve the above-mentioned problems, an image processing apparatus according to the present invention comprises: an image capturing means for capturing two-dimensional image information; and a two-dimensional image captured by the image capturing means. Image cutout means for cutting out a predetermined range of two-dimensional image information from information using a frame for specifying a cutout range provided with a gauge provided corresponding to the characteristic position of the virtual three-dimensional object; Image pasting means for pasting the two-dimensional image information of the predetermined range cut out in the step (b) to the virtual three-dimensional object.

【0008】ここで、上記画像切り出し手段が使う枠
は、仮想3次元物体の特徴、例えば仮想3次元物体が顔
の場合には目,鼻,口等の位置に対応したゲージを備え
ている。また、枠は大きさ、形状、縦横比等を変えられ
る。このため、上記画像切り出し手段が切り出した上記
2次元画像は、仮想3次元物体、例えば顔の大きさや、
特徴に合わせて切り出されている。
Here, the frame used by the image clipping means has gauges corresponding to the features of the virtual three-dimensional object, for example, the positions of the eyes, nose, mouth and the like when the virtual three-dimensional object is a face. The size, shape, aspect ratio and the like of the frame can be changed. For this reason, the two-dimensional image clipped by the image clipping means is a virtual three-dimensional object, for example, the size of a face,
It is cut out according to its characteristics.

【0009】また、本発明に係る画像処理方法は、上記
課題を解決するために、2次元の画像情報を取り込み、
その2次元の画像情報から、仮想3次元物体の特徴位置
に対応して設けられているゲージを備えている切り抜き
範囲指定用の枠を使って所定範囲の2次元画像情報を切
り出し、切り出した所定範囲の2次元画像情報を仮想3
次元物体に貼り付ける。
Further, in order to solve the above-mentioned problem, the image processing method according to the present invention takes in two-dimensional image information,
From the two-dimensional image information, a predetermined range of two-dimensional image information is cut out using a cutout range designating frame provided with a gauge provided corresponding to the characteristic position of the virtual three-dimensional object, Virtual 3D image information of a range
Paste on a dimensional object.

【0010】ここで、上記2次元画像を切り出すときに
使う枠は、仮想3次元物体の特徴、例えば仮想3次元物
体が顔の場合には目,鼻,口等の位置に対応したゲージ
を備えている。また、枠は大きさ、形状、縦横比等を変
えられる。このため、切り出された上記2次元画像は、
仮想3次元物体、例えば顔の大きさや、特徴に合ってい
る。
Here, the frame used for cutting out the two-dimensional image is provided with a gauge corresponding to the characteristics of the virtual three-dimensional object, for example, the position of the eyes, nose, mouth, etc. when the virtual three-dimensional object is a face. ing. The size, shape, aspect ratio and the like of the frame can be changed. For this reason, the cut-out two-dimensional image is
It matches the size and characteristics of a virtual three-dimensional object, for example, a face.

【0011】また、本発明に係るプログラム提供媒体
は、上記課題を解決するために、2次元の画像情報を取
り込んで得られた2次元画像情報から、仮想3次元物体
の特徴位置に対応して設けられているゲージを備えてい
る切り抜き範囲指定用の枠を使って所定範囲の2次元画
像情報を切り出す画像切り出しステップと、上記画像切
り出しステップで切り出した所定範囲の2次元画像情報
を仮想3次元物体に貼り付ける画像貼り付けステップと
を備えてなることを特徴とするプログラムを提供する。
In order to solve the above-mentioned problems, a program providing medium according to the present invention uses two-dimensional image information obtained by capturing two-dimensional image information to correspond to a characteristic position of a virtual three-dimensional object. An image clipping step of clipping a predetermined range of two-dimensional image information using a clipping range designation frame provided with a gauge provided, and a virtual three-dimensional image of the predetermined range clipped in the image clipping step An image pasting step of pasting the image onto an object.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。この実施の形態は、2
次元の画像情報を仮想の3次元物体に貼り付け、あたか
も2次元画像情報により表されていた元のキャラクタを
仮想空間上での3次元キャラクタとしてシミュレーショ
ンする、図1に示すような3次元シミュレーション装置
である。
Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, 2
A three-dimensional simulation apparatus as shown in FIG. 1, which pastes two-dimensional image information onto a virtual three-dimensional object and simulates the original character represented by the two-dimensional image information as a three-dimensional character in a virtual space. It is.

【0013】この3次元シミュレーション装置は、本発
明に係る画像処理方法をそれぞれ該当する各ブロック
(部)で実行するハードウェアとしての具体例であり、
本発明に係る画像処理装置の具体例でもある。
The three-dimensional simulation apparatus is a specific example of hardware that executes the image processing method according to the present invention in each corresponding block (section).
This is also a specific example of the image processing apparatus according to the present invention.

【0014】図1において、例えばデジタルスチルカメ
ラで撮られた2次元画像情報は、画像取り込み部12に
より例えばRS-232通信を介して入力端子11から取り込
まれる。この画像取り込み部12で取り込まれた2次元
画像情報は加工&補正部13に送られる。加工&補正部
13は、上記2次元画像情報から所定範囲の2次元画像
情報を切り出してキャラクタ登録部14に送る。キャラ
クタ登録部14は上記所定範囲の2次元画像情報を仮想
3次元物体に貼り付ける。キャラクタ登録部14で上記
所定範囲の2次元画像情報が貼り付けられた仮想3次元
物体は記録コントロール部15及びキャラクタ選択部1
7に送られる。記録コントロール部15は上記仮想3次
元物体をメモリカード16に記録する。キャラクタ選択
部17は上記仮想3次元物体を使用者に選択させる。こ
の選択は、メモリカード16に以前に記録された他の仮
想3次元物体との比較によって行わせてもよい。このキ
ャラクタ選択部17で選択された仮想3次元物体がシミ
ュレーション実行部18に送られる。シミュレーション
実行部18は、上記仮想3次元物体による仮想空間上で
のシミュレーションを実行する。
In FIG. 1, two-dimensional image information taken by, for example, a digital still camera is taken in from an input terminal 11 by an image taking part 12 through, for example, RS-232 communication. The two-dimensional image information captured by the image capturing unit 12 is sent to the processing and correcting unit 13. The processing and correcting unit 13 cuts out a predetermined range of two-dimensional image information from the two-dimensional image information and sends it to the character registration unit 14. The character registration unit 14 pastes the two-dimensional image information in the predetermined range on a virtual three-dimensional object. The virtual three-dimensional object to which the two-dimensional image information of the predetermined range is pasted by the character registration unit 14 is stored in the recording control unit 15 and the character selection unit 1.
7 The recording control unit 15 records the virtual three-dimensional object on the memory card 16. The character selection unit 17 allows the user to select the virtual three-dimensional object. This selection may be made by comparison with another virtual three-dimensional object previously recorded on the memory card 16. The virtual three-dimensional object selected by the character selection unit 17 is sent to the simulation execution unit 18. The simulation executing unit 18 executes a simulation in the virtual space using the virtual three-dimensional object.

【0015】画像取り込み部12はデジタルスチルカメ
ラ等の撮像装置との通信以外に、2次元の画像情報を記
録している固体記録媒体との通信や、他の3次元シミュ
レーション装置、或いは3次元シミュレーション装置内
の記録媒体との通信も行う。
The image capturing unit 12 communicates with a solid-state recording medium that stores two-dimensional image information, other than communication with an imaging device such as a digital still camera, or other three-dimensional simulation device or three-dimensional simulation. It also communicates with the recording medium in the device.

【0016】加工&補正部13は画像取り込み部12で
取り込まれた2次元画像情報から、仮想3次元物体の特
徴位置に対応して設けられているゲージを備えている切
り抜き範囲指定用の枠を使って所定範囲の2次元画像情
報を切り出す。
The processing and correcting unit 13 uses the two-dimensional image information captured by the image capturing unit 12 to create a frame for specifying a cutout range provided with a gauge provided corresponding to the characteristic position of the virtual three-dimensional object. Using this, two-dimensional image information in a predetermined range is cut out.

【0017】以下に、この加工&補正部13により2次
元画像情報から所定範囲の人の顔を切り出す様子につい
て図2を用いて説明する。
The manner in which the processing and correcting unit 13 cuts out a predetermined range of human faces from the two-dimensional image information will be described below with reference to FIG.

【0018】先ず、画像取り込み部12により3次元シ
ミュレーション装置に取り込んだ2次元画像情報を、加
工した画像20から、矩形の枠21を使って人の顔の画
像を切り出す。このとき、使用者は顔の特徴となる、目
鼻口に目のゲージ23,24、鼻のゲージ25、口のゲ
ージ26が合うように、枠21を移動、拡大、縮小、回
転させる。このため使用者は容易にかつ高品質に、仮想
3次元物体に対応した顔の2次元画像を指定することが
できる。
First, an image of a human face is cut out from a processed image 20 using a rectangular frame 21 from the two-dimensional image information taken into the three-dimensional simulation device by the image taking unit 12. At this time, the user moves, enlarges, reduces, and rotates the frame 21 so that the eye gauges 23 and 24, the nose gauge 25, and the mouth gauge 26 match the eyes, nose, and mouth, which are features of the face. Therefore, the user can easily and with high quality specify a two-dimensional image of the face corresponding to the virtual three-dimensional object.

【0019】また、ポリゴンプレビュー(Polygon Prev
iew)で、現在の枠21内の画像情報を仮想3次元物体
に貼り付けた際の外観を確認することにより、更に高品
質に、仮想3次元物体に貼り付ける画像を指定できる。
Also, a polygon preview (Polygon Prev
(iew), by checking the appearance when the image information in the current frame 21 is pasted on the virtual three-dimensional object, an image to be pasted on the virtual three-dimensional object can be designated with higher quality.

【0020】枠21は矩形の他に、楕円などの任意の形
状でもよい。また、ゲージは目鼻口以外にも、貼り付け
る対象の仮想3次元物体の特徴となる任意の部分を想定
してもよい。
The frame 21 may have any shape other than a rectangle, such as an ellipse. In addition, the gauge may assume any part that is a feature of the virtual three-dimensional object to be pasted, other than the eyes, nose, and mouth.

【0021】また、加工&補正部13は、枠21を使っ
て切り出される2次元画像情報に画像信号処理を施す。
具体的には輪郭補正を施しても良い。また、縦横比を変
更してもよい。また、回転させてもよい。
The processing and correcting section 13 performs image signal processing on the two-dimensional image information cut out using the frame 21.
Specifically, contour correction may be performed. Further, the aspect ratio may be changed. Moreover, you may rotate.

【0022】さらに、加工&補正部13は、枠21に付
属した特徴点を表す上記ゲージを手がかりに、図3に示
すようにオリジナルの画像30から、泣いた表情の合成
画像31、笑った表情の合成画像32、怒った表情の合
成画像33及び驚いた表情の合成画像34を簡易生成で
きる。以下、各表情の画像を生成する方法の詳細につい
て説明する。
Further, the processing and correcting unit 13 uses the gauges representing the characteristic points attached to the frame 21 as clues to convert the original image 30 into a composite image 31 of a crying expression and a smiling expression, as shown in FIG. , A composite image 33 of an angry expression and a composite image 34 of a surprised expression can be easily generated. Hereinafter, a method of generating an image of each expression will be described in detail.

【0023】先ず、図4を用いて泣いた表情の合成画像
31の生成方法の詳細を説明する。枠35に付属した特
徴点は、それぞれ目、口、鼻を表す。目のゲージ近辺は
矩形領域360、370に切り取り、その矩形領域3
0、370の中心部を凹ませるように長方形→平行四辺
形の線形変形361、371を行って元の画像に貼り付け
る。同様に口の近辺も矩形領域380に切り取り、その
矩形の両端を引き下げるように長方形→台形の線形変形
381を行って元の画像に被せる。これで泣いた表情の
合成画像31ができあがる。
First, the method of generating the synthesized image 31 of a crying expression will be described in detail with reference to FIG. The feature points attached to the frame 35 represent eyes, mouth, and nose, respectively. The area near the eye gauge is cut into rectangular areas 36 0 and 37 0 , and the rectangular area 3
6 0, 37 so as to recess the central portion of the 0 performs linear deformation 36 1, 37 1 of rectangular → parallelogram pasted on the original image. Similarly vicinity of mouth cut in the rectangular area 38 0, placed over the original image by performing a linear deformation 38 1 rectangular → trapezoid to lower the two ends of the rectangle. With this, a composite image 31 of the expression of crying is completed.

【0024】次に、図5を用いて笑った表情の合成画像
32の生成を説明する。枠40に付属した特徴点は、そ
れぞれ目、口、鼻を表す。目のゲージ近辺は矩形領域4
0、420に切り取り、その矩形領域410、420の端
部を引き下げるように長方形→台形の線形変形411
421を行って元の画像に貼り付ける。同様に口の近辺
も矩形領域430に切り取り、その矩形の両端を吊り上
げるように長方形→台形の線形変形431を行って元の
画像に被せる。これで笑った表情の合成画像32ができ
あがる。
Next, the generation of a composite image 32 of a smiling expression will be described with reference to FIG. The feature points attached to the frame 40 represent eyes, mouth, and nose, respectively. Near the eye gauge is a rectangular area 4
10 0 , 42 0 , and rectangular → trapezoidal linear transformation 41 1 , so that the ends of the rectangular areas 41 0 , 42 0 are pulled down.
42. Perform 1 and paste on the original image. Similarly vicinity of mouth cut in the rectangular area 43 0, placed over the original image by performing a linear deformation 43 1 rectangular → trapezoid to lift the ends of the rectangle. Thus, a composite image 32 of the smiling expression is completed.

【0025】次に、図6を用いて怒った表情の合成画像
33の生成を説明する。枠45に付属した特徴点は、そ
れぞれ目、口、鼻を表す。目のゲージ近辺は矩形領域4
0、470に切り取り、その矩形領域460、470の目
尻を吊り上げるように長方形→台形の線形変形461
471を行って元の画像に貼り付ける。同様に口の近辺
も矩形領域480に切り取り、その矩形の両端を引き下
げるように長方形→台形の線形変形481を行って元の
画像に被せる。これでできた画像から更に両目の部分4
9を矩形に切り取り、縦に縮小50して前の画像に被せ
る。これで怒った表情の合成画像33ができあがる。
Next, the generation of a composite image 33 of an angry expression will be described with reference to FIG. The feature points attached to the frame 45 represent eyes, mouth, and nose, respectively. Near the eye gauge is a rectangular area 4
6 0, 47 cut to 0, the rectangular area 46 0, 47 linear deformation 46 1 rectangular → trapezoid as lifting eye area 0,
47 1 perform the paste to the original image. Similarly vicinity of mouth cut in the rectangular area 48 0, placed over the original image by performing a linear deformation 48 1 rectangular → trapezoid to lower the two ends of the rectangle. From the image made by this, the part of both eyes 4
9 is cut into a rectangle, and reduced vertically 50 to cover the previous image. Thus, a composite image 33 of an angry expression is completed.

【0026】次に、図7を用いて驚いた表情の合成画像
34の生成を説明する。枠52に付属した特徴点は、そ
れぞれ目、口、鼻を表す。目のゲージ近辺は矩形領域5
0、540に切り取り、その矩形領域530、540を縦
に拡大531、541して元の画像に貼り付ける。同様に
口の近辺も矩形領域550に切り取り、その矩形を縦に
拡大551して元の画像に被せる。これで驚いた表情の
合成画像34ができあがる。
Next, generation of a composite image 34 of a surprised expression will be described with reference to FIG. The feature points attached to the frame 52 represent eyes, mouth, and nose, respectively. Near the eye gauge is a rectangular area 5
3 0, 54 cut to 0, pasted on the original image by the enlarged rectangular area 53 0, 54 0 vertically 53 1, 54 1. Similarly vicinity of mouth cut in the rectangular region 55 0 is put on the original image is enlarged 55 1 the rectangle vertically. Thus, a composite image 34 of a surprised expression is completed.

【0027】なお、加工&補正部13では、単にゲージ
に合わせて一人分の顔画像を、普通、笑う、怒る、泣
く、驚くの5枚について切り出すようにしてもよい。も
ちろん、上述したように、各合成画像を簡易生成した方
が使用者に余計な負担をかけないで済む。以上、加工&
補正部13による画像切り出し処理、画像信号処理及び
合成画像簡易生成処理を説明した。
The processing and correction section 13 may simply cut out one face image of one person according to the gauge, namely, five images of normal, laugh, angry, cry, and surprise. Of course, as described above, simply generating each composite image does not put an extra burden on the user. Above, processing &
The image cutout processing, the image signal processing, and the simplified synthetic image generation processing by the correction unit 13 have been described.

【0028】キャラクタ登録部14は、例えば数体の仮
想人間モデルを容易しており、その顔面に上記加工&補
正部13で切り取られた顔の画像を貼り付ける。そし
て、使用者に仮想人間モデルを選択させる。
The character registration unit 14 facilitates, for example, several virtual human models, and pastes a face image cut out by the processing and correction unit 13 on the face thereof. Then, the user is caused to select a virtual human model.

【0029】記録コントロール部15は、使用者が指定
した顔面の画像情報、及び仮想人間モデルをメモリカー
ド16に記録する。
The recording control unit 15 records the image information of the face designated by the user and the virtual human model on the memory card 16.

【0030】シミュレーション実行部18は、上記切り
取られた顔の画像が貼り付けられた仮想3次元物体をキ
ャラクタとしていわゆるゲーム空間内で、例えばロール
プレイングゲームを実行していく。また、他の仮想3次
元空間を用いたアプリケーションを実行してもよい。
The simulation executing section 18 executes, for example, a role playing game in a so-called game space using the virtual three-dimensional object on which the cut-out face image is pasted as a character. Further, an application using another virtual three-dimensional space may be executed.

【0031】図8には上記3次元シミュレーション装置
が加工&補正部13やキャラクタ登録部14等の各部を
使って実行した画像処理方法をソフトウェアプログラム
として実行する、家庭用ビデオゲームシステム1の構成
を示す。
FIG. 8 shows the configuration of a home video game system 1 that executes, as a software program, an image processing method executed by the three-dimensional simulation apparatus using the processing and correction unit 13 and the character registration unit 14 and the like. Show.

【0032】この家庭用ビデオゲームシステム1は、C
PUを使って、上記ソフトウェアプログラムをCD−R
OMから逐次読み出し、実行する。
This home video game system 1 has C
Use PU to load the software program on CD-R
The data is sequentially read from the OM and executed.

【0033】この家庭用ビデオゲームシステム1は、入
力操作装置2と、その入力操作装置2を用いたユーザの
操作に応じてソフトウェアプログラムを読み出し、上記
画像処理方法を実行するゲーム機本体4と、このゲーム
機本体4で生成された3次元キャラクタの映像を映し出
す、テレビジュン受像機等のモニタ装置6からなる。な
お、ゲーム機本体4にはメモリカード16が所定のスロ
ットを介して挿入されている。
The home video game system 1 includes an input operation device 2, a game machine main body 4 that reads out a software program in response to a user operation using the input operation device 2, and executes the image processing method. The game machine 4 includes a monitor device 6 such as a television receiver for displaying a three-dimensional character image generated by the game machine body 4. Note that a memory card 16 is inserted into the game machine main body 4 via a predetermined slot.

【0034】また、入力操作装置2とゲーム機本体4は
接続コード3で、また、ゲーム機本体4とモニタ装置6
は接続コード5で接続されている。また、ゲーム機本体
4にはデジタルスチルカメラ8がRS-232インターフェー
スに対応した接続コード9を介して接続されている。接
続コード3,5及び9を用いることなく、各部2,4,
6及び8間に、無線通信により制御信号及びデータを入
出力させてもよい。なお、接続コード3及び5を用いる
ことなく、各部2、4及び6間に、無線通信により制御
信号及びデータを入出力させてもよい。
The input operation device 2 and the game machine main body 4 are connected by the connection cord 3, and the game machine main body 4 and the monitor device 6 are connected.
Are connected by a connection cord 5. Further, a digital still camera 8 is connected to the game machine body 4 via a connection cord 9 corresponding to an RS-232 interface. Without using the connection cords 3, 5, and 9, each part 2, 4,
Between 6 and 8, control signals and data may be input and output by wireless communication. Note that, without using the connection cords 3 and 5, the control signals and data may be input and output between the units 2, 4 and 6 by wireless communication.

【0035】また、この家庭用ビデオゲームシステム1
は、図9に示すようにデジタルスチルカメラ8で撮像さ
れた画像情報を記録している固体記録媒体、例えばメモ
リステックMSからメモリスティックアダプタ10を介
して画像情報を取り込んでもよい。
The home video game system 1
As shown in FIG. 9, image information may be acquired from a solid recording medium that records image information captured by the digital still camera 8, for example, a memory stick MS via the memory stick adapter 10.

【0036】上記CD−ROM内に記録されている上記
画像処理方法を適用したソフトウェアプログラムは、2
次元の画像情報を取り込んで得られた2次元画像情報か
ら、仮想3次元物体の特徴位置に対応して設けられてい
るゲージを備えている切り抜き範囲指定用の枠を使って
所定範囲の2次元画像情報を切り出す画像切り出しステ
ップと、上記画像切り出しステップで切り出した所定範
囲の2次元画像情報を仮想3次元物体に貼り付ける画像
貼り付けステップとを備えてなる。このソフトウェアプ
ログラムは、図10に構成を示すゲーム機本体4内の制
御系81内部のCPU82にて実行される。
A software program to which the image processing method recorded in the CD-ROM is applied is 2
From the two-dimensional image information obtained by capturing the two-dimensional image information, a two-dimensional image of a predetermined range is provided using a cutout range designating frame provided with a gauge provided corresponding to the characteristic position of the virtual three-dimensional object. An image clipping step of clipping image information, and an image pasting step of pasting two-dimensional image information of a predetermined range clipped in the image clipping step to a virtual three-dimensional object are provided. This software program is executed by the CPU 82 in the control system 81 in the game machine main body 4 shown in FIG.

【0037】このソフトウェアプログラムがCPU82
により実行されて得られた、上記所定範囲の2次元画像
情報が貼り付けられた仮想3次元物体等は記録コントロ
ール部15を介してメモリカード16に記録される。詳
細に、記録コントロール部15は、使用者が指定した顔
面の画像情報、及び仮想人間モデルをメモリカード16
に記録する。
This software program is executed by the CPU 82
The virtual three-dimensional object or the like, to which the two-dimensional image information in the above-described predetermined range is attached, obtained by executing the above is recorded on the memory card 16 via the recording control unit 15. In detail, the recording control unit 15 stores the image information of the face designated by the user and the virtual human model on the memory card 16.
To record.

【0038】メモリカード16に記録された上記使用者
が指定した顔面の画像情報、及び仮想人間モデルは、上
記ソフトウェアプログラム中のキャラクタ選択ステップ
により、使用者に選択されて、例えば上記CD−ROM
に同封されているゲームプログラムのゲーム空間上でキ
ャラクタとして使われる。
The image information of the face designated by the user and the virtual human model recorded on the memory card 16 are selected by the user in a character selecting step in the software program, and are, for example, selected from the CD-ROM.
Is used as a character in the game space of the enclosed game program.

【0039】なお、ゲーム機本体4は、図10に示すよ
うに、システムバス(BUS)80を介して制御系81
に、グラフィック生成系86と、サウンド生成系91
と、光ディスク制御系95とを接続している。また、画
像取り込み部12と記録コントロール部15も接続して
いる。
As shown in FIG. 10, the game machine body 4 has a control system 81 via a system bus (BUS) 80.
A graphic generation system 86 and a sound generation system 91
And an optical disk control system 95 are connected. Further, the image capturing section 12 and the recording control section 15 are also connected.

【0040】ここで、入力操作装置2からはSIO41
を介してユーザ(プレイヤ)によるコマンドが入力され
る。
Here, the input operation device 2 sends the SIO 41
A command by the user (player) is input via the.

【0041】光ディスク制御部95内部の光ディスク装
置96には、上記画像処理方法を適用したソフトウェア
プログラムを記録しているCD−ROMが装着される。
A CD-ROM storing a software program to which the above-described image processing method is applied is mounted on the optical disk device 96 inside the optical disk control section 95.

【0042】制御系81は上記CD−ROMからの上記
プログラム、及び上記入力操作装置2からのコマンドに
基づいて表示画面6a上に図2に示したような画像20
や、枠21を表示する。
The control system 81 displays an image 20 as shown in FIG. 2 on the display screen 6a based on the program from the CD-ROM and the command from the input operation device 2.
And a frame 21 is displayed.

【0043】制御系81は、中央演算処理装置(Centra
l Processing Unit:CPU)82と、割り込み制御やダ
イレクトメモリアクセス(DMA:Direct Memory Acce
ss)転送の制御等を行なう周辺装置制御部83と、主記
憶部(メインメモリ)となるRAM84と、グラフィッ
ク生成系86,サウンド生成系91等の管理を行なうい
わゆるオペレーティングシステム等のプログラムが格納
されたリードオンリーメモリ(ROM:Read Only Memo
ry)85とを備えている。ここでいうメインメモリは、
そのメモリ上で少なくとも上記プログラムを実行でき
る。
The control system 81 includes a central processing unit (Centra
l Processing Unit (CPU) 82, interrupt control and direct memory access (DMA: Direct Memory Acce
ss) A peripheral device control unit 83 for controlling transfer, a RAM 84 serving as a main storage unit (main memory), and a program such as a so-called operating system for managing the graphic generation system 86 and the sound generation system 91 are stored. Read only memory (ROM: Read Only Memo)
ry) 85. The main memory here is
At least the program can be executed on the memory.

【0044】CPU82は、ROM85に記憶されてい
るオペレーティングシステムのプログラムを実行するこ
とにより、このビデオゲームシステム1の全体を制御す
るもので、例えば32ビットのRISC−CPUからな
る。このCPU82の詳細な動作については後述する。
The CPU 82 controls the entire video game system 1 by executing an operating system program stored in the ROM 85, and is composed of, for example, a 32-bit RISC-CPU. The detailed operation of the CPU 82 will be described later.

【0045】そして、このゲーム機本体4は、電源が投
入されると、制御系81のCPU82がROM85に記
憶されているオペレーティングシステムプログラムを実
行することにより、グラフィック生成系86、サウンド
生成系91等の制御を行なうようになっている。また、
オペレーティングシステムプログラムが実行されると、
CPU82は、動作確認等のビデオゲームシステム1の
全体の初期化を行った後、光ディスク制御部95を制御
して、CD−ROMに記録されている上記画像処理方法
のプログラムを実行する。このプログラムの実行によ
り、CPU82は、プレイヤからの入力に応じてグラフ
ィック生成系86、サウンド生成系91等を制御して、
例えば上記図2に示したような画像20、枠21、さら
にはポリゴンプレビュー27を音声ガイダンスを伴って
モニタ装置6上に表示する。
When the game machine main unit 4 is powered on, the CPU 82 of the control system 81 executes the operating system program stored in the ROM 85, so that the graphic generation system 86, the sound generation system 91, etc. Is controlled. Also,
When an operating system program runs,
After initializing the entire video game system 1 such as operation check, the CPU 82 controls the optical disk control unit 95 to execute the image processing method program recorded on the CD-ROM. By executing this program, the CPU 82 controls the graphic generation system 86, the sound generation system 91, and the like according to the input from the player,
For example, the image 20, the frame 21, and the polygon preview 27 as shown in FIG. 2 are displayed on the monitor device 6 with voice guidance.

【0046】グラフィック生成系86は、座標変換等の
処理を行なうジオメトリトランスファエンジン(GT
E:Geometry Transfer Engine)87と、CPU82か
らの描画指示に従って描画を行う画像処理装置(Graphi
c Processing Unit:GPU)88と、このGPU88
により描画された画像を記憶するフレームバッファ89
と、離散コサイン変換等の直交変換により圧縮されて符
号化された画像データを復号する画像デコーダ90とを
備えている。
The graphic generation system 86 has a geometry transfer engine (GT) for performing processing such as coordinate conversion.
E: Geometry Transfer Engine (87) and an image processing device (Graphi
c Processing Unit (GPU) 88 and this GPU 88
Buffer 89 for storing an image drawn by
And an image decoder 90 for decoding image data compressed and encoded by orthogonal transform such as discrete cosine transform.

【0047】上記GTE87は、例えば複数の演算を並
列に実行する並列演算機構を備え、上記CPU82から
の演算要求に応じて座標変換,光源計算,行列あるいは
ベクトル等の演算を高速に行なうことができるようにな
っている。具体的には、このGTE87は、例えば1つ
の三角形状のポリゴンに同じ色で描画するフラットシェ
ーディングを行なう演算の場合では、1秒間に最大15
0万程度のポリゴンの座標演算を行なうことができるよ
うになっており、これによって、このビデオゲーム装置
では、CPU82の負荷を低減するとともに、高速な座
標演算を行なうことができるようになっている。
The GTE 87 has, for example, a parallel operation mechanism for executing a plurality of operations in parallel, and can perform operations such as coordinate transformation, light source calculation, matrix or vector operation at a high speed in response to an operation request from the CPU 82. It has become. Specifically, for example, in the case of an operation of performing flat shading in which one triangular polygon is drawn in the same color, the GTE 87 has a maximum of 15 per second.
It is possible to perform a coordinate calculation of about 100,000 polygons, so that in this video game device, the load on the CPU 82 can be reduced and high-speed coordinate calculation can be performed. .

【0048】また、上記GPU88は、CPU82から
の描画命令に従って、フレームバッファ89に対して多
角形(ポリゴン)等の描画を行なう。このGPU88
は、1秒間に最大36万程度のポリゴンの描画を行なう
ことができるようになっている。
The GPU 88 renders a polygon such as a polygon on the frame buffer 89 in accordance with a rendering command from the CPU 82. This GPU88
Can draw up to about 360,000 polygons per second.

【0049】さらに、上記のフレームバッファ89は、
いわゆるデュアルポートRAMからなり、GPU88か
らの描画あるいはメインメモリからの転送と、表示のた
めの読み出しとを同時に行なうことができるようになっ
ている。このフレームバッファ89は、例えば1Mバイ
トの容量を有し、それぞれ16ビットの、横が1024
画素、縦が512画素からなるマトリックスとして扱わ
れる。また、このフレームバッファ89には、ビデオ出
力として出力される表示領域の他に、GPU88がポリ
ゴン等の描画を行なう際に参照するカラールックアップ
テーブル(CLUT:Color Lock Up Table )が記憶さ
れるCLUT領域と、描画時に座標変換されてGPU8
8によって描画されるポリゴン等の中に挿入(マッピン
グ)される素材(テクスチャ)が記憶されるテクスチャ
領域が設けられている。これらのCLUT領域とテクス
チャ領域は、表示領域の変更等に従って動的に変更され
るようになっている。
Further, the above-mentioned frame buffer 89
It comprises a so-called dual port RAM, so that drawing from the GPU 88 or transfer from the main memory and reading for display can be performed simultaneously. The frame buffer 89 has a capacity of, for example, 1 Mbyte, and each of the 16 bits is 1024 in width.
It is treated as a matrix consisting of pixels and 512 pixels vertically. The frame buffer 89 stores a color lookup table (CLUT: Color Lock Up Table) which is referred to when the GPU 88 draws a polygon or the like, in addition to a display area output as a video output. Area and GPU8
8 is provided with a texture area for storing a material (texture) to be inserted (mapped) into a polygon or the like drawn by the reference numeral 8. The CLUT area and the texture area are dynamically changed according to a change in the display area.

【0050】なお、上記GPU88は、上述のフラット
シェーディングの他にポリゴンの頂点の色から補完して
ポリゴン内の色を決めるグーローシェーディングと、上
記のテクスチャ領域に記憶されているテクスチャをポリ
ゴンに張り付けるテクスチャマッピングを行なうことが
できるようになっている。これらのグーローシェーディ
ングまたはテクスチャマッピングを行なう場合には、上
記GTE87は、1秒間に最大50万程度のポリゴンの
座標演算を行なうことができる。
In addition to the above-described flat shading, the GPU 88 performs Gouraud shading, which determines the color in the polygon by complementing the colors of the vertices of the polygon, and pastes the texture stored in the texture area to the polygon. Texture mapping can be performed. When performing the Gouraud shading or the texture mapping, the GTE 87 can perform a coordinate calculation of a maximum of about 500,000 polygons per second.

【0051】さらに、画像デコーダ90は、上記CPU
82からの制御により、メインメモリ84に記憶されて
いる静止画あるいは動画の画像データを復号してメイン
メモリ84に記憶する。
Further, the image decoder 90 is provided with the CPU
Under the control of 82, the image data of the still image or the moving image stored in the main memory 84 is decoded and stored in the main memory 84.

【0052】また、この再生された画像データは、GP
U88を介してフレームバッファ89に記憶することに
より、上述のGPU88によって描画される画像の背景
として使用することができるようになっている。
The reproduced image data is stored in the GP
By storing the image in the frame buffer 89 via the U88, the image can be used as a background of the image drawn by the GPU 88 described above.

【0053】サウンド生成系91は、CPU82からの
指示に基づいて、楽音、効果音等を発生する音声処理装
置(Sound Processing Unit:SPU)92と、このS
PU92により発生された楽音、効果音等を記憶してい
るサウンドバッファ93と、SPU92によって発生さ
れる楽音、効果音等を出力(発音)するスピーカ94と
を有している。
The sound generation system 91 includes a sound processing unit (SPU) 92 for generating musical tones, sound effects, and the like based on instructions from the CPU 82,
It has a sound buffer 93 for storing musical tones, effect sounds, and the like generated by the PU 92, and a speaker 94 for outputting (producing) the musical tones, effect sounds, and the like generated by the SPU 92.

【0054】ここで、SPU92は、例えば16ビット
の音声データを4ビットの差分信号として適応予測符号
化(ADPCM:Adaptive Diffrential PCM)された音
声データを再生するADPCM復号機能と、サウンドバ
ッファ93に記憶されている波形データを再生すること
により、効果音等を発生する再生機能と、サウンドバッ
ファ93に記憶されている波形データを変調させて再生
する変調機能等を備えている。
Here, the SPU 92 stores, for example, 16-bit audio data as an ADPCM decoding function of reproducing adaptively encoded PCM (Adaptive Differential PCM) audio data as a 4-bit differential signal, and a sound buffer 93. It has a reproduction function of generating a sound effect or the like by reproducing the stored waveform data, a modulation function of modulating and reproducing the waveform data stored in the sound buffer 93, and the like.

【0055】このような機能を備えることによって、こ
のサウンド生成系91は、CPU82からの指示によっ
てサウンドバッファ93に記録された波形データに基づ
いて楽音,効果音等を発生するいわゆるサンプリング音
源として使用することができるようになっている。
By providing such a function, the sound generation system 91 is used as a so-called sampling sound source that generates musical tones, sound effects, and the like based on waveform data recorded in the sound buffer 93 in accordance with an instruction from the CPU 82. You can do it.

【0056】また、上記光ディスク制御部95は、CD
−ROMに記録されたプログラムやデータ等を再生する
光ディスク装置96と、例えばエラー訂正符号(EC
C:Error Correction Code )が付加されて記録されて
いるプログラム,データ等を復号するデコーダ97と、
光ディスク装置96からのデータを一時的に記憶するこ
とにより、光ディスクからのデータの読み出しを高速化
するバッファ98とを備えている。上記のデコーダ97
には、サブCPU99が接続されている。
Further, the optical disk control unit 95 is provided with a CD
An optical disk device 96 for reproducing programs, data, and the like recorded in the ROM, and an error correction code (EC
C: a decoder 97 for decoding programs, data, etc. recorded with an Error Correction Code added thereto;
A buffer 98 is provided for temporarily storing data from the optical disk device 96 to speed up reading data from the optical disk. The above decoder 97
Is connected to the sub CPU 99.

【0057】また、光ディスク装置96で読み出され
る、CD−ROMに記録されている音声データとして
は、上述のADPCMデータの他に音声信号をアナログ
/デジタル変換したいわゆるPCMデータがある。
The audio data read by the optical disk device 96 and recorded on the CD-ROM includes so-called PCM data obtained by converting an audio signal from analog to digital in addition to the above-described ADPCM data.

【0058】ADPCMデータとして、例えば16ビッ
トのデジタルデータの差分を4ビットで表わして記録さ
れている音声データは、デコーダ97で復号された後、
上述のSPU92に供給され、SPU92でデジタル/
アナログ変換等の処理が施された後、スピーカ94を駆
動するために使用される。
As the ADPCM data, for example, audio data recorded by expressing the difference of 16-bit digital data by 4 bits is decoded by the decoder 97,
It is supplied to the above-mentioned SPU 92, and the digital /
After being subjected to processing such as analog conversion, it is used to drive the speaker 94.

【0059】また、PCMデータとして、例えば16ビ
ットのデジタルデータとして記録されている音声データ
は、デコーダ97で復号された後、スピーカ96を駆動
するために使用される。
The audio data recorded as PCM data, for example, as 16-bit digital data, is decoded by the decoder 97 and then used to drive the speaker 96.

【0060】このような構成のビデオゲームシステム1
によれば、上記CD−ROMにより提供される本発明の
画像処理方法を容易に実行することができる。
The video game system 1 having such a configuration
According to the above, the image processing method of the present invention provided by the CD-ROM can be easily executed.

【0061】したがって、上記図1に示した3次元シミ
ュレーション装置や、上記図10に示したビデオゲーム
システム1によれば、撮像した画像情報を撮像装置から
取り込み、容易にかつ高品質に表示物に対して反映でき
るため、従来、操作が複雑なため業務用にしか使われな
かった実写取り込みの3次元シミュレーションシステム
を民生用に遡及できる。
Therefore, according to the three-dimensional simulation apparatus shown in FIG. 1 and the video game system 1 shown in FIG. 10, the captured image information is taken in from the imaging apparatus and easily and high-quality displayed on the display. Since the operation can be reflected on the three-dimensional simulation system, the operation is complicated, and the three-dimensional simulation system for taking in a real image, which has been used only for business use, can be retroactively used for consumer use.

【0062】具体的には例えば、CCDを備えた民生用
のデジタルスチルカメラで撮影した画像を使って、家庭
用ビデオゲームシステムで手軽にはめ込み合成した画像
をゲームのキャラクタとして用いることができる。
More specifically, for example, using an image taken by a consumer digital still camera equipped with a CCD, an image easily fitted and synthesized by a home video game system can be used as a game character.

【0063】また、パーソナルコンピュータ上でも同様
に民生用のデジタルスチルカメラで撮影した画像を使っ
て、手軽にはめ込み合成した画像をゲームのキャラクタ
として用いることができる。
Similarly, on a personal computer, an image which is easily fitted and synthesized using an image taken by a consumer digital still camera can be used as a game character.

【0064】なお、上記実施の形態の図1に示した3次
元シミュレーション装置では、人の顔を仮想3次元物体
に貼り付ける具体例を挙げたが、顔面の切り取り以外に
洋服の模様等、貼り付けるモデルの特徴を表す画像情報
を指定してもよい。また、キャラクタ登録部14では仮
想人間モデル以外に、仮想動物モデルや、仮想車モデル
など、任意の3次元モデルを想定してもよい。
In the three-dimensional simulation apparatus shown in FIG. 1 of the above embodiment, a specific example in which a human face is attached to a virtual three-dimensional object has been described. Image information representing the characteristics of the model to be attached may be specified. In addition, the character registration unit 14 may assume an arbitrary three-dimensional model such as a virtual animal model or a virtual car model other than the virtual human model.

【0065】これにより、例えば仮想3次元空間上での
洋服や、装飾品の試着システム、仮想3次元空間上での
家具や調度品の試し置きシステム、仮想3次元空間上で
の車や家の試し塗装システム等のサービス向上に繋が
る。
As a result, for example, a system for trying on clothes and ornaments in a virtual three-dimensional space, a system for putting furniture and furniture in a virtual three-dimensional space, and a car and a house in a virtual three-dimensional space. This leads to improved services such as trial coating systems.

【0066】[0066]

【発明の効果】本発明に係る画像処理装置及び方法によ
れば、2次元の画像情報を取り込み、その2次元の画像
情報から、仮想3次元物体の特徴位置に対応して設けら
れているゲージを備えている切り抜き範囲指定用の枠を
使って所定範囲の2次元画像情報を切り出し、切り出し
た所定範囲の2次元画像情報を仮想3次元物体に貼り付
けるので、撮像した画像情報を取り込み、容易にかつ高
品質に3次元の表示物に対して反映できる。
According to the image processing apparatus and method of the present invention, two-dimensional image information is fetched, and a gauge provided corresponding to the characteristic position of the virtual three-dimensional object is obtained from the two-dimensional image information. The two-dimensional image information of a predetermined range is cut out by using a cutout range specifying frame provided with the above, and the cut-out two-dimensional image information of the predetermined range is pasted on a virtual three-dimensional object. It can be reflected to a three-dimensional display object with high quality.

【0067】また、本発明に係るプログラム提供媒体に
よれば、家庭用のビデオゲームシステムや、パーソナル
コンピュータを備えている使用者に手軽に、低価格で上
記画像処理方法を提供できる。
Further, according to the program providing medium of the present invention, the above-mentioned image processing method can be easily and inexpensively provided to a user having a home video game system or a personal computer.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態となる3次元シミュレーシ
ョン装置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a three-dimensional simulation apparatus according to an embodiment of the present invention.

【図2】上記3次元シミュレーション装置を構成する加
工&補正部が2次元画像情報から所定範囲の人の顔を切
り出す動作を説明するための図である。
FIG. 2 is a diagram for explaining an operation in which a processing and correcting unit included in the three-dimensional simulation apparatus cuts out a predetermined range of a human face from two-dimensional image information.

【図3】上記加工&補正部がオリジナルの画像から簡易
生成した、泣いた表情の合成画像、笑った表情の合成画
像、怒った表情の合成画像及び驚いた表情の合成画像を
示す図である。
FIG. 3 is a diagram showing a composite image of a crying expression, a composite image of a laughing expression, a composite image of an angry expression, and a composite image of a surprised expression, which are simply generated from the original image by the processing and correcting unit. .

【図4】泣いた表情の合成画像の生成を説明するための
図である。
FIG. 4 is a diagram for explaining generation of a composite image of a crying expression.

【図5】笑った表情の合成画像の生成を説明するための
図である。
FIG. 5 is a diagram for explaining generation of a composite image of a smiling expression.

【図6】怒った表情の合成画像の生成を説明するための
図である。
FIG. 6 is a diagram for explaining generation of a composite image of an angry expression.

【図7】驚いた表情の合成画像の生成を説明するための
図である。
FIG. 7 is a diagram for explaining generation of a composite image of a surprised expression.

【図8】上記3次元シミュレーション装置が加工&補正
部やキャラクタ登録部等の各部を使って実行した画像処
理方法をソフトウェアプログラムとして実行する、家庭
用ビデオゲームシステムを示す図である。
FIG. 8 is a diagram showing a home video game system that executes, as a software program, an image processing method executed by the three-dimensional simulation apparatus using each unit such as a processing and correction unit and a character registration unit.

【図9】上記家庭用ゲームシステムの他の具体例を示す
図である。
FIG. 9 is a diagram showing another specific example of the home game system.

【図10】上記家庭用ゲームシステムの中のゲーム機本
体のブロック図である。
FIG. 10 is a block diagram of a game machine main body in the home game system.

【符号の説明】[Explanation of symbols]

12 画像取り込み部、13 加工&補正部、14 キ
ャラクタ登録部、15記録コントロール部、16 メモ
リカード、17 キャラクタ選択部、18シミュレーシ
ョン実行部
12 image capture unit, 13 processing & correction unit, 14 character registration unit, 15 recording control unit, 16 memory card, 17 character selection unit, 18 simulation execution unit

フロントページの続き (72)発明者 坂上 順一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C001 BA00 BA06 BC00 BC05 BC10 CA00 CA08 CB01 CB06 CC02 CC08 5B050 AA10 DA01 EA03 EA12 EA13 EA19 EA28 EA30 FA02 FA09Continued on the front page (72) Inventor Junichi Sakagami 6-35 Kita Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F-term (reference) 2C001 BA00 BA06 BC00 BC05 BC10 CA00 CA08 CB01 CB06 CC02 CC08 5B050 AA10 DA01 EA03 EA12 EA13 EA19 EA28 EA30 FA02 FA09

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 2次元の画像情報を取り込む画像取り込
み手段と、 上記画像取り込み手段で取り込まれた2次元の画像情報
から、仮想3次元物体の特徴位置に対応して設けられて
いるゲージを備えている切り抜き範囲指定用の枠を使っ
て所定範囲の2次元画像情報を切り出す画像切り出し手
段と、 上記画像切り出し手段で切り出した所定範囲の2次元画
像情報を仮想3次元物体に貼り付ける画像貼り付け手段
とを備えてなることを特徴とする画像処理装置。
An image capturing means for capturing two-dimensional image information, and a gauge provided corresponding to a characteristic position of a virtual three-dimensional object from the two-dimensional image information captured by the image capturing means. Image clipping means for clipping a predetermined range of two-dimensional image information using a frame for specifying a clipping range, and image pasting the two-dimensional image information of the predetermined range clipped by the image clipping means to a virtual three-dimensional object And an image processing apparatus.
【請求項2】 上記画像切り出し手段は、上記枠の大き
さを変えて上記所定範囲の2次元画像情報を切り出すこ
とを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the image cutout unit changes the size of the frame to cut out the two-dimensional image information in the predetermined range.
【請求項3】 上記画像切り出し手段は、上記枠の縦横
比を変えて上記所定範囲の2次元画像情報を切り出すこ
とを特徴とする請求項1記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the image cutout unit cuts out the two-dimensional image information in the predetermined range by changing an aspect ratio of the frame.
【請求項4】 上記画像切り出し手段は、上記枠の形状
を変えて上記所定範囲の2次元画像情報を切り出すこと
を特徴とする請求項1記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the image cutout unit changes the shape of the frame to cut out the two-dimensional image information in the predetermined range.
【請求項5】 上記画像切り出し手段は、上記枠を回転
して上記所定範囲の2次元画像情報を切り出すことを特
徴とする請求項1記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein said image cutout means rotates the frame to cut out the two-dimensional image information in the predetermined range.
【請求項6】 上記画像切り出し手段が切り出した所定
範囲の2次元画像情報に画像信号処理を施すことを特徴
とする画像補正手段を備えることを特徴とする請求項1
記載の画像処理装置。
6. An image correcting means for performing image signal processing on two-dimensional image information in a predetermined range cut out by said image cutting means.
The image processing apparatus according to any one of the preceding claims.
【請求項7】 上記画像補正手段は、上記所定範囲の2
次元画像情報に輪郭補正処理を施すことを特徴とする請
求項6記載の画像処理装置。
7. The image correction means according to claim 2, wherein
7. The image processing apparatus according to claim 6, wherein contour correction processing is performed on the two-dimensional image information.
【請求項8】 上記画像補正手段は、上記所定範囲の2
次元画像情報の縦横比を変更することを特徴とする請求
項6記載の画像処理装置。
8. The image correction means according to claim 2, wherein
7. The image processing apparatus according to claim 6, wherein the aspect ratio of the dimensional image information is changed.
【請求項9】 上記画像補正手段は、上記所定範囲の2
次元画像情報を回転することを特徴とする請求項6記載
の画像処理装置。
9. The image correction means according to claim 2, wherein
7. The image processing apparatus according to claim 6, wherein the dimensional image information is rotated.
【請求項10】 上記画像切り出し手段が切り出した所
定範囲の2次元画像情報を記録媒体に記録することを特
徴とする請求項1記載の画像処理装置。
10. The image processing apparatus according to claim 1, wherein two-dimensional image information of a predetermined range cut out by said image cutout means is recorded on a recording medium.
【請求項11】 画像貼り付け手段により仮想3次元物
体に貼り付けられた3次元画像情報を記録媒体に記録す
ることを特徴とする請求項1記載の画像処理装置。
11. The image processing apparatus according to claim 1, wherein the three-dimensional image information pasted on the virtual three-dimensional object by the image pasting means is recorded on a recording medium.
【請求項12】 2次元の画像情報を取り込み、その2
次元の画像情報から、仮想3次元物体の特徴位置に対応
して設けられているゲージを備えている切り抜き範囲指
定用の枠を使って所定範囲の2次元画像情報を切り出
し、切り出した所定範囲の2次元画像情報を仮想3次元
物体に貼り付けることを特徴とする画像処理方法。
12. Taking in two-dimensional image information,
From the two-dimensional image information, a predetermined range of two-dimensional image information is cut out using a cutout range designating frame provided with a gauge provided corresponding to the feature position of the virtual three-dimensional object, and An image processing method characterized by attaching two-dimensional image information to a virtual three-dimensional object.
【請求項13】 2次元の画像情報を取り込んで得られ
た2次元画像情報から、仮想3次元物体の特徴位置に対
応して設けられているゲージを備えている切り抜き範囲
指定用の枠を使って所定範囲の2次元画像情報を切り出
す画像切り出しステップと、 上記画像切り出しステップで切り出した所定範囲の2次
元画像情報を仮想3次元物体に貼り付ける画像貼り付け
ステップとを備えてなることを特徴とするプログラムを
提供するプログラム提供媒体。
13. A two-dimensional image information obtained by capturing two-dimensional image information, using a frame for specifying a cutout range provided with a gauge provided corresponding to a characteristic position of a virtual three-dimensional object. And an image pasting step of pasting the predetermined range of the two-dimensional image information cut out in the image cutting step to a virtual three-dimensional object. A program providing medium for providing a program to be executed.
JP11036337A 1999-02-15 1999-02-15 Image processor, method and program providing medium Withdrawn JP2000235656A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11036337A JP2000235656A (en) 1999-02-15 1999-02-15 Image processor, method and program providing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11036337A JP2000235656A (en) 1999-02-15 1999-02-15 Image processor, method and program providing medium

Publications (1)

Publication Number Publication Date
JP2000235656A true JP2000235656A (en) 2000-08-29

Family

ID=12467028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11036337A Withdrawn JP2000235656A (en) 1999-02-15 1999-02-15 Image processor, method and program providing medium

Country Status (1)

Country Link
JP (1) JP2000235656A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020054243A (en) * 2000-12-27 2002-07-06 오길록 Apparatus and method of interactive model generation using multi-images
WO2011155068A1 (en) 2010-06-11 2011-12-15 株式会社アルトロン Character generating system, character generating method, and program
JP2012093913A (en) * 2010-10-26 2012-05-17 Nippon Hoso Kyokai <Nhk> Cg character production device and cg character production program
JP2012101024A (en) * 2010-10-15 2012-05-31 Nintendo Co Ltd Game program, image processing device, image processing system, and image processing method
US8730265B2 (en) 2010-06-11 2014-05-20 Altron Corporation Character generating system and character generating method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020054243A (en) * 2000-12-27 2002-07-06 오길록 Apparatus and method of interactive model generation using multi-images
WO2011155068A1 (en) 2010-06-11 2011-12-15 株式会社アルトロン Character generating system, character generating method, and program
US8497869B2 (en) 2010-06-11 2013-07-30 Altron Corporation Character generating system, character generating method, and program
US8730265B2 (en) 2010-06-11 2014-05-20 Altron Corporation Character generating system and character generating method
JP5632469B2 (en) * 2010-06-11 2014-11-26 株式会社アルトロン Character generation system, character generation method and program
JP5659228B2 (en) * 2010-06-11 2015-01-28 株式会社アルトロン Character generation system, character generation method and program
JP2012101024A (en) * 2010-10-15 2012-05-31 Nintendo Co Ltd Game program, image processing device, image processing system, and image processing method
JP2012093913A (en) * 2010-10-26 2012-05-17 Nippon Hoso Kyokai <Nhk> Cg character production device and cg character production program

Similar Documents

Publication Publication Date Title
JP3725524B2 (en) Method for generating computer display image and computer processing system and graphics processor for generating image data
JP3647487B2 (en) Texture mapping device
US6677967B2 (en) Video game system for capturing images and applying the captured images to animated game play characters
JP2000107447A (en) Video game device, game image display method, and recording medium
JP2000132706A (en) Recording medium, image processor and image processing method
US20010036860A1 (en) Character display method, information recording medium and entertainment apparatus
JP2001307126A (en) Method and device for plotting image, recording medium and program
JP3369159B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
JP3777288B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2000235656A (en) Image processor, method and program providing medium
JP3990258B2 (en) Image generation system, program, and information storage medium
JPH1166272A (en) Processor and processing method for image or voice and record medium
JP3647691B2 (en) Polygon image display method, polygon image creation apparatus, and recording medium
JP4167358B2 (en) Image generation system and information storage medium
JP2002279447A (en) Image generating system, program, and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
JP3467259B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2992499B2 (en) Image processing method and apparatus, recording medium
JP4656617B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2001149639A (en) Picture image processing device, picture image formation method, and storage medium
JP4244352B2 (en) Image generating apparatus, image generating method, and program
JP3643036B2 (en) Apparatus and method for perspective transformation
JP3617960B2 (en) Three-dimensional game image processing program, three-dimensional game image processing method, and video game apparatus
JP3547236B2 (en) Image information generating apparatus and method, and image information processing apparatus and method
JP3497860B1 (en) Display device, display method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509