JP2003288611A - Image processing device and image transmission system - Google Patents

Image processing device and image transmission system

Info

Publication number
JP2003288611A
JP2003288611A JP2002092717A JP2002092717A JP2003288611A JP 2003288611 A JP2003288611 A JP 2003288611A JP 2002092717 A JP2002092717 A JP 2002092717A JP 2002092717 A JP2002092717 A JP 2002092717A JP 2003288611 A JP2003288611 A JP 2003288611A
Authority
JP
Japan
Prior art keywords
image
dimensional shape
shape information
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2002092717A
Other languages
Japanese (ja)
Inventor
Kunihisa Kishikawa
晋久 岸川
Shunichi Numazaki
俊一 沼崎
Takahiro Harashima
高広 原島
Norio Mihara
功雄 三原
Miwako Doi
美和子 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002092717A priority Critical patent/JP2003288611A/en
Publication of JP2003288611A publication Critical patent/JP2003288611A/en
Abandoned legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device which can display images which is suitable for the circumstance without providing sense of discomfort, or images having highly entertaining. <P>SOLUTION: Three-dimensional information of a player's head during playing a video game which is obtained by calculating using reflected-light images is input to an input part 57 of the image processing device. The image of the player's head is built into a position of a character's head of the video game by the image processing device 5. During the development of the scenario of the game, when the character turns its head toward a slanting direction, even if the image of the imaged player's head faces the front, the image of the head is processed to correspond with the direction of the character's head. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、コンピュ
ータゲームに適用可能な画像処理装置および画像伝送シ
ステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image transmission system applicable to, for example, a computer game.

【0002】[0002]

【従来の技術】従来からコンピュータを利用した数多く
のゲームが提供されており、コンピュータゲーム(以下
ゲームという)は人々の娯楽の一つになっている。そし
て、コンピュータの発達により、視覚的聴覚的にリアル
なゲームが実現されプレーヤを楽しませている。
2. Description of the Related Art Conventionally, many games using a computer have been provided, and computer games (hereinafter referred to as games) have become one of people's entertainment. With the development of computers, visually and aurally realistic games are realized and entertain the players.

【0003】[0003]

【発明が解決しようとする課題】さて、例えばユーザの
顔を含む頭部のような現実の物体を画像としてゲームに
取り込んで利用する場合、この物体を撮像して物体の属
性(例えば、形状、色、動き)の情報をゲーム装置に入
力する必要がある。物体の属性を取得できる装置として
は、例えば通常のカラーカメラ、ステレオ画像処理装置
やレーザレンジファインダがある。
When a real object such as a head including a user's face is captured and used as an image in a game, the object is imaged and an attribute (for example, shape, It is necessary to input information on color and movement) into the game device. Examples of a device that can acquire the attribute of an object include a normal color camera, a stereo image processing device, and a laser range finder.

【0004】通常のカラーカメラによれば、物体にはな
い色で背景色を構成してその物体を撮像し、その物体と
背景を区別することにより、物体の形状や色などの情報
を取得することができる。また、動画の撮影も可能なの
で、物体が動く場合は動き情報を得ることができる。し
かし、背景色と同じ色の物体の場合は属性情報を得るこ
とができず、また、立体形状の情報やこれの動き情報を
取得できないなどの制約が多い。
According to a normal color camera, a background color is formed by a color that does not exist in an object, the object is imaged, and the background is distinguished from the object, thereby obtaining information such as the shape and color of the object. be able to. Moreover, since a moving image can be taken, it is possible to obtain motion information when an object moves. However, in the case of an object having the same color as the background color, there are many restrictions such that the attribute information cannot be obtained, and the information on the three-dimensional shape and the movement information thereof cannot be obtained.

【0005】ステレオ画像処理装置によれば、通常のカ
ラーカメラを用いて得られた画像に対して画像認識など
の処理をすることにより、色のみならず立体形状の情報
も取得することができる。また、動き情報は連続したフ
レームにより得ることができる。しかし、この装置では
形状の情報を得るのに大量の計算を必要とするので、動
き情報を取得するには不向きである。また、画像の見か
けの内容を参照して処理をするため、処理が不安定にな
ったり、処理が全くできなかったりし、制約が多い。
According to the stereo image processing apparatus, it is possible to obtain not only the color but also the three-dimensional shape information by performing processing such as image recognition on an image obtained by using an ordinary color camera. Also, the motion information can be obtained by consecutive frames. However, this device requires a large amount of calculation to obtain shape information, and is not suitable for obtaining motion information. Moreover, since the processing is performed by referring to the apparent contents of the image, the processing becomes unstable, or the processing cannot be performed at all, and there are many restrictions.

【0006】レーザレンジファインダはレーザ光線によ
る測量技術を応用しており、これによれば、物体の立体
形状の情報を高精度で取得できる。レーザレンジファイ
ンダでは色情報を得ることができないので、通常のカメ
ラと併用することで色情報を得る必要がある。しかし、
物体の表面を走査することによって、立体形状情報を取
得するため、測定に時間を要する。ゲーム装置は画像処
理の高速(好ましくはリアルタイム)性が要求されるの
で、レーザレンジファインダをゲーム装置に適用するの
は現実的ではない。
The laser range finder applies a surveying technique using a laser beam, and according to this, information on the three-dimensional shape of an object can be acquired with high accuracy. Since the laser range finder cannot obtain the color information, it is necessary to obtain the color information by using it together with an ordinary camera. But,
Since the three-dimensional shape information is acquired by scanning the surface of the object, it takes time to measure. Since the game device is required to have high speed (preferably real-time) image processing, it is not realistic to apply the laser range finder to the game device.

【0007】さらに、これらの装置によれば、撮像され
た画像を単純に画面上に表示するだけなので、状況に合
った違和感のない表示や娯楽性を有する表示ができなか
った。
Further, according to these devices, since the picked-up image is simply displayed on the screen, it is not possible to provide a display that does not cause a sense of discomfort or a display that is entertaining according to the situation.

【0008】本発明は、かかる問題点に鑑みてなされた
もので、状況に合った違和感のない表示や娯楽性を有す
る表示が可能な画像処理装置および画像伝送システムを
提供することを目的とする。
The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus and an image transmission system capable of displaying a display suitable for the situation without a sense of incongruity and having entertainment. .

【0009】[0009]

【課題を解決するための手段】本発明に係る画像処理装
置は、物体の反射光画像から演算された物体の立体形状
情報を入力するための入力手段と、入力手段に入力され
た立体形状情報により画面上に表示される物体の画像と
異なる画像にするために、入力手段に入力された立体形
状情報を調整するための調整情報を演算する演算手段
と、演算手段により演算された調整情報および入力手段
に入力された立体形状情報を基にして、物体の画像を生
成する生成手段と、を備えたことを特徴とする。
An image processing apparatus according to the present invention includes input means for inputting three-dimensional shape information of an object calculated from a reflected light image of the object, and three-dimensional shape information input to the input means. In order to make the image different from the image of the object displayed on the screen by the calculation means, calculation means for calculating the adjustment information for adjusting the three-dimensional shape information input to the input means, the adjustment information calculated by the calculation means, and And a generation unit that generates an image of the object based on the three-dimensional shape information input to the input unit.

【0010】本発明に係る画像処理装置によれば、物体
の反射光画像から演算された立体形状情報を調節するた
めの調節情報を演算し、これと立体形状情報を基にして
画面上に表示する物体の画像を生成している。よって、
上記立体形状情報で画面上に表示される物体の画像と異
なる画像を画面上に表示させることができる。これによ
り、撮像された物体の画像を単純に画面上に表示するの
ではなく、状況に合った違和感のない表示や娯楽性を有
する表示が可能となる。
According to the image processing apparatus of the present invention, the adjustment information for adjusting the three-dimensional shape information calculated from the reflected light image of the object is calculated and displayed on the screen based on this and the three-dimensional shape information. An image of an object is created. Therefore,
An image different from the image of the object displayed on the screen can be displayed on the screen by the three-dimensional shape information. As a result, instead of simply displaying the captured image of the object on the screen, it is possible to perform a display that does not cause a sense of incongruity or a display that is entertaining according to the situation.

【0011】本発明に係る画像処理装置の生成手段は、
調整情報により立体形状情報を調整して画面上の物体の
画像の方向を変えるようにすることができる。これによ
れば、画面上に表示される物体の画像の方向を、その物
体を撮像した方向と異ならせることができる。
The generation means of the image processing apparatus according to the present invention is
It is possible to adjust the three-dimensional shape information based on the adjustment information and change the direction of the image of the object on the screen. According to this, the direction of the image of the object displayed on the screen can be made different from the direction in which the object is imaged.

【0012】本発明に係る画像処理装置の生成手段は、
調整手段により立体形状情報を調整して画面上の物体の
画像を脚色するようにすることができる。これによれ
ば、物体の画像を脚色できるので娯楽性を有する画像に
することができる。
The generating means of the image processing apparatus according to the present invention is
The adjusting means can adjust the three-dimensional shape information so as to dramatize the image of the object on the screen. According to this, the image of the object can be adapted so that the image can be made entertaining.

【0013】本発明に係る画像処理装置の生成手段は、
背景を含む物体のカラーの平面画像と立体形状情報とを
組み合わせて物体が抽出されたカラーの立体画像の動画
を生成するようにすることができる。これによれば、リ
アルな画像にすることができる。
The generation means of the image processing apparatus according to the present invention is
It is possible to generate a moving image of the color stereoscopic image in which the object is extracted by combining the color planar image of the object including the background and the stereoscopic shape information. According to this, a realistic image can be obtained.

【0014】本発明に係る画像伝送システムは、物体の
反射光画像から演算された物体の立体形状情報により画
面上に表示される物体の画像と異なる画像にするため
に、入力手段に入力された立体形状情報を調整するため
の調整情報を演算する演算手段、演算手段により演算さ
れた調整情報および立体形状情報を基にして、物体の画
像を生成する生成手段、および生成手段で生成された物
体の画像を送信する送信手段を含む送信側システムと、
送信手段から送信された物体の画像を受信する受信手
段、および受信手段で受信された物体の画像を表示する
表示手段を含む受信側システムと、を備えたことを特徴
とする。
In the image transmission system according to the present invention, in order to make the image different from the image of the object displayed on the screen by the three-dimensional shape information of the object calculated from the reflected light image of the object, the image is input to the input means. Calculation means for calculating adjustment information for adjusting three-dimensional shape information, generation means for generating an image of an object based on the adjustment information and three-dimensional shape information calculated by the calculation means, and an object generated by the generation means A transmission side system including a transmission means for transmitting the image of
A receiving side system including a receiving means for receiving the image of the object transmitted from the transmitting means, and a receiving side system including a display means for displaying the image of the object received by the receiving means.

【0015】本発明に係る画像伝送システムによれば、
離れた場所であっても、状況に合った違和感のない画像
や娯楽性を有する画像のやり取りが可能となる。
According to the image transmission system of the present invention,
Even in a distant place, it is possible to exchange images that are suitable for the situation and that have an amusement effect.

【0016】[0016]

【発明の実施の形態】以下、図面に基づいて本発明の実
施形態に係る画像処理装置について説明する。まず、図
7を用いて第1実施形態の概要を説明する。第1実施形
態は、プレーヤの頭部の画像(CG:Computer Graphic
s)をキャラクターの頭部に用いるゲームに適用され
る。この画像はカラーの立体(三次元)画像の動画であ
る。ゲーム中のプレーヤの頭部(頭部には顔も含まれて
おり、以下の頭部もこの意味である)を撮像部で撮像す
ることにより、ゲーム中のプレーヤの表情がリアルタイ
ムでキャラクターの表情に反映される。
DETAILED DESCRIPTION OF THE INVENTION An image processing apparatus according to an embodiment of the present invention will be described below with reference to the drawings. First, the outline of the first embodiment will be described with reference to FIG. 7. In the first embodiment, the image of the head of the player (CG: Computer Graphic
s) is applied to the game where the character's head is used. This image is a moving image of a color stereoscopic (three-dimensional) image. By capturing an image of the player's head in the game (the head is included in the head, and the following heads also have this meaning), the facial expression of the player in the game is expressed in real time. Reflected in.

【0017】通常、プレーヤは撮像部に対して同じ方向
を向いてゲームをするので、撮像部で撮像された頭部の
画像をそのまま画面上に表示する処理だけでは、ゲーム
中のキャラクターの頭部画像はいつも同じ方向(例えば
正面向き)となる。よって、ゲームのストーリが展開す
る中で、キャラクターが例えば斜め方向になっても頭部
の画像だけは正面向きであり、違和感がある。
Since the player usually plays the game in the same direction with respect to the image pickup unit, the head image of the character in the game can be obtained by simply displaying the image of the head imaged by the image pickup unit on the screen as it is. The image is always in the same direction (for example, facing forward). Therefore, while the story of the game is unfolding, even if the character is in an oblique direction, only the image of the head is in the frontal direction, which is uncomfortable.

【0018】第1実施形態では、プレーヤの頭部H1の
反射光画像(シルエット像であり、反射光画像について
は後で詳細に説明する)から演算された頭部の立体形状
情報を、調整情報(例えば頭部の方向パラメータ)で調
整している。これにより、プレーヤが同じ向き(この場
合は正面向き)でゲームをしていても、キャラクターが
これと異なる向きになった場合、頭部の画像G1もこれ
に合わせた向き(この場合は斜め向き)にすることがで
きる。よって、第1実施形態によれば、状況に合った違
和感のない表示(自然な表示)が可能となる。また、こ
の画像はカラーの立体的な動画なので、リアルな画像に
することができる。
In the first embodiment, the three-dimensional shape information of the head calculated from the reflected light image of the player's head H1 (a silhouette image, which will be described in detail later) is used as the adjustment information. (For example, the head direction parameter) is adjusted. As a result, even if the player is playing the game in the same direction (frontward in this case), if the character is in a different direction, the image G1 of the head is also oriented in this direction (diagonal in this case). ) Can be Therefore, according to the first embodiment, it is possible to provide a display (natural display) that does not cause a sense of discomfort that suits the situation. In addition, since this image is a color three-dimensional moving image, it can be a realistic image.

【0019】以上が第1実施形態の概要である。次に第
1実施形態の詳細を説明する。図1は第1実施形態に係
るゲームシステム1の機能ブロック図である。ゲームシ
ステム1は、対象となる物体(例えばプレーヤの頭部)
をゲーム画面上に表示するのに必要な情報(物体の立体
形状、色、動き、その他の外的特徴)を取得する物体情
報取得装置3と、ゲームのストーリに合わせてゲーム画
面上の物体の画像の方向を変える再構成の処理をする画
像処理装置5と、この処理がされた画像をゲーム画面上
に表示する画像表示装置7と、を備える。
The above is the outline of the first embodiment. Next, details of the first embodiment will be described. FIG. 1 is a functional block diagram of the game system 1 according to the first embodiment. The game system 1 is a target object (for example, a player's head).
Object information acquisition device 3 that acquires information (three-dimensional shape, color, movement, and other external characteristics of the object) necessary to display the object on the game screen, and the object information acquisition device 3 that matches the story of the game. An image processing device 5 that performs a reconstruction process that changes the direction of an image, and an image display device 7 that displays the processed image on a game screen are provided.

【0020】ゲームシステム1を具体化した一例が図2
である。ゲームシステム1は、プレーヤがボタンを押す
などの操作情報を入力するための操作装置9と、ゲーム
全体の処理をする家庭用ゲーム処理装置11と、ゲーム
画面が表示されるCRT13と、を備える。
FIG. 2 shows an example of embodying the game system 1.
Is. The game system 1 includes an operation device 9 for the player to input operation information such as pressing a button, a home-use game processing device 11 for processing the entire game, and a CRT 13 on which a game screen is displayed.

【0021】操作装置9には、図1の物体情報取得装置
3およびこれに含まれる撮像部である画像センサー15
が組み込まれている。家庭用ゲーム処理装置11には図
1の画像処理装置5が組み込まれている。業務用ゲーム
処理装置や通常のパソコンなどに画像処理装置5を組み
込んでも良い。CRT13は図1の画像表示装置7の一
例である。画像表示装置7はこの他に、LCD、HMD
(ヘッドマウントディスプレイ)、プロジェクターなど
がある。
The operation device 9 includes an object information acquisition device 3 of FIG. 1 and an image sensor 15 which is an image pickup unit included in the object information acquisition device 3.
Is built in. The image processing device 5 of FIG. 1 is incorporated in the home-use game processing device 11. The image processing device 5 may be incorporated in an arcade game processing device or an ordinary personal computer. The CRT 13 is an example of the image display device 7 in FIG. In addition to this, the image display device 7 includes an LCD, an HMD.
(Head-mounted display), projector and so on.

【0022】次に、物体情報取得装置3の構成について
図3を用いて詳細に説明する。図3は物体情報取得装置
3の機能ブロック図であり、この装置3は物体の色情報
が含まれる画像情報をリアルタイムで取得するための画
像情報取得部17と、物体の立体形状情報をリアルタイ
ムで取得するための立体形状情報取得部19と、を備え
る。取得部17、19により、後で説明するように物体
の動き情報もリアルタイムで取得できる。
Next, the configuration of the object information acquisition device 3 will be described in detail with reference to FIG. FIG. 3 is a functional block diagram of the object information acquisition device 3. This device 3 is an image information acquisition unit 17 for acquiring image information including color information of an object in real time, and three-dimensional shape information of the object in real time. The three-dimensional shape information acquisition unit 19 for acquiring. The acquisition units 17 and 19 can also acquire the motion information of the object in real time as described later.

【0023】画像情報取得部17は、物体を自然光(照
明光を含む)で撮像することにより背景を含む物体のカ
ラー画像である自然光画像を取得する自然光画像撮像部
21と、撮像部21の動作を制御するための制御信号を
発生する撮像動作制御部23と、撮像部21で撮像され
た自然光画像が格納される自然光画像記憶部25と、記
憶部25に格納された自然光画像を読み出して、必要に
応じて明度やコントラストなどの調整をする自然光画像
調整部27と、調整部27で調整された自然光画像の情
報(これが取得部17により取得された画像情報であ
る)を出力先の機器(第1実施形態では家庭用ゲーム処
理装置)のプロトコルやデータ形式に合致させて出力を
する画像情報出力部29と、を備える。
The image information acquisition unit 17 captures an object with natural light (including illumination light) to acquire a natural light image that is a color image of the object including the background, and the operations of the image capturing unit 21. The image pickup operation control unit 23 that generates a control signal for controlling the natural light image storage unit 25 in which the natural light image captured by the image pickup unit 21 is stored, and the natural light image stored in the storage unit 25 is read out, A natural light image adjusting unit 27 that adjusts the brightness and contrast as necessary, and information of the natural light image adjusted by the adjusting unit 27 (this is the image information acquired by the acquisition unit 17) as an output destination device ( In the first embodiment, an image information output unit 29 that outputs in conformity with the protocol and data format of the home game processing device).

【0024】自然光画像撮像部21は、図2の画像セン
サー15に含まれており、例えば、CCDやCMOS撮
像素子であり、背景を含む物体のカラー平面画像をリア
ルタイムで取得する。これにより、物体の属性のうち色
を取得できる。また、上記カラー画像を連続して撮像す
るので、連続するフレームの変化から物体の動き情報を
把握することができる。これにより、物体の画像を動画
にすることができる。
The natural light image pickup unit 21 is included in the image sensor 15 of FIG. 2, and is, for example, a CCD or CMOS image pickup device, and acquires a color plane image of an object including a background in real time. As a result, the color of the attributes of the object can be acquired. Further, since the color images are continuously captured, it is possible to grasp the motion information of the object from the change of the continuous frames. Thereby, the image of the object can be made into a moving image.

【0025】一方、立体形状情報取得部19は、制御部
23からの制御信号に従って物体およびその周囲にある
被写体の反射光画像を撮像するための反射光画像撮像部
31と、撮像部31で撮像された反射光画像が格納され
る反射光画像記憶部33と、記憶部33に格納された反
射光画像を読み出して各種補正をする反射光画像補正部
35と、反射光画像を補正するためのパラメータが記憶
されているパラメータ記憶部37と、補正部35で補正
された反射光画像を解析して物体の立体形状情報を演算
する立体形状情報演算部39と、演算部39で演算され
た立体形状情報を出力先の機器(第1実施形態では家庭
用ゲーム処理装置)のプロトコルやデータ形式に合致さ
せて出力をする立体形状情報出力部41と、を備える。
On the other hand, the three-dimensional shape information acquisition unit 19 takes a reflected light image pickup unit 31 for picking up a reflected light image of an object and a subject around it according to a control signal from the control unit 23, and an image pickup by the image pickup unit 31. The reflected light image storage unit 33 in which the reflected light image is stored, the reflected light image correction unit 35 that performs various corrections by reading the reflected light image stored in the storage unit 33, and the reflected light image for correcting the reflected light image A parameter storage unit 37 that stores parameters, a three-dimensional shape information calculation unit 39 that analyzes the reflected light image corrected by the correction unit 35 to calculate three-dimensional shape information of an object, and a three-dimensional object calculated by the calculation unit 39. The stereoscopic shape information output unit 41 that outputs the shape information in conformity with the protocol or the data format of the output destination device (the home game processing device in the first embodiment).

【0026】反射光画像撮像部31は図2の画像センサ
ー15に含まれる。ここで、反射光画像撮像部31の詳
細を図4により説明する。図4はこの撮像部31の機能
ブロック図である。反射光画像撮像部31は発光部4
3、受光光学系45、反射光抽出部47およびタイミン
グ制御部49から構成される。
The reflected light image pickup unit 31 is included in the image sensor 15 shown in FIG. Here, details of the reflected light image capturing unit 31 will be described with reference to FIG. FIG. 4 is a functional block diagram of the image pickup unit 31. The reflected light image pickup unit 31 includes the light emitting unit 4
3, a light receiving optical system 45, a reflected light extraction unit 47, and a timing control unit 49.

【0027】発光部43はタイミング制御部49によっ
て生成されるタイミング信号に従って時間的に強度変動
する光を発生する。この光は発光部43の前方にあるプ
レーヤの頭部(物体の一例)に照射される。ここで発生
する光としては近赤外光であるが、これに限らず可視光
など他の波長領域の光も利用することができる。
The light emitting section 43 generates light whose intensity varies with time according to the timing signal generated by the timing control section 49. This light is applied to the player's head (an example of an object) in front of the light emitting unit 43. The light generated here is near infrared light, but not limited to this, light in other wavelength regions such as visible light can also be used.

【0028】プレーヤの頭部からの反射光はレンズなど
で構成される受光光学系45により集光されて反射光抽
出部47の受光面上に結像される。受光光学系45には
近赤外光を通過するフィルターが設けられている。この
フィルターにより反射光のうち近赤外光以外の可視光や
遠赤外光のような外光がカットされる。
The reflected light from the player's head is condensed by the light receiving optical system 45 composed of a lens or the like and is focused on the light receiving surface of the reflected light extraction unit 47. The light receiving optical system 45 is provided with a filter that passes near infrared light. External light such as visible light and far infrared light other than near infrared light is cut out of the reflected light by this filter.

【0029】反射光抽出部47は、上記結像を形成する
反射光の空間的な強度分布を抽出する。この強度分布は
反射光による画像として捉えることができる。これが上
記反射光画像(シルエット像)である。この機能を達成
するため、反射光抽出部47は、第1の受光部51、第
2の受光部53および差分演算部55から成る。第1の
受光部51と第2の受光部53は、異なるタイミングで
受光を行う。そして、第1の受光部51が受光している
ときに発光部43が発光し、第2の受光部53が受光し
ているときには発光部43は発光しないように、タイミ
ング制御部49がこれらの動作タイミングを制御する。
これにより第1の受光部51は発光部43からの光の物
体による反射光とそれ以外の自然光(つまり太陽光、照
明光などの外光)を受光する。一方、第2の受光部53
は自然光のみを受光する。両者が受光するタイミングは
異なっているが近いので、この間における自然光の変動
は無視できる。
The reflected light extraction section 47 extracts the spatial intensity distribution of the reflected light forming the above-mentioned image formation. This intensity distribution can be captured as an image of reflected light. This is the reflected light image (silhouette image). In order to achieve this function, the reflected light extraction unit 47 includes a first light receiving unit 51, a second light receiving unit 53, and a difference calculation unit 55. The first light receiving unit 51 and the second light receiving unit 53 perform light reception at different timings. Then, the timing control section 49 controls these so that the light emitting section 43 emits light when the first light receiving section 51 is receiving light and the light emitting section 43 does not emit light when the second light receiving section 53 is receiving light. Control the operation timing.
As a result, the first light receiving unit 51 receives the reflected light of the light from the light emitting unit 43 by the object and the other natural light (that is, external light such as sunlight and illumination light). On the other hand, the second light receiving unit 53
Receives only natural light. Since the two receive light at different timings, they are close to each other, so that fluctuations in natural light during this period can be ignored.

【0030】従って、第1の受光部51で受光した像と
第2の受光部53で受光した像の差分をとれば、発光部
43からの光のうち物体による反射光の成分だけが抽出
され、反射光画像を生成することができる。差分演算部
55が第1の受光部51と第2の受光部53で受光した
像の差を計算して出力する。
Therefore, if the difference between the image received by the first light receiving section 51 and the image received by the second light receiving section 53 is calculated, only the component of the light reflected by the object is extracted from the light from the light emitting section 43. , A reflected light image can be generated. The difference calculation unit 55 calculates and outputs the difference between the images received by the first light receiving unit 51 and the second light receiving unit 53.

【0031】物体からの反射光は、物体と反射光画像撮
像部31の距離が長くなるに従い大幅に減少する。物体
の表面が一様に光を散乱する場合、反射光画像1画素あ
たりの受光量は物体までの距離の二乗に反比例して小さ
くなる。従って、物体からの反射光の強度値は、反射光
画像撮像部31から物体までの距離値に換算できるの
で、物体の立体形状を把握することができる。また、背
景からの反射光はほぼ無視できるくらいに小さい。よっ
て、背景がカットされた、物体およびその周囲にある被
写体の反射光画像を得ることができる。
The reflected light from the object greatly decreases as the distance between the object and the reflected light image pickup unit 31 increases. When the surface of the object scatters light uniformly, the amount of light received per pixel of the reflected light image decreases in inverse proportion to the square of the distance to the object. Therefore, since the intensity value of the reflected light from the object can be converted into the distance value from the reflected light image pickup unit 31 to the object, the three-dimensional shape of the object can be grasped. Also, the reflected light from the background is almost negligible. Therefore, it is possible to obtain a reflected light image of the object and the subject around the object with the background cut.

【0032】反射光画像は、例えば、以下の(1)から
(3)の構成を有する装置により得ることができる。
(1)時間的に一定あるいは時間的に変化するパルス信
号や変調信号を発生させるためのタイミング信号生成手
段。(2)このタイミング信号生成手段によって生成さ
れた信号に基づいて、強度変化する光を発するための発
光手段。(3)この発光手段から発された光の物体によ
る反射光を前記タイミング信号生成手段からの信号と同
期して外光(自然光)から分離して検出する手段を配列
して構成し、光の物体による反射光画像を検出する反射
光抽出手段。
The reflected light image can be obtained, for example, by an apparatus having the following configurations (1) to (3).
(1) Timing signal generating means for generating a pulse signal or a modulation signal that is constant in time or changes in time. (2) Light emitting means for emitting light whose intensity changes based on the signal generated by the timing signal generating means. (3) A means for separating and detecting the reflected light of the light emitted from the light emitting means by the object in synchronization with the signal from the timing signal generating means is arranged, and Reflected light extraction means for detecting a reflected light image from an object.

【0033】反射光画像撮像部31の上記構成要素のさ
らに詳細な説明は、本件と同一出願人が出願した特開平
10−177449号公報に記載されている。
A more detailed description of the above-mentioned components of the reflected light image pickup section 31 is described in Japanese Patent Application Laid-Open No. 10-177449 filed by the same applicant as this case.

【0034】なお、反射光画像撮像部31は、物体を含
む被写体の反射光画像を連続して撮像するので、連続す
るフレームの変化から物体の動き情報を把握することが
できる。これにより、物体の画像を動画にすることがで
きる。反射光画像撮像部31は自然光画像撮像部21と
共に図2に示す画像センサー15を構成する。後で説明
するように、自然光画像(背景を含む物体のカラーの平
面画像)と、物体の反射光画像を演算して得られる立体
形状情報とを組み合わせて、物体が抽出されたカラーの
立体画像(物体のCG)が生成される。このため、反射
光画像の画素と自然光画像の画素とを対応させる必要が
あるので、反射光画像撮像部31と自然光画像撮像部2
1は近接して配置するのが好ましい。この観点からこれ
らの撮像部21、31は1チップ化されていることが好
ましい。
Since the reflected light image pickup unit 31 continuously picks up reflected light images of a subject including an object, the movement information of the object can be grasped from continuous frame changes. Thereby, the image of the object can be made into a moving image. The reflected light image capturing section 31 constitutes the image sensor 15 shown in FIG. 2 together with the natural light image capturing section 21. As described later, a color stereoscopic image in which an object is extracted by combining a natural light image (a color planar image of an object including a background) and stereoscopic shape information obtained by calculating a reflected light image of the object. (CG of object) is generated. Therefore, since it is necessary to make the pixels of the reflected light image correspond to the pixels of the natural light image, the reflected light image capturing unit 31 and the natural light image capturing unit 2
It is preferable that 1s are arranged close to each other. From this point of view, it is preferable that the imaging units 21 and 31 are integrated into one chip.

【0035】次に、図3に示す反射光画像補正部35で
の補正を説明する。まず、物体を抽出する補正をする。
上記の通り、撮像部31で撮像された反射光画像は、背
景がカットされた、物体およびその周囲にある被写体の
画像である。よって、パラメータ記憶部37に予め格納
されている物体(例えば頭部)のパターンや自然光画像
記憶部25に格納されている自然光画像を利用して、物
体を検出し、それ以外の被写体を削除する補正をする。
Next, the correction in the reflected light image correction section 35 shown in FIG. 3 will be described. First, correction is performed to extract the object.
As described above, the reflected light image captured by the image capturing unit 31 is an image of the object and the subject around the object with the background cut. Therefore, the object is detected by using the pattern of the object (for example, the head) stored in advance in the parameter storage unit 37 or the natural light image stored in the natural light image storage unit 25, and the other subjects are deleted. Make corrections.

【0036】次に、物体の色や反射特性などを考慮して
補正をする。詳しく説明すると、物体からの反射光の強
度は、物体と反射光画像撮像部31との距離以外の要因
にも左右される。このため、反射光画像から単純に距離
を求めても、距離(つまり立体形状)が正確でないこと
がある。例えば、物体表面の色が黒い場合、反射光の強
度は低下する。また、物体の表面が鏡面反射成分を多く
含む場合、物体の表面の法線が光源方向に近くなる部分
で強い反射光が発生する。よって、物体の反射光強度か
ら距離情報を求める前に、補正部35において、パラメ
ータ記憶部37に予め格納されている物体の表面の色や
反射特性などに関するパラメータを参照したり、記憶部
25に格納されており、その反射光画像に対応する自然
光画像を参照したりして、物体の反射光画像を補正す
る。これにより、次に演算される物体の立体形状情報の
精度を高める。
Next, the correction is performed in consideration of the color and reflection characteristics of the object. More specifically, the intensity of the reflected light from the object depends on factors other than the distance between the object and the reflected light image pickup unit 31. Therefore, even if the distance is simply calculated from the reflected light image, the distance (that is, the three-dimensional shape) may not be accurate. For example, when the color of the object surface is black, the intensity of the reflected light is reduced. Further, when the surface of the object contains a lot of specular reflection components, strong reflected light is generated at a portion where the normal line of the surface of the object is close to the light source direction. Therefore, before obtaining the distance information from the reflected light intensity of the object, the correction unit 35 refers to the parameters, such as the surface color and the reflection characteristic of the surface of the object that are stored in advance in the parameter storage unit 37, or the storage unit 25 The reflected light image of the object is corrected by referring to the stored natural light image corresponding to the reflected light image. Thereby, the accuracy of the three-dimensional shape information of the object calculated next is improved.

【0037】立体形状情報演算部39は、補正部35で
補正された反射光画像を解析して物体の立体形状情報を
演算する。詳しく説明すると、物体からの反射光の強度
値は、反射光画像撮像部31から物体までの距離値に換
算できるので、この距離値から物体の立体形状情報を演
算するのである。
The three-dimensional shape information calculation section 39 analyzes the reflected light image corrected by the correction section 35 to calculate three-dimensional shape information of the object. More specifically, since the intensity value of the reflected light from the object can be converted into the distance value from the reflected light image pickup unit 31 to the object, the three-dimensional shape information of the object is calculated from this distance value.

【0038】次に、図1に示す画像処理装置5の詳細を
説明する。図5はこの装置5の機能ブロック図である。
画像処理装置5は、図3に示す物体情報取得装置3から
出力された画像情報(背景を含む物体のカラーの平面画
像情報)および立体形状情報が入力される入力部57
と、入力部57に入力されたこれらの情報が格納される
記憶部59と、画像表示装置7の画面上の物体の方向を
変化させるために、物体の方向パラメータ(視点位置)
を変更するなどの演算をする演算部61と、演算部61
で演算された方向パラメータなどの情報を利用して物体
の画像(CG)を生成する物体画像生成部63と、生成
部63で生成された物体の画像を画像表示装置7の画面
上に表示させるために出力をする出力部65と、を備え
る。
Next, details of the image processing apparatus 5 shown in FIG. 1 will be described. FIG. 5 is a functional block diagram of the device 5.
The image processing device 5 receives the image information (color plane image information of an object including a background) and three-dimensional shape information output from the object information acquisition device 3 shown in FIG.
And a storage unit 59 that stores these pieces of information input to the input unit 57, and an object direction parameter (viewpoint position) for changing the direction of the object on the screen of the image display device 7.
And an arithmetic unit 61 for performing arithmetic operations such as changing
The object image generation unit 63 that generates an image (CG) of the object using the information such as the direction parameter calculated in step S6, and the image of the object generated by the generation unit 63 are displayed on the screen of the image display device 7. And an output unit 65 for outputting the output.

【0039】演算部61は、記憶部59に格納された物
体の立体形状情報を読み出して、物体のCGを生成する
ための基準座標(または重心座標)を演算する座標演算
部67と、基準座標上の視点を調整することにより物体
の画像の方向パラメータを調整する演算をする方向パラ
メータ演算部69と、を備える。方向パラメータは調整
情報の一例である。
The calculation unit 61 reads the three-dimensional shape information of the object stored in the storage unit 59 and calculates the reference coordinates (or the barycentric coordinates) for generating the CG of the object, and the reference calculation unit 67. And a direction parameter calculation unit 69 that performs a calculation for adjusting the direction parameter of the image of the object by adjusting the upper viewpoint. The direction parameter is an example of adjustment information.

【0040】物体画像生成部63は、演算部61で演算
された基準座標や方向パラメータなどの情報と記憶部5
9に格納された画像情報および立体形状情報とを組み合
わせて、物体が抽出されたカラーの立体画像を生成す
る。つまり、記憶部59には画像情報および立体形状情
報が格納されている。画像情報は、背景を含む物体の平
面的なカラー画像である。一方、立体形状情報は、背景
がカットされた物体のシルエット画像(反射光画像)で
ある。生成部63は、これらの画像を重ね合わせてカラ
ー画像の中から物体に対応するカラー画像部分を切り出
して、これをシルエット像にテクスチャマッピングする
ことにより、背景がカットされたカラーの立体画像であ
る物体画像(CG)を生成する。
The object image generator 63 stores information such as reference coordinates and direction parameters calculated by the calculator 61 and the storage unit 5.
The image information and the stereoscopic shape information stored in 9 are combined to generate a color stereoscopic image in which the object is extracted. That is, the storage unit 59 stores image information and three-dimensional shape information. The image information is a planar color image of the object including the background. On the other hand, the three-dimensional shape information is a silhouette image (reflected light image) of an object whose background is cut. The generation unit 63 is a color three-dimensional image in which the background is cut by superimposing these images, cutting out a color image portion corresponding to an object from the color image, and texture-mapping this to a silhouette image. Generate an object image (CG).

【0041】以上説明した物体情報取得装置3および画
像処理装置5によれば、物体画像(CG)を高速(又は
リアルタイム)で生成することができる。なお、物体画
像生成部63での処理は、本件と同一出願人が出願した
特開平10−177449号公報の技術(特に実施例
5)を利用することができる。
According to the object information acquisition device 3 and the image processing device 5 described above, the object image (CG) can be generated at high speed (or in real time). Note that the processing in the object image generation unit 63 can use the technology (especially, the fifth embodiment) of Japanese Patent Application Laid-Open No. 10-177449 filed by the same applicant as the present case.

【0042】なお、物体情報取得装置3および画像処理
装置5の構成のうち、記憶部の機能は情報を記憶するこ
とができるもの、例えばハードディスクのような磁気媒
体からなる装置、EEPROMのような半導体メモリに
より実現することができる。これ以外の構成の機能は、
例えば各種プロセッサ(CPU、MPU)やASICと
所定のプログラムとにより実現することができる。
Of the configurations of the object information acquisition device 3 and the image processing device 5, the function of the storage unit is that capable of storing information, for example, a device formed of a magnetic medium such as a hard disk, a semiconductor such as an EEPROM. It can be realized by a memory. Other configuration features are:
For example, it can be realized by various processors (CPU, MPU) or ASIC and a predetermined program.

【0043】次に、第1実施形態に係るゲームシステム
1の動作について、図6および図7を主に用いて説明す
る。図6はこれを説明するためのフローチャートであ
る。図7はゲーム中のプレーヤの頭部と画面上のプレー
ヤの頭部との関係を示す図である。
Next, the operation of the game system 1 according to the first embodiment will be described mainly with reference to FIGS. 6 and 7. FIG. 6 is a flow chart for explaining this. FIG. 7 is a diagram showing the relationship between the player's head during the game and the player's head on the screen.

【0044】プレーヤが操作装置9(図2)を操作する
ことにより、それに応じた命令ポーリングがゲームシス
テム1内で発生する(ステップS1)。そして、第1実
施形態の画像処理を開始するか否かが判断される(ステ
ップS3)。命令ポーリングが、キャラクターの頭部に
プレーヤの頭部の画像を組み込むゲームを選択する操作
に対応する場合、画像処理が開始する。
When the player operates the operation device 9 (FIG. 2), instruction polling corresponding to the operation occurs in the game system 1 (step S1). Then, it is determined whether or not to start the image processing of the first embodiment (step S3). If the command polling corresponds to an operation of selecting a game that incorporates the image of the player's head on the character's head, image processing begins.

【0045】物体情報取得装置3により、プレーヤを撮
像して画像情報および立体形状情報を取得する(ステッ
プS5)。物体情報取得装置3において、立体形状情報
の中からプレーヤの頭部像の検出処理を試みる(ステッ
プS7)。プレーヤの頭部像の検出に成功したか否かが
判断される(ステップS9)。検出されない場合は、検
出処理の繰り返し回数の上限に達するまでに検出処理が
試みられ(ステップS11)、上限に達した場合は画像
表示装置7の画面にエラーを表示して終了する(ステッ
プS13)。
The object information acquisition device 3 images the player to acquire image information and three-dimensional shape information (step S5). The object information acquisition device 3 tries to detect the head image of the player from the three-dimensional shape information (step S7). It is determined whether or not the player's head image is successfully detected (step S9). If it is not detected, the detection process is tried until the upper limit of the number of repetitions of the detection process is reached (step S11), and if the upper limit is reached, an error is displayed on the screen of the image display device 7 and the process ends (step S13). .

【0046】一方、プレーヤの頭部像が検出された場
合、この頭部像の基準座標を演算する(ステップS1
5)。基準座標の替わりに重心座標でもよい。これらの
座標を演算する際に画像処理装置5の記憶部59に予め
格納されているプレーヤの頭部像の標準情報を利用する
こともある。例えば、プレーヤの頭部の一部しか撮像で
きないとき、基準座標や重心座標を確実に演算するため
に、プレーヤの頭部像の標準情報を使用することによ
り、欠けている情報を補完するのである。
On the other hand, when the head image of the player is detected, the reference coordinates of this head image are calculated (step S1).
5). The barycentric coordinates may be used instead of the reference coordinates. When calculating these coordinates, the standard information of the head image of the player stored in advance in the storage unit 59 of the image processing apparatus 5 may be used. For example, when only a part of the player's head can be imaged, the standard information of the player's head image is used to complement the missing information in order to reliably calculate the reference coordinates and the barycentric coordinates. .

【0047】そして、ゲームのストーリ上においてキャ
ラクターの胴体の向きが正面から斜めに変化した場合、
プレーヤの頭部の画像がキャラクターの胴体の向きと同
じく斜め方向になるように、頭部の画像の方向パラメー
タを調整する。
When the direction of the character's body changes diagonally from the front on the story of the game,
The direction parameter of the image of the head is adjusted so that the image of the player's head is in the same oblique direction as the direction of the character's body.

【0048】次に、基準座標、方向パラメータ、画像情
報および立体形状情報を利用してプレーヤの頭部の画像
(CG)を生成する(ステップS17)。そして、生成
した頭部の画像をこのゲームのアプリケーションソフト
が利用できる形式に加工して画像処理部5から出力する
(ステップS19)。この出力された頭部の画像が画像
表示装置7の画面上に表示される。
Next, an image (CG) of the player's head is generated using the reference coordinates, the direction parameter, the image information and the three-dimensional shape information (step S17). Then, the generated image of the head is processed into a format that can be used by the application software of this game, and is output from the image processing unit 5 (step S19). The output image of the head is displayed on the screen of the image display device 7.

【0049】以上により、図7に示すようにプレーヤが
頭部H1を画像センサー15(図2)に対して正面を向
いてゲームをしていても、プレーヤの頭部の画像G1は
キャラクターの胴体の向きと同じ斜め向きに画像表示装
置7の画面上に表示される。そして、ゲーム中にプレー
ヤの表情が変化、例えば頭部H1から頭部H2に変化し
た場合、画面上では頭部の画像G1から画像G2にリア
ルタイムに変化する。よって、第1実施形態によれば、
プレーヤの頭部の画像をゲームのキャラクターの頭部に
組み込むゲームの場合において、ゲームのストーリの状
況に合った違和感のない表示が可能となる。
As described above, even if the player plays the game with the head H1 facing the front with respect to the image sensor 15 (FIG. 2) as shown in FIG. 7, the image G1 of the player's head is the body of the character. The image is displayed on the screen of the image display device 7 in the same oblique direction as the direction. Then, when the facial expression of the player changes during the game, for example, the head H1 changes to the head H2, the image G1 of the head changes on the screen in real time. Therefore, according to the first embodiment,
In the case of a game in which the image of the player's head is incorporated in the head of the character of the game, it is possible to display without a sense of discomfort that matches the situation of the game story.

【0050】次に、第2実施形態について説明する。こ
こでは、図7に示すプレーヤの頭部の画像G3のよう
に、目や口などの脚色処理をする。第2実施形態に係る
ゲームシステムは、図1に示す第1実施形態に係るそれ
と画像処理装置5の構成の一部が異なる。第2実施形態
の構成要素のうち第1実施形態の構成要素と同じものに
ついては同一符号を付すことにより説明を省略し、異な
る点を中心に説明する。
Next, the second embodiment will be described. Here, like the image G3 of the head of the player shown in FIG. 7, the dramatization processing of the eyes and the mouth is performed. The game system according to the second embodiment differs from that according to the first embodiment shown in FIG. 1 in part of the configuration of the image processing device 5. Of the constituent elements of the second embodiment, the same constituent elements as those of the first embodiment are designated by the same reference numerals, and a description thereof will be omitted. Differences will be mainly described.

【0051】図8は第2実施形態に係るゲームシステム
に含まれる画像処理装置5の機能ブロック図である。図
8に示す画像処理装置5は、図5に示す装置5の演算部
61の構成要素として、更に、プレーヤの頭部の立体形
状情報からパーツ像を検出するパーツ像検出部70と、
パーツ像の変形パラメータや移動パラメータを演算する
パラメータ演算部71と、これらのパラメータに対して
脚色の演算をする脚色演算部73を備える。
FIG. 8 is a functional block diagram of the image processing apparatus 5 included in the game system according to the second embodiment. The image processing apparatus 5 shown in FIG. 8 further includes, as components of the calculation section 61 of the apparatus 5 shown in FIG. 5, a parts image detection section 70 for detecting a parts image from stereoscopic shape information of the player's head,
A parameter calculation unit 71 that calculates a deformation parameter and a movement parameter of a part image, and a draWing color calculation unit 73 that calculates a draWing color for these parameters are provided.

【0052】パーツ像検出部70は、物体のパーツ(例
えば、目、鼻、口、その他の特徴的部位)のパターンが
予め格納されているパーツパターン記憶部72を含む。
パーツ像検出部70は、記憶部59に格納されている画
像情報およびプレーヤの頭部の立体形状情報を取り出
す。そして、画像情報やパーツパターン記憶部72のパ
ーツパターンを利用して立体形状情報の中からパーツ像
を検出する(画像処理におけるパターンマッチング)。
このパーツ像は記憶部59に格納される。プレーヤの頭
部の立体形状情報の複数のフレームからパーツ像を検出
することにより、記憶部59にはパーツ像の履歴が記憶
される。パーツ像には、パーツ像の立体形状情報および
位置情報が含まれる。パーツ像の立体形状情報はプレー
ヤの頭部の立体形状情報に含まれる。
The parts image detection unit 70 includes a parts pattern storage unit 72 in which patterns of parts of the object (for example, eyes, nose, mouth, and other characteristic parts) are stored in advance.
The parts image detection unit 70 extracts the image information and the three-dimensional shape information of the player's head stored in the storage unit 59. Then, the part image is detected from the three-dimensional shape information using the image information and the part pattern of the part pattern storage unit 72 (pattern matching in image processing).
This parts image is stored in the storage unit 59. By detecting the parts image from the plurality of frames of the three-dimensional shape information of the player's head, the history of the parts image is stored in the storage unit 59. The part image includes three-dimensional shape information and position information of the part image. The three-dimensional shape information of the part image is included in the three-dimensional shape information of the player's head.

【0053】変形および移動パラメータ演算部71は、
パーツ像の立体形状情報の履歴を基にしたパーツ像の変
形パラメータや、パーツ像の位置情報の履歴を基にした
パーツ像の移動パラメータを演算する。これらのパラメ
ータは調整情報の一例である。
The transformation and movement parameter calculation unit 71 is
Deformation parameters of the part image based on the history of the three-dimensional shape information of the part image and movement parameters of the part image based on the history of the position information of the part image are calculated. These parameters are an example of adjustment information.

【0054】脚色演算部73は、これらのパラメータに
対して強調、減衰、変形、逆転などの脚色の演算をす
る。脚色されたこれらのパラメータは物体画像生成部6
3に送られ、物体の画像の生成に利用される。
The draWing color calculation unit 73 calculates a draWing color such as emphasizing, attenuating, deforming or reversing these parameters. These dramatized parameters are used by the object image generation unit 6
3 and is used to generate an image of the object.

【0055】次に、第2実施形態に係るゲームシステム
の動作について、図7、図9および図10を主に用いて
説明する。図9、図10はこれを説明するためのフロー
チャートである。まず、図9に示すステップS1〜S1
5のうち、図6に示すステップS1〜S15との相違
は、ステップS3の画像処理開始の条件である。すなわ
ち、第2実施形態では、キャラクターの頭部に脚色処理
がされたプレーヤの頭部画像を組み込むゲームに対応す
る命令ポーリングの場合に、画像処理が開始する。
Next, the operation of the game system according to the second embodiment will be described mainly with reference to FIGS. 7, 9 and 10. 9 and 10 are flowcharts for explaining this. First, steps S1 to S1 shown in FIG.
5, the difference from steps S1 to S15 shown in FIG. 6 is the condition for starting the image processing in step S3. That is, in the second embodiment, the image processing is started in the case of the command polling corresponding to the game in which the head image of the player in which the color of the head of the character has been dramatized is incorporated.

【0056】ステップS15において、プレーヤの頭部
像の基準座標が演算された後、プレーヤの頭部像の各フ
レームから、この頭部像を構成する目や口などのパーツ
像の検出処理を試みる(ステップS23)。そして、パ
ーツ像の検出に成功したか否かが判断される(ステップ
S25)。検出されない場合は、検出処理の繰り返し回
数の上限に達するまで検出処理の試みがされる(ステッ
プS27)。そして、上限に達した場合は画像表示装置
7の画面にエラーを表示して終了する(ステップS2
9)。
In step S15, after the reference coordinates of the player's head image are calculated, an attempt is made to detect a part image such as an eye or a mouth constituting this head image from each frame of the player's head image. (Step S23). Then, it is determined whether or not the detection of the part image is successful (step S25). If not detected, the detection process is tried until the upper limit of the number of repetitions of the detection process is reached (step S27). When the upper limit is reached, an error is displayed on the screen of the image display device 7 and the process ends (step S2).
9).

【0057】一方、プレーヤの頭部像のあるフレームか
らパーツ像(目や口など)が検出された場合、これらの
パーツ像の立体形状情報や位置情報を記憶部59(図
8)に記憶させる(ステップS31)。そして、プレー
ヤの頭部像の他のフレームについても、パーツ像が検出
されると、ステップS31と同様の処理をする。これに
より、目や口などのパーツの過去の履歴情報を得ること
ができる。
On the other hand, when parts images (eyes, mouth, etc.) are detected from a frame with the head image of the player, the three-dimensional shape information and position information of these parts images are stored in the storage unit 59 (FIG. 8). (Step S31). Then, when the parts image is detected for the other frames of the head image of the player, the same processing as step S31 is performed. As a result, past history information of parts such as eyes and mouth can be obtained.

【0058】次に、パーツ像についての立体形状情報や
位置情報が、変形パラメータや移動パラメータを演算す
るのに必要な量が蓄積されたか否か判断される(ステッ
プS33)。蓄積されていない場合はステップS23の
処理に戻る。一方、蓄積されている場合は、図10に示
すように、所定の時間内におけるパーツ像の立体形状情
報の履歴を利用して、各パーツのパーツ像についての変
形パラメータを演算する(ステップS35)。この演算
方法として、例えば、画像処理における差分比較などの
計算処理を利用した目や口などの変形量の計算がある。
Next, it is judged whether or not the three-dimensional shape information and the position information of the parts image are accumulated in an amount necessary for calculating the deformation parameter and the movement parameter (step S33). If not stored, the process returns to step S23. On the other hand, in the case of being accumulated, as shown in FIG. 10, the deformation parameter of the part image of each part is calculated using the history of the three-dimensional shape information of the part image within a predetermined time (step S35). . As this calculation method, for example, there is calculation of the amount of deformation of the eyes and mouth using calculation processing such as difference comparison in image processing.

【0059】次に、ステップS35で演算された変形パ
ラメータのうち、脚色に利用できる有効な変形パラメー
タが演算されたか否か判断される(ステップS37)。
有効な変形パラメータが演算された場合、脚色演算部7
3はこの変形パラメータに対して強調、減衰、変形、逆
転などの脚色の演算をする(ステップS39)。この脚
色の演算は、脚色演算部73において予め用意している
アルゴリズムを上記有効な変形パラメータに対して適用
することにより実現される。
Next, it is judged whether or not an effective deformation parameter that can be used for the color change has been calculated among the deformation parameters calculated in step S35 (step S37).
When the effective deformation parameter is calculated, the color-ratio calculation unit 7
3 calculates the dramatization such as emphasis, attenuation, deformation, and inversion for this deformation parameter (step S39). The calculation of the draWing color is realized by applying an algorithm prepared in advance in the draWing color computing unit 73 to the effective deformation parameters.

【0060】次に、物体画像生成部63において、記憶
部59に格納されている画像情報およびパーツ像の立体
形状情報を取り出して、脚色された変形パラメータを利
用してパーツ像の変形加工をする(ステップS41)。
例えば、目の開き具合を更に大きくしたり、頬の膨らみ
を拡大させたりする加工をする。
Next, in the object image generating unit 63, the image information and the three-dimensional shape information of the part image stored in the storage unit 59 are taken out, and the part image is deformed using the dramatized deformation parameter. (Step S41).
For example, processing is performed such that the degree of opening of the eyes is further increased or the bulge of the cheek is enlarged.

【0061】次に、パーツ像の変形加工後、またはステ
ップS37で有効な変形パラメータが演算されない場
合、所定の時間内におけるパーツ像の位置情報の履歴を
利用して、各パーツのパーツ像についての移動パラメー
タを演算する(ステップS43)。この演算方法とし
て、例えば、画像処理におけるパターン追跡技術があ
る。この技術により、例えば、眉毛の釣り上がりや下顎
の下がり具合の移動パラメータを演算できる。
Next, after the deformation processing of the part image, or when the effective deformation parameter is not calculated in step S37, the history of the position information of the part image within a predetermined time is used to obtain the part image of each part. The movement parameter is calculated (step S43). An example of this calculation method is a pattern tracking technique in image processing. With this technique, for example, movement parameters such as the degree of eyebrow fishing and the lower jaw falling can be calculated.

【0062】次に、ステップS43で求められた移動パ
ラメータの中から脚色に利用できる有効な移動パラメー
タが演算されたか否か判断される(ステップS45)。
有効な移動パラメータが演算された場合は、脚色演算部
73において、予め用意しているアルゴリズムを上記有
効な移動パラメータに対して適用して、この移動パラメ
ータに対して強調、減衰、変形、逆転などの脚色の演算
をする(ステップS47)。
Next, it is judged whether or not an effective movement parameter that can be used for a dramat has been calculated from the movement parameters obtained in step S43 (step S45).
When the effective movement parameter is calculated, the leg color calculation unit 73 applies the prepared algorithm to the effective movement parameter, and emphasizes, attenuates, deforms, reverses, etc. the movement parameter. Is calculated (step S47).

【0063】そして、物体画像生成部63において、記
憶部59に格納されている画像情報およびパーツ像の立
体形状情報を取り出す。そして、脚色された移動パラメ
ータによりパーツ像の移動加工をする(ステップS4
9)。例えば、眉の釣り上がり位置をさらに上げたり、
下顎の位置をさらに下げたりする加工をする。
Then, the object image generating unit 63 takes out the image information and the three-dimensional shape information of the part image stored in the storage unit 59. Then, the moving processing of the part image is performed by the adapted moving parameter (step S4).
9). For example, raising the fishing position of the eyebrows,
Processing to lower the lower jaw position further.

【0064】次のステップS51、S53は図6のステ
ップS17、S19と対応する。但し、第2実施形態の
場合はパーツ像の変形や移動加工がされているので、図
7に示すように、画面上のプレーヤの頭部の画像G3は
脚色された画像となる。詳しくは、「目を見開く」、
「口を開く」、「眉毛が上がる」の項目の脚色内容の具
体例は、「目の大きさを拡大する。目玉を飛び出させ
る。」、「口を極端に大きく開かせる。口端の歪を強調
する。」、「眉毛の位置を極端に上げる。眉毛の変形を
強調する。」である。
The following steps S51 and S53 correspond to steps S17 and S19 of FIG. However, in the case of the second embodiment, since the parts image is deformed and moved, as shown in FIG. 7, the image G3 of the player's head on the screen is a dramatized image. For more information, "Open your eyes",
Specific examples of the dramatization contents for the items "Open Mouth" and "Raise Eyebrows" include "Enlarge the size of the eyes. Make the eyeballs pop out.", "Open the mouth extremely wide. "Emphasize the position of the eyebrows. Emphasize the deformation of the eyebrows."

【0065】以上説明したように第2実施形態によれ
ば、図7に示すように、ゲーム中にプレーヤの頭部画像
がリアルタイムでG3のように脚色されるので、娯楽性
を高めることができる。また、第1実施形態と同様に、
プレーヤの頭部の画像G3はキャラクターの胴体の向き
と同じ向きに画像表示装置7の画面上に表示されるの
で、ゲームのストーリの状況に合った違和感のない表示
ができる。
As described above, according to the second embodiment, as shown in FIG. 7, the head image of the player is dramatized in real time like G3 during the game, so that the entertainment can be enhanced. . Further, similarly to the first embodiment,
Since the image G3 of the player's head is displayed on the screen of the image display device 7 in the same direction as that of the character's torso, it is possible to perform a display that does not feel uncomfortable according to the situation of the game story.

【0066】次に、第3実施形態について説明する。第
3実施形態は、第2実施形態の脚色を利用した画像伝送
システムである。図11はこの画像伝送システム75の
機能ブロック図である。第3実施形態の構成要素のうち
第1および第2実施形態の構成要素と同じものについて
は同一符号を付すことにより説明を省略し、異なる点を
中心に説明する。
Next, a third embodiment will be described. The third embodiment is an image transmission system using the dramatization of the second embodiment. FIG. 11 is a functional block diagram of the image transmission system 75. Of the constituent elements of the third embodiment, the same constituent elements as those of the first and second embodiments are designated by the same reference numerals, and a description thereof will be omitted. Differences will be mainly described.

【0067】画像伝送システム75は、図7に示す頭部
の画像G1、G2、G3のような画像を生成して送信す
る送信側システム77と、送信された画像を受信して表
示する受信側システム79と、を備える。
The image transmission system 75 includes a transmission side system 77 for generating and transmitting images such as head images G1, G2, G3 shown in FIG. 7, and a reception side system for receiving and displaying the transmitted images. And a system 79.

【0068】送信側システム77は、図1に示す物体情
報取得装置3および画像処理装置5の他に、画像処理装
置5で処理された画像情報をインターネット81のよう
な通信回線を経由して受信側システム79に伝送するた
めの送信部83を備える。図12は送信側システム77
の機能ブロックを具体化したシステムを示す図である。
ノート型パソコン89には物体情報取得装置3、画像処
理装置5および送信部83が含まれる。ノート型パソコ
ン89に取り付けられた画像センサー15は物体情報取
得装置3を構成する自然光画像撮像部21および反射光
画像撮像部31と対応する。
The transmission side system 77 receives the image information processed by the image processing apparatus 5 via a communication line such as the Internet 81 in addition to the object information acquisition apparatus 3 and the image processing apparatus 5 shown in FIG. The transmitter 83 is provided for transmitting to the side system 79. FIG. 12 shows the transmitting side system 77.
It is a figure which shows the system which materialized the functional block of.
The notebook computer 89 includes the object information acquisition device 3, the image processing device 5, and the transmission unit 83. The image sensor 15 attached to the notebook computer 89 corresponds to the natural light image capturing unit 21 and the reflected light image capturing unit 31 that form the object information acquisition device 3.

【0069】一方、受信側システム79は、インターネ
ット81のような通信回線を経由して送信部83から伝
送された画像を受信する受信部85と、受信部85で受
信された画像を記憶してその画像を表示するのに必要な
処理をする画像処理装置87と、処理された画像を表示
する画像表示装置7と、を備える。図13は受信側シス
テム79の機能ブロックを具体化したシステムを示す図
である。
On the other hand, the receiving system 79 stores the image received by the receiving unit 85 and the receiving unit 85 that receives the image transmitted from the transmitting unit 83 via the communication line such as the Internet 81. An image processing device 87 that performs processing necessary for displaying the image and an image display device 7 that displays the processed image are provided. FIG. 13 is a diagram showing a system in which the functional blocks of the receiving side system 79 are embodied.

【0070】第3実施形態によれば、通信回線を利用す
ることにより、図7に示す頭部の画像G3のような脚色
された画像を、撮像した場所と異なる遠隔地においても
リアルタイムで表示させることができる。よって、第3
実施形態を例えばテレビ電話に応用すると、会話中にい
てユーザの感情が表情に表れると、それを脚色した画像
が相手方ユーザの画像表示装置7に表示される。これに
より、テレビ電話に娯楽性を持たせることができる。
According to the third embodiment, by using a communication line, a dramatized image such as the image G3 of the head shown in FIG. 7 is displayed in real time even in a remote place different from the place where the image is taken. be able to. Therefore, the third
When the embodiment is applied to, for example, a videophone, when a user's emotion appears in a facial expression during a conversation, an image adapted from the facial expression is displayed on the image display device 7 of the other user. As a result, the videophone can be provided with entertainment.

【0071】[0071]

【発明の効果】本発明に係る画像処理装置によれば、入
力手段に入力した立体形状情報を調整することにより、
調整前の立体形状情報により画面上に表示される物体の
画像と異なる画像を画面上に表示させることができる。
これにより、撮像された物体の画像を単純に画面上に表
示するのではなく、状況に合った違和感のない表示や娯
楽性を有する表示が可能となる。
According to the image processing apparatus of the present invention, by adjusting the stereoscopic shape information input to the input means,
An image different from the image of the object displayed on the screen can be displayed on the screen based on the stereoscopic shape information before adjustment.
As a result, instead of simply displaying the captured image of the object on the screen, it is possible to perform a display that does not cause a sense of incongruity or a display that is entertaining according to the situation.

【0072】本発明に係る画像伝送システムによれば、
離れた場所であっても、状況に合った違和感のない画像
や娯楽性を有する画像のやり取りが可能となる。
According to the image transmission system of the present invention,
Even in a distant place, it is possible to exchange images that are suitable for the situation and that have an amusement effect.

【図面の簡単な説明】[Brief description of drawings]

【図1】 第1実施形態に係るゲームシステムの機能ブ
ロック図である。
FIG. 1 is a functional block diagram of a game system according to a first embodiment.

【図2】 図1に示す機能ブロックを具体化したシステ
ムを示す図である。
FIG. 2 is a diagram showing a system in which the functional blocks shown in FIG. 1 are embodied.

【図3】 第1実施形態に係る物体情報取得装置の機能
ブロック図である。
FIG. 3 is a functional block diagram of the object information acquisition device according to the first embodiment.

【図4】 第1実施形態に係る反射光画像撮像部の機能
ブロック図である。
FIG. 4 is a functional block diagram of a reflected light image capturing unit according to the first embodiment.

【図5】 第1実施形態に係る画像処理装置の機能ブロ
ック図である。
FIG. 5 is a functional block diagram of the image processing apparatus according to the first embodiment.

【図6】 第1実施形態に係るゲームシステムの動作を
説明するためのフローチャートである。
FIG. 6 is a flowchart for explaining the operation of the game system according to the first embodiment.

【図7】 ゲーム中のプレーヤの頭部と画面上のプレー
ヤの頭部の画像との関係を示す図である。
FIG. 7 is a diagram showing a relationship between a player's head during a game and an image of the player's head on the screen.

【図8】 第2実施形態に係る画像処理装置の機能ブロ
ック図である。
FIG. 8 is a functional block diagram of an image processing apparatus according to a second embodiment.

【図9】 第2実施形態に係るゲームシステムの動作の
前半部を説明するためのフローチャートである。
FIG. 9 is a flowchart for explaining the first half of the operation of the game system according to the second embodiment.

【図10】 第2実施形態に係るゲームシステムの動作
の後半部を説明するためのフローチャートである。
FIG. 10 is a flowchart for explaining the latter half of the operation of the game system according to the second embodiment.

【図11】 第3実施形態に係る画像伝送システムの
機能ブロック図である。
FIG. 11 is a functional block diagram of an image transmission system according to a third embodiment.

【図12】 図11に示す送信側システムの機能ブロッ
クを具体化したシステムを示す図である。
FIG. 12 is a diagram showing a system in which the functional blocks of the transmitting side system shown in FIG. 11 are embodied.

【図13】 図11に示す受信側システムの機能ブロッ
クを具体化したシステムを示す図である。
13 is a diagram showing a system in which the functional blocks of the receiving side system shown in FIG. 11 are embodied.

【符号の説明】[Explanation of symbols]

1・・・ゲームシステム 9・・・操作装置 11・・・家庭用ゲーム処理装置 13・・・CRT 15・・・画像センサー 31・・・反射光画像撮像部 45・・・受光光学系 47・・・反射光抽出部 75・・・画像伝送システム 77・・・送信側システム 79・・・受信側システム 81・・・インターネット 89・・・ノート型パソコン 1 ... Game system 9: Operating device 11 ... Home game processing device 13 ... CRT 15 ... Image sensor 31 ... Reflected light image pickup unit 45 ... Receiving optical system 47 ... Reflected light extraction unit 75 ... Image transmission system 77 ... Sending side system 79 ... Receiving system 81 ... Internet 89-notebook personal computer

───────────────────────────────────────────────────── フロントページの続き (72)発明者 原島 高広 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 三原 功雄 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 土井 美和子 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 2C001 BB00 BB08 BC00 BC08 CA09 5B050 AA10 BA06 BA07 BA08 BA09 CA07 DA01 EA19 EA24 EA27 EA28 FA02 FA05 FA06 5C054 AA01 AA05 CA05 CC02 CD03 DA06 EA05 FA00 FC11 FD02 FE02 GC03 HA15    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Takahiro Harashima             1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa             Inside the Toshiba Research and Development Center (72) Inventor Isao Mihara             1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa             Inside the Toshiba Research and Development Center (72) Inventor Miwako Doi             1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa             Inside the Toshiba Research and Development Center F term (reference) 2C001 BB00 BB08 BC00 BC08 CA09                 5B050 AA10 BA06 BA07 BA08 BA09                       CA07 DA01 EA19 EA24 EA27                       EA28 FA02 FA05 FA06                 5C054 AA01 AA05 CA05 CC02 CD03                       DA06 EA05 FA00 FC11 FD02                       FE02 GC03 HA15

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 物体の反射光画像から演算された前記物
体の立体形状情報を入力するための入力手段と、 前記入力手段に入力された前記立体形状情報により画面
上に表示される前記物体の画像と異なる画像にするため
に、前記入力手段に入力された前記立体形状情報を調整
するための調整情報を演算する演算手段と、 前記演算手段により演算された前記調整情報および前記
入力手段に入力された前記立体形状情報を基にして、前
記物体の画像を生成する生成手段と、 を備えたことを特徴とする画像処理装置。
1. An input unit for inputting three-dimensional shape information of the object calculated from a reflected light image of the object, and the three-dimensional shape information of the object displayed on the screen by the three-dimensional shape information input to the input unit. Calculating means for calculating adjustment information for adjusting the three-dimensional shape information inputted to the input means to make the image different from the image; and inputting the adjustment information calculated by the calculating means and the input means An image processing apparatus comprising: a generation unit configured to generate an image of the object based on the generated three-dimensional shape information.
【請求項2】 前記生成手段は、前記調整情報により前
記立体形状情報を調整して前記画面上の前記物体の画像
の方向を変える、請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the generation unit adjusts the three-dimensional shape information based on the adjustment information to change a direction of an image of the object on the screen.
【請求項3】 前記生成手段は、前記調整手段により前
記立体形状情報を調整して前記画面上の前記物体の画像
を脚色する、請求項1または2記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the generation unit adjusts the three-dimensional shape information by the adjustment unit to dramatize the image of the object on the screen.
【請求項4】 前記生成手段は、背景を含む前記物体の
カラーの平面画像と前記立体形状情報とを組み合わせて
前記物体が抽出されたカラーの立体画像の動画を生成す
る、請求項1〜3のいずれか1項記載の画像処理装置。
4. The generation means generates a moving image of a color stereoscopic image in which the object is extracted by combining the color planar image of the object including a background and the stereoscopic shape information. The image processing device according to claim 1.
【請求項5】 物体の反射光画像から演算された前記物
体の立体形状情報により画面上に表示される前記物体の
画像と異なる画像にするために、前記入力手段に入力さ
れた前記立体形状情報を調整するための調整情報を演算
する演算手段、前記演算手段により演算された前記調整
情報および前記立体形状情報を基にして、前記物体の画
像を生成する生成手段、および前記生成手段で生成され
た前記物体の画像を送信する送信手段を含む送信側シス
テムと、 前記送信手段から送信された前記物体の画像を受信する
受信手段、および前記受信手段で受信された前記物体の
画像を表示する表示手段を含む受信側システムと、 を備えたことを特徴とする画像伝送システム。
5. The three-dimensional shape information input to the input means in order to make the image different from the image of the object displayed on the screen by the three-dimensional shape information of the object calculated from the reflected light image of the object. Calculating means for calculating adjustment information for adjusting the object, generating means for generating an image of the object based on the adjustment information and the three-dimensional shape information calculated by the calculating means, and generated by the generating means. A transmitting side system including a transmitting unit that transmits the image of the object, a receiving unit that receives the image of the object transmitted from the transmitting unit, and a display that displays the image of the object received by the receiving unit. An image transmission system comprising: a receiving side system including means.
JP2002092717A 2002-03-28 2002-03-28 Image processing device and image transmission system Abandoned JP2003288611A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002092717A JP2003288611A (en) 2002-03-28 2002-03-28 Image processing device and image transmission system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002092717A JP2003288611A (en) 2002-03-28 2002-03-28 Image processing device and image transmission system

Publications (1)

Publication Number Publication Date
JP2003288611A true JP2003288611A (en) 2003-10-10

Family

ID=29237463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002092717A Abandoned JP2003288611A (en) 2002-03-28 2002-03-28 Image processing device and image transmission system

Country Status (1)

Country Link
JP (1) JP2003288611A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010233671A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc Program, information storage medium and game device
JP2013535726A (en) * 2010-07-23 2013-09-12 アルカテル−ルーセント A method for visualizing users in a virtual environment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010233671A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc Program, information storage medium and game device
JP2013535726A (en) * 2010-07-23 2013-09-12 アルカテル−ルーセント A method for visualizing users in a virtual environment

Similar Documents

Publication Publication Date Title
US11656680B2 (en) Technique for controlling virtual image generation system using emotional states of user
US10293252B2 (en) Image processing device, system and method based on position detection
CN106170083B (en) Image processing for head mounted display device
AU2017220404B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
US20180189549A1 (en) Method for communication via virtual space, program for executing the method on computer, and information processing apparatus for executing the program
KR101190686B1 (en) Image processing apparatus, image processing method, and computer readable recording medium
WO2023119557A1 (en) Avatar display device, avatar generation device, and program
US8818493B2 (en) Three-dimensional imaging of veins
JP5081964B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
US20120127176A1 (en) Systems And Methods For Applying Model Tracking to Motion Capture
US20110304629A1 (en) Real-time animation of facial expressions
JP2004145448A (en) Terminal device, server device, and image processing method
JP2011258160A (en) Program, information storage medium and image generation system
JP2011258159A (en) Program, information storage medium and image generation system
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
CN107656611A (en) Somatic sensation television game implementation method and device, terminal device
JP7273752B2 (en) Expression control program, recording medium, expression control device, expression control method
JP2003288611A (en) Image processing device and image transmission system
JP3554477B2 (en) Image editing device
JP2000331190A (en) Virtual transformation device
WO2022107688A1 (en) Image generating device, image generating method, and program
JP6971932B2 (en) Video operation device, video operation method, and video operation program
JP2010085322A (en) Information processor, information processing method, program, and information storage medium
JP2003284868A (en) Game device and game method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060620

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20060809