JPH09167252A - Animation image generation processing method by action input - Google Patents

Animation image generation processing method by action input

Info

Publication number
JPH09167252A
JPH09167252A JP7330073A JP33007395A JPH09167252A JP H09167252 A JPH09167252 A JP H09167252A JP 7330073 A JP7330073 A JP 7330073A JP 33007395 A JP33007395 A JP 33007395A JP H09167252 A JPH09167252 A JP H09167252A
Authority
JP
Japan
Prior art keywords
moving image
image generation
generation processing
parameter
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7330073A
Other languages
Japanese (ja)
Inventor
Ken Tsutsuguchi
けん 筒口
Toshiki Iso
俊樹 磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP7330073A priority Critical patent/JPH09167252A/en
Publication of JPH09167252A publication Critical patent/JPH09167252A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible to attain input time series parameter for the composite animation image generation processing with no contact and also to make the animation image generation processing with a special effect, etc., possible to match with the human actions. SOLUTION: An action input means X inputs the human action image via camera, etc., extracts the feature value at every unit processing time and turns the time series change of the feature value into a parameter. A transfer processing means Y turns the parameter into the data to send it to an animation image generation processing means Z. Then, the data is converted into a control parameter to be applied to the animation image generation processing and inputted to the means Z. The means Z generated a computer animation or produce and edit the video images by means of the control parameter.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば計算機上に
おいて、コンピュータ・グラフィックスでアニメーショ
ンを作成したり、動画像に特殊効果を加えて映像の制作
や編集作業を行ったりするなどの動画像生成処理を実施
する際に、動画像の時間的あるいは空間的変化のパラメ
ータとしてカメラ等の非接触型の入力手段を用いて入力
された人間などの動作情報における、ある特徴量変化を
用いる動画像生成処理方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to dynamic image generation, for example, for creating animation by computer graphics on a computer and for producing and editing video by adding special effects to moving images. When performing processing, moving image generation using a certain feature amount change in motion information of a human or the like input using a non-contact type input means such as a camera as a parameter of temporal or spatial change of the moving image. It relates to a processing method.

【0002】[0002]

【従来の技術】通常、計算機を用いてコンピュータ・ア
ニメーション作成や映像制作・編集などの動画像生成処
理を対話的に実施する場合、マウスやトラックボール、
タブレット、ダイヤルなどの、動画像生成処理手段を実
装する計算機に接続された接触型の入力デバイスを用い
て、直接的に手動で実施することが多い。
2. Description of the Related Art Normally, when a computer is used to interactively perform a moving image generation process such as computer animation creation or video production / editing, a mouse, trackball,
In many cases, it is directly and manually performed using a contact type input device such as a tablet or a dial, which is connected to a computer that implements the moving image generation processing means.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記し
たように映像制作・編集などの動画像生成処理を対話的
に実施する場合に直接的な接触型デバイスを用いると、
両手がふさがっていたり、利用者が手に障害を持ってい
たりした場合などには不便であった。
However, when a direct contact type device is used when interactively performing moving image generation processing such as video production / editing as described above,
It was inconvenient when both hands were occupied or the user had a hand disorder.

【0004】また、上記接触型デバイスによる入力は基
本的に位置変化による入力であるため、例えば人間の動
作に合わせた微妙なタイミングによる動画像の生成処理
を行うことが困難であった。
Further, since the input by the contact type device is basically an input by a position change, it is difficult to perform a moving image generation process at a delicate timing according to a human motion.

【0005】また、動画像生成処理の対象となる作品を
保持・処理する計算機と、動画像生成処理の指示を行う
人物との間に距離がある場合には、対話的な動画像生成
処理を実施することが困難であった。
If there is a distance between the computer that holds and processes the work that is the target of the moving image generation processing and the person who gives the instruction for the moving image generation processing, interactive moving image generation processing should be performed. It was difficult to implement.

【0006】さらに、複数の入力値が複合された値をパ
ラメータとして動画像生成処理を行うことが困難であっ
た。
Further, it has been difficult to perform moving image generation processing using a value obtained by combining a plurality of input values as a parameter.

【0007】本発明は、以上の問題点を解決するための
ものであって、複合的な動画像生成処理の時系列パラメ
ータを非接触で入力可能とし、人間などの動作に合わせ
た特殊効果などの動画像生成処理を可能にする動画像生
成処理方法を提供することを目的とする。
The present invention is intended to solve the above problems, and enables non-contact input of time-series parameters of complex moving image generation processing, and special effects tailored to human motions. It is an object of the present invention to provide a moving image generation processing method that enables the moving image generation processing.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
め、本発明による第1の発明は、カメラ等の非接触型の
入力手段を用いて人間の動作などの動き情報を入力し、
該入力した動き情報から特徴量の変化を抽出してパラメ
ータ化する動作入力段階と、前記パラメータをデータ化
して動画像生成処理の単位時間ごとに転送し、前記転送
されたデータを前記動画像生成処理に適用される単数も
しくは複数個の制御パラメータに変換する転送処理段階
と、前記制御パラメータを用いてコンピュータ・アニメ
ーションや映像制作・編集などの動画像の生成処理を行
う動画像の生成処理段階と、を有することを特徴とする
動作入力による動画像生成処理方法を手段とする。
In order to achieve the above object, the first invention according to the present invention is to input motion information such as a human motion using a non-contact type input means such as a camera,
An operation input step of extracting a change in a feature amount from the input motion information and parameterizing the parameter, converting the parameter into data and transferring the data for each unit time of a moving image generating process, and generating the transferred data by generating the moving image. A transfer processing step of converting into a single or a plurality of control parameters applied to the processing, and a moving image generation processing step of performing a moving image generation processing such as computer animation or video production / editing using the control parameters. And a moving image generation processing method based on motion input.

【0009】また、本発明による第2の発明は、上記第
1の発明における転送処理段階において、データ化した
パラメータを遠隔にある計算機等を用いた動画像生成処
理側にネットワーク回線を介して転送し、前記動画像生
成処理側で前記転送されたデータを単数もしくは複数個
の制御パラメータに変換して、計算機等で実施する動画
像生成処理段階へ入力することを特徴とする動作入力に
よる動画像生成処理方法を手段とする。
According to a second aspect of the present invention, in the transfer processing stage of the first aspect of the present invention, the dataized parameters are transferred to a moving image generation processing side using a remote computer via a network line. Then, the transferred image is converted by the moving image generation processing side into a single or a plurality of control parameters and input to a moving image generation processing step executed by a computer or the like. The generation processing method is used as a means.

【0010】また、本発明による第3の発明は、上記第
1の発明における動作入力段階において、特徴量の変化
を抽出してパラメータ化する動作入力手段を複数備えて
複数の動き情報のパラメータを得、転送処理段階におい
て、前記動作入力手段ごとに各パラメータをデータ化し
た転送用データを転送し、前記転送された転送用データ
を動画像生成処理に適用される単数もしくは複数個の制
御パラメータに変換することを特徴とする動作入力によ
る動画像生成処理方法を手段とする。
Further, a third invention according to the present invention is provided with a plurality of motion input means for extracting the change of the feature quantity and parameterizing it at the motion input stage in the above-mentioned first invention, wherein a plurality of motion information parameters are set. In the transfer processing stage, transfer data in which each parameter is converted into data is transferred in each of the operation input means, and the transferred transfer data is converted into a single or a plurality of control parameters applied to the moving image generation processing. A moving image generation processing method by motion input characterized by conversion is used as means.

【0011】さらに、本発明による第4の発明は、上記
第3の発明における転送処理段階において、動作入力手
段ごとにデータ化した各パラメータの転送用データを遠
隔にある計算機等を用いた動画像生成処理側にネットワ
ーク回線を介して転送し、前記動画像生成処理側で前記
転送された各転送用データを単数もしくは複数個の制御
パラメータに変換して、計算機等で動画像生成処理段階
へ入力することを特徴とする動作入力による動画像生成
処理方法を手段とする。
Further, in a fourth invention according to the present invention, at the transfer processing stage in the third invention, the transfer data of each parameter converted into data for each operation input means is used as a moving image using a remote computer or the like. The data is transferred to the generation processing side via a network line, and each of the transferred transfer data is converted to one or more control parameters on the moving image generation processing side and input to the moving image generation processing stage by a computer or the like. A moving image generation processing method by motion input is used as means.

【0012】本発明では、非接触型の入力手段によって
人間等の動作をパラメータ化して入力することにより、
非接触で複合的な動画像生成処理の時系列パラメータを
入力可能とし、この複合的な時系列パラメータを用いる
ことにより、入力パラメータ数に依存しない、人間等の
動作に合わせた特殊効果などの動画像生成処理を可能に
する。また、転送処理段階において、ネットワーク回線
等で動き情報のパラメータを動画像生成処理側へ転送す
ることにより、パラメータの入力場所に依存しない動画
像生成処理を実現する。
According to the present invention, the operation of a human being or the like is parameterized and input by the non-contact type input means.
Non-contact time-series parameters for composite moving image generation processing can be input, and by using these time-series parameters, videos such as special effects that are not dependent on the number of input parameters and are suitable for human motions can be created. Enables image generation processing. Further, in the transfer processing stage, the parameter of the motion information is transferred to the moving image generation processing side via a network line or the like, thereby realizing the moving image generation processing independent of the input location of the parameter.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態を図面
により説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0014】〔実施の形態例1〕本発明の第1の実施の
形態例を示す構成と処理の流れを図1に示す。
[Embodiment 1] FIG. 1 shows the configuration and processing flow of a first embodiment of the present invention.

【0015】本実施の形態例は、基本的な構成を示すも
のであり、カメラなどの非接触型の入力手段により人間
の動作画像を入力し、ある単位時間ごとの特徴量を抽出
して、特徴量の時系列変化をパラメータ化する動作入力
手段Xをひとつのモジュールと化し、あるパラメータの
時系列変化を入力することにより計算機内でコンピュー
タ・アニメーションの生成処理やビデオ映像の制作・編
集処理を実現する動画像生成処理手段Zをひとつのモジ
ュールと化し、動作入力手段Xから動画像生成処理手段
Zへパラメータの時系列変化を送付するデータ転送処理
手段Yをひとつのモジュールと化し、これら3つのモジ
ュール、すなわち動作入力手段X、動画像生成処理手段
Y、データ転送処理手段Zを組み合わせることで場所や
入力パラメータ数に依存しない動作入力による動画像生
成処理方法を実現する。
The present embodiment shows a basic configuration, in which a motion image of a person is input by a non-contact type input means such as a camera, and a feature amount for every unit time is extracted, The operation input means X for parameterizing the time series change of the feature quantity is made into one module, and by inputting the time series change of a certain parameter, the computer animation generation process and the video image production / edit process can be performed in the computer. The moving image generation processing means Z to be realized is made into one module, and the data transfer processing means Y for sending the time series change of the parameter from the operation input means X to the moving image generation processing means Z is made into one module, and these three are By combining the modules, that is, the motion input means X, the moving image generation processing means Y, and the data transfer processing means Z, the location and the number of input parameters Realizing moving image generation processing method according-independent operating input.

【0016】動作入力手段Xは、カメラなどの非接触動
作入力装置によりある単位処理時間tiごとに人間の動
作画像を入力し、適切に画像処理した後、動作の特徴量
を抽出して数値化し、前回との差分をとることにより、
その単位処理時間tiごとの特徴量の時系列変化として
パラメータ化し、得られたパラメータPm(ti)を出
力する。
The motion input means X inputs a motion image of a human at a unit processing time ti by a non-contact motion input device such as a camera, appropriately processes the image, and then extracts a feature quantity of the motion and digitizes it. , By taking the difference from the previous time,
It is parameterized as a time series change of the feature amount for each unit processing time ti, and the obtained parameter P m (ti) is output.

【0017】動画像生成処理手段Zは、あるパラメータ
の時系列変化を計算機内でのコンピュータ・アニメーシ
ョンの生成処理やビデオ映像の制作・編集処理における
単位処理時間ごとに制御パラメータとして入力し、その
単位処理時間ごとに動画像の生成処理を行い、その表示
を行う。制御パラメータは、単数の場合も、複数の場合
もある。
The moving image generation processing means Z inputs a time-series change of a certain parameter as a control parameter for each unit processing time in the computer animation generation processing and the video image production / editing processing in the computer, and the unit thereof. A moving image is generated and displayed for each processing time. The control parameter may be singular or plural.

【0018】データ転送処理手段Yは、動作入力手段X
を実現する計算機において、動作入力手段Xにより生成
されたパラメータをデータ化し、処理単位時間ごとに動
画像生成処理手段Zへ転送する。また、動画像生成処理
手段Zを実現する計算機において上記データを受信し、
複数のデータの場合は適切な重み付けなどを施して一つ
あるいは複数の出力値として動画像生成処理に適用され
る制御パラメータQn=f(P1,P2,…,PM)に変換
し、処理単位時間ごとに動画像生成処理手段Zへ渡して
動画像生成処理を実施可能にする。動作入力手段Xを実
現する計算機と動画像生成処理手段Zを実現する計算機
が異なる場合は、前者にパラメータをデータ化して送信
する部分が、後者にデータを受信してパラメータ変換を
する部分が実装される。
The data transfer processing means Y is an operation input means X.
In a computer that realizes the above, the parameters generated by the operation input means X are converted into data and transferred to the moving image generation processing means Z for each processing unit time. Further, a computer that implements the moving image generation processing means Z receives the above data,
In the case of a plurality of data, appropriate weighting or the like is performed and converted into a control parameter Q n = f (P 1 , P 2 , ..., P M ) applied to the moving image generation processing as one or a plurality of output values. , Is passed to the moving image generation processing means Z for each processing unit time so that the moving image generation processing can be performed. When the computer that implements the motion input means X and the computer that implements the moving image generation processing means Z are different, the former is the part that converts the parameters into data and transmits the latter, and the latter is the part that receives the data and converts the parameters. To be done.

【0019】動作入力手段Xと動画像生成処理手段Zは
同じ計算機上で実現されてもよいし、また、ネットワー
ク回線で接続された異なる計算機上でそれぞれ実現され
てもよい。
The motion input means X and the moving image generation processing means Z may be realized on the same computer, or may be realized on different computers connected by a network line.

【0020】〔実施の形態例2〕図2は、本発明の第2
の実施の形態例の構成と処理の流れを説明する図であ
る。
[Embodiment 2] FIG. 2 shows a second embodiment of the present invention.
6 is a diagram for explaining the configuration and the flow of processing of the embodiment example of FIG.

【0021】本実施の形態例は、第1の実施の形態例で
示した3段階からなる動作入力手段における処理、デー
タ転送手段における処理、動画像生成処理手段における
処理を、第1の計算機1と第2の計算機2で実現する。
なお、計算機1と計算機2は、同一でもよい。
In the present embodiment, the processing in the operation input means consisting of three stages shown in the first embodiment, the processing in the data transfer means, and the processing in the moving image generation processing means are performed by the first computer 1. And the second computer 2.
The computer 1 and the computer 2 may be the same.

【0022】図2中で、tは時刻を表し、Δtは単位処
理時間を表す。初期時刻設定により処理開始時刻をt0
とする。また、パラメータP(t)は、時刻tにおける
動作特徴量の変化量、すなわち時刻tにおける動作特徴
量からt−Δtにおける動作特徴量を引いた差分量であ
る。
In FIG. 2, t represents time and Δt represents unit processing time. The processing start time is set to t 0 by the initial time setting.
And The parameter P (t) is the amount of change in the motion feature quantity at time t, that is, the difference amount obtained by subtracting the motion feature quantity at t−Δt from the motion feature quantity at time t.

【0023】動作入力手段における処理は、計算機1で
行う。まず、例えば計算機1に接続されたカメラから画
像を入力して、動作入力を行う。時刻tに取り込んだ画
像フレームに対し、例えば画素の二値化を実施したり背
景を除去して輝度情報を数値化したりするなどの画像処
理を施し、特徴量を抽出する。画像処理の方法、及び抽
出される特徴量は各時刻における動作が抽出されるもの
であれば何でもよい。この特徴量と、時刻t−Δtでの
特徴量との差分を取ることにより時刻tにおけるパラメ
ータP(t)を求める。
The processing in the operation input means is performed by the computer 1. First, for example, an image is input from a camera connected to the computer 1 to input a motion. The image frame captured at time t is subjected to image processing such as binarization of pixels or digitization of luminance information by removing the background, and the feature amount is extracted. Any image processing method and extracted feature amount may be used as long as the action at each time is extracted. The parameter P (t) at time t is obtained by taking the difference between this feature amount and the feature amount at time t-Δt.

【0024】データ転送処理手段における処理は、例え
ば、動作入力手段と動画像生成処理手段がネットワーク
回線を介した異なる計算機上に実装されている場合は、
動作入力手段が実装されている計算機1においてパラメ
ータP(t)を動画像生成処理手段が実装された計算機
2へネットワーク転送を行い、計算機2において受信し
たパラメータP(t)を動画像生成処理手段へ入力され
る制御パラメータQ(t)へ変換する。変換式はどのよ
うな形式でもよい。図ではQ(t)=f(P(t))と
しているが、Q(t)=aP(t)のような単純な線形
の式でもよいし、複雑な非線形式でもよい。ネットワー
ク転送では、動作入力手段から出力されるパラメータを
データ化して転送するので転送時間は短く、対話的な動
画像生成処理が実施できる。
The processing in the data transfer processing means, for example, when the operation input means and the moving image generation processing means are mounted on different computers via a network line,
In the computer 1 in which the operation input means is installed, the parameter P (t) is transferred to the computer 2 in which the moving image generation processing means is installed, and the parameter P (t) received in the computer 2 is transferred in the moving image generation processing means. The control parameter Q (t) is input to. The conversion formula may have any format. Although Q (t) = f (P (t)) is shown in the figure, it may be a simple linear expression such as Q (t) = aP (t) or a complicated non-linear expression. In the network transfer, since the parameters output from the operation input means are converted into data and transferred, the transfer time is short and interactive moving image generation processing can be performed.

【0025】また、例えば、動作入力手段と動画像生成
処理手段が同じ計算機上に実装されている場合は、各単
位処理時間ごとに動作入力手段側からの出力値をそのま
ま動画像生成処理手段側への入力値として代入する。
Further, for example, when the motion input means and the moving image generation processing means are mounted on the same computer, the output value from the motion input means side is directly used for each unit processing time. Substitute as an input value to.

【0026】動画像生成処理手段における処理は、計算
機2で行う。ここでは、データ転送処理手段からのパラ
メータQ(t)を代入し、必要な動画像生成処理と、動
画像表示を行う。
The processing in the moving image generation processing means is performed by the computer 2. Here, the parameter Q (t) from the data transfer processing means is substituted, and necessary moving image generation processing and moving image display are performed.

【0027】例えば、カメラに手の動きを入力すること
により、ある動画像Aから他の動画像Bへシーンが変化
するような場合、時刻tにおける手の移動距離をP
(t)、動画像Aの輝度をQ(t)、動画像Bの輝度を
1−Q(t)として、Q(t)=P(t)/Pmax(P
maxは既知の値)などとして動画像Aと動画像Bとを重
ね合わせることによって実現できる。
For example, when a scene is changed from one moving image A to another moving image B by inputting the movement of the hand into the camera, the moving distance of the hand at time t is set to P.
(T), the brightness of the moving image A is Q (t), and the brightness of the moving image B is 1-Q (t), and Q (t) = P (t) / P max (P
It can be realized by superimposing the moving image A and the moving image B such that max is a known value).

【0028】〔実施の形態例3〕図3は、本発明の第3
の実施の形態例の構成と処理の流れを説明する図であ
る。
[Embodiment 3] FIG. 3 shows a third embodiment of the present invention.
6 is a diagram for explaining the configuration and the flow of processing of the embodiment example of FIG.

【0029】本実施の形態例は、第1の実施の形態例と
同様に動作入力手段における処理、データ転送手段に置
ける処理、動画像生成処理手段における処理の3段階か
らなるが、動作入力手段を実装する計算機がM個(計算
機11,12,…,1M)存在し、また、動画像生成処
理手段における動画像生成処理の制御パラメータがN個
存在するものとする(N=1でもよい)。
Like the first embodiment, this embodiment has three stages of processing in the operation input means, processing in the data transfer means, and processing in the moving image generation processing means. It is assumed that there are M computers (computers 11, 12, ..., 1M) that implement (1), and that there are N control parameters for the moving image generation processing in the moving image generation processing means (N = 1 is also acceptable). .

【0030】図3中で、計算機1m(m=1,2,…,
M)から出力される時刻tのパラメータをPm(t)と
し、時刻tにおける、n番めの動画像生成パラメータを
n(t)(n=1,2,…,N)とする。初期時刻設
定により処理開始時刻をt0とする。また、P(t)は
時刻tにおける、動作特徴量の変化量すなわち時刻tに
おける動作特徴量からt−Δtにおける動作特徴量を引
いた差分量である。
In FIG. 3, a computer 1 m (m = 1, 2, ...,
The parameter at time t output from M) is P m (t), and the n-th moving image generation parameter at time t is Q n (t) (n = 1, 2, ..., N). The processing start time is set to t 0 by the initial time setting. P (t) is the amount of change in the motion feature quantity at time t, that is, the difference amount obtained by subtracting the motion feature quantity at t-Δt from the motion feature quantity at time t.

【0031】各計算機1mにおける動作入力手段は、第
2の実施の形態例における計算機1と同様に、カメラ等
の非接触型の入力手段により動作入力を行う。
The operation input means in each computer 1m inputs the operation by a non-contact type input means such as a camera, as in the computer 1 in the second embodiment.

【0032】データ転送処理手段における処理中で、各
計算機1mにおけるデータ送出の手続きは、第2の実施
の形態例と同様である。その後の、動画像生成処理手段
が実装された計算機2におけるデータ転送処理手段の処
理では、受信した各パラメータPm(t)(m=1,
2,…,M)を、以下のように動画像生成処理に必要な
制御パラメータへ変換して、計算機2内の動画像生成処
理手段に渡す。
During the processing in the data transfer processing means, the procedure of data transmission in each computer 1m is the same as that of the second embodiment. In the subsequent processing of the data transfer processing means in the computer 2 in which the moving image generation processing means is mounted, each received parameter P m (t) (m = 1,
2, ..., M) are converted into control parameters necessary for the moving image generation processing as described below, and are passed to the moving image generation processing means in the computer 2.

【0033】即ち、ここでは、Qn(t)=f(P
1(t),P2(t),…,PM(t))のような変換を
行う。例えば線形変換の場合は、係数をcnmとして
That is, here, Q n (t) = f (P
Conversion such as 1 (t), P 2 (t), ..., P M (t)) is performed. For example, in the case of linear conversion, set the coefficient to c nm

【0034】[0034]

【数1】 [Equation 1]

【0035】となる。## EQU1 ##

【0036】計算機2内の動画像生成処理手段は、デー
タ転送処理手段によって入力されたパラメータQ
(ti)を用いて必要な動画像生成処理を行う。
The moving image generation processing means in the computer 2 uses the parameter Q input by the data transfer processing means.
Necessary moving image generation processing is performed using (t i ).

【0037】例えば、2台のカメラが計算機に接続され
ているとして、第1のカメラの前を人物が横切ることで
コンピュータ・グラフィックス画像での光源位置Q1
変化し、第2のカメラの前で人物が手を動かすことでコ
ンピュータ・グラフィックス画像内でオブジェクトが距
離Q2だけ移動するような場合、ある時刻tにおける第
1のカメラでの人物像の移動距離をP1、第2のカメラ
での手の移動距離をP2として、 Q1(ti)=c11(ti)、Q2(ti)=c22(ti) (2) (ここでc1、c2は係数)などと表すことができる。
For example, assuming that two cameras are connected to the computer, the light source position Q 1 in the computer graphics image changes when a person crosses in front of the first camera, and the second camera When the object moves in the computer graphics image by the distance Q 2 in front of the person moving the hand, the moving distance of the person image by the first camera at a certain time t is P 1 , the moving distance of the hand of the camera as P 2, Q 1 (t i ) = c 1 P 1 (t i), Q 2 (t i) = c 2 P 2 (t i) (2) ( where c 1 and c 2 can be expressed as a coefficient).

【0038】なお、以上の各実施例では、動き情報とし
て人間の動作を入力する例を示したが、人間以外のもの
の動作を入力して動画像生成処理を行ってもよい。ま
た、非接触型の入力手段は、カメラに限らず、例えば、
レーザ、電波、音波、超音波等を用いた空間位置検出手
段など、他の手段を用いることができる。
In each of the above embodiments, an example in which a human motion is input as motion information has been shown, but a motion other than a human motion may be input to perform the moving image generation processing. In addition, the non-contact type input means is not limited to the camera, for example,
Other means such as a spatial position detecting means using a laser, radio waves, sound waves, ultrasonic waves or the like can be used.

【0039】[0039]

【発明の効果】以上説明したように、本発明によれば、
(1)非接触型の入力手段を用いて動作入力するように
したので、利便性が高く入力パラメータ数に依存しない
動画像生成処理を実現することができる。
As described above, according to the present invention,
(1) Since the operation input is performed using the non-contact type input means, it is possible to realize a highly convenient moving image generation process that does not depend on the number of input parameters.

【0040】(2)人間等の動作に合わせた微妙なタイ
ミングによる動画像生成処理を行うことができる。
(2) It is possible to perform moving image generation processing at a delicate timing according to the motion of a person or the like.

【0041】また、本発明による第2、第4の発明によ
れば、特に、(3)動作の主体である人物等と、動画像
生成処理を実現する計算機との物理的な距離に依存しな
い動画像生成処理を実現することができる。
According to the second and fourth aspects of the present invention, in particular, (3) it does not depend on the physical distance between the person or the like who is the subject of the motion and the computer that implements the moving image generation processing. A moving image generation process can be realized.

【0042】さらに、本発明による第3、第4の発明に
よれば、特に、(4)複数の動作入力値が複合された値
をパラメータとして複雑な動画像生成処理を行うことが
できる。
Furthermore, according to the third and fourth aspects of the present invention, in particular, (4) a complex moving image generation process can be performed using a value obtained by combining a plurality of motion input values as a parameter.

【0043】といった効果がある。There is an effect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態例の構成及び処理の
流れを説明する図である。
FIG. 1 is a diagram illustrating a configuration and a flow of processing according to a first embodiment of the present invention.

【図2】本発明の第2の実施の形態例の構成及び処理の
流れを説明する図である。
FIG. 2 is a diagram illustrating a configuration and a flow of processing according to a second embodiment of the present invention.

【図3】本発明の第3の実施の形態例の構成及び処理の
流れを説明する図である。
FIG. 3 is a diagram illustrating a configuration and a flow of processing according to a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

X…動作入力手段 Y…データ転送処理手段 Z…動画像生成処理手段 1,11,12,〜,1M…動作入力手段を実装する計
算機 2…動画像生成処理手段を実装する計算機
X ... Motion input means Y ... Data transfer processing means Z ... Moving image generation processing means 1, 11, 12, ..., 1M ... Computer that mounts motion input means 2 ... Computer that mounts moving image generation processing means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 G06F 15/62 380 15/70 400 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical indication H04N 7/18 G06F 15/62 380 15/70 400

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 非接触型の入力手段を用いて動き情報を
入力し、該入力した動き情報から特徴量の変化を抽出し
てパラメータ化する動作入力段階と、 前記パラメータをデータ化して動画像生成処理の単位時
間ごとに転送し、前記転送されたデータを前記動画像生
成処理に適用される単数もしくは複数個の制御パラメー
タに変換する転送処理段階と、 前記制御パラメータを用いて動画像の生成処理を行う動
画像の生成処理段階と、 を有することを特徴とする動作入力による動画像生成処
理方法。
1. A motion input step of inputting motion information using a non-contact type input means, extracting a change of a feature amount from the input motion information and parameterizing the motion information, and converting the parameter into data to generate a moving image. A transfer processing step of transferring at every unit time of the generation processing and converting the transferred data into a single or a plurality of control parameters applied to the moving image generation processing; and generating a moving image using the control parameters. A moving image generation processing method according to motion input, comprising: a moving image generation processing step for performing processing.
【請求項2】 転送処理段階では、データ化したパラメ
ータを遠隔にある動画像生成処理側にネットワーク回線
を介して転送し、前記動画像生成処理側で前記転送され
たデータを単数もしくは複数個の制御パラメータに変換
して、動画像生成処理段階へ入力することを特徴とする
請求項1に記載の動作入力による動画像生成処理方法。
2. In the transfer processing stage, the dataized parameter is transferred to a remote moving image generation processing side via a network line, and the transferred data is transferred to the moving image generation processing side by a single or plural number. The moving image generation processing method by motion input according to claim 1, wherein the moving image generation processing method converts the control parameter and inputs the control parameter to the moving image generation processing step.
【請求項3】 動作入力段階では、特徴量の変化を抽出
してパラメータ化する動作入力手段を複数備えて複数の
動き情報のパラメータを得、 転送処理段階では、前記動作入力手段ごとに各パラメー
タをデータ化して転送し、前記転送された各パラメータ
のデータを動画像生成処理に適用される単数もしくは複
数個の制御パラメータに変換することを特徴とする請求
項1に記載の動作入力による動画像生成処理方法。
3. The motion inputting step comprises a plurality of motion inputting means for extracting the change of the feature quantity and parameterizing the change, and obtains a plurality of motion information parameters. In the transfer processing step, each parameter for each motion inputting means 2. The moving image according to the motion input according to claim 1, wherein the moving image is converted into data and transferred, and the transferred data of each parameter is converted into a single or a plurality of control parameters applied to the moving image generation process. Generation processing method.
【請求項4】 転送処理段階では、動作入力手段ごとに
データ化した各パラメータを遠隔にある動画像生成処理
側にネットワーク回線を介して転送し、前記動画像生成
処理側で前記転送された各データを単数もしくは複数個
の制御パラメータに変換して、動画像生成処理段階へ入
力することを特徴とする請求項3に記載の動作入力によ
る動画像生成処理方法。
4. In the transfer processing stage, each parameter converted into data for each operation input means is transferred to a remote moving image generation processing side via a network line, and each transferred to the moving image generation processing side. 4. The moving image generation processing method by motion input according to claim 3, wherein the data is converted into a single or a plurality of control parameters and input to the moving image generation processing step.
JP7330073A 1995-12-19 1995-12-19 Animation image generation processing method by action input Pending JPH09167252A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7330073A JPH09167252A (en) 1995-12-19 1995-12-19 Animation image generation processing method by action input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7330073A JPH09167252A (en) 1995-12-19 1995-12-19 Animation image generation processing method by action input

Publications (1)

Publication Number Publication Date
JPH09167252A true JPH09167252A (en) 1997-06-24

Family

ID=18228487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7330073A Pending JPH09167252A (en) 1995-12-19 1995-12-19 Animation image generation processing method by action input

Country Status (1)

Country Link
JP (1) JPH09167252A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7031018B1 (en) 1998-07-10 2006-04-18 Fujitsu Limited Dynamic image composition apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7031018B1 (en) 1998-07-10 2006-04-18 Fujitsu Limited Dynamic image composition apparatus and method
US7542165B2 (en) 1998-07-10 2009-06-02 Fujitsu Limited Dynamic image composition apparatus and method

Similar Documents

Publication Publication Date Title
Pearson Developments in model-based video coding
CN110599603A (en) Mechanical equipment visual interaction and equipment state monitoring system and method based on augmented reality
JP2004015106A5 (en)
EP2343685B1 (en) Information processing device, information processing method, program, and information storage medium
CN104656893A (en) Remote interaction control system and method for physical information space
CN112348937A (en) Face image processing method and electronic equipment
JP2002232783A (en) Image processor, method therefor and record medium for program
Pinhanez et al. Intelligent studios: Using computer vision to control TV cameras
CN112887601B (en) Shooting method and device and electronic equipment
CN212519183U (en) Virtual shooting system for camera robot
JP2008017386A (en) Key image generation device
CN112565603B (en) Image processing method and device and electronic equipment
JP2011035638A (en) Virtual reality space video production system
JP2000194876A (en) Virtual space sharing device
JPH09167252A (en) Animation image generation processing method by action input
Leung et al. Realistic video avatar
Eisert et al. Speech driven synthesis of talking head sequences
JPH10149447A (en) Gesture recognition method/device
JP2000149041A (en) Dynamic image processing device and method and storage medium thereof
JPH0888850A (en) Expression reproducing device
JPH05233781A (en) Stereo model preparation system utilizing moving image
JP2002232782A (en) Image processor, method therefor and record medium for program
WO2022224732A1 (en) Information processing device and information processing method
JP3403143B2 (en) Image processing method, apparatus and storage medium
WO2022061858A1 (en) Method for assisting a first user provided with a terminal at a scene