JP5919926B2 - Image generation method, image generation apparatus, and program - Google Patents

Image generation method, image generation apparatus, and program Download PDF

Info

Publication number
JP5919926B2
JP5919926B2 JP2012063119A JP2012063119A JP5919926B2 JP 5919926 B2 JP5919926 B2 JP 5919926B2 JP 2012063119 A JP2012063119 A JP 2012063119A JP 2012063119 A JP2012063119 A JP 2012063119A JP 5919926 B2 JP5919926 B2 JP 5919926B2
Authority
JP
Japan
Prior art keywords
image
superimposed
character
back side
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012063119A
Other languages
Japanese (ja)
Other versions
JP2013196409A (en
Inventor
純平 石橋
純平 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012063119A priority Critical patent/JP5919926B2/en
Publication of JP2013196409A publication Critical patent/JP2013196409A/en
Application granted granted Critical
Publication of JP5919926B2 publication Critical patent/JP5919926B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像生成方法、画像生成装置及びプログラムに関する。   The present invention relates to an image generation method, an image generation apparatus, and a program.

二次元の原画像を予め記録されている動作データに適合するように変形させて動画像を生成する技術が知られている(例えば、特許文献1参照)。   There is known a technique for generating a moving image by deforming a two-dimensional original image so as to conform to motion data recorded in advance (see, for example, Patent Document 1).

特許文献1には、画像入力装置から入力された二次元原画像中のキャラクターをキャラクター指示に従って抽出し、抽出されたキャラクターに対して対応付け指示に従ってキャラクターの基本構造データに対応付ける。さらに、対応付けられたキャラクターに動作データに従って変形を加えて動画像を生成して表示することが記載されている。   In Patent Document 1, a character in a two-dimensional original image input from an image input device is extracted in accordance with a character instruction, and the extracted character is associated with character basic structure data in accordance with an association instruction. Furthermore, it describes that the associated character is deformed according to motion data to generate and display a moving image.

特開平10−040407号公報JP-A-10-040407

しかしながら、従来の画像生成方法等では、複数のキャラクターを配置し、当該複数のキャラクターを変形させて動画像を生成することは可能であるものの、キャラクター間の前後関係を容易に入れ替えることができないと言った問題点があった。   However, in the conventional image generation method and the like, it is possible to arrange a plurality of characters and generate a moving image by deforming the plurality of characters, but it is not possible to easily change the context between characters. There was a problem I said.

例えば、2つのキャラクターが互いに前後して配置された動画像が生成されており、キャラクター間の前後関係を入れ替えるために、前面のキャラクターを後方に移動させようとした場合を考える。
この時、前面のキャラクターの奥行き情報は前面の情報であり、このキャラクターを後方に滑らかに移動させる場合には、当該奥行き情報を移動位置、移動距離等に基づき逐次再計算すると共に奥行き情報を逐次書き換える処理が必要となり、処理手段等の処理負荷が増大してしまい容易にキャラクター間の前後関係を入れ替えることができないと言った問題点があった。
For example, consider a case where a moving image in which two characters are arranged in front of and behind each other is generated, and the front character is moved backward in order to change the front-rear relationship between the characters.
At this time, the depth information of the front character is front information, and when this character is smoothly moved backward, the depth information is sequentially recalculated based on the moving position, moving distance, etc. There is a problem that the rewriting process is required, and the processing load of the processing means increases, so that the context between characters cannot be easily changed.

本発明の課題は、配置された複数のキャラクターを変形させて動画を生成する際に、容易にキャラクターの前後関係を入れ替えることが可能な画像生成方法、画像生成装置及びプログラムを提供することにある。   An object of the present invention is to provide an image generation method, an image generation apparatus, and a program that can easily change the context of characters when generating a moving image by deforming a plurality of arranged characters. .

前記課題を達成するために、本発明の一態様は、前後位置をずらして配置される第1及び第2画像を取得する取得ステップと、前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成ステップと、前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成ステップとを含み、前記第1生成ステップは、前記重畳画像として、前面側及び背面側のうち、前記一面側と異なる他面側を透過させた画像を生成し、前記第2生成ステップは、前記第2フレーム画像として、前記他面側を手前側として前記重畳画像を前記奥側画像と重畳させたフレーム画像を含む動画像を生成することを特徴とする画像生成方法を提供するものである。 In order to achieve the above object, according to one aspect of the present invention, an acquisition step of acquiring the first and second images arranged by shifting the front-rear position and a position on the back side of the first and second images are provided. A first generation step of generating a superimposed image that is superimposed on the back side image and one of the front side and the back side is substantially equal to one side of the back side image; and the first and second images A first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, and the first and second images. among them, the front side of the front side image, seen including a second generation step of generating a moving image and a second frame image is superimposed on the far side image the superimposed image as an invisible state, wherein the 1 generation step includes the front surface as the superimposed image. And the other side of the back side that is different from the one side is generated, and the second generation step uses the superimposed image as the second frame image with the other side as the near side. The present invention provides an image generation method characterized by generating a moving image including a frame image superimposed on a back side image .

本発明によれば、前後位置をずらして配置される第1及び第2画像を取得する取得ステップと、第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が奥側画像の一面と略等しい重畳画像を生成する第1生成ステップと、第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、一面側を手前側として重畳画像を奥側画像に重畳させた第1フレーム画像と、第1及び第2画像のうち、手前側画像よりも手前側に、重畳画像を不可視状態として奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成ステップとを含むことにより、容易にキャラクターの前後関係を入れ替えることが可能になる。   According to the present invention, the acquisition step of acquiring the first and second images arranged with the front and rear positions shifted, and the first and second images are superimposed on the back side image located on the back side, From the first generation step of generating a superimposed image in which either one of the front side and the back side is substantially equal to one side of the back image, and the near side image located on the near side among the first and second images The first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side, and the superimposed image on the near side of the near side image among the first and second images. The second generation step of generating a moving image including the second frame image superimposed on the back side image as described above makes it possible to easily change the front-rear relationship of the characters.

本発明を適用した一実施形態の動画生成システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the moving image production | generation system of one Embodiment to which this invention is applied. 図1の動画生成システムを構成するユーザ端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the user terminal which comprises the moving image production | generation system of FIG. 図1の動画生成システムを構成するサーバの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the server which comprises the moving image production | generation system of FIG. 図1の動画生成システムによる前後入替設定処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the back-and-front replacement setting process by the moving image generation system of FIG. 図1の動画生成システムによる前後入替制御処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the front-back replacement control process by the moving image production | generation system of FIG. 複数のキャラクターの動作を説明する平面図である。It is a top view explaining operation | movement of a some character. 複数のキャラクターの動作を説明する正面図である。It is a front view explaining operation | movement of a some character. 複数のキャラクターの動作を説明する平面図である。It is a top view explaining operation | movement of a some character. 複数のキャラクターの動作を説明する正面図である。It is a front view explaining operation | movement of a some character. 複数のキャラクターの動作を説明する平面図である。It is a top view explaining operation | movement of a some character. 複数のキャラクターの動作を説明する正面図である。It is a front view explaining operation | movement of a some character.

以下、図面を参照しつつ、本発明の実施形態である画像生成方法、画像生成装置及びプログラムを詳細に説明する。但し、発明の範囲は、図示例に限定されない。   Hereinafter, an image generation method, an image generation apparatus, and a program according to an embodiment of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

(第1実施形態)
本発明の第1実施形態の動画生成システムについて、図1、図2及び図3に基づいて説明する。
(First embodiment)
A moving image generating system according to a first embodiment of the present invention will be described with reference to FIGS.

本実施形態の動画生成システム100は、図1に示すように、撮像装置1と、ユーザ端末2と、サーバ3とを備え、ユーザ端末2とサーバ3とが所定の通信ネットワークNを介して各種情報を送受信可能に接続されている。   As shown in FIG. 1, the moving image generation system 100 of the present embodiment includes an imaging device 1, a user terminal 2, and a server 3, and the user terminal 2 and the server 3 are variously connected via a predetermined communication network N. It is connected so that information can be sent and received.

先ず、撮像装置1について説明する。
撮像装置1は、被写体を撮像する撮像機能や撮像画像の画像データを記録媒体Cに記録する記録機能等を具備する。即ち、撮像装置1は、公知のものを適用可能であり、例えば、主要な機能を撮像機能とするデジタルカメラだけでなく、主要な機能としないものの撮像機能を具備する携帯電話機等の携帯端末なども含む。
First, the imaging device 1 will be described.
The imaging device 1 includes an imaging function for imaging a subject, a recording function for recording image data of a captured image on the recording medium C, and the like. That is, as the imaging device 1, a known device can be applied. For example, not only a digital camera having a main function as an imaging function but also a portable terminal such as a mobile phone having an imaging function that is not a main function. Including.

次に、ユーザ端末2について図2を参照して説明する。
ユーザ端末2は、例えば、パーソナルコンピュータ等により構成され、サーバ3により開設されるWebページ(例えば、動画生成用ページ)にアクセスして、当該Webページ上で各種の指示を入力する。
Next, the user terminal 2 will be described with reference to FIG.
The user terminal 2 is configured by, for example, a personal computer, and accesses a Web page (for example, a moving image generation page) opened by the server 3 and inputs various instructions on the Web page.

図2は、ユーザ端末2の概略構成を示すブロック図である。
図2に示すように、ユーザ端末2は、具体的には、中央制御部201と、操作入力部202と、表示部203と、音出力部204と、記録媒体制御部205と、通信制御部206等を備えている。
FIG. 2 is a block diagram illustrating a schematic configuration of the user terminal 2.
As shown in FIG. 2, specifically, the user terminal 2 includes a central control unit 201, an operation input unit 202, a display unit 203, a sound output unit 204, a recording medium control unit 205, and a communication control unit. 206 and the like.

中央制御部201は、ユーザ端末2の各部を制御する。具体的には、中央制御部201は、CPU、RAM、ROM(何れも図示略)を備え、ROMに記憶されたユーザ端末2用の各種処理プログラム(図示略)に従って各種の制御動作を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部203に表示させる。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、ユーザ端末2で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
The central control unit 201 controls each unit of the user terminal 2. Specifically, the central control unit 201 includes a CPU, a RAM, and a ROM (all not shown), and performs various control operations according to various processing programs (not shown) for the user terminal 2 stored in the ROM. At that time, the CPU stores various processing results in a storage area in the RAM, and displays the processing results on the display unit 203 as necessary.
The RAM includes, for example, a program storage area for expanding a processing program executed by the CPU, a data storage area for storing input data, a processing result generated when the processing program is executed, and the like.
The ROM stores programs stored in the form of computer-readable program codes, specifically, system programs that can be executed by the user terminal 2, various processing programs that can be executed by the system programs, and execution of these various processing programs. The data used for the storage is stored.

操作入力部202は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等を備え、ユーザにより押下されたキーの押下信号やマウスの操作信号を中央制御部201のCPUに出力する。
なお、操作入力部202としてタッチパネル(図示略)を表示部203の表示画面に配設して、タッチパネルの接触位置に応じて各種の指示を入力するような構成としても良い。
The operation input unit 202 is, for example, a keyboard or mouse configured with data input keys for inputting numerical values, characters, and the like, up / down / left / right movement keys for performing data selection, feeding operations, and the like, and various function keys And a key press signal and a mouse operation signal pressed by the user are output to the CPU of the central control unit 201.
Note that a touch panel (not shown) may be disposed on the display screen of the display unit 203 as the operation input unit 202 and various instructions may be input according to the touch position of the touch panel.

表示部203は、例えば、LCD、CRT(Cathode Ray Tube)等のディスプレイから構成され、中央制御部201のCPUの制御下にて各種情報を表示画面に表示する。
即ち、表示部203は、例えば、サーバ3から送信され通信制御部206により受信されたWebページ(例えば、動画生成用ページ)のページデータに基づいて、対応するWebページを表示画面に表示する。具体的には、表示部203は、動画生成処理(後述)に係る各種の処理画面の画像データに基づいて、各種の処理画面を表示画面に表示する。
The display unit 203 includes a display such as an LCD or a CRT (Cathode Ray Tube), and displays various types of information on the display screen under the control of the CPU of the central control unit 201.
That is, for example, the display unit 203 displays a corresponding Web page on the display screen based on page data of a Web page (for example, a moving image generation page) transmitted from the server 3 and received by the communication control unit 206. Specifically, the display unit 203 displays various processing screens on the display screen based on image data of various processing screens related to the moving image generation processing (described later).

音出力部204は、例えば、D/Aコンバータ、LPF(Low Pass Filter)、増幅器、スピーカ等により構成され、中央制御部201のCPUの制御下にて放音する。
即ち、音出力部204は、例えば、サーバ3から送信され通信制御部206により受信された演奏情報に基づいて、当該演奏情報のデジタルデータをD/Aコンバータによりアナログデータに変換し、増幅器を介してスピーカから、所定の音色、音高、音長で曲を放音する。また、音出力部204は、一の音源(例えば、楽器)の音を放音しても良いし、複数の音源の音を同時に放音しても良い。
The sound output unit 204 includes, for example, a D / A converter, an LPF (Low Pass Filter), an amplifier, a speaker, and the like, and emits sound under the control of the CPU of the central control unit 201.
That is, for example, the sound output unit 204 converts digital data of the performance information into analog data by a D / A converter based on performance information transmitted from the server 3 and received by the communication control unit 206, and passes through an amplifier. The sound is emitted from the speaker with a predetermined tone color, pitch and pitch. Further, the sound output unit 204 may emit the sound of one sound source (for example, a musical instrument), or may emit the sounds of a plurality of sound sources simultaneously.

記録媒体制御部205は、記録媒体Cが着脱自在に構成され、装着された記録媒体Cからのデータの読み出しや記録媒体Cに対するデータの書き込みを制御する。即ち、記録媒体制御部205は、撮像装置1から取り外されて装着された記録媒体Cから動画生成処理(後述)に係る被写体存在画像(図示略)の画像データ(YUVデータ)を読み出して通信制御部206に出力する。
ここで、被写体存在画像とは、所定の背景内に主要な被写体が存在する画像のことである。また、記録媒体Cには、撮像装置1の画像処理部(図示略)により所定の符号化形式(例えば、JPEG形式等)に従って符号化された被写体存在画像の画像データが記録されている。
そして、通信制御部206は、入力された被写体存在画像の画像データをサーバ3に所定の通信ネットワークNを介して送信する。
The recording medium control unit 205 is configured such that the recording medium C is detachable, and controls reading of data from the loaded recording medium C and writing of data to the recording medium C. In other words, the recording medium control unit 205 reads out image data (YUV data) of a subject existing image (not shown) related to a moving image generation process (described later) from the recording medium C that is detached from the imaging device 1 and attached, and performs communication control. The data is output to the unit 206.
Here, the subject presence image is an image in which a main subject exists within a predetermined background. In addition, on the recording medium C, image data of a subject existing image encoded according to a predetermined encoding format (for example, JPEG format) by an image processing unit (not shown) of the imaging apparatus 1 is recorded.
Then, the communication control unit 206 transmits the input image data of the subject existing image to the server 3 via the predetermined communication network N.

通信制御部206は、例えば、モデム(MODEM:Modulater/DEModulater)、ターミナルアダプタ(Terminal Adapter)等によって構成され、所定の通信ネットワークNを介してサーバ3等の外部機器との間で情報の通信制御を行うためのものである。   The communication control unit 206 includes, for example, a modem (MODEM: Modulator / DEModulater), a terminal adapter (Terminal Adapter), and the like, and controls communication of information with an external device such as the server 3 via a predetermined communication network N. Is for doing.

なお、通信ネットワークNは、例えば、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信回線網と、それらを接続するインターネットサービスプロバイダ等が含まれる。   The communication network N is a communication network constructed using, for example, a dedicated line or an existing general public line, and various line forms such as a LAN (Local Area Network) and a WAN (Wide Area Network) are applied. Is possible. The communication network N includes, for example, various communication line networks such as a telephone line network, an ISDN line network, a dedicated line, a mobile communication network, a communication satellite line, and a CATV line network, and an Internet service provider that connects them. included.

次に、サーバ3について図3を参照して説明する。
サーバ3は、Web(World Wide Web)サーバとしてインターネット上にWebページ(例えば、動画生成用ページ)を開設する機能を具備するものであり、ユーザ端末2からのアクセスに応じて当該ユーザ端末2にWebページのページデータを送信する。また、サーバ3は、画像生成装置として、被写体領域が含まれる被写体画像の被写体の骨格に係る骨格情報に基づいて、被写体領域の輪郭部分の色情報を特定し、当該被写体領域の輪郭部分の色情報に基づいて、背面画像の被写体対応領域を被写体の部位毎にそれぞれ描画して、被写体の裏側を擬似的に表す背面画像を生成する。
Next, the server 3 will be described with reference to FIG.
The server 3 has a function of opening a Web page (for example, a moving image generation page) on the Internet as a Web (World Wide Web) server. The server 3 is connected to the user terminal 2 in response to an access from the user terminal 2. The page data of the web page is transmitted. Further, the server 3, as an image generation device, specifies color information of the contour portion of the subject region based on the skeleton information related to the subject skeleton of the subject image including the subject region, and the color of the contour portion of the subject region. Based on the information, a subject corresponding area of the rear image is drawn for each part of the subject, and a rear image representing the back side of the subject is generated.

図3は、サーバ3の概略構成を示すブロック図である。
図3に示すように、サーバ3は、具体的には、中央制御部301と、表示部302と、通信制御部303と、被写体切抜部304と、記憶部305と、動画処理部306等を備えて構成されている。
FIG. 3 is a block diagram illustrating a schematic configuration of the server 3.
As shown in FIG. 3, the server 3 specifically includes a central control unit 301, a display unit 302, a communication control unit 303, a subject clipping unit 304, a storage unit 305, a moving image processing unit 306, and the like. It is prepared for.

中央制御部301は、サーバ3の各部を制御する。具体的には、中央制御部301は、CPU、RAM、ROM(何れも図示略)を備え、CPUは、ROMに記憶されたサーバ3用の各種処理プログラム(図示略)に従って各種の制御動作を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部302に表示させる。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を
格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、サーバ3で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
The central control unit 301 controls each unit of the server 3. Specifically, the central control unit 301 includes a CPU, a RAM, and a ROM (all not shown), and the CPU performs various control operations according to various processing programs (not shown) for the server 3 stored in the ROM. Do. At that time, the CPU stores various processing results in a storage area in the RAM, and displays the processing results on the display unit 302 as necessary.
The RAM includes, for example, a program storage area for expanding a processing program executed by the CPU, a data storage area for storing input data, a processing result generated when the processing program is executed, and the like.
The ROM executes a program stored in the form of computer-readable program code, specifically, a system program that can be executed by the server 3, various processing programs that can be executed by the system program, and these various processing programs. The data used at the time is stored.

表示部302は、例えば、LCD、CRT等のディスプレイから構成され、中央制御部301のCPUの制御下にて各種情報を表示画面に表示する。   The display unit 302 includes a display such as an LCD and a CRT, and displays various types of information on the display screen under the control of the CPU of the central control unit 301.

通信制御部303は、例えば、モデム、ターミナルアダプタ等によって構成され、所定の通信ネットワークNを介してユーザ端末2等の外部機器との間で情報の通信制御を行うためのものである。
具体的には、通信制御部303は、例えば、動画生成処理(後述)にてユーザ端末2から所定の通信ネットワークNを介して送信された被写体存在画像の画像データを受信して、当該画像データを中央制御部301のCPUに出力する。
中央制御部301のCPUは、入力された被写体存在画像の画像データを被写体切抜部304に出力する。
The communication control unit 303 includes, for example, a modem, a terminal adapter, and the like, and is for performing communication control of information with an external device such as the user terminal 2 via a predetermined communication network N.
Specifically, for example, the communication control unit 303 receives the image data of the subject existing image transmitted from the user terminal 2 via the predetermined communication network N in the moving image generation process (described later), and the image data Is output to the CPU of the central control unit 301.
The CPU of the central control unit 301 outputs the input image data of the subject existing image to the subject clipping unit 304.

被写体切抜部304は、被写体存在画像から被写体切り抜き画像(図示せず。)を生成する。(「被写体画像の生成」)
即ち、被写体切抜部304は、公知の被写体切抜手法を用いて、被写体存在画像から被写体が含まれる被写体領域が切り抜かれた被写体切り抜き画像を生成する。具体的には、被写体切抜部304は、中央制御部301のCPUから出力された被写体存在画像の画像データを取得して、例えば、ユーザによるユーザ端末2の操作入力部202(例えば、マウス等)の所定操作に基づいて、表示部203に表示されている当該被写体存在画像上に描画された境界線(図示略)により当該被写体存在画像を区分する。続けて、被写体切抜部304は、被写体存在画像の切抜線により区分される複数の区分領域の中で、被写体の背景を推定して当該背景の各画素の画素値に基づいて所定の演算を行って、被写体の背景色を所定の単一色として推定する。その後、被写体切抜部304は、所定の単一色の背景用画像と被写体存在画像との間で対応する各画素の差分情報(例えば、相違度マップ等)を生成する。そして、被写体切抜部304は、生成した差分情報の各画素の画素値を所定の閾値と比較して二値化した後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理を行って面積が最大の画素集合を被写体部分とする。
その後、被写体切抜部304は、例えば、上記の面積が最大の画素集合が「1」、その他の部分が「0」である二値化された差分情報に対してローパスフィルタを施して境界部分に中間値を生じさせることでアルファ値を生成し、被写体切り抜き画像内で被写体領域の位置を示す位置情報としてのアルファマップ(図示略)を生成する。
アルファ値(0≦α≦1)とは、例えば、被写体存在画像の各画素について、被写体領域の画像を所定の背景に対してアルファブレンディングする際の重みを表すものである。この場合、被写体領域はアルファ値が「1」となり、被写体存在画像の所定の背景に対する透過度が0%となる。一方、被写体の背景部分はアルファ値が「0」となり、当該被写体存在画像の所定の背景に対する透過度が100%となる。
The subject cutout unit 304 generates a subject cutout image (not shown) from the subject existing image. ("Subject image generation")
That is, the subject cutout unit 304 generates a subject cutout image in which a subject region including a subject is cut out from the subject existing image using a known subject cutout method. Specifically, the subject cutout unit 304 acquires the image data of the subject existing image output from the CPU of the central control unit 301 and, for example, the operation input unit 202 (for example, a mouse) of the user terminal 2 by the user. Based on the predetermined operation, the subject presence image is divided by a boundary line (not shown) drawn on the subject presence image displayed on the display unit 203. Subsequently, the subject cutout unit 304 estimates the background of the subject among a plurality of divided regions divided by the cutout line of the subject existing image, and performs a predetermined calculation based on the pixel value of each pixel of the background. Thus, the background color of the subject is estimated as a predetermined single color. Thereafter, the subject cutout unit 304 generates difference information (for example, a difference map or the like) of each corresponding pixel between a predetermined single color background image and the subject presence image. Then, the subject clipping unit 304 compares the pixel value of each pixel of the generated difference information with a predetermined threshold value, binarizes it, and then performs a labeling process for assigning the same number to the pixel set that constitutes the same connected component. A pixel set having the largest area is defined as a subject portion.
Thereafter, the subject clipping unit 304 applies a low-pass filter to the binarized difference information in which, for example, the pixel set having the largest area is “1”, and the other part is “0”, to the boundary part. An alpha value is generated by generating an intermediate value, and an alpha map (not shown) is generated as position information indicating the position of the subject region in the subject cutout image.
The alpha value (0 ≦ α ≦ 1) represents, for example, a weight when alpha blending an image of a subject area with respect to a predetermined background for each pixel of the subject existing image. In this case, the alpha value of the subject area is “1”, and the transparency of the subject existing image with respect to a predetermined background is 0%. On the other hand, the alpha value of the background portion of the subject is “0”, and the transparency of the subject existing image with respect to the predetermined background is 100%.

そして、被写体切抜部304は、アルファマップに基づいて、被写体存在画像の各画素のうち、アルファ値が「1」の画素を所定の単一色画像に対して透過させずに、且つ、アルファ値が「0」の画素を透過させるように、被写体画像を所定の単一色画像と合成して被写体切り抜き画像の画像データを生成する。
また、被写体切抜部304は、アルファマップに基づいて、被写体領域の各画素を第1の画素値(例えば、「1」等)とし、背景領域の各画素を第1の画素値と異なる第2の画素値(例えば、「0」等)とする二値画像であるマスク画像(図示せず。)を生成する。即ち、被写体切抜部304は、被写体切り抜き画像内で被写体領域の位置を示す位置情報としてのマスク画像を生成する。
被写体切り抜き画像の画像データは、例えば、生成されたアルファマップやマスク画像等の位置情報と対応付けられたデータである。
Then, based on the alpha map, the subject cutout unit 304 does not transmit the pixel having the alpha value “1” among the pixels of the subject existing image to the predetermined single color image, and the alpha value is The subject image is synthesized with a predetermined single color image so that the pixel of “0” is transmitted, and image data of the subject cut-out image is generated.
In addition, the subject cutout unit 304 sets each pixel in the subject region to a first pixel value (for example, “1”, etc.) based on the alpha map, and sets each pixel in the background region to a second value different from the first pixel value. A mask image (not shown), which is a binary image having a pixel value (for example, “0”, etc.), is generated. In other words, the subject cutout unit 304 generates a mask image as position information indicating the position of the subject region in the subject cutout image.
The image data of the subject cutout image is data associated with position information such as the generated alpha map and mask image, for example.

なお、上記した被写体切抜部304による被写体切抜手法は、一例であってこれに限られるものではなく、被写体存在画像から被写体が含まれる被写体領域を切り抜く公知の手法であれば如何なる手法を適用しても良い。
また、被写体切り抜き画像の画像データとしては、例えば、RGBA形式の画像データを適用しても良く、具体的には、RGB色空間で規定される各色に透過度(A)の情報が付加されている。この場合には、被写体切抜部304は、透過度(A)の情報を利用して、被写体切り抜き画像内で被写体領域の位置を示す位置情報(図示略)を生成しても良い。
Note that the subject clipping method by the subject clipping unit 304 described above is an example and is not limited to this, and any known method may be used as long as it is a known method for clipping a subject area including a subject from a subject existing image. Also good.
Further, as image data of the subject cut-out image, for example, image data in RGBA format may be applied. Specifically, information on transparency (A) is added to each color defined in the RGB color space. Yes. In this case, the subject cutout unit 304 may generate position information (not shown) indicating the position of the subject region in the subject cutout image using the information on the transparency (A).

記憶部305は、例えば、半導体の不揮発メモリやHDD(Hard Disc Drive)等により構成され、ユーザ端末2に送信されるWebページのページデータや被写体切抜部304により生成された被写体切り抜き画像の画像データ等を記憶する。   The storage unit 305 includes, for example, a semiconductor non-volatile memory, an HDD (Hard Disc Drive), and the like. The page data of the Web page transmitted to the user terminal 2 and the image data of the subject cut-out image generated by the subject cut-out unit 304 are stored. Memorize etc.

また、記憶部305は、動画生成処理に用いられる動き情報305aを複数記憶している。
各動き情報305aは、所定空間、即ち、例えば、互いに直交する二軸(例えば、x軸、y軸等)により規定される二次元の平面空間やこれら二軸に加えて当該二軸に直交する軸(例えば、z軸等)により規定される三次元の立体的空間内における複数の可動点の動きを示す情報である。なお、動き情報305aは、二次元の平面空間を所定の回動軸周りに回転させることで複数の可動点の動きに奥行きをもたせるような情報であっても良い。
ここで、各可動点の位置は、動きのモデルとなる動体モデル(例えば、ヒトや動物等)の骨格の形状や関節の位置等を考慮してそれぞれ規定されている。また、可動点の個数は、動体モデルの形状や大きさ等に応じて適宜任意に設定可能である。
また、各動き情報305aは、所定空間内にて複数の可動点の全て若しくは少なくとも一つを移動させた座標情報を所定の時間間隔で連続して並べることで、複数の可動点の動きが連続して表されている。なお、複数の可動点の座標情報の各々は、例えば、基準となる可動点の座標情報に対する各可動点の移動量を規定した情報であっても良いし、各可動点の絶対位置座標を規定した情報であっても良い。
In addition, the storage unit 305 stores a plurality of pieces of motion information 305a used for moving image generation processing.
Each motion information 305a is orthogonal to a predetermined space, that is, a two-dimensional plane space defined by, for example, two axes orthogonal to each other (for example, the x axis, the y axis, etc.) and the two axes in addition to the two axes. This is information indicating the movement of a plurality of movable points in a three-dimensional space defined by an axis (for example, the z axis). Note that the motion information 305a may be information that gives depth to the motion of a plurality of movable points by rotating a two-dimensional plane space around a predetermined rotation axis.
Here, the position of each movable point is defined in consideration of the shape of the skeleton of the moving body model (for example, a human or an animal) serving as a motion model, the position of the joint, or the like. In addition, the number of movable points can be arbitrarily set as appropriate according to the shape and size of the moving object model.
In addition, each movement information 305a is obtained by continuously arranging the coordinate information obtained by moving all or at least one of the plurality of movable points in a predetermined space at a predetermined time interval. It is expressed as Each of the coordinate information of the plurality of movable points may be, for example, information defining the amount of movement of each movable point with respect to the coordinate information of the movable point serving as a reference, or defining the absolute position coordinates of each movable point. It may be information.

また、記憶部305は、動画生成処理に用いられる演奏情報305bを複数記憶している。
演奏情報305bは、動画処理部306の動画再生部306e(後述)により動画像とともに自動的に曲を演奏するための情報である。即ち、演奏情報305bは、例えば、テンポ、拍子、音程、音階、調、発想標語等を異ならせて複数規定され、それぞれ曲名と対応付けて記憶されている。
また、各演奏情報305bは、例えば、MIDI(Musical Instruments Digital Interface)規格等に従って規定されたデジタルデータであり、具体的には、トラック数や四分音符の分解能(Tickカウント数)等が規定されたヘッダ情報と、各パートに割り当てられた音源(例えば、楽器等)に供給させるイベント及びタイミングかならなるトラック情報等を有している。このトラック情報のイベントとして、例えば、テンポあるいは拍子の変更や、NoteOn・Offを指示する情報などがある。
The storage unit 305 stores a plurality of pieces of performance information 305b used for moving image generation processing.
The performance information 305b is information for automatically playing a song together with a moving image by a moving image reproducing unit 306e (described later) of the moving image processing unit 306. That is, a plurality of pieces of performance information 305b are defined, for example, with different tempo, time signature, pitch, scale, key, idea motto, etc., and are stored in association with the song titles.
Each piece of performance information 305b is digital data defined in accordance with, for example, the MIDI (Musical Instruments Digital Interface) standard. Specifically, the number of tracks, the resolution of quarter notes (number of Tick counts), and the like are defined. Header information, and track information including events and timings to be supplied to a sound source (for example, a musical instrument) assigned to each part. Examples of the track information event include a change in tempo or time signature, and information for instructing NoteOn / Off.

動画処理部306は、画像取得部306aと、背面画像設定部306bと、制御点設定部306cと、フレーム生成部306dと、動画再生部306eと、前後入替設定部306fと、前後入替制御部306gとを具備している。   The moving image processing unit 306 includes an image acquisition unit 306a, a back image setting unit 306b, a control point setting unit 306c, a frame generation unit 306d, a moving image reproduction unit 306e, a front / rear replacement setting unit 306f, and a front / rear replacement control unit 306g. It is equipped with.

画像取得部306aは、動画生成処理に用いられる静止画像を取得する。(「被写体画像の取得」)
即ち、画像取得部306aは、背景と被写体とが存在する被写体存在画像から被写体が含まれる被写体領域が切り抜かれた被写体切り抜き画像(被写体画像)を取得する。具体的には、画像取得部306aは、被写体切抜部304により生成された被写体切り抜き画像の画像データを処理対象の静止画像として取得する。
また、画像取得部306aは、被写体切り抜き画像の画像データと対応付けられているマスク画像の画像データを取得する。
The image acquisition unit 306a acquires a still image used for moving image generation processing. ("Subject image acquisition")
That is, the image acquisition unit 306a acquires a subject cutout image (subject image) obtained by cutting out a subject area including a subject from a subject existing image in which a background and a subject exist. Specifically, the image acquisition unit 306a acquires the image data of the subject cutout image generated by the subject cutout unit 304 as a still image to be processed.
Further, the image acquisition unit 306a acquires image data of a mask image associated with image data of a subject cutout image.

背面画像生成部306bは、被写体の裏側を擬似的に表す背面画像を生成する。(「背面画像の生成」)
即ち、背面画像生成部306bは、特定された被写体領域の輪郭部分の色情報に基づいて、背面画像の被写体対応領域を被写体の部位毎にそれぞれ描画して当該背面画像を生成する。具体的には、背面画像生成部306bは、背面画像の被写体対応領域を当該被写体の基準線分が含まれる部位、即ち、ヒトの代表的な各部位(例えば、両腕部、両脚部、胴体、頭等)毎にそれぞれ描画して、背面画像を生成する。
The back image generation unit 306b generates a back image that simulates the back side of the subject. ("Back image generation")
That is, the back image generation unit 306b generates the back image by drawing the subject corresponding areas of the back image for each part of the subject based on the color information of the contour portion of the specified subject area. Specifically, the rear image generation unit 306b uses the subject-corresponding region of the rear image as a part including the reference line segment of the subject, that is, representative human parts (for example, both arms, both legs, and the body). , The head, etc.) are respectively drawn to generate a back image.

制御点設定部306cは、処理対象となる被写体切り抜き画像の被写体画像内で動き制御点を複数設定する。(「動きの指定」)
即ち、制御点設定部306cは、画像取得部306aにより取得された被写体切り抜き画像の被写体画像内で複数の可動点に対応する各位置に動き制御点を複数設定する。具体的には、制御点設定部306cは、記憶部305から動体モデル(例えば、動物)の動き情報305aを読み出して、被写体切り抜き画像の被写体画像内で、当該動き情報305aに規定されている基準フレーム(例えば、1フレーム目等)の複数の可動点の各々に対応する動き制御点を、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて指定された所望の位置にそれぞれ設定する。また、制御点設定部306cは、被写体切り抜き画像の被写体画像内で制御点をそれぞれ設定することで、当該被写体切り抜き画像に対応する背面画像内の所定位置に対してもそれぞれ対応する動き制御点を自動的に設定する。
このとき、動体モデルと被写体画像について、例えば、顔などの主要部の大きさを合わせるように寸法の調整(例えば、動体モデルの拡大や縮小、変形等)を行うようにしても良い。また、例えば、動体モデルと被写体画像を重ね合わせて被写体画像における複数の可動点の各々が対応する位置を特定しても良い。
さらに、制御点設定部306cは、動き情報305aに規定されている複数の可動点の全てについて、対応する動き制御点を設定しても良いし、被写体の中央部や各先端部等の代表的な所定数の可動点に対応する動き制御点のみ設定しても良い。
The control point setting unit 306c sets a plurality of motion control points in the subject image of the subject clipped image to be processed. ("Specify movement")
That is, the control point setting unit 306c sets a plurality of motion control points at positions corresponding to a plurality of movable points in the subject image of the subject cutout image acquired by the image acquisition unit 306a. Specifically, the control point setting unit 306c reads the motion information 305a of the moving object model (for example, animal) from the storage unit 305, and the reference defined in the motion information 305a in the subject image of the subject clipped image. A motion control point corresponding to each of a plurality of movable points of a frame (for example, the first frame) is set at a desired position specified based on a predetermined operation of the operation input unit 202 of the user terminal 2 by the user. . In addition, the control point setting unit 306c sets a control point in the subject image of the subject cutout image, thereby setting a motion control point corresponding to a predetermined position in the rear image corresponding to the subject cutout image. Set automatically.
At this time, for the moving body model and the subject image, for example, the dimensions may be adjusted (for example, enlargement, reduction, deformation, etc. of the moving body model) so as to match the size of the main part such as the face. Further, for example, a position corresponding to each of a plurality of movable points in the subject image may be specified by superimposing the moving body model and the subject image.
Furthermore, the control point setting unit 306c may set corresponding motion control points for all of the plurality of movable points defined in the motion information 305a, or representative points such as the center portion and each tip portion of the subject. Only motion control points corresponding to a predetermined number of movable points may be set.

なお、制御点設定部306cは、被写体切り抜き画像の被写体画像内で、記憶部305から読み出された動き情報305aに規定されている基準フレーム(例えば、1フレーム目等)の複数の可動点の各々が対応する位置を自動的に特定しても良い。例えば、制御点設定部306cは、被写体の骨格の形状や関節の位置等を考慮して複数の可動点の各々が対応する位置を特定する。そして、制御点設定部306cは、特定された複数の可動点の各々が対応する位置に動き制御点をそれぞれ設定する。
また、制御点設定部306cによる動き制御点の設定が自動的に行われた場合であっても、ユーザによる操作入力部の所定操作に基づいて動き制御点の設定位置の修正(変更)を受け付けるようにしても良い。
Note that the control point setting unit 306c includes a plurality of movable points of a reference frame (for example, the first frame) defined in the motion information 305a read from the storage unit 305 in the subject image of the subject clipped image. Each corresponding position may be automatically specified. For example, the control point setting unit 306c specifies a position corresponding to each of the plurality of movable points in consideration of the shape of the skeleton of the subject, the position of the joint, and the like. Then, the control point setting unit 306c sets a motion control point at a position corresponding to each of the specified plurality of movable points.
Even when the movement control point is automatically set by the control point setting unit 306c, the correction (change) of the setting position of the movement control point is accepted based on a predetermined operation of the operation input unit by the user. You may do it.

フレーム生成部306dは、動画像を構成する複数のフレーム画像を逐次生成する。(「フレーム画像の生成」)
即ち、フレーム生成部306dは、動画処理部306により指定された動き情報305aの複数の可動点の動きに追従させるように、被写体切り抜き画像の被写体画像内に設定されている複数の動き制御点を移動させて複数のフレーム画像を逐次生成する。具体的には、フレーム生成部306dは、例えば、動き情報305aに従って所定の時間間隔で移動する複数の可動点の座標情報を逐次取得して、当該可動点の各々に対応する各動き制御点の座標を算出する。そして、フレーム生成部306dは、算出された座標に動き制御点を逐次移動させていくとともに、少なくとも一の動き制御点を基準として被写体画像内に設定される所定の画像領域(例えば、三角形や矩形のメッシュ状の領域)を移動させたり変形させることで、基準フレーム画像(図示略)を生成する。
なお、動き制御点を基準とした所定の画像領域を移動させたり変形させる処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The frame generation unit 306d sequentially generates a plurality of frame images constituting the moving image. ("Generating frame images")
That is, the frame generation unit 306d sets a plurality of motion control points set in the subject image of the subject clipped image so as to follow the movements of the plurality of movable points of the motion information 305a specified by the moving image processing unit 306. A plurality of frame images are sequentially generated by moving. Specifically, for example, the frame generation unit 306d sequentially acquires coordinate information of a plurality of movable points that move at a predetermined time interval in accordance with the movement information 305a, and each movement control point corresponding to each of the movable points. Calculate the coordinates. Then, the frame generation unit 306d sequentially moves the motion control point to the calculated coordinates, and at the same time, a predetermined image area (for example, a triangle or a rectangle) set in the subject image with reference to at least one motion control point. A reference frame image (not shown) is generated by moving or deforming the mesh-shaped region.
Note that the process of moving or deforming a predetermined image region with reference to the motion control point is a known technique, and thus detailed description thereof is omitted here.

また、フレーム生成部306dは、移動後の可動点の各々に対応する複数の動き制御点に基づいて生成される時間軸に沿って隣合う二つの基準フレーム画像どうしの間を補間する補間フレーム画像(図示略)を生成する。即ち、フレーム生成部306dは、動画再生部306eにより複数のフレーム画像が所定の再生フレームレート(例えば、30fps等)で再生されるように、二つの基準フレーム画像どうしの間を補間する補間フレーム画像を所定数生成する。
具体的には、フレーム生成部306dは、隣合う二つの基準フレーム画像間における、
動画再生部306eにより演奏される所定の曲の演奏の進行度合を逐次取得して、当該進行度合に応じて、隣合う二つの基準フレーム画像間で再生される補間フレーム画像を逐次生成する。例えば、フレーム生成部306dは、MIDI規格の演奏情報305bに基づいてテンポの設定情報及び四分音符の分解能(Tickカウント数)を取得して、動画再生部306eにより演奏される所定の曲の演奏の経過時間をTickカウント数に変換する。続けて、フレーム生成部306dは、所定の曲の演奏の経過時間に対応するTickカウント数に基づいて、所定のタイミング(例えば、各小節の一拍目等)に同期させた隣合う二つの基準フレーム画像間における所定の曲の演奏の相対的な進行度合を、例えば百分率で算出する。そして、フレーム生成部306dは、所定の曲の演奏の相対的な進行度合に応じて、当該隣合う二つの基準フレーム画像に対する重み付けを変えて補間フレーム画像を生成する。
なお、補間フレーム画像を生成する処理は、公知の技術であるので、ここでは詳細な説明を省略する。
In addition, the frame generation unit 306d interpolates between two reference frame images that are adjacent to each other along a time axis generated based on a plurality of motion control points corresponding to each of the movable points after movement. (Not shown) is generated. That is, the frame generation unit 306d interpolates between two reference frame images so that a plurality of frame images are reproduced at a predetermined reproduction frame rate (for example, 30 fps) by the moving image reproduction unit 306e. Are generated in a predetermined number.
Specifically, the frame generation unit 306d, between two adjacent reference frame images,
The progress degree of the performance of the predetermined music played by the moving picture reproducing unit 306e is sequentially acquired, and an interpolated frame image reproduced between two adjacent reference frame images is sequentially generated according to the progress degree. For example, the frame generation unit 306d acquires tempo setting information and quarter note resolution (Tick count number) based on the MIDI standard performance information 305b, and plays a predetermined song played by the video playback unit 306e. Convert the elapsed time of to a Tick count. Subsequently, the frame generation unit 306d uses two Tick count numbers corresponding to the elapsed time of the performance of the predetermined song, and two adjacent references synchronized with a predetermined timing (for example, the first beat of each measure). The relative degree of progress of the performance of a predetermined song between frame images is calculated, for example, as a percentage. Then, the frame generation unit 306d generates an interpolated frame image by changing the weighting of the two adjacent reference frame images in accordance with the relative progress of the performance of the predetermined song.
In addition, since the process which produces | generates an interpolation frame image is a well-known technique, detailed description is abbreviate | omitted here.

また、フレーム生成部306dによる基準フレーム画像や補間フレーム画像の生成は、被写体切り抜き画像の画像データ及びアルファマップ等の位置情報の両方について行われる。   Further, the generation of the reference frame image and the interpolated frame image by the frame generation unit 306d is performed for both the image data of the subject cutout image and the position information such as the alpha map.

動画再生部306eは、フレーム生成部306dにより生成された複数のフレーム画像の各々を再生する。(「フレーム画像の再生」)
即ち、動画再生部306eは、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて指定された演奏情報305bに基づいて所定の曲を自動的に演奏するとともに、当該所定の曲の所定のタイミングで複数のフレーム画像の各々を再生する。具体的には、動画再生部306eは、所定の曲の演奏情報305bのデジタルデータをD/Aコンバータによりアナログデータに変換して当該所定の曲を自動的に演奏させ、このとき、所定のタイミング(例えば、各小節の1拍目や各拍等)に同期させるように隣合う二つの基準フレーム画像を再生するとともに、隣合う二つの基準フレーム画像間における所定の曲の演奏の相対的な進行度合に応じて、当該進行度合に対応する各々の補間フレーム画像を再生する。
なお、動画再生部306eは、動画処理部306により指定された速さで被写体画像に係る複数のフレーム画像を再生しても良い。この場合には、動画再生部306eは、隣合う二つの基準フレーム画像を同期させるタイミングを変化させることで、所定の単位時間内に再生されるフレーム画像の数を変更して被写体画像の動きの速さを可変させる。
The moving image reproduction unit 306e reproduces each of the plurality of frame images generated by the frame generation unit 306d. ("Playing frame images")
That is, the moving image playback unit 306e automatically plays a predetermined song based on the performance information 305b specified based on a predetermined operation of the operation input unit 202 of the user terminal 2 by the user, and the predetermined song of the predetermined song Each of the plurality of frame images is reproduced at the timing. Specifically, the moving image playback unit 306e automatically converts the digital data of the performance information 305b of a predetermined song into analog data by a D / A converter, and automatically plays the predetermined song. Play back two reference frame images that are adjacent to each other (for example, the first beat of each measure, each beat, etc.), and the relative progress of the performance of a predetermined song between the two adjacent reference frame images Depending on the degree, each interpolated frame image corresponding to the degree of progress is reproduced.
Note that the moving image reproduction unit 306e may reproduce a plurality of frame images related to the subject image at a speed specified by the moving image processing unit 306. In this case, the moving image reproducing unit 306e changes the number of frame images to be reproduced within a predetermined unit time by changing the timing at which two adjacent reference frame images are synchronized, thereby changing the motion of the subject image. Variable speed.

前後入替設定部306fは、「動きの指定」の動作に際して、ユーザ端末2からの指示に基づき、複数のキャラクターを配置し、前方に配置されたキャラクターの背面の画像データの透過度を100%にすると共に、後方に配置されたキャラクターのさらに後方で、且つ、前方のキャラクターと重なる位置に前方のキャラクターと同じ画像データのキャラクターを配置する。   The front / rear replacement setting unit 306f arranges a plurality of characters based on an instruction from the user terminal 2 during the “motion specification” operation, and sets the transparency of the image data on the back of the character arranged in front to 100%. At the same time, a character having the same image data as that of the front character is placed at a position further behind the character placed behind and overlapping the front character.

前後入替制御部306gは、「フレーム画像の生成」の動作に際して、ユーザ端末2からの指示に基づき、前後入替設定部306fで設定された前後関係の変更タイミングを抽出し、配置されたキャラクターを操作(後述)して、前後関係を入替えたフレーム画像を逐次生成する。   The front / rear replacement control unit 306g extracts the change timing of the front / rear relationship set by the front / rear replacement setting unit 306f based on an instruction from the user terminal 2 during the operation of “frame image generation”, and operates the arranged characters. (To be described later), and sequentially generate frame images with interchanged context.

次に、ユーザ端末2及びサーバ3を用いた動画生成処理について、図4〜図11を参照して説明する。   Next, a moving image generation process using the user terminal 2 and the server 3 will be described with reference to FIGS.

但し、動画生成処理に係る動作において、「被写体画像の生成」、「背面画像の生成」、「被写体画像の取得」、「動きの指定」、「フレーム画像の生成」及び「フレーム画像の再生」等の基本的な動作に関する詳細な説明は省略し、本発明の第1実施形態に関連する動作について詳細に説明する。   However, in the operation relating to the moving image generation processing, “subject image generation”, “rear image generation”, “subject image acquisition”, “motion designation”, “frame image generation”, and “frame image reproduction” A detailed description of the basic operation such as the above will be omitted, and the operation related to the first embodiment of the present invention will be described in detail.

ここで、図4及び図5は、動画生成処理に係る動作の一例を示すフローチャートである。なお、以下の説明にあっては、被写体存在画像の画像データから生成された被写体切り抜き画像の画像データや背面画像設定部306bにより生成された背面画像データ等の各種データはサーバ3の記憶部305に予め記憶されているものとする。   Here, FIG. 4 and FIG. 5 are flowcharts showing an example of the operation related to the moving image generation process. In the following description, various data such as the image data of the subject cut image generated from the image data of the subject existing image and the back image data generated by the back image setting unit 306b are stored in the storage unit 305 of the server 3. Are stored in advance.

上述の「動きの指定」の動作に際して、図4に示すように動画処理部306の前後入替設定部306fは、ユーザ端末2からの指示に基づき、前後入れ替えの設定をするか否かを判断する(ステップS1)。
ここで、前後入替設定部306fが前後入れ替えの設定をしないと判断した場合(ステップS1:No)、通常の「動きの指定」の動作に移行し、前後入れ替えの設定をすると判断した場合(ステップS1:Yes)、前後入替設定部306fは、ユーザ端末2からの指示に基づき、第1画像である、前面に配置するキャラクター(以下、前方キャラクターと呼ぶ。)をサーバ3の記憶部305に記憶されている被写体切り抜き画像の画像データから取得して前面の位置に配置する(ステップS2:取得ステップ)。
In the above-described “motion designation” operation, as shown in FIG. 4, the front-rear replacement setting unit 306 f of the moving image processing unit 306 determines whether to set the front-rear replacement based on an instruction from the user terminal 2. (Step S1).
Here, when the front / rear replacement setting unit 306f determines not to set the front / rear replacement (step S1: No), the process shifts to a normal “motion designation” operation and determines to set the front / rear replacement (step S1: Yes), the front / rear replacement setting unit 306f stores, in the storage unit 305 of the server 3, the first image character (hereinafter referred to as the front character), which is the first image, based on an instruction from the user terminal 2. It is acquired from the image data of the subject clipped image and placed at the front position (step S2: acquisition step).

次に、前後入替設定部306fは、ユーザ端末2からの指示に基づき、第2画像である、前方キャラクターの後方に配置するキャラクター(以下、後方キャラクターと呼ぶ。)をサーバ3の記憶部305に記憶されている被写体切り抜き画像の画像データから取得して前方キャラクターの後方の位置に配置する(ステップS3:取得ステップ)。
さらに、前後入替設定部306fは、配置した前方キャラクターの前方であって、且つ、既に配置した後方キャラクターと重なる位置に、正面若しくは背面のいずれか一面が後方キャラクターと同一の被写体切り抜き画像である重畳画像(以下、重畳キャラクターと呼ぶ。)を生成して配置し(ステップS4:第1生成ステップ)、重畳画像の他面(後方キャラクターと同一の被写体切り抜き画像が設定されている面の裏面)の透過度を100%に設定する(ステップS5)。その後、前後入替設定部306fは、通常の「動きの指定」の動作に移行する。
Next, based on an instruction from the user terminal 2, the front / rear replacement setting unit 306 f stores in the storage unit 305 of the server 3 a character (hereinafter referred to as a rear character) that is the second image and is arranged behind the front character. It is acquired from the stored image data of the subject clipped image and is arranged at a position behind the front character (step S3: acquisition step).
Furthermore, the front / rear replacement setting unit 306f superimposes a subject cutout image in which either the front or the back is the same as the rear character at a position that is in front of the placed front character and overlaps the already placed rear character. An image (hereinafter referred to as a superimposed character) is generated and arranged (step S4: first generation step), and the other side of the superimposed image (the back side of the surface on which the same subject cutout image as the rear character is set) is displayed. The transparency is set to 100% (step S5). Thereafter, the front / rear replacement setting unit 306f shifts to a normal “motion designation” operation.

なお、図4に示すフローチャートでは特に説明していないが、前後入替設定部306fによって前方キャラクター、後方キャラクター及び重畳キャラクターは配置された時点で、それぞれの背面には背面画像設定部306bで生成された背面画像データが自動的に設定されるものとする。   Although not specifically described in the flowchart shown in FIG. 4, when the front character, the rear character, and the superimposed character are arranged by the front / rear replacement setting unit 306f, the rear image setting unit 306b generates the back side of each. Assume that the back image data is automatically set.

このように、前後入替設定部306fによって前方キャラクター、後方キャラクター、重畳キャラクターが配置された後、上述の「フレーム画像の生成」の動作に際して、図5に示す第2生成ステップを行う。すなわち、動画処理部306の前後入替制御部306gは、ユーザ端末2からの指示に基づき、前方キャラクターと後方キャラクターとの前後関係の入替えを実行するか否かを判断する(ステップS10:第2生成ステップ)。
ここで、前後入替制御部306gが前後入れ替えを実行しないと判断した場合(ステップS10:No)、通常の「フレーム画像の生成」の動作に移行し、前後入れ替えを実行すると判断された場合(ステップS10:Yes)、前後入替制御部306gは、さらに、ユーザ端末2からの指示に基づき、前方キャラクターを動かすか否かを判断する(ステップS11:第2生成ステップ)。
In this way, after the front character, the rear character, and the superimposed character are arranged by the front / rear replacement setting unit 306f, the second generation step shown in FIG. 5 is performed in the above-described “frame image generation” operation. That is, the front-rear replacement control unit 306g of the moving image processing unit 306 determines whether or not to perform the front-rear relationship replacement between the front character and the rear character based on an instruction from the user terminal 2 (step S10: second generation). Step).
Here, when it is determined that the front / rear replacement control unit 306g does not perform front / rear replacement (step S10: No), the process proceeds to a normal “frame image generation” operation, and when it is determined to perform front / rear replacement (step) S10: Yes), the front-rear replacement control unit 306g further determines whether or not to move the front character based on an instruction from the user terminal 2 (step S11: second generation step).

ここで、前後入替制御部306gが前方キャラクターを動かすと判断した場合(ステップS11:Yes)、前後入替制御部306gは、重畳キャラクターを半回転させると共に、前方キャラクターに対して回転や移動等させるように画像領域の変形を行いながらフレーム画像を逐次生成し(ステップS12:第2生成ステップ)、その後、通常の「フレーム画像の生成」の動作に移行する。   Here, when it is determined that the front / rear replacement control unit 306g moves the front character (step S11: Yes), the front / rear replacement control unit 306g causes the superimposed character to rotate halfway and rotate or move the front character. Next, the frame image is sequentially generated while the image area is deformed (step S12: second generation step), and thereafter, the operation proceeds to a normal “frame image generation” operation.

一方、前後入替制御部306gが前方キャラクターを動かさないと判断した場合(ステップS11:No)、前後入替制御部306gは、重畳キャラクターを半回転させるように画像領域の変形を行いながらフレーム画像を逐次生成し(ステップS13:第2生成ステップ)、その後、通常の「フレーム画像の生成」の動作に移行する。   On the other hand, when the front / rear replacement control unit 306g determines that the front character is not moved (step S11: No), the front / rear replacement control unit 306g sequentially converts the frame images while deforming the image region so as to rotate the superimposed character halfway. (Step S13: second generation step) After that, the operation proceeds to a normal “frame image generation” operation.

これまでに図4及び図5用いて説明した内容を、図6〜図9を用いてさらに詳細に説明する。但し、図6及び図8において、紙面下側が前面、紙面上側が後方を示している。   The content described so far with reference to FIGS. 4 and 5 will be described in more detail with reference to FIGS. However, in FIG.6 and FIG.8, the lower side of a paper surface has shown the front surface, and the upper surface of the paper surface has shown the back.

図6において、重畳キャラクターCH1は、正面に先に選択された被写体切り抜き画像の画像データ(実線部分)が設定されており、背面には当該画像データと同一形状であり透過度100%の画像データ(二点鎖線部分)が、前後入替設定部306fによって設定されている。
前方キャラクターCH2は、正面に先に選択された被写体切り抜き画像の画像データ(実線部分)が設定されており、背面には背面画像設定部306bで生成された被写体(前方キャラクターCH2)の裏側を擬似的に表す背面画像データ(右斜め線部分)が、前後入替設定部306fによって設定されている。
最後に、後方キャラクターCH3は、正面に重畳キャラクターCH1と同一の被写体切り抜き画像の画像データ(実線部分)が設定されており、背面には背面画像設定部306bで生成された被写体(後方キャラクターCH3)の裏側を擬似的に表す背面画像データ(左斜め線部分)が、前後入替設定部306fによって設定されている。
In FIG. 6, the superimposed character CH1 is set with image data (solid line portion) of the subject clipped image previously selected on the front surface, and on the back surface is the same shape as the image data and image data with 100% transparency. (The two-dot chain line portion) is set by the front / rear replacement setting unit 306f.
The front character CH2 is set with image data (solid line portion) of the subject clipped image previously selected on the front side, and on the back side, the back side of the subject (front character CH2) generated by the back image setting unit 306b is simulated. The rear image data (right oblique line portion) expressed in the figure is set by the front / rear replacement setting unit 306f.
Finally, the rear character CH3 has the same subject cut-out image data (solid line portion) as the superimposed character CH1 on the front, and the subject (rear character CH3) generated by the rear image setting unit 306b on the back. Is set by the front / rear replacement setting unit 306f.

図6(a)において、DR1に示す方向(前方)からユーザが、それぞれのキャラクターを見た場合、後方キャラクターCH3の正面には重畳キャラクターCH1が重なり、且つ、重畳キャラクターCH1の画像データ(実線部分)が見えているため、後方キャラクターCH3は重畳キャラクターCH1に覆い隠されて見えない。
例えば、再生される動画では、図7(a)に示すように前方キャラクターCH2の前に、重畳キャラクターCH1が重なるような状態で視認されることになる。(第1フレーム画像)
In FIG. 6A, when the user views each character from the direction (front) indicated by DR1, the superimposed character CH1 overlaps the front of the rear character CH3, and the image data (solid line portion) of the superimposed character CH1. ) Is visible, the rear character CH3 is obscured by the superimposed character CH1 and cannot be seen.
For example, as shown in FIG. 7A, the reproduced moving image is visually recognized in a state where the superimposed character CH1 overlaps the front character CH2. (First frame image)

ここで、前後入替制御部306gによって重畳キャラクターCH1を半回転させるようなフレーム画像が逐次生成されれば、図6(a)の位置関係は、図6(b)、図6(c)の順に順次変形させることなる。   Here, if frame images that cause the superimposed character CH1 to rotate half-turn are sequentially generated by the front-rear replacement control unit 306g, the positional relationship in FIG. 6A is in the order of FIG. 6B and FIG. 6C. It will be deformed sequentially.

このため、図6(c)において、DR2に示す方向(前方)からユーザが、それぞれのキャラクターを見た場合、後方キャラクターCH3の正面には重畳キャラクターCH1が重なるものの、重畳キャラクターCH1の部分には当該画像データと同一形状であり透過度100%の画像データ(二点鎖線部分)が見える、言い換えれば、重畳キャラクターCH1が透けて後方キャラクターCH3が見えることになる。
例えば、再生される動画では、図7(b)に示すように、重畳キャラクターCH1が1/4回転した状態で、後方キャラクターCH3が見えるようになり、図7(c)に示すように、さらに1/4回転して重畳キャラクターCH1が半回転した場合、重畳キャラクターCH1は見えず、前方キャラクターCH2の後ろに、後方キャラクターCH3が重なるような状態で見えることになる。(第2フレーム画像)
この時、後方キャラクターCH3は、重畳キャラクターCH1と同一の被写体切り抜き画像の画像データ(実線部分)が設定されているので、ユーザ側からすれば、重畳キャラクターCH1が前方キャラクターCH2の後ろに回り込んだ動作として認識されることになる。
For this reason, in FIG. 6C, when the user views each character from the direction indicated by DR2 (front), the superimposed character CH1 overlaps the front of the rear character CH3, but the superimposed character CH1 does not The image data having the same shape as the image data and the transparency of 100% (the two-dot chain line portion) can be seen. In other words, the superimposed character CH1 can be seen through and the rear character CH3 can be seen.
For example, in the reproduced video, as shown in FIG. 7B, the rear character CH3 can be seen in a state where the superimposed character CH1 is rotated by a quarter, and as shown in FIG. When the superimposed character CH1 is rotated by a quarter rotation and the half-rotated character CH1 is rotated, the superimposed character CH1 cannot be seen, and the rear character CH3 is seen behind the front character CH2. (Second frame image)
At this time, since the rear character CH3 has the same subject cut-out image data (solid line portion) as the superimposed character CH1, the superimposed character CH1 wraps behind the front character CH2 from the user side. It will be recognized as an action.

図8(a)(図6(c)と同じ)において、DR3に示す方向(前方)からユーザが、それぞれのキャラクターを見た場合、後方キャラクターCH3の正面には重畳キャラクターCH1が重なっているものの、重畳キャラクターCH1の正面には当該画像データと同一形状であり透過度100%の画像データ(二点鎖線部分)が見える、言い換えれば、重畳キャラクターCH1が透けて後方キャラクターCH3が見えている。
例えば、再生される動画では、図9(a)に示すように前方キャラクターCH2の後ろに、後方キャラクターCH3が重なるような状態で見えることになる。(第2フレーム画像)
In FIG. 8A (same as FIG. 6C), when the user views each character from the direction indicated by DR3 (front), the superimposed character CH1 overlaps in front of the rear character CH3. The image data (two-dot chain line portion) having the same shape as the image data and 100% transparency can be seen on the front of the superimposed character CH1, in other words, the superimposed character CH1 can be seen through and the rear character CH3 can be seen.
For example, in the moving image to be reproduced, as shown in FIG. 9A, it appears that the rear character CH3 overlaps behind the front character CH2. (Second frame image)

同様にして、ここで、前後入替制御部306gによって重畳キャラクターCH1をさらに半回転させるようなフレーム画像が逐次生成されれば、図8(a)(図6(c)と同じ)の位置関係は、図8(b)、図8(c)の順に順次変形させることなる。   Similarly, if the frame images that further rotate the superimposed character CH1 further half-turn are sequentially generated by the front-rear replacement control unit 306g, the positional relationship in FIG. 8A (same as FIG. 6C) is obtained. 8 (b) and FIG. 8 (c) are sequentially deformed.

このため、図8(c)において、DR4に示す方向(前方)からそれぞれのキャラクターを見た場合、前述の通り、後方キャラクターCH3の正面には重畳キャラクターCH1が重なり、且つ、重畳キャラクターCH1の画像データ(実線部分)が見えているため、後方キャラクターCH3は重畳キャラクターCH1に覆い隠されて見えない。
例えば、再生される動画では、図9(b)に示すように、重畳キャラクターCH1が1/4回転した状態では、まだ後方キャラクターCH3が見える状態であるが、図9(c)に示すように、さらに1/4回転して重畳キャラクターCH1が半回転した場合、重畳キャラクターCH1が見えるようになり、後方キャラクターCH3を覆い隠すことになるので、前方キャラクターCH2の前に、重畳キャラクターCH1が重なるような状態で視認されることになる。(第1フレーム画像)
この時、重畳キャラクターCH1は、後方キャラクターCH3と同一の被写体切り抜き画像の画像データ(実線部分)が設定されているので、ユーザ側からすれば、重畳キャラクターCH1が前方キャラクターCH2の前に入れ替わった動作として認識されることになる。
For this reason, in FIG. 8C, when each character is viewed from the direction (front) shown in DR4, as described above, the superimposed character CH1 overlaps the front of the rear character CH3, and the image of the superimposed character CH1. Since the data (solid line portion) is visible, the rear character CH3 is hidden by the superimposed character CH1 and cannot be seen.
For example, in the reproduced video, as shown in FIG. 9B, when the superimposed character CH1 is rotated by 1/4, the rear character CH3 is still visible, but as shown in FIG. 9C. Further, when the superimposed character CH1 is further rotated by a quarter turn, the superimposed character CH1 becomes visible and the rear character CH3 is obscured, so that the superimposed character CH1 overlaps before the front character CH2. It will be visually recognized in a state. (First frame image)
At this time, since the image data (solid line portion) of the same subject cutout image as that of the rear character CH3 is set for the superimposed character CH1, the operation in which the superimposed character CH1 is replaced before the front character CH2 from the user side. Will be recognized as.

以上のように、正面に画像データ、背面に背面画像データを設定した前方キャラクターを配置し、その後方に、正面に他の画像データ、背面に背面画像データを設定した後方キャラクターを配置し、前方キャラクターの前方、且つ、後方キャラクターと重なる位置に正面に、後方キャラクターと同一の画像データ、背面に当該画像データと同一形状であり透過度100%の画像データを設定した重畳キャラクターを配置して、前後関係入替時に、重畳キャラクターを半回転させるフレーム画像を逐次生成して再生することにより容易にキャラクターの前後関係を入れ替えることが可能になる。   As described above, the front character with the image data set on the front and the back image data set on the back is placed, and the back character with the other image data set on the front and the back image data set on the back is placed behind it. In the front of the character and at the position overlapping with the back character, arrange the superimposed character with the same image data as the back character on the front and the same shape as the image data and 100% transparency image data on the back, When the context is switched, it is possible to easily replace the context of the character by sequentially generating and reproducing a frame image for half-rotating the superimposed character.

但し、例えば、図6(a)の状態で、単純に重畳キャラクターを半回転、或いは、重畳キャラクタそのものを削除した状態のフレーム画像に切り替えた場合、一瞬にして重畳キャラクターが前方キャラクターに後ろ、或いは、前と入れ替わる動作としては認識され、若干不自然な動作となることも考えられる。
この場合には、重畳キャラクターが時系列で半回転する過程を含むフレーム画像を逐次生成して再生することにより、重畳キャラクターを単純に半回転、或いは、重畳キャラクタそのものを削除した場合と比較して、ユーザ側からは、重畳キャラクターが時系列で回転さながら前方キャラクターの後ろ、或いは、前に回り込んだように見えるのでより自然な動作として認識させることも可能になる。
However, for example, in the state of FIG. 6 (a), when the superimposed character is simply switched to a frame image in a half-rotation state or the superimposed character itself is deleted, the superimposed character is immediately behind the front character, or , It is recognized as an operation that replaces the previous one, and it may be a slightly unnatural operation.
In this case, by sequentially generating and playing back a frame image including a process in which the superimposed character is half-rotated in time series, the superimposed character is simply half-rotated or compared with the case where the superimposed character itself is deleted. From the user side, the superimposed character appears to wrap around behind or in front of the front character while rotating in time series, so that it can be recognized as a more natural motion.

(第2実施形態)
また、本発明の第2実施形態の動画生成システムについて、図5、図10及び図11に基づいて説明する。但し、前後入替設定部306fによる各キャラクターの配置やその他、本発明の第1実施形態と同様の部分に関しては説明を省略する。
(Second Embodiment)
Moreover, the moving image generation system of 2nd Embodiment of this invention is demonstrated based on FIG.5, FIG10 and FIG.11. However, the description of the arrangement of the characters by the front / rear replacement setting unit 306f and other parts similar to those of the first embodiment of the present invention will be omitted.

前後入替制御部306gがユーザ端末2からの指示に基づき、前方キャラクターを動かすと判断した場合(ステップS11:Yes)、前後入替制御部306gは、重畳キャラクターを半回転させると共に、前方キャラクターに対して回転や移動等させるように画像領域の変形を行いながらフレーム画像を逐次生成し(ステップS12:第2生成ステップ)、その後、通常の「フレーム画像の生成」の動作に移行する。   When the front / rear replacement control unit 306g determines that the front character is to be moved based on an instruction from the user terminal 2 (step S11: Yes), the front / rear replacement control unit 306g rotates the superimposed character halfway and The frame image is sequentially generated while the image region is deformed so as to be rotated or moved (step S12: second generation step), and then the operation proceeds to a normal “frame image generation” operation.

図10(a)(図6(c)と同じ)において、DR5に示す方向(前方)からそれぞれのキャラクターを見た場合、後方キャラクターCH3の正面には重畳キャラクターCH1が重なっているものの、重畳キャラクターCH1の正面には当該画像データと同一形状であり透過度100%の画像データ(二点鎖線部分)が見える、言い換えれば、重畳キャラクターCH1が透けて後方キャラクターCH3が見えている。
例えば、再生される動画では、図11(a)に示すように前方キャラクターCH2の後ろに、後方キャラクターCH3が重なるような状態で見えることになる。(第2フレーム画像)
In FIG. 10A (same as FIG. 6C), when each character is viewed from the direction indicated by DR5 (front), the superimposed character CH1 overlaps the front of the rear character CH3, but the superimposed character. In front of CH1, image data (two-dot chain line portion) having the same shape as the image data and 100% transparency can be seen. In other words, the superimposed character CH1 can be seen through and the rear character CH3 can be seen.
For example, in the moving image to be reproduced, as shown in FIG. 11A, it appears that the rear character CH3 overlaps behind the front character CH2. (Second frame image)

同様にして、ここで、前後入替制御部306gによって重畳キャラクターCH1をさらに半回転させると共に、前方キャラクターCH2を一回転させるようなフレーム画像が逐次生成されれば、図10(a)の位置関係は、図10(b)、図10(c)の順に順次変形させることなる。   Similarly, if the frame images that sequentially rotate the superimposed character CH1 and further rotate the forward character CH2 by the forward / reverse switching control unit 306g are sequentially generated, the positional relationship in FIG. 10 (b) and FIG. 10 (c) are sequentially deformed.

このため、図10(c)において、DR6に示す方向(前方)からユーザが、それぞれのキャラクターを見た場合、前述の通り、後方キャラクターCH3の正面には重畳キャラクターCH1が重なり、且つ、重畳キャラクターCH1の画像データ(実線部分)が見えているため、後方キャラクターCH3は重畳キャラクターCH1に覆い隠されて見えない。
例えば、再生される動画では、図11(b)に示すように、重畳キャラクターCH1が1/4回転し、且つ、前方キャラクターCH2が半回転した状態では、まだ後方キャラクターCH3が見える状態であるが、図11(c)に示すように、さらに1/4回転して重畳キャラクターCH1が半回転し、且つ、前方キャラクターCH2がさらに半回転した場合、重畳キャラクターCH1が見えるようになり、後方キャラクターCH3を覆い隠すことになるので、前方キャラクターCH2の前に、重畳キャラクターCH1が重なるような状態で視認されることになる。(第1フレーム画像)
この時、重畳キャラクターCH1は、後方キャラクターCH3と同一の被写体切り抜き画像の画像データ(実線部分)が設定されているので、ユーザ側からすれば、重畳キャラクターCH1が一回転する前方キャラクターCH2の前に回り込んだ動作として認識されることになる。
For this reason, in FIG. 10C, when the user views each character from the direction indicated by DR6 (front), as described above, the superimposed character CH1 overlaps the front of the rear character CH3, and the superimposed character Since the image data (solid line part) of CH1 is visible, the rear character CH3 is covered with the superimposed character CH1 and cannot be seen.
For example, in the reproduced video, as shown in FIG. 11B, when the superimposed character CH1 is rotated 1/4 and the front character CH2 is rotated halfway, the rear character CH3 is still visible. As shown in FIG. 11 (c), when the superimposed character CH1 is further rotated by a quarter turn and the front character CH2 is further rotated half a turn, the superimposed character CH1 becomes visible, and the rear character CH3. Therefore, it is visually recognized in a state where the superimposed character CH1 overlaps the front character CH2. (First frame image)
At this time, since the image data (solid line portion) of the same subject cutout image as that of the rear character CH3 is set for the superimposed character CH1, from the user side, the superimposed character CH1 is placed in front of the front character CH2 that makes one rotation. It will be recognized as a wraparound action.

以上のように、正面に画像データ、背面に背面画像データを設定した前方キャラクターを配置し、その後方に、正面に他の画像データ、背面に背面画像データを設定した後方キャラクターを配置し、前方キャラクターの前方、且つ、後方キャラクターと重なる位置に正面に、後方キャラクターと同一の画像データ、背面に当該画像データと同一形状であり透過度100%の画像データを設定した重畳キャラクターを配置して、前後関係入替時に、重畳キャラクターを半回転させると共に、前方キャラクターも回転させるフレーム画像を逐次生成して再生することにより、容易にキャラクターの前後関係を入れ替えることが可能になる。   As described above, the front character with the image data set on the front and the back image data set on the back is placed, and the back character with the other image data set on the front and the back image data set on the back is placed behind it. In the front of the character and at the position overlapping with the back character, arrange the superimposed character with the same image data as the back character on the front and the same shape as the image data and 100% transparency image data on the back, At the time of changing the context, it is possible to easily change the context of the character by sequentially generating and playing back the frame images that rotate the superimposed character in half and the front character.

但し、例えば、図10(a)の状態で、単純に重畳キャラクターを半回転、或いは、重畳キャラクターそのものを削除すると共に前方キャラクターも回転させるフレーム画像に切り替えた場合、一瞬にして重畳キャラクターが前方キャラクターに後ろ、或いは、前と入れ替わる動作としては認識され、若干不自然な動作となることも考えられる。
この場合には、重畳キャラクターが時系列で半回転する過程、及び、前方キャラクターが回転する過程を含むフレーム画像を逐次生成して再生することにより、重畳キャラクターを単純に半回転、或いは、重畳キャラクターそのものを削除した場合と比較して、前方キャラクターの回転の動作が加わるので、ユーザ側からは、キャラクター間の前後関係の入れ替わりが、自然でより複雑な動作として認識させることも可能になる。
However, for example, in the state shown in FIG. 10A, when the superimposed character is simply rotated halfway, or when the frame is switched to a frame image in which the superimposed character itself is deleted and the forward character is rotated, the superimposed character is instantaneously moved forward. It is recognized that the movement is backward or backward, and the movement is slightly unnatural.
In this case, the superimposed character is simply half-turned or superimposed by sequentially generating and playing back a frame image including the process of the superimposed character half-rotating in time series and the process of rotating the forward character. Compared with the case where the character itself is deleted, the rotation of the forward character is added, so that it is possible for the user to recognize the change of the context between the characters as a natural and more complex motion.

(変形例1)
本発明の第1実施形態及び第2実施形態の変形例1について、図7に基づいて説明する。
図7に示すように、重畳キャラクターを半回転させことにより、重畳キャラクターが静止、或いは、動作する前方キャラクターの後ろに回り込んだ動作として認識される際に、前後入替制御部306gによって、予め後方キャラクターを半回転させて背面を向けておき、重畳キャラクターが半回転した時点で、後方キャラクターをさらに半回転させて正面を向けるように画像領域の変形を行いながらフレーム画像を生成する。
(Modification 1)
Modification 1 of the first and second embodiments of the present invention will be described with reference to FIG.
As shown in FIG. 7, when the superimposed character is recognized as being stationary or moving behind the moving front character by half-rotating the superimposed character, it is The character is rotated halfway and the back is turned. When the superimposed character is rotated halfway, a frame image is generated while the image area is deformed so that the rear character is further rotated halfway and turned frontward.

すなわち、正面に画像データ、背面に背面画像データを設定した前方キャラクターを配置し、その後方に、正面に他の画像データ、背面に背面画像データを設定した後方キャラクターを配置し、前方キャラクターの前方、且つ、後方キャラクターと重なる位置に正面に、後方キャラクターと同一の画像データ、背面に当該画像データと同一形状であり透過度100%の画像データを設定した重畳キャラクターを配置して、前後関係入替時に、予め後方キャラクターを半回転させて背面を向けておき、重畳方キャラクターが半回転した時点で、後方キャラクターをさらに半回転させて正面を向けるフレーム画像を逐次生成して再生することにより、重畳キャラクターが回転しながら静止、或いは、動作する前方キャラクターの後ろに回り込んだ動作として認識されることになる。   In other words, a front character with image data set on the front and a back image data set on the back is placed, behind that, another image data set on the front and a back character set with back image data on the back is placed, and the front character is In addition, a superimposed character with the same image data as the rear character and the same shape as the image data and set with 100% transparency image data is placed on the front side at the position overlapping the rear character, and the context is changed. Occasionally, the back character is rotated halfway in advance and the back is directed, and when the superimposing character is rotated halfway, the back character is further rotated halfway and the frame images facing the front are sequentially generated and played back. The character is stationary while rotating, or wraps around behind the moving forward character It will be recognized as work.

以上のように、変形例1では、単純に重畳キャラクターを半回転させた場合と比較して、後方キャラクターの回転の動作が加わるので、ユーザ側からは、キャラクター間の前後関係入れ替わりが、自然でより複雑な動作として認識させることも可能になる。   As described above, in the first modification, compared to the case where the superimposed character is simply rotated halfway, the movement of the backward character is added. It can also be recognized as a more complex action.

(変形例2)
本発明の第1実施形態及び第2実施形態の変形例2について、図9に基づいて説明する。
図9に示すように、重畳キャラクターを半回転させことにより、重畳キャラクターが静止、或いは、動作する前方キャラクターの前に回り込んだ動作として認識される際に、前後入替制御部306gによって、後方キャラクターを半回転させて背面を向け、その後、重畳キャラクターが半回転させて正面を向けるように画像領域の変形を行いながらフレーム画像を生成する。
(Modification 2)
Modification 2 of the first embodiment and the second embodiment of the present invention will be described with reference to FIG.
As shown in FIG. 9, when the superimposed character is recognized as being stationary or moving in front of the moving front character by half-rotating the superimposed character, the rear character is controlled by the front / rear replacement control unit 306g. The frame image is generated while the image area is deformed so that the superimposed character turns halfway and turns to the front.

すなわち、正面に画像データ、背面に背面画像データを設定した前方キャラクターを配置し、その後方に、正面に他の画像データ、背面に背面画像データを設定した後方キャラクターを配置し、前方キャラクターの前方、且つ、後方キャラクターと重なる位置に正面に、後方キャラクターと同一の画像データ、背面に当該画像データと同一形状であり透過度100%の画像データを設定した重畳キャラクターを配置して、前後関係入替時に、予め重畳キャラクターが背面を向けている状態で、後方キャラクターを半回転させ、その後、重畳キャラクターを半回転させて正面を向けるフレーム画像を逐次生成して再生することにより、重畳キャラクターが回転しながら静止、或いは、動作する前方キャラクターの前に回り込んだ動作として認識されることになる。   In other words, a front character with image data set on the front and a back image data set on the back is placed, behind that, another image data set on the front and a back character set with back image data on the back is placed, and the front character is In addition, a superimposed character with the same image data as the rear character and the same shape as the image data and set with 100% transparency image data is placed on the front side at the position overlapping the rear character, and the context is changed. Occasionally, the superimposed character rotates by rotating the backward character half-turned in advance with the superimposed character facing in advance, and then sequentially generating and playing frame images that face the front by half-rotating the superimposed character. While still, or recognized as moving around the front of the moving character Is will be.

以上のように、変形例2では、単純に重畳キャラクターを半回転させた場合と比較して、後方キャラクターの回転の動作が加わるので、ユーザ側からは、キャラクター間の前後関係入れ替わりが、自然でより複雑な動作として認識させることも可能になる。   As described above, in the second modification, the movement of the backward character is added as compared with the case where the superimposed character is simply rotated halfway. It can also be recognized as a more complex action.

なお、第1実施形態や第2実施形態の説明に際しては、各キャラクター(前方キャラクター、後方キャラクター及び重畳キャラクター)の回転としては、平面図に対する垂直軸を中心に右回りに回転させているが、勿論、この回転軸や回転方向に限定される訳ではなく、任意の回転軸に対して任意の回転方向に回転させるものであれば良い。   In the description of the first embodiment and the second embodiment, each character (front character, rear character, and superimposed character) is rotated clockwise about the vertical axis with respect to the plan view. Of course, the rotation axis and the rotation direction are not limited, and any rotation axis can be used as long as the rotation axis can be rotated in any rotation direction.

また、図10等の説明に際しては、前方キャラクターの動作として回転動作を例示しているが、勿論、回転動作のみに限定される訳ではなく、フレーム画像内での移動やダンス等任意の動作を行うものであれば良い。   In the description of FIG. 10 and the like, the rotation operation is illustrated as the operation of the forward character, but of course, it is not limited to the rotation operation, and any operation such as movement or dance in the frame image is performed. Anything you want to do.

また、第1実施形態や第2実施形態の説明に際しては、予め、重畳キャラクターの他面の透過度を100%となるように設定する旨記載しているが、フレーム画像の生成時に重畳キャラクターを不可視状態に加工することによっても同様の効果を奏することが可能である。   In the description of the first embodiment and the second embodiment, it is described that the transparency of the other surface of the superimposed character is set to 100% in advance. The same effect can be achieved by processing in an invisible state.

「被写体画像の生成」でも説明した通り、第1実施形態や第2実施形態における前方キャラクターや後方キャラクターは、背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた画像であることは言うまでもない。   As described in “Generating a subject image”, the front character and the rear character in the first embodiment and the second embodiment are images in which a region including a subject is cut out from an image including a background and a subject. Needless to say.

また、第1実施形態や第2実施形態の説明に際しては、重畳キャラクターの半回転の動作により、キャラクターの前後関係を入れ替える旨説明しているが、重畳キャラクターを除去することによって、キャラクターの前後関係を入れ替えるものであっても構わない。   In the description of the first embodiment and the second embodiment, it is explained that the character context is replaced by the half rotation of the superimposed character. However, by removing the superimposed character, the character context is removed. May be replaced.

加えて、上記実施形態にあっては、取得ステップ、第1生成ステップ及び第2生成ステップとしての動作を、中央制御部301の制御下にて、画像取得部306aと、背面画像生成部306bと、制御点設定部306cと、フレーム生成部306dと、動画再生部306eと、前後入替設定部306fと、前後入替制御部306gとを具備している動画処理部306より実現される構成としたが、これに限られるものではなく、取得手段、第1生成手段、第2生成手段から構成される画像生成装置として実現しても良い。
即ち、第1画像である前方キャラクターをサーバ3の記憶部305に記憶されている被写体切り抜き画像の画像データから取得して前面の位置に配置し、第2画像である、前方キャラクターの後方に配置する後方キャラクターをサーバ3の記憶部305に記憶されている被写体切り抜き画像の画像データから取得して第1前方キャラクターの後方の位置に配置する取得手段と、配置した前方キャラクターのさらに前方であって、且つ、既に配置した後方キャラクターと重なる位置に、正面若しくは背面のいずれか一面が後方キャラクターと同一の被写体切り抜き画像である重畳キャラクターを生成して配置する第1生成手段と、重畳キャラクターを半回転させると共に、前方キャラクターに対して回転や移動等させるように画像領域の変形を行いながらフレーム画像を逐次生成する、或いは、重畳キャラクターを半回転させるように画像領域の変形を行いながらフレーム画像を逐次生成する第2生成手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the operations as the acquisition step, the first generation step, and the second generation step are performed under the control of the central control unit 301, the image acquisition unit 306a, the back image generation unit 306b, The video processing unit 306 includes a control point setting unit 306c, a frame generation unit 306d, a video playback unit 306e, a front / rear replacement setting unit 306f, and a front / rear replacement control unit 306g. However, the present invention is not limited to this, and may be realized as an image generation apparatus including acquisition means, first generation means, and second generation means.
That is, the front character that is the first image is acquired from the image data of the cut-out subject image stored in the storage unit 305 of the server 3 and is placed at the front position, and is placed behind the front character that is the second image. An acquisition means for acquiring the rear character to be acquired from the image data of the subject cutout image stored in the storage unit 305 of the server 3 and disposing the character at a position behind the first front character; In addition, a first generation means for generating and arranging a superimposed character that is a cut-out image of the same subject as either the front character or the rear character at a position that overlaps the rear character that has already been arranged, and a half rotation of the superimposed character And transform the image area to rotate or move the character in front. Sequentially generating a frame image without leaving, or may be configured to function as a second generating means for sequentially generating a frame image while the deformation of the image area so as to half turn superimposed characters.

加えて、上記実施形態にあっては、取得ステップ、第1生成ステップ及び第2生成ステップとしての動作を、中央制御部301の制御下にて、画像取得部306aと、背面画像生成部306bと、制御点設定部306cと、フレーム生成部306dと、動画再生部306eと、前後入替設定部306fと、前後入替制御部306gとを具備している動画処理部306より実現される構成としたが、これに限られるものではなく、中央制御部301によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、第1生成処理ルーチン及び第2生成処理ルーチンを含むプログラムを記憶しておく。
そして、取得処理ルーチンにより中央制御部301のCPUを、第1画像である前方キャラクターをサーバ3の記憶部305に記憶されている被写体切り抜き画像の画像データから取得して前面の位置に配置し、第2画像である、前方キャラクターの後方に配置する後方キャラクターをサーバ3の記憶部305に記憶されている被写体切り抜き画像の画像データから取得して第1前方キャラクターの後方の位置に配置する取得手段として機能させるようにしても良い。
また、第1生成処理ルーチンにより中央制御部301のCPUを、配置した前方キャラクターのさらに前方であって、且つ、既に配置した後方キャラクターと重なる位置に、正面若しくは背面のいずれか一面が後方キャラクターと同一の被写体切り抜き画像である重畳キャラクターを生成して配置する第1生成手段として機能させるようにしても良い。
また、第2生成処理ルーチンにより中央制御部301のCPUを、重畳キャラクターを半回転させると共に、前方キャラクターに対して回転や移動等させるように画像領域の変形を行いながらフレーム画像を逐次生成する、或いは、重畳キャラクターを半回転させるように画像領域の変形を行いながらフレーム画像を逐次生成する第2生成手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the operations as the acquisition step, the first generation step, and the second generation step are performed under the control of the central control unit 301, the image acquisition unit 306a, the back image generation unit 306b, The video processing unit 306 includes a control point setting unit 306c, a frame generation unit 306d, a video playback unit 306e, a front / rear replacement setting unit 306f, and a front / rear replacement control unit 306g. However, the present invention is not limited to this, and a configuration realized by executing a predetermined program or the like by the central control unit 301 may be adopted.
That is, a program including an acquisition process routine, a first generation process routine, and a second generation process routine is stored in a program memory (not shown) that stores the program.
Then, the CPU of the central control unit 301 acquires the front character as the first image from the image data of the subject cutout image stored in the storage unit 305 of the server 3 by the acquisition processing routine, and arranges it at the front position. Acquisition means for acquiring a rear character to be arranged behind the front character, which is the second image, from the image data of the subject cutout image stored in the storage unit 305 of the server 3 and arranging it at a position behind the first front character. You may make it function as.
Further, the CPU of the central control unit 301 is further forward of the front character placed by the first generation processing routine and at a position overlapping with the rear character already placed, either one of the front and back faces is the rear character. You may make it function as the 1st production | generation means which produces | generates and arrange | positions the superimposition character which is the same subject clipping image.
Further, the CPU of the central control unit 301 sequentially generates frame images while deforming the image area so that the superimposed character is rotated halfway and rotated or moved with respect to the front character by the second generation processing routine. Or you may make it function as a 2nd production | generation means which produces | generates a frame image sequentially, deform | transforming an image area | region so that a superimposition character may be rotated in half.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
前後位置をずらして配置される第1及び第2画像を取得する取得ステップと、
前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成ステップと、
前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成ステップと
を含むことを特徴とする画像生成方法。
<請求項2>
前記第1生成ステップは、
前記重畳画像として、前面側及び背面側のうち、前記一面側と異なる他面側を透過させた画像を生成し、
前記第2生成ステップは、
前記第2フレーム画像として、前記他面側を手前側として前記重畳画像を前記奥側画像と重畳させたフレーム画像を含む動画像を生成することを特徴とする請求項1に記載の画像生成方法。
<請求項3>
前記第2生成ステップは、
前記第1フレーム画像と前記第2フレーム画像とが切り替えられる動画像を生成することを特徴とする請求項1若しくは2に記載の画像生成方法。
<請求項4>
前記第2生成ステップは、
前記重畳画像を半回転動作させる際に、前記第1フレーム画像と前記第2フレーム画像とが切り替えられる動画像を生成することを特徴とする請求項3に記載の画像生成方法。
<請求項5>
前記第2生成ステップは、
略等しい動作を略同期させて行う前記奥側画像及び前記重畳画像を半回転動作させる際に、前記第1フレーム画像と前記第2フレーム画像とが切り替えられる動画像を生成することを特徴とする請求項3に記載の画像生成方法。
<請求項6>
前記第2生成ステップは、
前記手前側画像を半回転動作させる際に、前記第1フレーム画像と前記第2フレーム画像とが切り替えられる動画像を生成することを特徴とする請求項3〜5の何れか一項に記載の画像生成方法。
<請求項7>
前記第1及び第2画像は、
背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた画像であることを特徴とする請求項1〜6の何れか一項に記載の画像生成方法。
<請求項8>
前後位置をずらして配置される第1及び第2画像を取得する取得手段と、
前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成手段と、
前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成手段と
を備えたことを特徴とする画像生成装置。
<請求項9>
コンピュータを、
前後位置をずらして配置される第1及び第2画像を取得する取得手段と、
前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成手段と、
前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成手段と
して機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
An acquisition step of acquiring the first and second images arranged by shifting the front-rear position;
Of the first and second images, a superimposed image is generated that is superimposed on the back side image located on the back side, and one of the front side and the back side is substantially equal to one side of the back side image. A first generation step to:
Of the first and second images, a first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, A second generation step of generating a moving image including a second frame image obtained by superimposing the superimposed image on the back side image in an invisible state on the near side of the near side image among the first and second images. An image generation method comprising:
<Claim 2>
The first generation step includes
As the superimposed image, generate an image that transmits the other side different from the one side among the front side and the back side,
The second generation step includes
2. The image generation method according to claim 1, wherein a moving image including a frame image in which the superimposed image is superimposed on the back side image with the other surface side in front is generated as the second frame image. .
<Claim 3>
The second generation step includes
The image generation method according to claim 1, wherein a moving image in which the first frame image and the second frame image are switched is generated.
<Claim 4>
The second generation step includes
4. The image generation method according to claim 3, wherein a moving image is generated in which the first frame image and the second frame image are switched when the superimposed image is half-rotated.
<Claim 5>
The second generation step includes
A moving image is generated in which the first frame image and the second frame image are switched when the back-side image and the superimposed image that are substantially synchronized with each other in a substantially synchronized manner are rotated halfway. The image generation method according to claim 3.
<Claim 6>
The second generation step includes
6. The moving image in which the first frame image and the second frame image are switched when the near-side image is half-rotated is generated. 6. Image generation method.
<Claim 7>
The first and second images are
The image generation method according to claim 1, wherein an image including a subject is cut out from an image including a background and the subject.
<Claim 8>
Obtaining means for obtaining the first and second images arranged by shifting the front-rear position;
Of the first and second images, a superimposed image is generated that is superimposed on the back side image located on the back side, and one of the front side and the back side is substantially equal to one side of the back side image. First generating means for
Of the first and second images, a first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, Of the first and second images, second generation means for generating a moving image including a second frame image in which the superimposed image is superimposed on the back side image in an invisible state on the near side of the near side image. An image generation apparatus comprising:
<Claim 9>
Computer
Obtaining means for obtaining the first and second images arranged by shifting the front-rear position;
Of the first and second images, a superimposed image is generated that is superimposed on the back side image located on the back side, and one of the front side and the back side is substantially equal to one side of the back side image. First generating means for
Of the first and second images, a first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, Of the first and second images, second generation means for generating a moving image including a second frame image in which the superimposed image is superimposed on the back side image in an invisible state on the near side of the near side image. A program characterized by functioning as

100 動画生成システム
1 撮像装置
2 ユーザ端末
3 サーバ
201,301 中央制御部
202 操作入力部
203,302 表示部
204 音出力部
205 記録媒体制御部
206,303 通信制御部
304 被写体切抜部
305 記憶部
306 動画処理部
306f 前後入替設置部
306g 前後入替制御部
DESCRIPTION OF SYMBOLS 100 Movie generation system 1 Imaging device 2 User terminal 3 Server 201, 301 Central control part 202 Operation input part 203, 302 Display part 204 Sound output part 205 Recording medium control part 206, 303 Communication control part 304 Subject clipping part 305 Storage part 306 Movie processing unit 306f Front / rear replacement installation unit 306g Front / rear replacement control unit

Claims (8)

前後位置をずらして配置される第1及び第2画像を取得する取得ステップと、
前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成ステップと、
前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成ステップとを含み、
前記第1生成ステップは、
前記重畳画像として、前面側及び背面側のうち、前記一面側と異なる他面側を透過させた画像を生成し、
前記第2生成ステップは、
前記第2フレーム画像として、前記他面側を手前側として前記重畳画像を前記奥側画像と重畳させたフレーム画像を含む動画像を生成することを特徴とする画像生成方法。
An acquisition step of acquiring the first and second images arranged by shifting the front-rear position;
Of the first and second images, a superimposed image is generated that is superimposed on the back side image located on the back side, and one of the front side and the back side is substantially equal to one side of the back side image. A first generation step to:
Of the first and second images, a first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, A second generation step of generating a moving image including a second frame image obtained by superimposing the superimposed image on the back side image in an invisible state on the near side of the near side image among the first and second images. viewing including the door,
The first generation step includes
As the superimposed image, generate an image that transmits the other side different from the one side among the front side and the back side,
The second generation step includes
An image generation method comprising: generating a moving image including a frame image obtained by superimposing the superimposed image on the back side image with the other surface side on the near side as the second frame image .
前記第2生成ステップは、The second generation step includes
前記第1フレーム画像と前記第2フレーム画像とが切り替えられる動画像を生成することを特徴とする請求項1に記載の画像生成方法。The image generation method according to claim 1, wherein a moving image in which the first frame image and the second frame image are switched is generated.
前後位置をずらして配置される第1及び第2画像を取得する取得ステップと、An acquisition step of acquiring the first and second images arranged by shifting the front-rear position;
前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成ステップと、Of the first and second images, a superimposed image is generated that is superimposed on the back side image located on the back side, and one of the front side and the back side is substantially equal to one side of the back side image. A first generation step to:
前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成ステップとを含み、Of the first and second images, a first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, A second generation step of generating a moving image including a second frame image obtained by superimposing the superimposed image on the back side image in an invisible state on the near side of the near side image among the first and second images. Including
前記第2生成ステップは、The second generation step includes
前記重畳画像を半回転動作させる際に、前記第1フレーム画像と前記第2フレーム画像とが切り替えられる動画像を生成することを特徴とする画像生成方法。A method for generating an image, comprising: generating a moving image in which the first frame image and the second frame image are switched when the superimposed image is half-rotated.
前後位置をずらして配置される第1及び第2画像を取得する取得ステップと、An acquisition step of acquiring the first and second images arranged by shifting the front-rear position;
前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成ステップと、Of the first and second images, a superimposed image is generated that is superimposed on the back side image located on the back side, and one of the front side and the back side is substantially equal to one side of the back side image. A first generation step to:
前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成ステップとを含み、Of the first and second images, a first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, A second generation step of generating a moving image including a second frame image obtained by superimposing the superimposed image on the back side image in an invisible state on the near side of the near side image among the first and second images. Including
前記第2生成ステップは、The second generation step includes
略等しい動作を略同期させて行う前記奥側画像及び前記重畳画像を半回転動作させる際に、前記第1フレーム画像と前記第2フレーム画像とが切り替えられる動画像を生成することを特徴とする画像生成方法。A moving image is generated in which the first frame image and the second frame image are switched when the back-side image and the superimposed image that are substantially synchronized with each other in a substantially synchronized manner are rotated halfway. Image generation method.
前後位置をずらして配置される第1及び第2画像を取得する取得ステップと、An acquisition step of acquiring the first and second images arranged by shifting the front-rear position;
前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成ステップと、Of the first and second images, a superimposed image is generated that is superimposed on the back side image located on the back side, and one of the front side and the back side is substantially equal to one side of the back side image. A first generation step to:
前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成ステップとを含み、Of the first and second images, a first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, A second generation step of generating a moving image including a second frame image obtained by superimposing the superimposed image on the back side image in an invisible state on the near side of the near side image among the first and second images. Including
前記第2生成ステップは、The second generation step includes
前記手前側画像を半回転動作させる際に、前記第1フレーム画像と前記第2フレーム画像とが切り替えられる動画像を生成することを特徴とする画像生成方法。A method for generating an image, comprising: generating a moving image in which the first frame image and the second frame image are switched when the near-side image is rotated halfway.
前記第1及び第2画像は、The first and second images are
背景と被写体とが存在する画像から被写体が含まれる領域が切り抜かれた画像であることを特徴とする請求項1〜5の何れか一項に記載の画像生成方法。The image generation method according to claim 1, wherein an image including a subject is cut out from an image including a background and the subject.
前後位置をずらして配置される第1及び第2画像を取得する取得手段と、
前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成手段と、
前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成手段とを備え、
前記第1生成手段は、
前記重畳画像として、前面側及び背面側のうち、前記一面側と異なる他面側を透過させた画像を生成し、
前記第2生成手段は、
前記第2フレーム画像として、前記他面側を手前側として前記重畳画像を前記奥側画像と重畳させたフレーム画像を含む動画像を生成することを特徴とする画像生成装置。
Obtaining means for obtaining the first and second images arranged by shifting the front-rear position;
Of the first and second images, a superimposed image is generated that is superimposed on the back side image located on the back side, and one of the front side and the back side is substantially equal to one side of the back side image. First generating means for
Of the first and second images, a first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, Of the first and second images, second generation means for generating a moving image including a second frame image in which the superimposed image is superimposed on the back side image in an invisible state on the near side of the near side image. And
The first generation means includes
As the superimposed image, generate an image that transmits the other side different from the one side among the front side and the back side,
The second generation means includes
An image generating apparatus that generates a moving image including a frame image obtained by superimposing the superimposed image on the back side image with the other surface side on the near side as the second frame image .
コンピュータを、
前後位置をずらして配置される第1及び第2画像を取得する取得手段と、
前記第1及び第2画像のうち、奥側に位置する奥側画像に対して重畳され、前面側及び背面側のうちの何れかの一面側が前記奥側画像の一面と略等しい重畳画像を生成する第1生成手段と、
前記第1及び第2画像のうち、手前側に位置する手前側画像よりも手前側に、前記一面側を手前側として前記重畳画像を前記奥側画像に重畳させた第1フレーム画像と、前記第1及び第2画像のうち、前記手前側画像よりも手前側に、前記重畳画像を不可視状態として前記奥側画像に重畳させた第2フレーム画像とを含む動画像を生成する第2生成手段として機能させ、
前記第1生成手段は、
前記重畳画像として、前面側及び背面側のうち、前記一面側と異なる他面側を透過させた画像を生成し、
前記第2生成手段は、
前記第2フレーム画像として、前記他面側を手前側として前記重畳画像を前記奥側画像と重畳させたフレーム画像を含む動画像を生成することを特徴とするプログラム。
Computer
Obtaining means for obtaining the first and second images arranged by shifting the front-rear position;
Of the first and second images, a superimposed image is generated that is superimposed on the back side image located on the back side, and one of the front side and the back side is substantially equal to one side of the back side image. First generating means for
Of the first and second images, a first frame image in which the superimposed image is superimposed on the back side image with the one surface side on the near side of the near side image located on the near side, Of the first and second images, second generation means for generating a moving image including a second frame image in which the superimposed image is superimposed on the back side image in an invisible state on the near side of the near side image. Function as
The first generation means includes
As the superimposed image, generate an image that transmits the other side different from the one side among the front side and the back side,
The second generation means includes
A program for generating a moving image including a frame image obtained by superimposing the superimposed image on the back side image with the other surface side on the near side as the second frame image .
JP2012063119A 2012-03-21 2012-03-21 Image generation method, image generation apparatus, and program Expired - Fee Related JP5919926B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012063119A JP5919926B2 (en) 2012-03-21 2012-03-21 Image generation method, image generation apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012063119A JP5919926B2 (en) 2012-03-21 2012-03-21 Image generation method, image generation apparatus, and program

Publications (2)

Publication Number Publication Date
JP2013196409A JP2013196409A (en) 2013-09-30
JP5919926B2 true JP5919926B2 (en) 2016-05-18

Family

ID=49395257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012063119A Expired - Fee Related JP5919926B2 (en) 2012-03-21 2012-03-21 Image generation method, image generation apparatus, and program

Country Status (1)

Country Link
JP (1) JP5919926B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040407A (en) * 1996-07-24 1998-02-13 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating moving image
JP3780512B2 (en) * 2002-07-30 2006-05-31 株式会社光栄 PROGRAM, RECORDING MEDIUM, AND GAME DEVICE
JP4883529B2 (en) * 2007-01-29 2012-02-22 サミー株式会社 Image generation apparatus, game machine, and image generation program

Also Published As

Publication number Publication date
JP2013196409A (en) 2013-09-30

Similar Documents

Publication Publication Date Title
JP5434965B2 (en) Movie generation method, movie generation device, and program
JP5454604B2 (en) Video playback method, video playback device, and program
JP3601350B2 (en) Performance image information creation device and playback device
JP5375897B2 (en) Image generation method, image generation apparatus, and program
JP2004005567A (en) Method for generating computer display image, computer processing system for generating image data, and graphics processor
WO2000007364A1 (en) Moving picture synthesizer
JP2001351126A (en) Computer-readable recording medium with program of game recorded thereon, program of game and method/ device for processing game
JP3315363B2 (en) Moving image reproduction quality control device and control method thereof
WO2009067878A1 (en) Lyrics characters display method and system
JP2000311251A (en) Device and method for generating animation and storage medium
JP5408205B2 (en) Control point setting method, control point setting device, and program
JP3617839B2 (en) GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE
JP5919926B2 (en) Image generation method, image generation apparatus, and program
JP2006196017A (en) Animation creation apparatus and method, storage medium
JP5408206B2 (en) Image generation method, image generation apparatus, and program
JP5776442B2 (en) Image generation method, image generation apparatus, and program
JP5906897B2 (en) Motion information generation method, motion information generation device, and program
JP5891883B2 (en) Image generation method, image generation apparatus, and program
JP3523784B2 (en) Interactive image operation display apparatus and method, and program storage medium
JP4607210B2 (en) Playback apparatus, playback method, and program
JP5874426B2 (en) Control point setting method, control point setting device, and program
JP2020095465A (en) Image processing device, image processing method, and program
JP2006048901A (en) Multimedia information reproducing device and multimedia information recording device
JP2011082714A (en) Device for creating moving picture, computer program therefor, and storage medium therefor
JPWO2003003299A1 (en) Actual size reproduction and display method of image data and actual size reproduction and display system of image data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160328

R150 Certificate of patent or registration of utility model

Ref document number: 5919926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees