JP2015191480A - Information processor, operation method of object and operation program of object - Google Patents

Information processor, operation method of object and operation program of object Download PDF

Info

Publication number
JP2015191480A
JP2015191480A JP2014068753A JP2014068753A JP2015191480A JP 2015191480 A JP2015191480 A JP 2015191480A JP 2014068753 A JP2014068753 A JP 2014068753A JP 2014068753 A JP2014068753 A JP 2014068753A JP 2015191480 A JP2015191480 A JP 2015191480A
Authority
JP
Japan
Prior art keywords
unit
motion vector
optical flow
image
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014068753A
Other languages
Japanese (ja)
Inventor
岡 正昭
Masaaki Oka
正昭 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2014068753A priority Critical patent/JP2015191480A/en
Priority to PCT/JP2015/058391 priority patent/WO2015146813A1/en
Priority to US15/119,814 priority patent/US10080963B2/en
Publication of JP2015191480A publication Critical patent/JP2015191480A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor capable of smoothly moving an object synthesized and displayed on a dynamic image in combination with changes of the dynamic image.SOLUTION: An information processor 37 displays a dynamic image taken by an imaging apparatus on a display device and operates an object synthesized and displayed on the displayed dynamic image. The information processor 37 includes: optical flow generation means 374 that generates optical flows on the basis of at least two frame images constituting a dynamic image taken by an imaging apparatus; motion vector detection means 375 that detects motion vectors in a display position of the object from the generated optical flow; and object operation means 376 that operates the object on the basis of the detected motion vectors.

Description

本発明は、撮像装置で撮像された動画像上に合成表示されたオブジェクトの操作を行う情報処理装置、オブジェクトの操作方法、及びオブジェクトの操作プログラムに関する。   The present invention relates to an information processing apparatus that operates an object that is combined and displayed on a moving image captured by an imaging apparatus, an object operation method, and an object operation program.

従来、カメラ等で撮像した撮像画像上で撮像画像の手指部分を検出し、検出された手指部分にGUI(Graphical User Interface)部材を表示させ、手指部分の画像をポインタとして使用する技術が知られている(例えば特許文献1参照)。
この技術によれば、撮像画像上に表示されたGUI部材に対してユーザが指示・選択・移動等のGUI操作をすることができる。
2. Description of the Related Art Conventionally, a technique is known in which a finger part of a captured image is detected on a captured image captured by a camera, a GUI (Graphical User Interface) member is displayed on the detected finger part, and an image of the finger part is used as a pointer. (For example, refer to Patent Document 1).
According to this technique, the user can perform GUI operations such as instruction, selection, and movement on the GUI member displayed on the captured image.

特開2012−53674号公報JP 2012-53674 A

しかしながら、前記特許文献1に記載の技術は、手指部分の画像上にGUI部材を表示するものであり、表示されたGUI部材を操作する手指部分の画像はあくまでも静止画像として取り扱われている。従って、合成される画像が動画像等の場合、動画像上の手指部分の動きに応じて滑らかにGUI部材を操作することが困難であるという問題がある。   However, the technique described in Patent Document 1 displays a GUI member on the image of the finger part, and the image of the finger part that operates the displayed GUI member is treated as a still image. Therefore, when the synthesized image is a moving image or the like, there is a problem that it is difficult to smoothly operate the GUI member according to the movement of the finger part on the moving image.

本発明の目的は、動画像上に合成表示されたオブジェクトを、動画像の変化に合わせて滑らかに操作することのできる情報処理装置、オブジェクトの操作方法、及びオブジェクトの操作プログラムを提供することにある。   An object of the present invention is to provide an information processing apparatus, an object operation method, and an object operation program that can smoothly operate an object combined and displayed on a moving image in accordance with a change in the moving image. is there.

本発明の第1態様に係る情報処理装置は、
撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作する情報処理装置であって、
前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するオプティカルフロー生成手段と、
前記オプティカルフロー生成手段で生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出する動きベクトル検出手段と、
前記動きベクトル検出手段で検出された動きベクトルに基づいて、前記オブジェクトの操作を行うオブジェクト操作手段とを備えていることを特徴とする。
An information processing apparatus according to the first aspect of the present invention includes:
An information processing device that displays a moving image captured by an imaging device on a display device, and operates an object that is combined and displayed on the displayed moving image,
An optical flow generating means for generating an optical flow based on at least two frame images constituting a moving image captured by the imaging device;
Motion vector detection means for detecting a motion vector at the display position of the object from the optical flow generated by the optical flow generation means;
And an object operating means for operating the object based on the motion vector detected by the motion vector detecting means.

ここで、オプティカルフロー生成手段は、動画像を構成する少なくとも2つのフレーム画像からオプティカルフローを生成するが、オプティカルフローは公知のブロックマッチング法、勾配法等によって生成することができる。
第1態様に係る情報処理装置によれば、オプティカルフロー生成手段により動画像のオプティカルフローを生成し、動きベクトル検出手段によりオブジェクトの表示位置における動きベクトルを検出しているので、オブジェクト操作手段によりオブジェクトの移動操作を行うに際して、検出された動きベクトルに応じてオブジェクトの移動操作を滑らかに行うことができる。
Here, the optical flow generation means generates an optical flow from at least two frame images constituting the moving image, and the optical flow can be generated by a known block matching method, gradient method or the like.
According to the information processing apparatus according to the first aspect, since the optical flow of the moving image is generated by the optical flow generation means and the motion vector at the display position of the object is detected by the motion vector detection means, the object operation means detects the object When the movement operation is performed, the object movement operation can be smoothly performed according to the detected motion vector.

本発明の第2態様に係る情報処理装置は、第1態様に係る情報処理装置において、
前記オブジェクトを操作する領域を選択する操作領域選択手段を備えていることを特徴とする。
An information processing apparatus according to a second aspect of the present invention is the information processing apparatus according to the first aspect.
An operation area selecting means for selecting an area for operating the object is provided.

第2態様に係る情報処理装置によれば、操作領域選択手段により操作領域として選択しているので、操作領域以外の動きベクトルでオブジェクトの操作が邪魔されることを防止することができる。   According to the information processing apparatus according to the second aspect, since the operation area is selected by the operation area selection unit, it is possible to prevent the operation of the object from being obstructed by a motion vector other than the operation area.

本発明の第3態様に係る情報処理装置は、第2態様に係る情報処理装置において、
前記操作領域選択手段で選択された操作領域にマスキングを行うマスキング手段を備えていることを特徴とする。
第3態様に係る情報処理装置によれば、マスキング手段を備えていることにより、操作領域にマスキング処理を行うことができるので、動画像の観察者が見やすい状態でオブジェクトを操作することができる。
An information processing device according to a third aspect of the present invention is the information processing device according to the second aspect,
Masking means for masking the operation area selected by the operation area selection means is provided.
According to the information processing apparatus according to the third aspect, since the operation area can be masked by providing the masking means, the object can be operated in a state in which the observer of the moving image can easily see.

本発明の第4態様に係るオブジェクトの操作方法は、
撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法であって、
前記撮像装置及び前記表示装置を制御する制御装置は、
前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行することを特徴とする。
An object operating method according to the fourth aspect of the present invention includes:
An object operation method for displaying a moving image captured by an imaging device on a display device and operating an object synthesized and displayed on the displayed moving image,
The control device for controlling the imaging device and the display device is:
Generating an optical flow based on at least two frame images constituting a moving image captured by the imaging device;
Detecting a motion vector at the display position of the object from the generated optical flow;
Performing the operation of the object based on the detected motion vector.

本発明の第5態様に係るオブジェクトの操作プログラムは、
撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法を、前記撮像装置及び前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
前記制御装置に、
前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行させることを特徴とする。
An object operation program according to the fifth aspect of the present invention is:
An object operation method for displaying a moving image captured by an imaging device on a display device and operating an object synthesized and displayed on the displayed moving image is provided in the control device for controlling the imaging device and the display device. An object operation program to be executed,
In the control device,
Generating an optical flow based on at least two frame images constituting a moving image captured by the imaging device;
Detecting a motion vector at the display position of the object from the generated optical flow;
And a step of operating the object based on the detected motion vector.

本発明の第4態様及び第5態様によれば、前述した本発明の第1態様と同一の作用及び効果を享受することができる。   According to the 4th aspect and the 5th aspect of this invention, it can enjoy the effect | action and effect same as the 1st aspect of this invention mentioned above.

本発明の実施形態に係る携帯端末の一例を示す平面図。The top view which shows an example of the portable terminal which concerns on embodiment of this invention. 前記実施形態における携帯端末の構成を示すブロック図。The block diagram which shows the structure of the portable terminal in the said embodiment. 前記実施形態における制御部の構成を示すブロック図。The block diagram which shows the structure of the control part in the said embodiment. 前記実施形態における携帯端末の表示部に動画像を表示し、オブジェクト画像を表示させた画面の模式図。The schematic diagram of the screen which displayed the moving image on the display part of the portable terminal in the said embodiment, and displayed the object image. 前記実施形態における携帯端末の表示部に動画像を表示し、オブジェクト画像を表示させた画面の模式図。The schematic diagram of the screen which displayed the moving image on the display part of the portable terminal in the said embodiment, and displayed the object image. 前記実施形態におけるオプティカルフローを表示させた画面の模式図。The schematic diagram of the screen which displayed the optical flow in the said embodiment. 前記実施形態におけるオプティカルフローから動きベクトルの検出を説明するための模式図。The schematic diagram for demonstrating the detection of a motion vector from the optical flow in the said embodiment. 前記実施形態におけるオブジェクト画像を変形させた状態を表す模式図。The schematic diagram showing the state which deform | transformed the object image in the said embodiment. 前記実施形態におけるオブジェクト画像に設定された多面体を表す模式図。The schematic diagram showing the polyhedron set to the object image in the said embodiment. 前記実施形態におけるオブジェクト画像の任意の頂点を多面体内の空間で表す模式図。The schematic diagram showing the arbitrary vertex of the object image in the said embodiment in the space in a polyhedron. 前記実施形態における多面体を変形させた際のオブジェクト画像の任意の頂点の位置関係を説明するための模式図。The schematic diagram for demonstrating the positional relationship of the arbitrary vertex of the object image at the time of changing the polyhedron in the said embodiment. 前記実施形態におけるオブジェクト画像をパーツ毎に分割し、それぞれのパーツ毎に多面体を設定した状態を表す模式図。The schematic diagram showing the state which divided | segmented the object image in the said embodiment for every part, and set the polyhedron for every part. 前記実施形態における作用を説明するためのフローチャート。The flowchart for demonstrating the effect | action in the said embodiment. 前記実施形態の変形となるオブジェクト画像の模式図。The schematic diagram of the object image used as the deformation | transformation of the said embodiment.

以下、本発明の実施の形態について説明する。
図1には、本発明の実施形態に係る携帯端末3の一例を示す平面図である。
携帯端末3は、撮像部35で撮像された動画像上にオブジェクトを合成表示する。このような携帯端末3は、スマートフォン(多機能携帯電話機)、タブレット端末及び携帯型ゲーム機等により構成できる。
本実施形態では、携帯端末3は、図1に示すように、筐体31、表示部32、操作部33、音声出力部34、撮像部35、記憶部36及び制御部37(図2参照)を有し、ゲームプログラムを実行可能な端末装置により構成されている。
Embodiments of the present invention will be described below.
FIG. 1 is a plan view showing an example of the mobile terminal 3 according to the embodiment of the present invention.
The portable terminal 3 synthesizes and displays an object on the moving image captured by the imaging unit 35. Such a portable terminal 3 can be comprised by a smart phone (multifunctional mobile phone), a tablet terminal, a portable game machine, etc.
In the present embodiment, as shown in FIG. 1, the mobile terminal 3 includes a housing 31, a display unit 32, an operation unit 33, an audio output unit 34, an imaging unit 35, a storage unit 36, and a control unit 37 (see FIG. 2). And a terminal device capable of executing a game program.

筐体31は、携帯端末3の外装を構成するものであり、左右の手により把持可能な程度の大きさの略長円形状に形成されている。この筐体31は、正面部31A、背面部31B(図1では図示省略)、上面部31C、底面部31D及び左右の側面部31E,31Fを有する。
表示部32は、本発明の表示装置に相当し、正面部31Aにおける略中央に配設されている。この表示部32は、矩形状に形成された表示パネルにより構成されており、後述する制御部37の表示制御部371(図3参照)による制御の下、当該表示制御部371により形成される画像を表示する。このような表示パネルとして、有機EL(Electro-Luminescence)や液晶等の表示パネルを例示できる。
The casing 31 constitutes the exterior of the mobile terminal 3 and is formed in a substantially oval shape that is large enough to be held by the left and right hands. The housing 31 includes a front surface portion 31A, a back surface portion 31B (not shown in FIG. 1), an upper surface portion 31C, a bottom surface portion 31D, and left and right side surface portions 31E and 31F.
The display unit 32 corresponds to the display device of the present invention, and is disposed at the approximate center of the front unit 31A. The display unit 32 includes a display panel formed in a rectangular shape, and an image formed by the display control unit 371 under the control of a display control unit 371 (see FIG. 3) of the control unit 37 described later. Is displayed. Examples of such a display panel include organic EL (Electro-Luminescence) and liquid crystal display panels.

操作部33は、正面部31Aにおける表示部32の周囲、及び、当該筐体31の上面部31Cに配設された各種ボタン及びスティックを有し、使用者の入力操作に応じた操作信号を制御部37に出力する。
具体的に、操作部33は、表示部32に対して左側にそれぞれ位置し、正面部31Aに対向して見た場合の上下左右の各方向に入力可能な方向ボタン331と、当該各方向に傾倒可能な操作スティック332と、底面部31D側に位置する操作ボタン333と、を有する。また、操作部33は、表示部32に対して右側に位置する4つの操作ボタン334と、操作スティック332と同様の構成を有する操作スティック335と、底面部31D側に位置する操作ボタン336,337と、を有する。更に、操作部33は、上面部31Cの左右両側にそれぞれ位置する操作ボタン338L,338Rを有する。
The operation unit 33 includes various buttons and sticks arranged around the display unit 32 in the front surface 31A and the upper surface 31C of the housing 31, and controls operation signals in accordance with user input operations. To the unit 37.
Specifically, the operation unit 33 is located on the left side with respect to the display unit 32, and can be input in each direction of up, down, left, and right when viewed facing the front unit 31A, and in each direction An operation stick 332 that can be tilted and an operation button 333 located on the bottom surface portion 31D side are provided. The operation unit 33 includes four operation buttons 334 positioned on the right side of the display unit 32, an operation stick 335 having the same configuration as the operation stick 332, and operation buttons 336 and 337 positioned on the bottom surface portion 31D side. And having. Further, the operation unit 33 includes operation buttons 338L and 338R which are respectively located on the left and right sides of the upper surface portion 31C.

音声出力部34は、正面部31Aにおける左右両端近傍にそれぞれ配設されたスピーカー34L,34Rを有する。この音声出力部34は、後述する制御部37の音声出力制御部373(図3参照)から入力される音声信号に応じた音声を、スピーカー34L,34Rにより出力する。
撮像部35は、本発明の撮像装置に相当し、正面部31Aにおける右側上部に配設された第1撮像部としてのカメラ351を有する。この撮像部35は、当該カメラ351による撮像画像を制御部37に出力する。
The audio output unit 34 includes speakers 34L and 34R disposed near the left and right ends of the front portion 31A. The audio output unit 34 outputs audio corresponding to an audio signal input from an audio output control unit 373 (see FIG. 3) of the control unit 37, which will be described later, through speakers 34L and 34R.
The imaging unit 35 corresponds to the imaging device of the present invention, and includes a camera 351 as a first imaging unit disposed on the upper right side of the front unit 31A. The imaging unit 35 outputs an image captured by the camera 351 to the control unit 37.

図2は、携帯端末3の構成を示すブロック図である。
上記表示部32、操作部33、音声出力部34、撮像部35、記憶部36及び制御部37は、図2に示すように、それぞれ互いにバスラインBLにより接続されている。
これらのうち、記憶部36は、携帯端末3の動作に必要なプログラム及びデータを記憶している。例えば、記憶部36は、携帯端末3の動作を制御するOS(Operating System)、ゲーム等のアプリケーションプログラム、及び、画像表示プログラムを記憶している。このような記憶部36は、フラッシュメモリー等の不揮発性メモリーやHDD(Hard Disk Drive)により構成できる。
FIG. 2 is a block diagram illustrating a configuration of the mobile terminal 3.
As shown in FIG. 2, the display unit 32, the operation unit 33, the audio output unit 34, the imaging unit 35, the storage unit 36, and the control unit 37 are connected to each other by a bus line BL.
Among these, the storage unit 36 stores programs and data necessary for the operation of the mobile terminal 3. For example, the storage unit 36 stores an OS (Operating System) that controls the operation of the mobile terminal 3, an application program such as a game, and an image display program. Such a storage unit 36 can be configured by a non-volatile memory such as a flash memory or an HDD (Hard Disk Drive).

図3(A)、図3(B)は、制御部37の構成を示すブロック図である。
制御部37は、CPU(Central Processing Unit)等を有し、携帯端末3の動作を制御する。具体的に、制御部37は、当該CPUが記憶部36に記憶されたプログラムを読み出して処理することで、使用者の入力操作(操作部33から入力される操作信号)に応じて、或いは、自律的に携帯端末3を制御する制御装置である。
この他、制御部37は、CPUが上記画像表示プログラムを実行することで、撮像部35で撮像された動画像を表示部32に表示させる。このため、制御部37は、図3に示すように、表示制御部371、撮像制御部372、音声出力制御部373、オプティカルフロー生成部374、動きベクトル検出部375、オブジェクト操作部376、操作領域選択部377、及びマスキング部378を備える。
3A and 3B are block diagrams illustrating the configuration of the control unit 37. FIG.
The control unit 37 includes a CPU (Central Processing Unit) and the like, and controls the operation of the mobile terminal 3. Specifically, the control unit 37 reads out and processes the program stored in the storage unit 36 according to the user's input operation (operation signal input from the operation unit 33), or This is a control device that autonomously controls the mobile terminal 3.
In addition, the control part 37 displays the moving image imaged by the imaging part 35 on the display part 32, when CPU runs the said image display program. Therefore, as shown in FIG. 3, the control unit 37 includes a display control unit 371, an imaging control unit 372, an audio output control unit 373, an optical flow generation unit 374, a motion vector detection unit 375, an object operation unit 376, an operation area. A selection unit 377 and a masking unit 378 are provided.

表示制御部371は、携帯端末3の動作状態を示す画像や、撮像部35で撮像された画像を描画メモリー(図示略)に描画し、当該画像に応じた画像信号を表示部32に出力することで、当該画像を表示部32に表示させる。
具体的に、図4に示すように、撮像部35で撮像された動画像が表示部32上に表示され、この動画像上にオブジェクト画像OBが合成表示される。
撮像制御部372は、撮像部35の動作を制御する。具体的に、撮像制御部372は、撮像部35に所定周期(フレームレート)で撮像させる。そして、撮像制御部372は、撮像部35から入力される撮像画像である動画像を取得し、記憶部36に記憶させる。
音声出力制御部373は、音声出力部34を制御して、所定の音声を出力させる。
The display control unit 371 draws an image indicating the operation state of the mobile terminal 3 or an image captured by the imaging unit 35 in a drawing memory (not shown), and outputs an image signal corresponding to the image to the display unit 32. As a result, the image is displayed on the display unit 32.
Specifically, as shown in FIG. 4, a moving image captured by the imaging unit 35 is displayed on the display unit 32, and an object image OB is synthesized and displayed on the moving image.
The imaging control unit 372 controls the operation of the imaging unit 35. Specifically, the imaging control unit 372 causes the imaging unit 35 to capture images at a predetermined cycle (frame rate). Then, the imaging control unit 372 acquires a moving image that is a captured image input from the imaging unit 35 and stores the moving image in the storage unit 36.
The audio output control unit 373 controls the audio output unit 34 to output a predetermined audio.

オプティカルフロー生成部374は、動画像を構成する少なくとも2以上のフレーム画像G1、G2からオプティカルフローを生成する。
今、図4に示されるフレーム画像G1から図5に示されるフレーム画像G2に遷移したとすると、動画像中の顔の画像CH1は右方向にスライドし、手指部分の画像CH2は、回動動作を行ったと仮定する。
オプティカルフロー生成部374は、この2つのフレーム画像G1、G2の輝度点の移動から、図6に示されるようなオプティカルフローG3を生成する。オプティカルフローG3は、勾配法、ブロックマッチング法等の公知の方法を用いて求めることができる。
勾配法は、物体上の点の明るさは、移動後も変化しないという仮定から、時空間微分とオプティカルフローとの関係式を導出し、これを利用して対象の動きを推定する方法である。
一方、ブロックマッチング法は、画像を一定の大きさの小領域に分割し、それぞれのブロックの動きベクトルを求める。各ブロックが前のフレームのどこに対応するかを探索し、対応するブロックとの位置の差を動きベクトルとする方法である。
これらの方法用いて、オプティカルフローG3は、2つのフレーム画像G1、G2からフレームレート等を用いて画像CH1、CH2の移動方向、移動速度を算出し、動きベクトルを生成する。
The optical flow generation unit 374 generates an optical flow from at least two or more frame images G1 and G2 constituting a moving image.
Now, assuming that the frame image G1 shown in FIG. 4 has transitioned to the frame image G2 shown in FIG. 5, the face image CH1 in the moving image slides in the right direction, and the finger portion image CH2 rotates. Assuming that
The optical flow generator 374 generates an optical flow G3 as shown in FIG. 6 from the movement of the luminance points of the two frame images G1 and G2. The optical flow G3 can be obtained by using a known method such as a gradient method or a block matching method.
The gradient method is a method of deriving a relational expression between spatiotemporal differentiation and optical flow from the assumption that the brightness of a point on an object does not change after movement, and using this to estimate the motion of the object. .
On the other hand, in the block matching method, an image is divided into small areas of a certain size, and a motion vector of each block is obtained. This is a method of searching where each block corresponds to the previous frame, and using a difference in position from the corresponding block as a motion vector.
Using these methods, the optical flow G3 calculates the moving direction and moving speed of the images CH1 and CH2 from the two frame images G1 and G2 using the frame rate and the like, and generates a motion vector.

動きベクトル検出部375は、オプティカルフロー生成部374で生成されたオプティカルフローG3のうち、オブジェクト画像OBが表示された位置における動きベクトルを検出する。図4から図5への変化においては、オブジェクト画像OBの回りに手指部分の画像CH2が表示され、手指部分が左方向に回動しており、これを動きベクトルV1として検出する。   The motion vector detection unit 375 detects a motion vector at a position where the object image OB is displayed in the optical flow G3 generated by the optical flow generation unit 374. In the change from FIG. 4 to FIG. 5, the image CH2 of the finger part is displayed around the object image OB, and the finger part is rotated leftward, and this is detected as the motion vector V1.

オブジェクト操作部376は、動きベクトル検出部375で検出されたオブジェクト画像OB回りの動きベクトルV1に基づいて、オブジェクト画像OBの移動、変形を行う部分であり、オブジェクト移動操作部376A及びオブジェクト変形操作部376Bを備える。
オブジェクト移動操作部376Aは、検出された動きベクトルV1の方向、大きさに応じて、オブジェクト画像OBの移動方向、移動量を算出し、表示部32上の適当な位置にオブジェクト画像OBを合成表示させる。
具体的には、図7(A)に示されるように、オブジェクト画像OB回りでオプティカルフローOFが検出されたときに、動きベクトル検出部375は、オブジェクト画像OBに設定された多面体POLの頂点近傍のオプティカルフローOFから、多面体POLの動きベクトルV1を検出する。オプティカルフローOFは、表示部32の各ピクセル毎に離散的に求められるが、求めたい頂点のオプティカルフローについて、回りのピクセル座標のオプティカルフローから内挿によって求めている。
オブジェクト移動操作部376Aは、動きベクトル検出部375Aで検出された動きベクトルV1に基づいて、図7(B)に示されるように、多面体POLを変形させた後、多面体POLを元々の頂点間の拘束条件などによって形を保つようにして、図7(C)に示されるように、多面体POLを回転させ、この多面体POLの回転移動に応じて、オブジェクト画像OBを移動させる。
The object operation unit 376 is a part that moves and deforms the object image OB based on the motion vector V1 around the object image OB detected by the motion vector detection unit 375. The object operation operation unit 376A and the object deformation operation unit 376B.
The object moving operation unit 376A calculates the moving direction and moving amount of the object image OB according to the detected direction and size of the motion vector V1, and displays the object image OB at an appropriate position on the display unit 32. Let
Specifically, as shown in FIG. 7A, when the optical flow OF is detected around the object image OB, the motion vector detection unit 375 is near the vertex of the polyhedron POL set in the object image OB. The motion vector V1 of the polyhedron POL is detected from the optical flow OF. The optical flow OF is obtained discretely for each pixel of the display unit 32. The optical flow of the vertex to be obtained is obtained by interpolation from the optical flow of surrounding pixel coordinates.
Based on the motion vector V1 detected by the motion vector detection unit 375A, the object movement operation unit 376A deforms the polyhedron POL as shown in FIG. 7B, and then converts the polyhedron POL between the original vertices. As shown in FIG. 7C, the polyhedron POL is rotated so as to maintain the shape according to the constraint conditions and the object image OB is moved according to the rotational movement of the polyhedron POL.

オブジェクト変形操作部376Bは、動きベクトル検出部375で検出されたオブジェクト画像OB回りの動きベクトルV1の方向、大きさに応じてオブジェクト画像OBの変形方向、変形量を算出し、オブジェクト画像OBを変形させて表示部32上に合成表示させる。このオブジェクト変形操作部376Bは、図3(B)に示されるように、多面体設定部376C、空間分割部376D、空間判別部376E、分解係数保存部376F、及び変形表示部376Gを備える。
具体的には、図8に示されるように、オブジェクト画像OBに手指部分の画像CH2が上下方向の動きをした際、動きベクトルV1によってオブジェクト画像OBを上下に変形させた状態で表示部32上に表示させる。
The object deformation operation unit 376B calculates the deformation direction and deformation amount of the object image OB according to the direction and size of the motion vector V1 around the object image OB detected by the motion vector detection unit 375, and deforms the object image OB. Thus, it is synthesized and displayed on the display unit 32. As shown in FIG. 3B, the object deformation operation unit 376B includes a polyhedron setting unit 376C, a space division unit 376D, a space determination unit 376E, a decomposition coefficient storage unit 376F, and a deformation display unit 376G.
Specifically, as shown in FIG. 8, when the image CH2 of the finger portion moves up and down on the object image OB, the object image OB is deformed up and down by the motion vector V1 on the display unit 32. To display.

オブジェクト画像OBの変形は、図9に示されるように、多面体設定部376Cが、オブジェクト画像OB内の任意の位置に中心点P0を設定し、中心点P0を中心とする多面体POLを設定する。
本実施形態では、多面体POLは、12個の頂点P1〜P12を有する凸多面体として設定されているが、空間を一意に領域分割することができるのであれば、これに限らず、オブジェクト画像OBの形状等に応じて任意に設定することができる。
多面体POLは、オブジェクト画像OBの形状と無関係であってもよく、オブジェクト画像OBの頂点POBを使って多面体POLを設定してもよい。好ましくは、多面体POLは、オブジェクト画像OBの手足等の動かしたい部分を頂点とし、オブジェクト画像OBの全体を覆い、かつなるべく小さくなるように設定する。
空間分割部376Dは、多面体POL内の空間を、中心点P0から多面体POLの頂点P1〜P12に至るベクトルによって、複数に分割する。
For deformation of the object image OB, as shown in FIG. 9, the polyhedron setting unit 376C sets the center point P0 at an arbitrary position in the object image OB, and sets the polyhedron POL centered on the center point P0.
In this embodiment, the polyhedron POL is set as a convex polyhedron having twelve vertices P1 to P12. However, the present invention is not limited to this as long as the space can be uniquely divided into regions. It can be arbitrarily set according to the shape and the like.
The polyhedron POL may be independent of the shape of the object image OB, and the polyhedron POL may be set using the vertex POB of the object image OB. Preferably, the polyhedron POL is set so that the portion of the object image OB that is desired to move, such as a limb, covers the entire object image OB and is as small as possible.
The space division unit 376D divides the space in the polyhedron POL into a plurality of vectors from the center point P0 to the vertices P1 to P12 of the polyhedron POL.

次に、空間判別部376Eは、オブジェクト画像OBの任意の頂点POBを、中心点P0と、多面体POLの頂点P1と、頂点P4と、頂点P5とで構成される空間に含まれていることを判別する。
分解係数保存部376Fは、図10に示されるように、任意の頂点POBの位置xを、中心点P0から頂点P1に向かうベクトルaと、中心点P0から頂点P4に向かうベクトルbと、中心点P0から頂点P5に向かうベクトルcと、それぞれの分解係数p、q、rによって記憶保存する。
すなわち、オブジェクト画像OBの任意の頂点POBの位置xは、下記式(1)によって表現される。
x=pa+qb+rc…(1)
Next, the space discriminating unit 376E indicates that an arbitrary vertex POB of the object image OB is included in a space constituted by the center point P0, the vertex P1 of the polyhedron POL, the vertex P4, and the vertex P5. Determine.
As shown in FIG. 10, the decomposition coefficient storage unit 376F sets the position x of an arbitrary vertex POB to a vector a from the center point P0 to the vertex P1, a vector b from the center point P0 to the vertex P4, and a center point. It is stored and saved by the vector c from P0 to the vertex P5 and the respective decomposition coefficients p, q, r.
That is, the position x of an arbitrary vertex POB of the object image OB is expressed by the following equation (1).
x = pa + qb + rc (1)

変形表示部376Gは、例えば、多面体POLを変形させる動きベクトルV1を検出したら、図11に示されるように、多面体POL内の空間を検出された動きベクトルV1に応じて、図10の頂点P1、頂点P4、頂点P5を、頂点P1’、頂点P4’、頂点P5’に変形させる。
これに伴って変形表示部376Gは、記憶保存しておいた式(1)を動きベクトルV1に応じて、下記式(2)に示されるように、オブジェクト画像OBの任意の頂点POBの位置x’記憶保存し、表示部32上に変形させたオブジェクト画像OBを表示する。
x’=pa’+qb’+qc’…(2)
For example, when the deformation display unit 376G detects the motion vector V1 that deforms the polyhedron POL, as shown in FIG. 11, the deformation display unit 376G detects the space in the polyhedron POL according to the detected motion vector V1, the vertex P1, FIG. The vertex P4 and the vertex P5 are transformed into a vertex P1 ′, a vertex P4 ′, and a vertex P5 ′.
Along with this, the deformation display unit 376G stores the stored expression (1) in accordance with the motion vector V1, and the position x of an arbitrary vertex POB of the object image OB is represented by the following expression (2). 'Store and save, and display the deformed object image OB on the display unit 32.
x ′ = pa ′ + qb ′ + qc ′ (2)

また、オブジェクト変形操作部376Bは、図12に示されるように、オブジェクト画像OBに対して、1つの多面体POLを設定するだけでなく、オブジェクト画像OBを複数のパーツ、例えば、頭、手足等のパーツに分割しておき、それぞれのパーツについて、部品多面体PA1〜PA5を設定し、各パーツの任意の頂点の位置を、各部品多面体PA1〜PA5に前記式(1)の形で記憶保存することもできる。
この場合、オブジェクト画像OBの変形は、次の方法で実現される。
まず、下位となる部品多面体PA1〜PA5をオブジェクトと見立て、上位の多面体POLの変形により、部品多面体PA1〜PA5を変形、移動させる。次に、オブジェクト画像OBは、それぞれのパーツが属する下位の部品多面体PA1〜PA5の変形に応じて変形、移動する。尚、オブジェクト画像OBの変形は、上位の多面体POLを設定せずに、下位の部品多面体PA1〜PA5を直接変形させることもできる。
例えば、オブジェクト画像OBの手の部分を変形させたい場合、当該手の部分に設定された部品多面体PA3のみを変形させればよい。
一方、変形操作がオブジェクト画像OBの全体に影響する場合、例えば、オブジェクト画像OBが海の渦流などに巻き込まれる表示画像上で操作する場合は、上位の多面体POLの変形、移動操作として行えばよい。
さらに、上位の多面体POLと、部品多面体PA1〜PA6とを組み合わせた複雑な動作も可能である。すなわち、オブジェクト画像OBが川等の流れの中で岩などにぶつかる表示画像を想定すれば、上位の多面体POLで川の流れ中の変形移動操作を行い、岩にぶつかる際の変形操作を部品多面体PA1〜PA6で行うことができる。このような階層構造をとることにより、全体の流れによる変形と部分の変形のつじつまを合わせることができる。
Further, as shown in FIG. 12, the object deformation operation unit 376B not only sets one polyhedron POL for the object image OB, but also converts the object image OB into a plurality of parts such as a head and limbs. Dividing into parts, setting part polyhedrons PA1 to PA5 for each part, and storing the positions of arbitrary vertices of each part in the form of the above formula (1) in each part polyhedron PA1 to PA5 You can also.
In this case, the deformation of the object image OB is realized by the following method.
First, the lower part polyhedrons PA1 to PA5 are regarded as objects, and the part polyhedrons PA1 to PA5 are deformed and moved by deformation of the upper polyhedron POL. Next, the object image OB is deformed and moved in accordance with the deformation of the lower component polyhedrons PA1 to PA5 to which the respective parts belong. The object image OB can be deformed by directly deforming the lower component polyhedrons PA1 to PA5 without setting the upper polyhedron POL.
For example, when the hand portion of the object image OB is desired to be deformed, only the component polyhedron PA3 set for the hand portion needs to be deformed.
On the other hand, when the deformation operation affects the entire object image OB, for example, when the object image OB is operated on a display image engulfed in the vortex of the sea, the upper polyhedron POL may be deformed or moved. .
Furthermore, a complicated operation combining the upper polyhedron POL and the component polyhedrons PA1 to PA6 is also possible. That is, if the object image OB is assumed to be a display image that hits a rock or the like in a river or the like, the upper polyhedron POL performs a deformation movement operation in the river flow, and the deformation operation when hitting a rock is a component polyhedron. It can be performed with PA1 to PA6. By adopting such a hierarchical structure, it is possible to match the deformation of the entire flow with the deformation of the part.

オブジェクト画像OBの各パーツがどの部品多面体PA1〜PA5に属するかは、それぞれのベクトルの分解係数によって判別することができる。オブジェクト画像OBの各パーツは、部品多面体PA1〜PA5が互いに重複しないように選択する。
また、オブジェクト画像OBの頂点P13のように、頂点P13が部品多面体PA3に含まれるときは、式(1)における分解係数p、q、rは、0〜1の範囲で設定される。一方、オブジェクト画像OBの頂点P14のように、頂点P14が部品多面体PA3にも部品多面体PA4の外部にある場合、式(1)における分解係数p、q、rの二乗和を部品多面体PA3、PA4のそれぞれについて求め、比較して小さい方の部品多面体に属するとして、オブジェクト画像OBの頂点P14の変形を行えばよい。
Which part polyhedrons PA1 to PA5 belong to each part of the object image OB can be determined by the decomposition coefficient of each vector. Each part of the object image OB is selected so that the part polyhedrons PA1 to PA5 do not overlap each other.
Further, when the vertex P13 is included in the component polyhedron PA3 like the vertex P13 of the object image OB, the decomposition coefficients p, q, r in the equation (1) are set in the range of 0-1. On the other hand, when the vertex P14 is also outside the component polyhedron PA4 as in the vertex P14 of the object image OB, the sum of squares of the decomposition coefficients p, q, r in the equation (1) is calculated as the component polyhedron PA3, PA4. And the vertex P14 of the object image OB may be deformed as belonging to the smaller component polyhedron.

操作領域選択部377は、操作すべきオブジェクト画像OBが存在する領域を操作領域ARとして選択する。
また、操作領域ARの選択は、顔認識等の公知の画像認識技術を用い、図6における顔の画像CH1の領域内のオプティカルフローを除外し、手指部分の画像CH2の部分のみのオプティカルフローを生成することにより、選択することもできる。
さらに、顔の画像CH1のオプティカルフローの間隔は広く検出され、手指部分の画像CH2は狭く生成されるので、これを利用して、操作領域ARの選択を行ってもよい。
The operation area selection unit 377 selects an area where the object image OB to be operated exists as the operation area AR.
The operation area AR is selected using a known image recognition technique such as face recognition, excluding the optical flow in the area of the face image CH1 in FIG. It can also be selected by generating.
Further, since the optical flow interval of the face image CH1 is widely detected and the finger image CH2 is generated narrowly, the operation area AR may be selected using this.

マスキング部378は、操作領域ARにマスキングして操作を行い易くする手段であり、例えば、操作領域AR以外の動画像を非表示にしたり、操作領域ARの画像を動画像そのままでなく、コントラストを強調した2値画像としたり、輪郭画像のみを表示させたり、アイコンのようなオブジェクト画像に置き換えることにより、操作領域の視認性を向上させる。   The masking unit 378 is a means for facilitating the operation by masking the operation area AR. For example, the moving image other than the operation area AR is not displayed, or the image of the operation area AR is not left as a moving image but the contrast is increased. The visibility of the operation area is improved by using an emphasized binary image, displaying only a contour image, or replacing it with an object image such as an icon.

次に、本実施形態の作用について、図13に示すフローチャートに基づいて説明する。
まず、表示制御部371は、撮像部35で撮像された動画像と、記憶部36から読み出したオブジェクト画像OBを表示部32上に合成表示する(ステップS1)。
オプティカルフロー生成部374は、動画像を構成するフレーム画像G1、G2に基づいて、オプティカルフローG3を生成する(ステップS2)。
Next, the effect | action of this embodiment is demonstrated based on the flowchart shown in FIG.
First, the display control unit 371 composites and displays the moving image captured by the imaging unit 35 and the object image OB read from the storage unit 36 on the display unit 32 (step S1).
The optical flow generation unit 374 generates an optical flow G3 based on the frame images G1 and G2 constituting the moving image (step S2).

動きベクトル検出部375は、操作領域AR中のオプティカルフローG3を監視し(ステップS3)、操作領域AR中の動きベクトルに変化があった場合、動きベクトルV1の方向、大きさを検出する(ステップS4)。
オブジェクト操作部376は、検出された動きベクトルV1に基づいて、オブジェクト画像OBの移動方向、移動量を算出し、表示部32上の適当な位置にオブジェクト画像OBを合成表示させる(ステップS5)。
尚、ステップS1〜ステップS5に至る一連のオブジェクトの操作方法は、コンピュータ読み取り可能なプログラムとして記憶部36に記憶され、撮像部35で撮像された動画像を表示部32で表示する際、制御部37に読み出されて実行される。
The motion vector detection unit 375 monitors the optical flow G3 in the operation area AR (step S3), and detects the direction and magnitude of the motion vector V1 when the motion vector in the operation area AR has changed (step S3). S4).
The object operation unit 376 calculates the moving direction and moving amount of the object image OB based on the detected motion vector V1, and displays the object image OB in an appropriate position on the display unit 32 (step S5).
A series of object operation methods from step S1 to step S5 are stored in the storage unit 36 as a computer-readable program, and when the moving image captured by the imaging unit 35 is displayed on the display unit 32, the control unit It is read by 37 and executed.

このような本実施形態によれば、以下に示す効果がある。
オプティカルフロー生成部374により動画像のオプティカルフローG3を生成し、動きベクトル検出部375によりオブジェクト画像OBの表示位置における動きベクトルV1を検出しているので、オブジェクト操作部376によりオブジェクト画像OBの移動操作を行うに際して、検出された動きベクトルV1に応じてオブジェクト画像OBの移動操作を滑らかに行うことができる。
According to this embodiment, there are the following effects.
Since the optical flow G3 of the moving image is generated by the optical flow generation unit 374 and the motion vector V1 at the display position of the object image OB is detected by the motion vector detection unit 375, the moving operation of the object image OB is performed by the object operation unit 376. In performing the above, the moving operation of the object image OB can be smoothly performed according to the detected motion vector V1.

操作領域選択部377により操作領域ARとして選択しているので、検出領域以外の動きベクトルでオブジェクト画像OBの操作が邪魔されることを防止することができる
マスキング部378を備えていることにより、操作領域ARをマスキング処理しているので、動画像の観察者が見やすい状態でオブジェクト画像OBを操作することができる。
Since the operation area AR is selected by the operation area selection unit 377, the operation of the object image OB can be prevented from being obstructed by a motion vector other than the detection area. Since the area AR is masked, the object image OB can be manipulated in a state that is easy for the viewer of the moving image to see.

オブジェクト変形操作部376Bが、オブジェクト画像OB内の任意の中心点P0を中心とする多面体POLを設定し、多面体POLの中心点P0から頂点P1〜P12に向かうベクトルによって、多面体POL内の空間を分割し、オブジェクト画像OBの頂点POBが、分割された空間のうち、どの空間に含まれるかを判別し、オブジェクトの頂点を含む空間を構成する3本のベクトルによってオブジェクトの頂点の位置xの分解係数p、q、rを保存し、多面体POLに作用した変形操作に応じてオブジェクト画像OBを変形させて表示している。従って、ボーンによるスキニングと比較して複数のボーンの直交座標系の重み付き加算を行う必要がなく、制御部37による演算処理負担を軽減することができる。
また、オブジェクト変形操作部376Bが、オブジェクト画像OBのパーツ毎に部品多面体PA1〜PA5を設定し、それぞれの部品多面体PA1〜PA5について変形操作を行うことができるので、複雑な形状のオブジェクト画像OBであっても、変形操作に応じてオブジェクト画像OBを変形表示することができ、演算処理の負荷も軽くすることができる。
The object transformation operation unit 376B sets a polyhedron POL centered on an arbitrary center point P0 in the object image OB, and divides the space in the polyhedron POL by a vector from the center point P0 of the polyhedron POL toward the vertices P1 to P12. Then, it is determined in which of the divided spaces the vertex POB of the object image OB, and the decomposition coefficient of the position x of the object vertex is determined by three vectors constituting the space including the vertex of the object p, q, and r are stored, and the object image OB is deformed and displayed in accordance with the deformation operation applied to the polyhedron POL. Therefore, it is not necessary to perform weighted addition in the orthogonal coordinate system of a plurality of bones as compared with skinning by bones, and the processing load on the control unit 37 can be reduced.
Further, since the object deformation operation unit 376B can set the component polyhedrons PA1 to PA5 for each part of the object image OB and perform the deformation operation on each of the component polyhedrons PA1 to PA5, the object image OB having a complicated shape can be obtained. Even in such a case, the object image OB can be displayed in a deformed manner according to the deforming operation, and the processing load can be reduced.

本発明は、前述した実施形態に限定されるものではなく、以下に示すような変形をも含むものである。
前述した実施形態では、オブジェクト操作部376は、キャラクター的なオブジェクト画像OBを操作するものであったが、これに限らず、例えば、図14に示されるようなスライドスイッチ画像OB2を表示部32のどこかに固定して表示しておき、手指部分の画像CH2でスライドさせる操作を行ってもよい。
本発明の実施形態は、本発明の目的を達成できる範囲で他の構成を採用することができる。
The present invention is not limited to the embodiments described above, and includes modifications as described below.
In the above-described embodiment, the object operation unit 376 operates the character-like object image OB. However, the present invention is not limited to this. For example, the slide switch image OB2 as shown in FIG. An operation may be performed in which the image is fixed somewhere and slid on the image CH2 of the finger portion.
The embodiments of the present invention can employ other configurations as long as the object of the present invention can be achieved.

3…携帯端末、31…筐体、31A…正面部、31C…上面部、31E…側面部、32…表示部、33…操作部、331…方向ボタン、332…操作スティック、333…操作ボタン、334…操作ボタン、335…操作スティック、336…操作ボタン、338L…操作ボタン、34…音声出力部、34L…スピーカー、35…撮像部、351…カメラ、36…記憶部、37…制御部、371…表示制御部、372…撮像制御部、373…音声出力制御部、374…オプティカルフロー生成部、375…ベクトル検出部、376…オブジェクト操作部、376A…オブジェクト移動操作部、376B…オブジェクト変形操作部、376C…多面体設定部、376D…空間分割部、376E…空間判別部、376F…分解係数保存部、376G…変形表示部、377…操作領域選択部、378…マスキング部、AR…操作領域、BL…バスライン、CH1、CH2…画像、G1、G2…フレーム画像、G3…オプティカルフロー、OB…オブジェクト画像、OB2…スライドスイッチ画像   DESCRIPTION OF SYMBOLS 3 ... Portable terminal, 31 ... Housing | casing, 31A ... Front part, 31C ... Upper surface part, 31E ... Side part, 32 ... Display part, 33 ... Operation part, 331 ... Direction button, 332 ... Operation stick, 333 ... Operation button, 334 ... Operation buttons, 335 ... Operation stick, 336 ... Operation buttons, 338L ... Operation buttons, 34 ... Audio output unit, 34L ... Speaker, 35 ... Imaging unit, 351 ... Camera, 36 ... Storage unit, 37 ... Control unit, 371 ... Display control unit, 372 ... Imaging control unit, 373 ... Audio output control unit, 374 ... Optical flow generation unit, 375 ... Vector detection unit, 376 ... Object operation unit, 376A ... Object movement operation unit, 376B ... Object deformation operation unit 376C: polyhedron setting unit, 376D ... space division unit, 376E ... space discrimination unit, 376F ... decomposition coefficient storage unit, 376 ... deformation display part, 377 ... operation area selection part, 378 ... masking part, AR ... operation area, BL ... bus line, CH1, CH2 ... image, G1, G2 ... frame image, G3 ... optical flow, OB ... object image, OB2 ... Slide switch image

Claims (5)

撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作する情報処理装置であって、
前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するオプティカルフロー生成手段と、
前記オプティカルフロー生成手段で生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出する動きベクトル検出手段と、
前記動きベクトル検出手段で検出された動きベクトルに基づいて、前記オブジェクトの操作を行うオブジェクト操作手段とを備えていることを特徴とする情報処理装置。
An information processing device that displays a moving image captured by an imaging device on a display device, and operates an object that is combined and displayed on the displayed moving image,
An optical flow generating means for generating an optical flow based on at least two frame images constituting a moving image captured by the imaging device;
Motion vector detection means for detecting a motion vector at the display position of the object from the optical flow generated by the optical flow generation means;
An information processing apparatus comprising: an object operation unit that operates the object based on a motion vector detected by the motion vector detection unit.
請求項1に記載の情報処理装置において、
前記オブジェクトを操作する領域を選択する操作領域選択手段を備えていることを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
An information processing apparatus comprising operation region selection means for selecting a region for operating the object.
請求項2に記載の情報処理装置において、
前記操作領域選択手段で選択された領域にマスキングを行うマスキング手段を備えていることを特徴とする情報処理装置。
The information processing apparatus according to claim 2,
An information processing apparatus comprising masking means for masking an area selected by the operation area selecting means.
撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法であって、
前記撮像装置及び前記表示装置を制御する制御装置は、
前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行することを特徴とするオブジェクトの操作方法。
An object operation method for displaying a moving image captured by an imaging device on a display device and operating an object synthesized and displayed on the displayed moving image,
The control device for controlling the imaging device and the display device is:
Generating an optical flow based on at least two frame images constituting a moving image captured by the imaging device;
Detecting a motion vector at the display position of the object from the generated optical flow;
And a step of operating the object based on the detected motion vector.
撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法を、前記撮像装置及び前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
前記制御装置に、
前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行させることを特徴とするオブジェクトの操作プログラム。
An object operation method for displaying a moving image captured by an imaging device on a display device and operating an object synthesized and displayed on the displayed moving image is provided in the control device for controlling the imaging device and the display device. An object operation program to be executed,
In the control device,
Generating an optical flow based on at least two frame images constituting a moving image captured by the imaging device;
Detecting a motion vector at the display position of the object from the generated optical flow;
And a step of performing an operation of the object based on the detected motion vector.
JP2014068753A 2014-03-28 2014-03-28 Information processor, operation method of object and operation program of object Pending JP2015191480A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014068753A JP2015191480A (en) 2014-03-28 2014-03-28 Information processor, operation method of object and operation program of object
PCT/JP2015/058391 WO2015146813A1 (en) 2014-03-28 2015-03-20 Object manipulation method, object manipulation program, and information processing device
US15/119,814 US10080963B2 (en) 2014-03-28 2015-03-20 Object manipulation method, object manipulation program, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014068753A JP2015191480A (en) 2014-03-28 2014-03-28 Information processor, operation method of object and operation program of object

Publications (1)

Publication Number Publication Date
JP2015191480A true JP2015191480A (en) 2015-11-02

Family

ID=54425911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014068753A Pending JP2015191480A (en) 2014-03-28 2014-03-28 Information processor, operation method of object and operation program of object

Country Status (1)

Country Link
JP (1) JP2015191480A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230099921A (en) * 2021-12-28 2023-07-05 연세대학교 산학협력단 Method for generating synthetic video using optical flow

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100906A (en) * 1999-09-30 2001-04-13 Suzuki Motor Corp Three-dimensional data display device
JP2004246578A (en) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> Interface method and device using self-image display, and program
JP2005031799A (en) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc Control system and method
JP2005216061A (en) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc Image processor, image processing method, recording medium, computer program and semiconductor device
JP2006244272A (en) * 2005-03-04 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> Hand position tracking method, device and program
JP2009134693A (en) * 2007-10-30 2009-06-18 Canon Inc Image processing apparatus and image processing method
JP2010067062A (en) * 2008-09-11 2010-03-25 Ntt Docomo Inc Input system and method
JP2010515170A (en) * 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド Manipulating virtual objects using an enhanced interactive system
JP2011238069A (en) * 2010-05-11 2011-11-24 Nippon Hoso Kyokai <Nhk> Virtual force sense presentation device and virtual force sense presentation program
JP2013009748A (en) * 2011-06-28 2013-01-17 Kyocera Corp Display device, control system, and control program
JP2013101526A (en) * 2011-11-09 2013-05-23 Sony Corp Information processing apparatus, display control method, and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100906A (en) * 1999-09-30 2001-04-13 Suzuki Motor Corp Three-dimensional data display device
JP2004246578A (en) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> Interface method and device using self-image display, and program
JP2005031799A (en) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc Control system and method
JP2005216061A (en) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc Image processor, image processing method, recording medium, computer program and semiconductor device
JP2006244272A (en) * 2005-03-04 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> Hand position tracking method, device and program
JP2010515170A (en) * 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド Manipulating virtual objects using an enhanced interactive system
JP2009134693A (en) * 2007-10-30 2009-06-18 Canon Inc Image processing apparatus and image processing method
JP2010067062A (en) * 2008-09-11 2010-03-25 Ntt Docomo Inc Input system and method
JP2011238069A (en) * 2010-05-11 2011-11-24 Nippon Hoso Kyokai <Nhk> Virtual force sense presentation device and virtual force sense presentation program
JP2013009748A (en) * 2011-06-28 2013-01-17 Kyocera Corp Display device, control system, and control program
JP2013101526A (en) * 2011-11-09 2013-05-23 Sony Corp Information processing apparatus, display control method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230099921A (en) * 2021-12-28 2023-07-05 연세대학교 산학협력단 Method for generating synthetic video using optical flow
KR102586637B1 (en) * 2021-12-28 2023-10-06 연세대학교 산학협력단 Method for generating synthetic video using optical flow

Similar Documents

Publication Publication Date Title
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
CN106716302B (en) Method, apparatus, and computer-readable medium for displaying image
TWI523517B (en) Image capture device, image alignment method, and the storage medium for executing the method
KR101663452B1 (en) Screen Operation Apparatus and Screen Operation Method
KR20200123223A (en) Display adaptation method and apparatus, device, and storage medium for applications
JP2013141207A (en) Multi-user interaction with handheld projectors
US10359906B2 (en) Haptic interface for population of a three-dimensional virtual environment
US10928919B2 (en) Information processing device and information processing method for virtual objects operability
JP5220157B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2021535824A (en) Viewing angle rotation method, device and computer program
KR20150026396A (en) Method for object composing a image and an electronic device thereof
US10789987B2 (en) Accessing a video segment
US20140111551A1 (en) Information-processing device, storage medium, information-processing method, and information-processing system
JP2013162221A (en) Information processor, information processing method, and information processing program
US20180059811A1 (en) Display control device, display control method, and recording medium
WO2015146813A1 (en) Object manipulation method, object manipulation program, and information processing device
JP2015191480A (en) Information processor, operation method of object and operation program of object
EP3702008A1 (en) Displaying a viewport of a virtual space
JP2017143340A (en) Information processing apparatus and program
JP6030594B2 (en) Object deformation operation method, object deformation operation program, and information processing apparatus
JP2015177428A (en) Image processing device, image processing method and program
JP2019101192A5 (en)
US9924093B1 (en) Method and apparatus for displaying panoramic images
JP2016191854A (en) Information processor, information processing method, and program
JP6514386B1 (en) PROGRAM, RECORDING MEDIUM, AND IMAGE GENERATION METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170919