WO2015146813A1 - オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置 - Google Patents

オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置 Download PDF

Info

Publication number
WO2015146813A1
WO2015146813A1 PCT/JP2015/058391 JP2015058391W WO2015146813A1 WO 2015146813 A1 WO2015146813 A1 WO 2015146813A1 JP 2015058391 W JP2015058391 W JP 2015058391W WO 2015146813 A1 WO2015146813 A1 WO 2015146813A1
Authority
WO
WIPO (PCT)
Prior art keywords
polyhedron
vertex
image
displayed
motion vector
Prior art date
Application number
PCT/JP2015/058391
Other languages
English (en)
French (fr)
Inventor
岡 正昭
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014068753A external-priority patent/JP2015191480A/ja
Priority claimed from JP2014068752A external-priority patent/JP6030594B2/ja
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to US15/119,814 priority Critical patent/US10080963B2/en
Publication of WO2015146813A1 publication Critical patent/WO2015146813A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Abstract

 表示装置上に表示されたオブジェクト(OB)を変形操作するオブジェクト(OB)の操作方法は、表示装置を制御する制御装置が、オブジェクト(OB)内の任意の点(P0)を中心とする多面体(POL)を設定するステップと、多面体(POL)の中心(P0)から多面体(POL)の頂点(P1~P12)に向かうベクトルによって、多面体(POL)内の空間を分割するステップと、オブジェクト(OB)の頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、オブジェクト(OB)の頂点(POB)を含む空間を構成する3本のベクトルによって、オブジェクト(OB)の頂点(POB)の分解係数を保存するステップと、多面体(POL)に作用した変形操作に応じて、オブジェクト(OB)を変形させて表示するステップとを実行する。

Description

オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置
 本発明は、オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置に関する。
 従来、ゲームプログラム等では、オブジェクトであるキャラクターをリアルに表示できることが望まれている。
 キャラクターをリアルに表現する手法として、スケルトンアニメーションの技術を用いることが考えられる(例えば特許文献1参照)。スケルトンアニメーションは、各部が骨により構成されるスケルトンモデルのボーンにスキンと呼ばれる表面を付けることで表現される。
 そして、スキンの表面の動きの表現にスキニングと呼ばれる技術を用いることにより、一層リアルな表現が可能となる。
 スキニングは、スケルトンを構成するボーンの動きに追従させてスキンを変形させる方法である。
 また、従来、カメラ等で撮像した撮像画像上で撮像画像の手指部分を検出し、検出された手指部分にGUI(Graphical User Interface)部材を表示させ、手指部分の画像をポインタとして使用する技術が知られている(例えば特許文献2参照)。
 この技術によれば、撮像画像上に表示されたGUI部材に対してユーザが指示・選択・移動等のGUI操作をすることができる。
特開2002-63595号公報 特開2012-53674号公報
 しかしながら、前記特許文献1に記載のスキニングでは、ボーンのそれぞれに直交座標系が設定され、複数のボーンに近いオブジェクトの頂点は、複数のボーンの直交座標系の重みつき加算で表現される。このため、重みをオブジェクト毎に定義する必要があり、演算処理が複雑化するという問題がある。
 また、ボーンを物理モデル化するには、座標系の位置、方向だけでなく、隣接するボーンの座標系間のジョイントの弾力性なども定義しなければならないが、仮に定義したとしても結合が少ないので、ジョイントの拘束力が少なく安定しにくいという問題がある。
 また、前記特許文献2に記載の技術は、手指部分の画像上にGUI部材を表示するものであり、表示されたGUI部材を操作する手指部分の画像はあくまでも静止画像として取り扱われている。従って、合成される画像が動画像等の場合、動画像上の手指部分の動きに応じて滑らかにGUI部材を操作することが困難であるという問題がある。
 本発明の目的は、演算処理負担を軽減することができ、物理モデル化しても安定してオブジェクトを変形表示させることができ、また、動画像上に合成表示されたオブジェクトを、動画像の変化に合わせて滑らかに操作することのできるオブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置を提供することにある。
 本発明の第1態様に係るオブジェクトの操作方法は、
 表示装置上に表示されたオブジェクトを変形操作するオブジェクトの操作方法であって、
 前記表示装置を制御する制御装置が、
 前記オブジェクト内の任意の点を中心とする多面体を設定するステップと、
 前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割するステップと、
 前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、
 前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存するステップと、
 前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示するステップとを実行することを特徴とする。
 第1態様に係るオブジェクトの操作方法によれば、オブジェクト内の任意の点を中心とする多面体を設定し、多面体の中心から頂点に至るベクトルによって、多面体内の空間を分割し、オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別し、オブジェクトの頂点を含む空間を構成する3本のベクトルによってオブジェクトの頂点の分解係数を保存し、多面体に作用した変形操作に応じてオブジェクトを変形させて表示している。従って、ボーンによるスキニングと比較して複数のボーンの直交座標系の重み付き加算を行う必要がなく、制御装置による演算処理負担を軽減することができる。
 また、このような変形操作によれば、座標系間のジョイントを考慮する必要がないので、安定してオブジェクトを変形表示することができる。
 本発明の第2態様に係るオブジェクトの操作方法は、第1態様に係るオブジェクトの操作方法において、
 予めオブジェクトを複数のパーツに分割しておき、
 それぞれのパーツについて、多面体を設定することを特徴とする。
 第2態様によれば、パーツ毎に多面体を設定し、それぞれの多面体について変形操作を行うことができるので、複雑な形状のオブジェクトであっても、変形操作に応じてオブジェクトを変形表示することができ、さらに、演算処理の負荷も軽くすることができる。
 本発明の第3態様に係るオブジェクトの操作方法は、
 撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法であって、
 前記撮像装置及び前記表示装置を制御する制御装置は、
 前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
 生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
 検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行することを特徴とする。
 ここで、オプティカルフローの生成においては、動画像を構成する少なくとも2つのフレーム画像からオプティカルフローを生成するが、オプティカルフローは公知のブロックマッチング法、勾配法等によって生成することができる。
 第3態様に係るオブジェクトの操作方法によれば、撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成し、生成されたオプティカルフローからオブジェクトの表示位置における動きベクトルを検出しているので、オブジェクトの移動操作を行うに際して、検出された動きベクトルに応じてオブジェクトの移動操作を滑らかに行うことができる。
 本発明の第4態様に係るオブジェクトの操作プログラムは、
 表示装置上に表示されたオブジェクトを変形操作するオブジェクトの操作方法を、前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
 前記制御装置に、
 前記オブジェクト内の任意の点を中心とする多面体を設定するステップと、
 前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割するステップと、
 前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、
 前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存するステップと、
 前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示するステップとを実行させることを特徴とする。
 第4態様によっても前述した第1態様と同様の作用及び効果を享受するこことができる。
 本発明の第5態様に係るオブジェクトの操作プログラムは、
 撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法を、前記撮像装置及び前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
 前記制御装置に、
 前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
 生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
 検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行させることを特徴とする。
 本発明の第5態様によれば、前述した本発明の第3態様と同一の作用及び効果を享受することができる。
 本発明の第6態様に係る情報処理装置は、
 表示装置上に表示されたオブジェクトを変形操作する情報処理装置であって、
 前記オブジェクト内の任意の点を中心とする多面体を設定する多面体設定手段と、
 前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割する空間分割手段と、
 前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別する空間判別手段と、
 前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存する分解係数保存手段と、
 前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示する変形表示手段とを備えていることを特徴とする。
 第6態様によっても前述した第1態様と同様の作用及び効果を享受するこことができる。
 本発明の第7態様に係る情報処理装置は、
 撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作する情報処理装置であって、
 前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するオプティカルフロー生成手段と、
 前記オプティカルフロー生成手段で生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出する動きベクトル検出手段と、
 前記動きベクトル検出手段で検出された動きベクトルに基づいて、前記オブジェクトの操作を行うオブジェクト操作手段とを備えていることを特徴とする。
 本発明の第7態様によれば、前述した本発明の第3態様と同一の作用及び効果を享受することができる。
 本発明の第8態様に係る情報処理装置は、第7態様に係る情報処理装置において、
 前記オブジェクトを操作する領域を選択する操作領域選択手段を備えていることを特徴とする。
 第8態様に係る情報処理装置によれば、操作領域選択手段により操作領域として選択しているので、操作領域以外の動きベクトルでオブジェクトの操作が邪魔されることを防止することができる。
 本発明の第9態様に係る情報処理装置は、第8態様に係る情報処理装置において、
 前記操作領域選択手段で選択された操作領域にマスキングを行うマスキング手段を備えていることを特徴とする。
 第9態様に係る情報処理装置によれば、マスキング手段を備えていることにより、操作領域にマスキング処理を行うことができるので、動画像の観察者が見やすい状態でオブジェクトを操作することができる。
本発明の第1実施形態に係る携帯端末の一例を示す平面図。 前記実施形態における携帯端末の構成を示すブロック図。 前記実施形態における制御部の構成を示すブロック図。 前記実施形態における制御部の構成を示すブロック図。 前記実施形態における携帯端末の表示部に動画像を表示し、オブジェクト画像を表示させた画面の模式図。 前記実施形態における携帯端末の表示部に動画像を表示し、オブジェクト画像を表示させた画面の模式図。 前記実施形態におけるオプティカルフローを表示させた画面の模式図。 前記実施形態におけるオプティカルフローから動きベクトルの検出を説明するための模式図。 前記実施形態におけるオプティカルフローから動きベクトルの検出を説明するための模式図。 前記実施形態におけるオプティカルフローから動きベクトルの検出を説明するための模式図。 前記実施形態におけるオブジェクト画像を変形させた状態を表す模式図。 前記実施形態におけるオブジェクト画像に設定された多面体を表す模式図。 前記実施形態におけるオブジェクト画像の任意の頂点を多面体内の空間で表す模式図。 前記実施形態における多面体を変形させた際のオブジェクト画像の任意の頂点の位置関係を説明するための模式図。 前記実施形態におけるオブジェクト画像をパーツ毎に分割し、それぞれのパーツ毎に多面体を設定した状態を表す模式図。 前記実施形態における作用を説明するためのフローチャート。 本発明の第2実施形態に係るオブジェクト画像の変形、移動を説明するための模式図。 本発明の第3実施形態に係るオブジェクト画像の変形、移動を説明するための模式図。 前記実施形態の変形となるオブジェクト画像の模式図。
 以下、本発明の実施の形態について説明する。
 [第1実施形態]
 図1には、本発明の実施形態に係る携帯端末3の一例を示す平面図である。
 携帯端末3は、撮像部35で撮像された動画像上にオブジェクトを合成表示する。このような携帯端末3は、スマートフォン(多機能携帯電話機)、タブレット端末及び携帯型ゲーム機等により構成できる。
 本実施形態では、携帯端末3は、図1に示すように、筐体31、表示部32、操作部33、音声出力部34、撮像部35、記憶部36及び制御部37(図2参照)を有し、ゲームプログラムを実行可能な端末装置により構成されている。
 筐体31は、携帯端末3の外装を構成するものであり、左右の手により把持可能な程度の大きさの略長円形状に形成されている。この筐体31は、正面部31A、背面部31B(図1では図示省略)、上面部31C、底面部31D及び左右の側面部31E,31Fを有する。
 表示部32は、本発明の表示装置に相当し、正面部31Aにおける略中央に配設されている。この表示部32は、矩形状に形成された表示パネルにより構成されており、後述する制御部37の表示制御部371(図3A参照)による制御の下、当該表示制御部371により形成される画像を表示する。このような表示パネルとして、有機EL(Electro-Luminescence)や液晶等の表示パネルを例示できる。
 操作部33は、正面部31Aにおける表示部32の周囲、及び、当該筐体31の上面部31Cに配設された各種ボタン及びスティックを有し、使用者の入力操作に応じた操作信号を制御部37に出力する。
 具体的に、操作部33は、表示部32に対して左側にそれぞれ位置し、正面部31Aに対向して見た場合の上下左右の各方向に入力可能な方向ボタン331と、当該各方向に傾倒可能な操作スティック332と、底面部31D側に位置する操作ボタン333と、を有する。また、操作部33は、表示部32に対して右側に位置する4つの操作ボタン334と、操作スティック332と同様の構成を有する操作スティック335と、底面部31D側に位置する操作ボタン336,337と、を有する。更に、操作部33は、上面部31Cの左右両側にそれぞれ位置する操作ボタン338L,338Rを有する。
 音声出力部34は、正面部31Aにおける左右両端近傍にそれぞれ配設されたスピーカー34L,34Rを有する。この音声出力部34は、後述する制御部37の音声出力制御部373(図3A参照)から入力される音声信号に応じた音声を、スピーカー34L,34Rにより出力する。
 撮像部35は、本発明の撮像装置に相当し、正面部31Aにおける右側上部に配設された第1撮像部としてのカメラ351を有する。この撮像部35は、当該カメラ351による撮像画像を制御部37に出力する。
 図2は、携帯端末3の構成を示すブロック図である。
 上記表示部32、操作部33、音声出力部34、撮像部35、記憶部36及び制御部37は、図2に示すように、それぞれ互いにバスラインBLにより接続されている。
 これらのうち、記憶部36は、携帯端末3の動作に必要なプログラム及びデータを記憶している。例えば、記憶部36は、携帯端末3の動作を制御するOS(Operating System)、ゲーム等のアプリケーションプログラム、及び、画像表示プログラムを記憶している。このような記憶部36は、フラッシュメモリー等の不揮発性メモリーやHDD(Hard Disk Drive)により構成できる。
 図3A、図3Bは、制御部37の構成を示すブロック図である。
 制御部37は、CPU(Central Processing Unit)等を有し、携帯端末3の動作を制御する。具体的に、制御部37は、当該CPUが記憶部36に記憶されたプログラムを読み出して処理することで、使用者の入力操作(操作部33から入力される操作信号)に応じて、或いは、自律的に携帯端末3を制御する制御装置である。
 この他、制御部37は、CPUが上記画像表示プログラムを実行することで、撮像部35で撮像された動画像を表示部32に表示させる。このため、制御部37は、図3Aに示すように、表示制御部371、撮像制御部372、音声出力制御部373、オプティカルフロー生成部374、動きベクトル検出部375、オブジェクト操作部376、操作領域選択部377、及びマスキング部378を備える。
 表示制御部371は、携帯端末3の動作状態を示す画像や、撮像部35で撮像された画像を描画メモリー(図示略)に描画し、当該画像に応じた画像信号を表示部32に出力することで、当該画像を表示部32に表示させる。
 具体的に、図4に示すように、撮像部35で撮像された動画像が表示部32上に表示され、この動画像上にオブジェクト画像OBが合成表示される。
 撮像制御部372は、撮像部35の動作を制御する。具体的に、撮像制御部372は、撮像部35に所定周期(フレームレート)で撮像させる。そして、撮像制御部372は、撮像部35から入力される撮像画像である動画像を取得し、記憶部36に記憶させる。
 音声出力制御部373は、音声出力部34を制御して、所定の音声を出力させる。
 オプティカルフロー生成部374は、動画像を構成する少なくとも2以上のフレーム画像G1、G2からオプティカルフローを生成する。
 今、図4に示されるフレーム画像G1から図5に示されるフレーム画像G2に遷移したとすると、動画像中の顔の画像CH1は右方向にスライドし、手指部分の画像CH2は、回動動作を行ったと仮定する。
 オプティカルフロー生成部374は、この2つのフレーム画像G1、G2の輝度点の移動から、図6に示されるようなオプティカルフローG3を生成する。オプティカルフローG3は、勾配法、ブロックマッチング法等の公知の方法を用いて求めることができる。
 勾配法は、物体上の点の明るさは、移動後も変化しないという仮定から、時空間微分とオプティカルフローとの関係式を導出し、これを利用して対象の動きを推定する方法である。
 一方、ブロックマッチング法は、画像を一定の大きさの小領域に分割し、それぞれのブロックの動きベクトルを求める。各ブロックが前のフレームのどこに対応するかを探索し、対応するブロックとの位置の差を動きベクトルとする方法である。
 これらの方法用いて、オプティカルフローG3は、2つのフレーム画像G1、G2からフレームレート等を用いて画像CH1、CH2の移動方向、移動速度を算出し、動きベクトルを生成する。
 動きベクトル検出部375は、オプティカルフロー生成部374で生成されたオプティカルフローG3のうち、オブジェクト画像OBが表示された位置における動きベクトルを検出する。図4から図5への変化においては、オブジェクト画像OBの回りに手指部分の画像CH2が表示され、手指部分が左方向に回動しており、これを動きベクトルV1として検出する。
 オブジェクト操作部376は、動きベクトル検出部375で検出されたオブジェクト画像OB回りの動きベクトルV1に基づいて、オブジェクト画像OBの移動、変形を行う部分であり、オブジェクト移動操作部376A及びオブジェクト変形操作部376Bを備える。
 オブジェクト移動操作部376Aは、検出された動きベクトルV1の方向、大きさに応じて、オブジェクト画像OBの移動方向、移動量を算出し、表示部32上の適当な位置にオブジェクト画像OBを合成表示させる。
 具体的には、図7Aに示されるように、オブジェクト画像OB回りでオプティカルフローOFが検出されたときに、動きベクトル検出部375は、オブジェクト画像OBに設定された多面体POLの頂点近傍のオプティカルフローOFから、多面体POLの動きベクトルV1を検出する。オプティカルフローOFは、表示部32の各ピクセル毎に離散的に求められるが、求めたい頂点のオプティカルフローについて、回りのピクセル座標のオプティカルフローから内挿によって求めている。
 オブジェクト移動操作部376Aは、動きベクトル検出部375Aで検出された動きベクトルV1に基づいて、図7Bに示されるように、多面体POLを変形させた後、多面体POLを元々の頂点間の拘束条件などによって形を保つようにして、図7Cに示されるように、多面体POLを回転させ、この多面体POLの回転移動に応じて、オブジェクト画像OBを移動させる。
 オブジェクト変形操作部376Bは、動きベクトル検出部375で検出されたオブジェクト画像OB回りの動きベクトルV1の方向、大きさに応じてオブジェクト画像OBの変形方向、変形量を算出し、オブジェクト画像OBを変形させて表示部32上に合成表示させる。このオブジェクト変形操作部376Bは、図3Bに示されるように、多面体設定部376C、空間分割部376D、空間判別部376E、分解係数保存部376F、及び変形表示部376Gを備える。
 具体的には、図8に示されるように、オブジェクト画像OBに手指部分の画像CH2が上下方向の動きをした際、動きベクトルV1によってオブジェクト画像OBを上下に変形させた状態で表示部32上に表示させる。
 オブジェクト画像OBの変形は、図9に示されるように、多面体設定部376Cが、オブジェクト画像OB内の任意の位置に中心点P0を設定し、中心点P0を中心とする多面体POLを設定する。
 本実施形態では、多面体POLは、12個の頂点P1~P12を有する凸多面体として設定されているが、空間を一意に領域分割することができるのであれば、これに限らず、オブジェクト画像OBの形状等に応じて任意に設定することができる。
 多面体POLは、オブジェクト画像OBの形状と無関係であってもよく、オブジェクト画像OBの頂点POBを使って多面体POLを設定してもよい。好ましくは、多面体POLは、オブジェクト画像OBの手足等の動かしたい部分を頂点とし、オブジェクト画像OBの全体を覆い、かつなるべく小さくなるように設定する。
 空間分割部376Dは、多面体POL内の空間を、中心点P0から多面体POLの頂点P1~P12に至るベクトルによって、複数に分割する。
 次に、空間判別部376Eは、オブジェクト画像OBの任意の頂点POBを、中心点P0と、多面体POLの頂点P1と、頂点P4と、頂点P5とで構成される空間に含まれていることを判別する。
 分解係数保存部376Fは、図10に示されるように、任意の頂点POBの位置xを、中心点P0から頂点P1に向かうベクトルaと、中心点P0から頂点P4に向かうベクトルbと、中心点P0から頂点P5に向かうベクトルcと、それぞれの分解係数p、q、rによって記憶保存する。
 すなわち、オブジェクト画像OBの任意の頂点POBの位置xは、下記式(1)によって表現される。
 x=pa+qb+rc…(1)
 変形表示部376Gは、例えば、多面体POLを変形させる動きベクトルV1を検出したら、図11に示されるように、多面体POL内の空間を検出された動きベクトルV1に応じて、図10の頂点P1、頂点P4、頂点P5を、頂点P1’、頂点P4’、頂点P5’に変形させる。
 これに伴って変形表示部376Gは、記憶保存しておいた式(1)を動きベクトルV1に応じて、下記式(2)に示されるように、オブジェクト画像OBの任意の頂点POBの位置x’記憶保存し、表示部32上に変形させたオブジェクト画像OBを表示する。
 x’=pa’+qb’+qc’…(2)
 また、オブジェクト変形操作部376Bは、図12に示されるように、オブジェクト画像OBに対して、1つの多面体POLを設定するだけでなく、オブジェクト画像OBを複数のパーツ、例えば、頭、手足等のパーツに分割しておき、それぞれのパーツについて、部品多面体PA1~PA5を設定し、各パーツの任意の頂点の位置を、各部品多面体PA1~PA5に前記式(1)の形で記憶保存することもできる。
 この場合、オブジェクト画像OBの変形は、次の方法で実現される。
 まず、下位となる部品多面体PA1~PA5をオブジェクトと見立て、上位の多面体POLの変形により、部品多面体PA1~PA5を変形、移動させる。次に、オブジェクト画像OBは、それぞれのパーツが属する下位の部品多面体PA1~PA5の変形に応じて変形、移動する。オブジェクト画像OBの変形は、上位の多面体POLを設定せずに、下位の部品多面体PA1~PA5を直接変形させることもできる。
 例えば、オブジェクト画像OBの手の部分を変形させたい場合、当該手の部分に設定された部品多面体PA3のみを変形させればよい。
 一方、変形操作がオブジェクト画像OBの全体に影響する場合、例えば、オブジェクト画像OBが海の渦流などに巻き込まれる表示画像上で操作する場合は、上位の多面体POLの変形、移動操作として行えばよい。
 さらに、上位の多面体POLと、部品多面体PA1~PA6とを組み合わせた複雑な動作も可能である。すなわち、オブジェクト画像OBが川等の流れの中で岩などにぶつかる表示画像を想定すれば、上位の多面体POLで川の流れ中の変形移動操作を行い、岩にぶつかる際の変形操作を部品多面体PA1~PA6で行うことができる。このような階層構造をとることにより、全体の流れによる変形と部分の変形のつじつまを合わせることができる。
 オブジェクト画像OBの各パーツがどの部品多面体PA1~PA5に属するかは、それぞれのベクトルの分解係数によって判別することができる。オブジェクト画像OBの各パーツは、部品多面体PA1~PA5が互いに重複しないように選択する。
 また、オブジェクト画像OBの頂点P13のように、頂点P13が部品多面体PA3に含まれるときは、式(1)における分解係数p、q、rは、0~1の範囲で設定される。一方、オブジェクト画像OBの頂点P14のように、頂点P14が部品多面体PA3にも部品多面体PA4の外部にある場合、式(1)における分解係数p、q、rの二乗和を部品多面体PA3、PA4のそれぞれについて求め、比較して小さい方の部品多面体に属するとして、オブジェクト画像OBの頂点P14の変形を行えばよい。
 操作領域選択部377は、操作すべきオブジェクト画像OBが存在する領域を操作領域ARとして選択する。
 また、操作領域ARの選択は、顔認識等の公知の画像認識技術を用い、図6における顔の画像CH1の領域内のオプティカルフローを除外し、手指部分の画像CH2の部分のみのオプティカルフローを生成することにより、選択することもできる。
 さらに、顔の画像CH1のオプティカルフローの間隔は広く検出され、手指部分の画像CH2は狭く生成されるので、これを利用して、操作領域ARの選択を行ってもよい。
 マスキング部378は、操作領域ARにマスキングして操作を行い易くする手段であり、例えば、操作領域AR以外の動画像を非表示にしたり、操作領域ARの画像を動画像そのままでなく、コントラストを強調した2値画像としたり、輪郭画像のみを表示させたり、アイコンのようなオブジェクト画像に置き換えることにより、操作領域の視認性を向上させる。
 次に、本実施形態の作用について、図13に示すフローチャートに基づいて説明する。
 まず、表示制御部371は、撮像部35で撮像された動画像と、記憶部36から読み出したオブジェクト画像OBを表示部32上に合成表示する(ステップS1)。
 オプティカルフロー生成部374は、動画像を構成するフレーム画像G1、G2に基づいて、オプティカルフローG3を生成する(ステップS2)。
 動きベクトル検出部375は、操作領域AR中のオプティカルフローG3を監視し(ステップS3)、操作領域AR中の動きベクトルに変化があった場合、動きベクトルV1の方向、大きさを検出する(ステップS4)。
 オブジェクト操作部376は、検出された動きベクトルV1に基づいて、オブジェクト画像OBの移動方向、移動量を算出し、表示部32上の適当な位置にオブジェクト画像OBを合成表示させる(ステップS5)。
 尚、ステップS1~ステップS5に至る一連のオブジェクトの操作方法は、コンピュータ読み取り可能なプログラムとして記憶部36に記憶され、撮像部35で撮像された動画像を表示部32で表示する際、制御部37に読み出されて実行される。
 このような本実施形態によれば、以下に示す効果がある。
 オプティカルフロー生成部374により動画像のオプティカルフローG3を生成し、動きベクトル検出部375によりオブジェクト画像OBの表示位置における動きベクトルV1を検出しているので、オブジェクト操作部376によりオブジェクト画像OBの移動操作を行うに際して、検出された動きベクトルV1に応じてオブジェクト画像OBの移動操作を滑らかに行うことができる。
 操作領域選択部377により操作領域ARとして選択しているので、検出領域以外の動きベクトルでオブジェクト画像OBの操作が邪魔されることを防止することができる。
 マスキング部378を備えていることにより、操作領域ARをマスキング処理しているので、動画像の観察者が見やすい状態でオブジェクト画像OBを操作することができる。
 オブジェクト変形操作部376Bが、オブジェクト画像OB内の任意の中心点P0を中心とする多面体POLを設定し、多面体POLの中心点P0から頂点P1~P12に向かうベクトルによって、多面体POL内の空間を分割し、オブジェクト画像OBの頂点POBが、分割された空間のうち、どの空間に含まれるかを判別し、オブジェクトの頂点を含む空間を構成する3本のベクトルによってオブジェクトの頂点の位置xの分解係数p、q、rを保存し、多面体POLに作用した変形操作に応じてオブジェクト画像OBを変形させて表示している。従って、ボーンによるスキニングと比較して複数のボーンの直交座標系の重み付き加算を行う必要がなく、制御部37による演算処理負担を軽減することができる。
 また、オブジェクト変形操作部376Bが、オブジェクト画像OBのパーツ毎に部品多面体PA1~PA5を設定し、それぞれの部品多面体PA1~PA5について変形操作を行うことができるので、複雑な形状のオブジェクト画像OBであっても、変形操作に応じてオブジェクト画像OBを変形表示することができ、演算処理の負荷も軽くすることができる。
 [第2実施形態]
 次に、本発明の第2実施形態について説明する。尚、以下の説明では、既に説明した部分と同一の部分については、同一符号を付して説明を省略する。
 前述した第1実施形態では、撮像部35のカメラ351で撮像した動画像からオプティカルフローG3を生成し、生成したオプティカルフローG3に基づいて、動きベクトルV1を検出し、この動きベクトルV1に基づいて、オブジェクト画像OBの変形操作を行っていた。
 これに対して、本実施形態では、アニメーション作成ツール等で多面体POLの頂点列の変形アニメーションを作成し、これにオブジェクト画像OBを追従させている点が相違する。
 すなわち、図14(A)に示されるように、まず、オブジェクト画像OBに対して、第1実施形態と同様に多面体POLを、キーフレーム画像として設定する。
 次に、このキーフレーム画像を変形操作する場合、例えば、図14(B)に示されるキーフレーム画像、及び図14(D)に示されるキーフレーム画像が設定されていた場合、その中間の図14(C)に示される画像は、動きを生じさせたい頂点の座標の差分画像で補間して生成され、図14(A)~(D)のような多面体POLの変形操作を記憶保存する。
 画像の表示に際しては、このアニメーションにオブジェクト画像OBを追従させることにより、図14(E)~(G)のようなオブジェクト画像OBの変形画像を表示させることができる。
 このような方法によっても、前述した第1実施形態と同様の作用及び効果を奏することができる。
 [第3実施形態]
 次に、本発明の第3実施形態について説明する。前述の第2実施形態では、アニメーション作成ツールを用いて、多面体POLの変形を行っていた。
 これに対して、本実施形態では、図15に示されるように、物理演算エンジンソフトウェアの物理シミュレーションを利用して、多面体POLの変形、移動をさせている点が相違する。
 すなわち、図15(A)に示されるように、第2実施形態と同様に、オブジェクト画像OBに対して、多面体POLを設定する。
 次に、多面体POLを、図15(B)に示されるように、物理演算エンジンソフトウェア上で自然法則に則った衝突、移動に応じた変形させた状態を記憶保存する。
 ここで、物理シミュレーションの対象は、多面体POL自体について、頂点間の関係性を物理シミュレートしてもよいが、複数の頂点から構成される剛体について物理シミュレートを行い、シミュレート結果としての剛体を構成する頂点から多面体POLを特定することもできる。
 物理演算エンジンソフトウェア上でオブジェクト画像OBを変形、移動操作する場合、描画するオブジェクト画像OBの頂点数よりも多面体POLの頂点が少ないので、描画に要する負荷を減らすことができ、既存の物理演算エンジンソフトウェアのデータ構造に合わせやすく、柔軟な適用が可能となるという利点を有する。
 画像の表示に際しては、図15(C)に示されるように、この多面体POLの物理シミュレーション変形、移動に追従させることにより、オブジェクト画像OBの変形、移動画像を表示させることができる。
 [実施形態の変形]
 本発明は、前述した実施形態に限定されるものではなく、以下に示すような変形をも含むものである。
 前述した実施形態では、オブジェクト操作部376は、キャラクター的なオブジェクト画像OBを操作するものであったが、これに限らず、例えば、図14に示されるようなスライドスイッチ画像OB2を表示部32のどこかに固定して表示しておき、手指部分の画像CH2でスライドさせる操作を行ってもよい。
 本発明の実施形態は、本発明の目的を達成できる範囲で他の構成を採用することができる。
 3…携帯端末、31…筐体、31A…正面部、31C…上面部、31E…側面部、32…表示部、33…操作部、331…方向ボタン、332…操作スティック、333…操作ボタン、334…操作ボタン、335…操作スティック、336…操作ボタン、338L…操作ボタン、34…音声出力部、34L…スピーカー、35…撮像部、351…カメラ、36…記憶部、37…制御部、371…表示制御部、372…撮像制御部、373…音声出力制御部、374…オプティカルフロー生成部、375…ベクトル検出部、376…オブジェクト操作部、376A…オブジェクト移動操作部、376B…オブジェクト変形操作部、376C…多面体設定部、376D…空間分割部、376E…空間判別部、376F…分解係数保存部、376G…変形表示部、377…操作領域選択部、378…マスキング部、AR…操作領域、BL…バスライン、CH1、CH2…画像、G1、G2…フレーム画像、G3…オプティカルフロー、OB…オブジェクト画像、OB2…スライドスイッチ画像

Claims (9)

  1.  表示装置上に表示されたオブジェクトを変形操作するオブジェクトの操作方法であって、
     前記表示装置を制御する制御装置が、
     前記オブジェクト内の任意の点を中心とする多面体を設定するステップと、
     前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割するステップと、
     前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、
     前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存するステップと
     前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示するステップとを実行することを特徴とするオブジェクトの操作方法。
  2.  請求項1に記載のオブジェクトの操作方法において、
     予めオブジェクトを複数のパーツに分割しておき、
     それぞれのパーツについて、多面体を設定することを特徴とするオブジェクトの操作方法。
  3.  撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法であって、
     前記撮像装置及び前記表示装置を制御する制御装置は、
     前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
     生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
     検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行することを特徴とするオブジェクトの操作方法。
  4.  表示装置上に表示されたオブジェクトを変形操作するオブジェクトの操作方法を、前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
     前記制御装置に、
     前記オブジェクト内の任意の点を中心とする多面体を設定するステップと、
     前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割するステップと、
     前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、
     前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存するステップと
     前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示するステップとを実行させることを特徴とするオブジェクトの操作プログラム。
  5.  撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法を、前記撮像装置及び前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
     前記制御装置に、
     前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
     生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
     検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行させることを特徴とするオブジェクトの操作プログラム。
  6.  表示装置上に表示されたオブジェクトを変形操作する情報処理装置であって、
     前記オブジェクト内の任意の点を中心とする多面体を設定する多面体設定手段と、
     前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割する空間分割手段と、
     前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別する空間判別手段と、
     前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存する分解係数保存手段と、
     前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示する変形表示手段とを備えていることを特徴とする情報処理装置。
  7.  撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作する情報処理装置であって、
     前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するオプティカルフロー生成手段と、
     前記オプティカルフロー生成手段で生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出する動きベクトル検出手段と、
     前記動きベクトル検出手段で検出された動きベクトルに基づいて、前記オブジェクトの操作を行うオブジェクト操作手段とを備えていることを特徴とする情報処理装置。
  8.  請求項7に記載の情報処理装置において、
     前記オブジェクトを操作する領域を選択する操作領域選択手段を備えていることを特徴とする情報処理装置。
  9.  請求項8に記載の情報処理装置において、
     前記操作領域選択手段で選択された領域にマスキングを行うマスキング手段を備えていることを特徴とする情報処理装置。
PCT/JP2015/058391 2014-03-28 2015-03-20 オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置 WO2015146813A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/119,814 US10080963B2 (en) 2014-03-28 2015-03-20 Object manipulation method, object manipulation program, and information processing apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014068753A JP2015191480A (ja) 2014-03-28 2014-03-28 情報処理装置、オブジェクトの操作方法、及びオブジェクトの操作プログラム
JP2014-068752 2014-03-28
JP2014068752A JP6030594B2 (ja) 2014-03-28 2014-03-28 オブジェクトの変形操作方法、オブジェクトの変形操作プログラム、及び情報処理装置
JP2014-068753 2014-03-28

Publications (1)

Publication Number Publication Date
WO2015146813A1 true WO2015146813A1 (ja) 2015-10-01

Family

ID=54195331

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/058391 WO2015146813A1 (ja) 2014-03-28 2015-03-20 オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置

Country Status (2)

Country Link
US (1) US10080963B2 (ja)
WO (1) WO2015146813A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583391A (zh) * 2018-12-04 2019-04-05 北京字节跳动网络技术有限公司 关键点检测方法、装置、设备及可读介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9958843B2 (en) * 2012-11-07 2018-05-01 Hitachi, Ltd. System and program for managing management target system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281666A (ja) * 1994-04-05 1995-10-27 Casio Comput Co Ltd 画像制御装置
JP2000196914A (ja) * 1998-10-13 2000-07-14 Sony Electronics Inc 動作検知インタ―フェ―ス
JP2001006003A (ja) * 1999-06-25 2001-01-12 Namco Ltd 画像生成システム及び情報記憶媒体
JP2005301479A (ja) * 2004-04-08 2005-10-27 Akinori Yoshino 投影された提示者の動作による命令入力装置
JP2007156950A (ja) * 2005-12-07 2007-06-21 Toyota Motor Corp 車両用操作装置
JP2009519552A (ja) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント 相互対話的な電子的にシミュレートされた環境の音声および映像制御

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5168677A (en) * 1989-11-15 1992-12-08 Ernesto Daniel Gyurec Method of constructing flat building block modules from the union of two frustums by their congruent bases and slot connectors complement for a variety of constructive or amusing applications
JP3926866B2 (ja) * 1996-05-10 2007-06-06 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、及び描画システム
US8836701B1 (en) * 1998-07-23 2014-09-16 Freedesign, Inc. Surface patch techniques for computational geometry
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
JP2001100906A (ja) 1999-09-30 2001-04-13 Suzuki Motor Corp 三次元データ表示装置
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
JP4636741B2 (ja) * 2001-07-06 2011-02-23 任天堂株式会社 画像処理装置および立体形状表示プログラム
US7002574B2 (en) * 2002-12-27 2006-02-21 Microsoft Corporation Method and system for tessellating a polygon
JP4323180B2 (ja) 2003-02-13 2009-09-02 日本電信電話株式会社 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP4723799B2 (ja) 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20050264554A1 (en) * 2004-05-25 2005-12-01 Deming James L Tile based rendering of smooth points using polygons
JP2006244272A (ja) 2005-03-04 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> 手位置追跡方法、装置、およびプログラム
JP2010515170A (ja) 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド 機能強化したインタラクティブシステムを用いた仮想オブジェクトの操作
JP2009134693A (ja) 2007-10-30 2009-06-18 Canon Inc 画像処理装置、画像処理方法
JP5205187B2 (ja) 2008-09-11 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 入力システム及び入力方法
JP5513973B2 (ja) 2010-05-11 2014-06-04 日本放送協会 仮想力覚提示装置及び仮想力覚提示プログラム
JP5751775B2 (ja) 2010-09-01 2015-07-22 キヤノン株式会社 撮像装置、その制御方法及びプログラム並びに記録媒体
JP5774387B2 (ja) 2011-06-28 2015-09-09 京セラ株式会社 表示機器
JP2013101526A (ja) 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US9350798B2 (en) * 2013-12-10 2016-05-24 Oracle International Corporation Methods and systems for transitioning between arbitrary shapes
JP6338929B2 (ja) * 2014-05-23 2018-06-06 東芝メモリ株式会社 レチクルマーク配置方法およびレチクルマーク配置プログラム
EP3001370A1 (en) * 2014-09-29 2016-03-30 Thomson Licensing Method and system for consistency checking

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281666A (ja) * 1994-04-05 1995-10-27 Casio Comput Co Ltd 画像制御装置
JP2000196914A (ja) * 1998-10-13 2000-07-14 Sony Electronics Inc 動作検知インタ―フェ―ス
JP2001006003A (ja) * 1999-06-25 2001-01-12 Namco Ltd 画像生成システム及び情報記憶媒体
JP2005301479A (ja) * 2004-04-08 2005-10-27 Akinori Yoshino 投影された提示者の動作による命令入力装置
JP2007156950A (ja) * 2005-12-07 2007-06-21 Toyota Motor Corp 車両用操作装置
JP2009519552A (ja) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント 相互対話的な電子的にシミュレートされた環境の音声および映像制御

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583391A (zh) * 2018-12-04 2019-04-05 北京字节跳动网络技术有限公司 关键点检测方法、装置、设备及可读介质

Also Published As

Publication number Publication date
US20170056774A1 (en) 2017-03-02
US10080963B2 (en) 2018-09-25

Similar Documents

Publication Publication Date Title
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
CN106355153B (zh) 一种基于增强现实的虚拟对象显示方法、装置以及系统
US10678340B2 (en) System and method for providing user interface tools
JP4533087B2 (ja) 画像処理方法、画像処理装置
WO2019153750A1 (zh) 用于对虚拟环境进行视角切换的方法、装置、设备及存储介质
US20190102934A1 (en) Shadows for inserted content
WO2010141398A2 (en) Virtual desktop coordinate transformation
CN110096214B (zh) 虚拟对象的移动控制方法、装置、终端和存储介质
US10359906B2 (en) Haptic interface for population of a three-dimensional virtual environment
US11430192B2 (en) Placement and manipulation of objects in augmented reality environment
JP2018147002A (ja) 画像処理プログラム、画像処理システム、画像処理装置および画像処理方法
US20180032139A1 (en) Interactive system control apparatus and method
US20120047466A1 (en) Information processing device, information processing method, and program
KR20150026396A (ko) 이미지를 합성하기 위한 방법 및 그 전자 장치
WO2015146813A1 (ja) オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置
JP2013162221A (ja) 情報処理装置、情報処理方法、情報処理プログラム
JP3639286B2 (ja) ゲームプログラム、及びゲーム装置
US20180059811A1 (en) Display control device, display control method, and recording medium
JP6030594B2 (ja) オブジェクトの変形操作方法、オブジェクトの変形操作プログラム、及び情報処理装置
JP2015191480A (ja) 情報処理装置、オブジェクトの操作方法、及びオブジェクトの操作プログラム
US10553249B2 (en) Storage medium, information processing apparatus, information processing system and information processing method
JP5325253B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP6514386B1 (ja) プログラム、記録媒体及び画像生成方法
JP2007025861A (ja) バーチャルリアリティシステム及び方法、並びに、補間画像生成装置及び方法
CN114327174A (zh) 虚拟现实场景的显示方法、光标的三维显示方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15767759

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15119814

Country of ref document: US

NENP Non-entry into the national phase
122 Ep: pct application non-entry in european phase

Ref document number: 15767759

Country of ref document: EP

Kind code of ref document: A1