JP6569452B2 - 画像生成システム、画像生成プログラム及び画像生成方法 - Google Patents
画像生成システム、画像生成プログラム及び画像生成方法 Download PDFInfo
- Publication number
- JP6569452B2 JP6569452B2 JP2015200553A JP2015200553A JP6569452B2 JP 6569452 B2 JP6569452 B2 JP 6569452B2 JP 2015200553 A JP2015200553 A JP 2015200553A JP 2015200553 A JP2015200553 A JP 2015200553A JP 6569452 B2 JP6569452 B2 JP 6569452B2
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- determined
- data
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 141
- 230000033001 locomotion Effects 0.000 claims description 371
- 238000012545 processing Methods 0.000 claims description 60
- 238000006073 displacement reaction Methods 0.000 description 85
- 238000004364 calculation method Methods 0.000 description 81
- 230000006399 behavior Effects 0.000 description 80
- 230000036544 posture Effects 0.000 description 79
- 238000011156 evaluation Methods 0.000 description 74
- 210000003128 head Anatomy 0.000 description 71
- 230000003183 myoelectrical effect Effects 0.000 description 46
- 238000010586 diagram Methods 0.000 description 33
- 230000005540 biological transmission Effects 0.000 description 32
- 239000000284 extract Substances 0.000 description 22
- 230000006870 function Effects 0.000 description 22
- 210000003739 neck Anatomy 0.000 description 22
- 230000000007 visual effect Effects 0.000 description 20
- 230000011273 social behavior Effects 0.000 description 17
- 238000013500 data storage Methods 0.000 description 14
- 238000012790 confirmation Methods 0.000 description 13
- 230000037007 arousal Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 238000012544 monitoring process Methods 0.000 description 9
- 210000000707 wrist Anatomy 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 8
- 210000000988 bone and bone Anatomy 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 6
- 210000001624 hip Anatomy 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 239000010410 layer Substances 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000013480 data collection Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000007670 refining Methods 0.000 description 4
- 238000010187 selection method Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 210000003371 toe Anatomy 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000001981 hip bone Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/58—Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6607—Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
<画像生成システムの全体構成>
はじめに、画像生成システムについて説明する。図1は、画像生成システムの全体構成の一例を示す図である。図1に示すように、画像生成システム100は、サーバ装置110と、クライアント装置120、130とを有する。サーバ装置110と、クライアント装置120、130とは、インターネットやLAN(Local Area Network)等に代表されるネットワーク160を介して接続されている。
・仮想空間の画像に配置されたオブジェクト。
・仮想空間の画像に配置されたオブジェクトの属性(オブジェクトを構成する部位の部位情報、オブジェクトに割り当てられた音声データ等)。
次に、実空間内における位置と仮想空間内における位置との関係について説明する。実空間における位置を示す座標と、仮想空間における位置を示す座標とは、互いに異なる座標系により管理されており、予め定められた座標変換関数を用いて相互に変換される。
次に、第2の仮想空間用情報提供部112が印象ずれ発生状況か否かを判断する際に用いる、誤りやすさ閾値領域を示すマップについて説明する。誤りやすさ閾値領域は、センサが設置されているそれぞれの環境ごと、及び、センサの種類ごとに予め規定されている。ここでは、説明の簡略化のため、ユーザ140を測定対象として設置された深度センサ122の誤りやすさ閾値領域を示すマップについて説明する。そこで、まず、深度センサ122により取得されるデータについて簡単に説明する。
次に、実空間における人(ユーザ140、150)の振る舞いと、仮想空間におけるアバタの動きとの関係について説明する。図3は、実空間における人の振る舞いと仮想空間におけるアバタの動きとの関係を示す図である。
次に、印象ずれ発生状況になった場合に、実空間におけるユーザ140の振る舞いと、アバタ340の動きとで、他人に与える印象が変わることがないようにモデル候補を選定する選定方法について説明する。図4は、モデル候補の選定方法を説明するための図である。
次に、サーバ装置110のハードウェア構成について説明する。図5は、サーバ装置のハードウェア構成の一例を示す図である。図5に示すように、サーバ装置110は、CPU501、ROM(Read Only Memory)502、RAM(Random Access Memory)503を備える。また、サーバ装置110は、補助記憶部504、通信部505、表示部506、操作部507、ドライブ部508を備える。なお、サーバ装置110の各部は、バス509を介して相互に接続されている。
次に、クライアント装置120、130のハードウェア構成について説明する。図6は、クライアント装置のハードウェア構成の一例を示す図である。図6に示すように、クライアント装置120、130は、CPU601、ROM(Read Only Memory)602、RAM(Random Access Memory)603を備える。また、クライアント装置120、130は、補助記憶部604、通信部605、操作部606、表示部607、音声データ転送部608、音声データ取得部609を備える。更に、クライアント装置120、130は、頭部姿勢データ取得部610、深度データ取得部611、筋電位データ取得部612を備える。なお、これらの各部は、バス613を介して相互に接続されている。
次に、クライアント装置120、130の情報処理部121、131の機能構成について説明する。図7は、クライアント装置の機能構成の一例を示す図である。図7に示すように、クライアント装置120、130の情報処理部121、131は、仮想空間用情報取得部701、センサデータ取得部702、センサデータ送信部703、視野画像生成部704、視野画像表示制御部705、音声出力制御部706を有する。
次に、クライアント装置120により実行されるセンサデータ送信処理の流れについて説明する。図8は、クライアント装置により実行されるセンサデータ送信処理のフローチャートである。
次に、クライアント装置により実行される仮想空間再生処理の流れについて説明する。クライアント装置120、130により実行される仮想空間再生処理はいずれも同様の処理であるため、ここでは、クライアント装置120により実行される仮想空間再生処理について説明する。図9は、クライアント装置により実行される仮想空間再生処理のフローチャートである。
次に、サーバ装置110の機能構成(第1の仮想空間用情報提供部111、第2の仮想空間用情報提供部112)について説明する。図10は、サーバ装置の機能構成の一例を示す第1の図である。
次に、センサデータ格納部114に格納されるセンサデータのうち、音声データを除くセンサデータ(頭部姿勢データ、深度データ、筋電位データ)について、図11〜図13を用いて説明する。なお、以降の説明において、音声データについての説明は省略し、センサデータには、頭部姿勢データ、深度データ、筋電位データが含まれるものとして説明する。
図11は、頭部姿勢データテーブルの一例を示す図である。図11に示すように、頭部姿勢データテーブル1100は、情報の項目として、"記録時刻"と、"データ取得時刻"と、"ユーザ名"と、"クライアント装置ID"と、"頭部姿勢データ(位置、角度)"とを含む。
図12は、深度データファイルテーブルの一例を示す図である。図12に示すように、深度データファイルテーブル1200は、情報の項目として、"記録時刻"と、"データ取得開始時刻"と、"データ取得終了時刻"とを含む。更に、情報の項目として、"ユーザ名"と、"クライアント装置ID"と、"深度データファイルURI(Uniform Resource Identifier)"とを含む。
図13は、筋電位データテーブルの一例を示す図である。図13に示すように、筋電位データテーブル1300は、情報の項目として、"記録時刻"と、"データ取得時刻"と、"ユーザ名"と、"クライアント装置ID"と、"筋電位データ(EMG(μV))"とを含む。
次に、動き(変化)判定部1012にて監視対象となるアバタの部位の動きについて説明する。動き(変化)判定部1012は、センサデータに基づいて算出されるアバタの所定の部位の部位値を監視し、アバタの所定の部位の部位値が所定量以上変化したか否かを判定する。
次に、アバタの動きの種類を判定するための定義情報について説明する。図15は、定義情報格納部に格納された定義情報のうち、アバタの動きの種類を判定するための定義情報を示した図である。
次に、動きの種類判定ログテーブルについて説明する。ユーザの振る舞いに応じて、アバタの監視対象の部位の部位値が所定量以上変化し、動き(変化)判定部1012により動きの種類が判定されると、ログ格納部116の動きの種類判定ログテーブルには、判定された動きの種類等が格納される。
次に、仮想空間用情報生成部1002によりログ格納部116に格納される、モデル候補について説明する。図17は、モデル候補の一例を示す図である。
次に、サーバ装置110の第2の仮想空間用情報提供部112が実行する、モデル候補選定処理の流れについて説明する。図18は、モデル候補選定処理のフローチャートである。
次に、アバタの各部位の誤りやすさ判定処理(図18のステップS1805)の詳細について説明する。図19(a)は、アバタの各部位の誤りやすさ判定処理のフローチャートである。
次に、モデル候補読み出し処理(図18のステップS1807)の詳細について説明する。図19(b)は、モデル候補読み出し処理のフローチャートである。
次に、アバタ部位変位データが格納されたアバタ部位変位ログテーブルについて説明する。図20は、アバタ部位変位ログテーブルの一例を示す図である。
上記第1の実施形態では、動きの種類判定ログテーブル1600に新たにデータ行が追加された場合に、追加されたデータ行に含まれる動きの種類と同じ動きの種類を有する過去のデータ行を検索した。これにより、上記第1の実施形態では、アバタの動きの種類に応じたアバタ部位変位データを、モデル候補として読み出した。
はじめに、第2の実施形態におけるサーバ装置110の機能構成について説明する。図21は、サーバ装置の機能構成の一例を示す第2の図である。
次に、定義情報格納部115に格納され、動き(傾向)判定部2101が、他のアバタに対する動きの種類を判定する際に用いる定義情報について説明する。図21は、他のアバタに対する動きの種類を判定するための定義情報を示した図である。
次に、定義情報格納部115に格納され、他のアバタに対する動きの種類と傾向との関係を定義した定義情報について説明する。図23は、他のアバタに対する動きの種類と傾向との関係を定義した定義情報の一例を示す図である。
次に、動き(傾向)判定部2101により判定された他のアバタに対する動きの種類が格納される、ログ格納部116の「他のアバタに対する動きの種類判定ログテーブル」について説明する。図24は、他のアバタに対する動きの種類判定ログテーブルの一例を示す図である。図24に示すように、他のアバタに対する動きの種類判定ログテーブル2400には、情報の項目として、"ログID"、"記録時刻"、"判定時刻(開始)"、"判定時刻(終了)"が含まれる。更に、情報の項目として、"ユーザ名"、"クライアント装置ID"、"他のアバタに対する動きの種類"、"他のアバタのユーザ名"、"開始時及び終了時の部位情報"が含まれる。
次に、サーバ装置110の第2の仮想空間用情報提供部112が実行する、モデル候補選定処理の流れについて説明する。図25は、モデル候補選定処理のフローチャートである。なお、図18を用いて説明したフローチャートと同じ工程については同じ符号を付し、ここでは説明を省略する。図18との相違点は、ステップS2501、S2502である。
図26は、モデル候補の読み出し処理のフローチャートである。ステップS2601において、モデル候補読み出し部2102は、他のアバタに対する動きの種類判定ログテーブル2400を参照し、図25のステップS2501において追加したデータ行に記録された、"他のアバタに対する動きの種類"を識別する。
上記第1及び第2の実施形態では、動きの種類または他のアバタに対する動きの種類に基づいて、読み出すモデル候補を絞り込む場合について説明した。これに対して、第3の実施形態では、動きの種類または他のアバタに対する動きの傾向に基づいて読み出したモデル候補に対して、更に、モデル候補により特定される部位情報そのものに基づいて、モデル候補の絞り込みを行う。動きの種類または他のアバタに対する動きの傾向に基づいて読み出したモデル候補の中には、ユーザがあまり行わない振る舞いに対応するモデル候補が含まれている場合があるからである。そこで、第3の実施形態では、このような振る舞いに対応するモデル候補を排除し、モデル候補の更なる絞り込みを行う。なお、第3の実施形態では、動きの種類に基づいて読み出したモデル候補のうち、ユーザがあまり行わない振る舞いに対応するモデル候補を排除する処理について説明するが、他のアバタに対する動きの傾向に基づいて読み出したモデル候補の場合も同様である。以下、第3の実施形態について、第1の実施形態との相違点を中心に説明する。
はじめに、第3の実施形態におけるサーバ装置110の機能構成について説明する。図27は、サーバ装置の機能構成の一例を示す第3の図である。図10に示す機能構成との相違点は、想定範囲算出部2701を有する点、及び、モデル候補読み出し部2702の機能が、モデル候補読み出し部1014の機能とは異なっている点である。
次に、想定範囲算出部2701により算出された想定範囲値を記録した想定範囲情報について説明する。図28は、想定範囲情報の一例を示す図である。図28に示すように、想定範囲情報2800は、情報の項目として、"記録時刻"、"アバタ部位範囲想定範囲判定時刻(開始)"、"アバタ部位変位想定範囲判定時刻(終了)"、"ユーザ名"、"クライアント装置ID"、"対象部位"、"想定範囲値"を含む。
次に、モデル候補読み出し処理(図18のステップS1807)の詳細(第3の実施形態の場合の処理の詳細)について説明する。図29は、モデル候補読み出し処理のフローチャートである。
上記第1乃至第3の実施形態において、動き(変化)判定部1012は、動きの種類を判定するごとに、動きの種類判定ログテーブル1600に新たにデータ行を追加して、アバタの各部位が所定量以上動いたことを管理するようにした。これに対して、第4の実施形態における動き(変化)判定部1012は、動きの種類判定ログテーブル1600に新たにデータ行を追加する一方で、他のデータ行とまとめることができるか否かを判定する。そして、他のデータ行とまとめることができると判定した場合には、他のデータ行とまとめて「動きの種類判定ログ(時系列)テーブル」にて管理する。動きの種類の判定に用いられたセンサデータが取得された"データ取得時刻"が十分に近い場合には、連動した動きと判断できるからである。
はじめに、第4の実施形態におけるサーバ装置110の機能構成について説明する。図30は、サーバ装置の機能構成の一例を示す第4の図である。図10に示す機能構成との相違点は、動き(時系列変化)判定部3001を有する点、及び、ログ格納部116に「動きの種類判定ログ(時系列)テーブル」が格納されている点である。
次に、動きの種類判定ログ(時系列)テーブルについて説明する。図31は、動きの種類判定ログ(時系列)テーブルの一例を示す図である。図16に示した動きの種類判定ログテーブル1600との違いは、図31の場合、情報の項目として、"変化発生時刻"に代えて、"変化発生時刻(最初)"と"変化発生時刻(最後)"とが含まれている点である。
次に、サーバ装置110の第2の仮想空間用情報提供部112が実行する、モデル候補選定処理の流れについて説明する。図32は、モデル候補選定処理のフローチャートである。なお、図18を用いて説明したフローチャートと同じ工程については同じ符号を付し、ここでは説明を省略する。図18との相違点は、ステップS3201である。
次に、動きの種類判定ログ(時系列)テーブル更新処理(ステップS3201)の詳細について説明する。図33は、動きの種類判定ログ(時系列)テーブル更新処理のフローチャートである。
上記第1及び第2の実施形態では、動きの種類または他のアバタに対する動きの傾向に基づいてモデル候補を読み出す場合について説明した。これに対して、第5の実施形態では、動きの種類または他のアバタに対する動きの傾向に基づいて読み出したモデル候補の部位値について、更に、動き(変化)判定部1012により算出されたアバタの各部位の部位値との類似度を算出する。そして、算出した類似度に基づいて、モデル候補の絞り込みを行う。また、第5の実施形態では、更に、モデル候補の階層構成を用いて誤りやすさ閾値を超える部位に連結する部位を特定し、特定した部位の部位値に基づいて、モデル候補の絞り込みを行う。以下、第5の実施形態について、第1の実施形態との相違点を中心に説明する。
はじめに、第5の実施形態におけるサーバ装置110の機能構成について説明する。図34は、サーバ装置の機能構成の一例を示す第5の図である。図10に示す機能構成との相違点は、類似度算出部3401、連結部位判定部3402、を有する点である。
次に、サーバ装置110の第2の仮想空間用情報提供部112が実行する、モデル候補選定処理の流れについて説明する。図37は、モデル候補選定処理のフローチャートである。なお、図18を用いて説明したフローチャートと同じ工程については同じ符号を付し、ここでは説明を省略する。図18との相違点は、ステップS3701〜S3702である。
図38は、モデル候補一次絞りこみ処理のフローチャートである。ステップS3801において、類似度算出部3401は、動き(変化)判定部1012により算出されたアバタの各部位のうち、誤りやすさ閾値を超える部位ではないと判定されたアバタの各部位を処理対象として識別し、当該処理対象の部位の部位値を抽出する。また、類似度算出部3401は、ステップS1807において読み出されたモデル候補それぞれについて、処理対象となった各部位についての部位値を抽出する。更に、類似度算出部3401は、アバタの処理対象の部位の部位値と、モデル候補の同部位の部位値との類似度を算出する。なお、部位値の類似度は、例えば外部APIの呼び出しによって算出してもよい。あるいは、処理対象の各部位ごとに部位値を比較し、部位値の差異を正規化することで類似度スコアを求め、処理対象の部位全体の類似度スコアを求める等のような計算を行ってもよい。あるいは、処理対象の部位のうち、いくつかの部位をグルーピング(隣り合う2つの部位や、連動する3つの部位を事前に取り決める等)して、それらの類似度スコアを求めるような計算を行ってもよい。
図39は、モデル候補二次絞り込み処理のフローチャートである。ステップS3901において、連結部位判定部3402は、誤りやすさを超える部位であると判定されたアバタの部位と連結している部位を識別する。例えば、誤りやすさ閾値を超える部位が左下腕であった場合、連結している部位として、左上腕、左肩、首を識別する。
上記第5の実施形態では、モデル候補の絞り込み処理として、誤りやすさ閾値を超える部位以外の部位についての類似度を用いた一次絞り込み処理と、誤りやすさ閾値を超える部位に連結する部位についての類似度を用いた二次絞り込み処理を行った。
はじめに、第6の実施形態におけるサーバ装置110の機能構成について説明する。図40は、サーバ装置の機能構成の一例を示す第6の図である。図34に示す機能構成との相違点は、コスト評価部4001を有する点である。
図41は、コスト評価部により算出されるコストを説明するための図である。コスト評価部4001は、予めアバタの各部位に重さを割り当てる。ここでは、アバタの頭部に、重さ=4kgを割り当て、アバタの胸部に、重さ=8kgを割り当てたとする。
次に、第6の実施形態におけるモデル候補二次絞り込み処理について説明する。図42は、モデル候補二次絞り込み処理の第2のフローチャートである。ステップS4201において、コスト評価部4001は、類似度算出部3401より通知されたモデル候補により特定される姿勢について解析し、アバタが何かによって支えられた状態にあるのか否かを各部位の角度を用いて判定する。例えば、胸部より下の部位が椅子の背もたれに支えられている角度か、腕の上腕や下腕の角度が胸部や頭部を支えている角度かで簡易に判定をする。他の形態として、センサデータ入力中のカラー画像データ等を用いて判定を行ってもよい。
上記第6の実施形態では、モデル候補により特定される姿勢から算出されるコストに基づいて、モデル候補の二次絞り込み処理を行った。これに対して、第7の実施形態では、モデル候補により特定される姿勢から算出されるコストに、所定の重み付けを行うことで、重み付きコストを算出し、算出した重み付きコストに基づいて、モデル候補の二次絞り込み処理を行う。以下、第7の実施形態について、第6の実施形態との相違点を中心に説明する。
はじめに、第7の実施形態におけるサーバ装置110の機能構成について説明する。図43は、サーバ装置の機能構成の一例を示す第7の図である。図40に示す機能構成との相違点は、重み算出部4301を有する点である。
次に、第7の実施形態におけるモデル候補二次絞り込み処理について説明する。図44は、モデル候補二次絞り込み処理の第3のフローチャートである。ステップS4401において、重み算出部4301は、類似度算出部3401より通知されたモデル候補により特定される姿勢について解析し、複数種類のグループに分類し、それぞれのグループに属するモデル候補を識別する。
上記第5の実施形態では、誤りやすさ閾値を超える部位に連結する部位の部位値に基づいて、モデル候補を抽出した。しかしながら、このような抽出方法の場合、モデル候補の数が少ない結果となることも考えられる。そこで、第8の実施形態では、誤りやすさ閾値を超える部位に連結する部位の部位値に基づいて抽出したモデル候補の数が少ない場合に、連結部位に連動する可能性が高い連動部位の部位値に基づいてモデル候補を抽出する。以下、第8の実施形態について、第5の実施形態との相違点を中心に説明する。
はじめに、第8の実施形態におけるサーバ装置110の機能構成について説明する。図45は、サーバ装置の機能構成の一例を示す第8の図である。図34に示す機能構成との相違点は、連動部位確認処理部4501を有する点である。
次に、第8の実施形態におけるモデル候補二次絞り込み処理について説明する。図46は、モデル候補二次絞り込み処理の第4のフローチャートである。ステップS3901〜S3904における処理は、図39のステップS3901〜S3904における処理と同じである。
・(左上腕:左下腕5、左肩4、右肩3、右下腕2、左手首1)
・(左肩:左上腕5、左下腕4、首元3、左手首2、右肩1)
・(首元:首5、頭部4、左肩3、右肩2、胸部1)
連動部位確認処理部4501は、スコアを算出する。(例えば合算値や平均値等)。下記は連結部位(左上腕、左肩、首元の3つの部位)のスコアを部位ごとに合算した場合を示している。
・(左上腕、左肩、首元:[左下腕9]、[左肩7]、右肩6、[左上腕5]、首5、頭部4、[首元3]、[左手首3]、右下腕2、胸部1)
連動部位確認処理部4501は、算出したスコアに基づいて連動部位を特定する。更に、連動部位確認処理部4501は、類似度算出部3401より通知されたモデル候補の各部位のうち、連動部位として特定した部位(右肩、首、頭部、右下腕、胸部)それぞれの部位値を抽出し、部位ごとにグルーピングする。更に、連動部位確認処理部4501は、アバタの同部位の部位値が類似するグループに属するモデル候補を抽出する。
上記第2の実施形態では、他のアバタに対する動きの傾向に基づいてモデル候補を読み出した。これに対して、第9の実施形態では、他のアバタに対する動きの傾向に優先度を設定しておき、他のアバタに対する動きの傾向と優先度とに基づいてモデル候補を読み出す。以下、第9の実施形態について、第2の実施形態との相違点を中心に説明する。
はじめに、他のアバタに対する動きの傾向の優先度について説明する。図47は、他のアバタに対する動きの種類と傾向と優先度との関係を定義した定義情報の一例を示す図である。
次に、モデル候補読み出し処理(図25のステップS2502)について説明する。図48は、モデル候補読み出し処理の第4のフローチャートである。なお、図26を用いて詳細に説明したフローチャートと同じ工程については同じ符号を付し、ここでは説明を省略する。図26との相違点は、ステップS4801、S4802である。
上記第2の実施形態では、アバタの複数の部位それぞれにおいて、部位値が同じタイミングで変化した場合でも、それぞれの変化について、他のアバタに対する動きの種類を判定した。また、上記第2の実施形態では、それぞれの変化について判定した他のアバタに対する動きの種類に対応する傾向に基づいて、それぞれモデル候補の読み出しを行った。
図49は、他のアバタに対する動きの種類と傾向と傾向が変わる可能性のある組み合わせとの関係を定義した定義情報の一例を示す図である。
次に、モデル候補読み出し処理(図25のステップS2502)の詳細について説明する。図50は、モデル候補読み出し処理の第5のフローチャートである。なお、図26を用いて詳細に説明したフローチャートと同じ工程については同じ符号を付し、ここでは説明を省略する。図26との相違点は、ステップS5001、S5002である。
上記各実施形態では、仮想空間用情報生成部1002によりアバタの画像が生成されるごとに、ログ格納部116のアバタ部位変位ログテーブル2000を更新し、以降のモデル候補の読み出し対象とした。しかしながら、ログ格納部116のアバタ部位変位ログテーブル2000に格納したアバタ部位変位データのうち、所定の条件を満たさないアバタ部位変位データは、ログ格納部116から削除するようにしてもよい。
(付記1)
人の振る舞いを仮想空間で表現するアバタに含まれる部位の情報を決定する際に、前記人の体の複数箇所を測定することで得られたデータを取得する収集手段と、
前記アバタの部位に、信頼度が低いと判断される部位が含まれるか否かを判定する判定手段と、
前記判定手段により、前記信頼度が低いと判断される部位が含まれると判定された場合に、前記人の印象を示す情報を記憶する記憶部を参照し、該信頼度が低いと判断される部位の情報を決定するための前記人の印象を示す情報を選定する選定手段と、
前記信頼度が低いと判断される部位の情報を、選定された前記人の印象を示す情報に基づいて決定し、前記信頼度が低いと判断されなかった部位の情報を、前記収集手段が取得したデータに基づいて決定して、前記アバタの画像を生成する生成手段と
を有することを特徴とする画像生成システム。
(付記2)
前記生成手段は、選定された前記人の印象を示す情報に基づいて、前記信頼度が低いと判断される部位の位置または角度を決定して、前記アバタの画像を生成することを特徴とする付記1に記載の画像生成システム。
(付記3)
前記アバタの部位の情報が変化した場合に、前記アバタの部位の動きの種類を判定する第1の判定手段を更に有し、
前記選定手段は、判定された前記アバタの部位の動きの種類に基づいて、前記人の印象を示す情報を選定することを特徴とする付記1に記載の画像生成システム。
(付記4)
前記アバタの部位の情報が変化した場合に、前記アバタの部位の他のアバタに対する動きの種類を判定する第2の判定手段を更に有し、
前記選定手段は、判定された前記アバタの部位の他のアバタに対する動きの傾向に基づいて、前記人の印象を示す情報を選定することを特徴とする付記1に記載の画像生成システム。
(付記5)
人の振る舞いを仮想空間で表現するアバタの部位に、信頼度が低いと判断される部位が含まれるか否かを判定し、
前記信頼度が低いと判断される部位が含まれると判定した場合に、前記人の印象を示す情報を記憶する記憶部を参照し、該信頼度が低いと判断される部位の情報を決定するための前記人の印象を示す情報を選定し、
選定された前記人の印象を示す情報に基づいて前記部位の情報を決定して、前記アバタの画像を生成する、
処理をコンピュータに実行させるための画像生成プログラム。
(付記6)
コンピュータが、
人の振る舞いを仮想空間で表現するアバタの部位に、信頼度が低いと判断される部位が含まれるか否かを判定し、
前記信頼度が低いと判断される部位が含まれると判定した場合に、前記人の印象を示す情報を記憶する記憶部を参照し、該信頼度が低いと判断される部位の情報を決定するための前記人の印象を示す情報を選定し、
選定された前記人の印象を示す情報に基づいて前記部位の情報を決定して、前記アバタの画像を生成する、
処理を実行する画像生成方法。
110 :サーバ装置
111 :第1の仮想空間用情報提供部
112 :第2の仮想空間用情報提供部
120、130 :クライアント装置
121、131 :情報処理部
122、132 :深度センサ
123、133 :HMD
124、134 :頭部姿勢センサ
125、135 :音声センサ
126、136 :筋電位センサ
200 :実空間
221、222 :誤りやすさ閾値領域マップ
300 :仮想空間
301、302 :視野画像
340〜350 :アバタ
1001 :センサデータ収集部
1002 :仮想空間用情報生成部
1003 :仮想空間用情報送信部
1011 :センサデータ読み出し部
1012 :動き(変化)判定部
1013 :誤りやすさ判定部
1014 :モデル候補読み出し部
1015 :印象評価値(実空間)算出部
1016 :印象評価値(仮想空間)算出部
1017 :モデル候補選定部
1600 :動きの種類判定ログテーブル
1700 :アバタ部位変位データ(モデル候補)
2000 :アバタ部位変位ログテーブル
2101 :動き(傾向)判定部
2102 :モデル候補読み出し部
2400 :他のアバタに対する動きの種類判定ログテーブル
2701 :想定範囲算出部
2702 :モデル候補読み出し部
2800 :想定範囲情報
3001 :動き(時系列変化)判定部
3100 :動きの種類判定ログ(時系列)テーブル
3401 :類似度算出部
3402 :連結部位判定部
4001 :コスト評価部
4301 :重み算出部
Claims (6)
- 人の振る舞いを仮想空間で表現するアバタに含まれる部位の情報を決定する際に、前記人の体の複数箇所を測定することで得られたデータを取得する収集手段と、
前記アバタの部位に、信頼度が低いと判断される部位が含まれるか否かを判定する判定手段と、
前記判定手段により、前記信頼度が低いと判断される部位が含まれると判定された場合に、前記人の印象を示す情報を記憶する記憶部を参照し、該信頼度が低いと判断される部位の情報を決定するための前記人の印象を示す情報を選定する選定手段と、
前記信頼度が低いと判断される部位の情報を、選定された前記人の印象を示す情報に基づいて決定し、前記信頼度が低いと判断されなかった部位の情報を、前記収集手段が取得したデータに基づいて決定して、前記アバタの画像を生成する生成手段と
を有することを特徴とする画像生成システム。 - 前記生成手段は、選定された前記人の印象を示す情報に基づいて、前記信頼度が低いと判断される部位の位置または角度を決定して、前記アバタの画像を生成することを特徴とする請求項1に記載の画像生成システム。
- 前記アバタの部位の情報が変化した場合に、前記アバタの部位の動きの種類を判定する第1の判定手段を更に有し、
前記選定手段は、判定された前記アバタの部位の動きの種類に基づいて、前記人の印象を示す情報を選定することを特徴とする請求項1に記載の画像生成システム。 - 前記アバタの部位の情報が変化した場合に、前記アバタの部位の他のアバタに対する動きの種類を判定する第2の判定手段を更に有し、
前記選定手段は、判定された前記アバタの部位の他のアバタに対する動きの傾向に基づいて、前記人の印象を示す情報を選定することを特徴とする請求項1に記載の画像生成システム。 - 人の振る舞いを仮想空間で表現するアバタの部位に、信頼度が低いと判断される部位が含まれるか否かを判定し、
前記信頼度が低いと判断される部位が含まれると判定した場合に、前記人の印象を示す情報を記憶する記憶部を参照し、該信頼度が低いと判断される部位の情報を決定するための前記人の印象を示す情報を選定し、
選定された前記人の印象を示す情報に基づいて、前記信頼度が低いと判断される部位の情報を決定して、前記アバタの画像を生成する、
処理をコンピュータに実行させるための画像生成プログラム。 - コンピュータが、
人の振る舞いを仮想空間で表現するアバタの部位に、信頼度が低いと判断される部位が含まれるか否かを判定し、
前記信頼度が低いと判断される部位が含まれると判定した場合に、前記人の印象を示す情報を記憶する記憶部を参照し、該信頼度が低いと判断される部位の情報を決定するための前記人の印象を示す情報を選定し、
選定された前記人の印象を示す情報に基づいて、前記信頼度が低いと判断される部位の情報を決定して、前記アバタの画像を生成する、
処理を実行する画像生成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015200553A JP6569452B2 (ja) | 2015-10-08 | 2015-10-08 | 画像生成システム、画像生成プログラム及び画像生成方法 |
US15/286,089 US10019828B2 (en) | 2015-10-08 | 2016-10-05 | Image generating apparatus, image generating system, and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015200553A JP6569452B2 (ja) | 2015-10-08 | 2015-10-08 | 画像生成システム、画像生成プログラム及び画像生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017073042A JP2017073042A (ja) | 2017-04-13 |
JP6569452B2 true JP6569452B2 (ja) | 2019-09-04 |
Family
ID=58498799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015200553A Expired - Fee Related JP6569452B2 (ja) | 2015-10-08 | 2015-10-08 | 画像生成システム、画像生成プログラム及び画像生成方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10019828B2 (ja) |
JP (1) | JP6569452B2 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9500865B2 (en) * | 2013-03-04 | 2016-11-22 | Alex C. Chen | Method and apparatus for recognizing behavior and providing information |
JP6724582B2 (ja) * | 2016-06-15 | 2020-07-15 | 富士通株式会社 | 画像生成装置、画像生成プログラム及び画像生成方法 |
US11315375B2 (en) | 2017-03-31 | 2022-04-26 | Nec Corporation | Facial authentication system, apparatus, method and program |
JPWO2018216355A1 (ja) * | 2017-05-24 | 2020-05-21 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6983639B2 (ja) * | 2017-05-26 | 2021-12-17 | 株式会社コロプラ | 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
JP6890524B2 (ja) * | 2017-10-31 | 2021-06-18 | 株式会社ソニー・インタラクティブエンタテインメント | 姿勢制御システム |
JP7077603B2 (ja) * | 2017-12-19 | 2022-05-31 | 富士通株式会社 | 判定プログラム、判定方法及び画像生成装置 |
CN111670431B (zh) | 2018-02-07 | 2024-04-26 | 索尼公司 | 信息处理装置、信息处理方法以及程序 |
JP2020065229A (ja) * | 2018-10-19 | 2020-04-23 | 西日本電信電話株式会社 | 映像通信方法、映像通信装置及び映像通信プログラム |
JP7168757B2 (ja) * | 2019-02-26 | 2022-11-09 | マクセル株式会社 | 映像表示装置及び映像表示方法 |
US11206505B2 (en) * | 2019-05-06 | 2021-12-21 | Universal City Studios Llc | Systems and methods for dynamically loading area-based augmented reality content |
JP2022132896A (ja) * | 2021-03-01 | 2022-09-13 | トヨタ自動車株式会社 | 仮想空間共有システム、仮想空間共有方法及び仮想空間共有プログラム |
US11775066B2 (en) * | 2021-04-22 | 2023-10-03 | Coapt Llc | Biometric enabled virtual reality systems and methods for detecting user intentions and manipulating virtual avatar control based on user intentions for providing kinematic awareness in holographic space, two-dimensional (2D), or three-dimensional (3D) virtual space |
US20240096033A1 (en) * | 2021-10-11 | 2024-03-21 | Meta Platforms Technologies, Llc | Technology for creating, replicating and/or controlling avatars in extended reality |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8243116B2 (en) * | 2007-09-24 | 2012-08-14 | Fuji Xerox Co., Ltd. | Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications |
US20100277470A1 (en) | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
US8253746B2 (en) * | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
KR101671900B1 (ko) * | 2009-05-08 | 2016-11-03 | 삼성전자주식회사 | 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체 |
US8744121B2 (en) * | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8390680B2 (en) * | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US7961910B2 (en) * | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
JP2011258158A (ja) * | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
AU2011203028B1 (en) * | 2011-06-22 | 2012-03-08 | Microsoft Technology Licensing, Llc | Fully automatic dynamic articulated model calibration |
US20130249947A1 (en) * | 2011-08-26 | 2013-09-26 | Reincloud Corporation | Communication using augmented reality |
JP2013225245A (ja) * | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
US20140002580A1 (en) * | 2012-06-29 | 2014-01-02 | Monkeymedia, Inc. | Portable proprioceptive peripatetic polylinear video player |
-
2015
- 2015-10-08 JP JP2015200553A patent/JP6569452B2/ja not_active Expired - Fee Related
-
2016
- 2016-10-05 US US15/286,089 patent/US10019828B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017073042A (ja) | 2017-04-13 |
US10019828B2 (en) | 2018-07-10 |
US20170103564A1 (en) | 2017-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6569452B2 (ja) | 画像生成システム、画像生成プログラム及び画像生成方法 | |
CN110325949A (zh) | 用于预测触摸解释的多任务机器学习 | |
KR102223693B1 (ko) | Nui 관여의 검출 | |
CN104520849A (zh) | 使用外在物理表达的搜索用户界面 | |
JP6756236B2 (ja) | アクション指示プログラム、アクション指示方法及び画像生成装置 | |
US10514752B2 (en) | Methods and apparatus to determine objects to present in virtual reality environments | |
US20220291753A1 (en) | Spatial Gesture Recognition using Inputs from Different Devices to Control a Computing Device | |
JP7077603B2 (ja) | 判定プログラム、判定方法及び画像生成装置 | |
AU2015201056B2 (en) | Identifying movements using a motion sensing device coupled with an associative memory | |
Hansberger et al. | A multimodal interface for virtual information environments | |
Xia et al. | Using the virtual data-driven measurement to support the prototyping of hand gesture recognition interface with distance sensor | |
JP5910249B2 (ja) | インタラクション装置およびインタラクション制御プログラム | |
Postawka et al. | Lifelogging system based on Averaged Hidden Markov Models: dangerous activities recognition for caregivers support | |
JP6623366B1 (ja) | 経路認識方法、経路認識装置、経路認識プログラム、及び経路認識プログラム記録媒体 | |
Priandani et al. | Real time advanced head movement recognition for application controller based on Android internal gyroscope sensor | |
Sung et al. | Motion quaternion-based motion estimation method of MYO using K-means algorithm and Bayesian probability | |
Fernando et al. | Computer vision based privacy protected fall detection and behavior monitoring system for the care of the elderly | |
Li et al. | Continuous dynamic gesture spotting algorithm based on Dempster–Shafer Theory in the augmented reality human computer interaction | |
Rustagi et al. | Virtual Control Using Hand-Tracking | |
JPWO2022024272A5 (ja) | ||
WO2017116878A1 (en) | Multimodal interaction using a state machine and hand gestures discrete values | |
Shen et al. | Towards Open-World Gesture Recognition | |
JP7390891B2 (ja) | クライアント装置、サーバ、プログラム、及び、情報処理方法 | |
Bahrii et al. | Implementing alternative communication using a limited number of simple sign language gestures | |
Srivastava et al. | Robust approach for emotion classification using gait |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6569452 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |