JP7077603B2 - 判定プログラム、判定方法及び画像生成装置 - Google Patents
判定プログラム、判定方法及び画像生成装置 Download PDFInfo
- Publication number
- JP7077603B2 JP7077603B2 JP2017242963A JP2017242963A JP7077603B2 JP 7077603 B2 JP7077603 B2 JP 7077603B2 JP 2017242963 A JP2017242963 A JP 2017242963A JP 2017242963 A JP2017242963 A JP 2017242963A JP 7077603 B2 JP7077603 B2 JP 7077603B2
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- tendency
- user
- category
- avatar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- Heart & Thoracic Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Description
はじめに、各実施形態における画像生成システムを説明する際に用いる用語の定義について説明する。以下の各実施形態において説明する画像生成システムは、互いに離間した場所にいるユーザ同士で、またはユーザと機械との間でコミュニケーションを行うための仮想空間を提供するシステムである。本実施形態では、VR(Virtual Reality)技術によって構成された空間に限らず、AR(Augmented Reality)技術等によって、現実空間にアバタが投影されるような空間を含めた仮想的な空間の総称として、仮想空間と称する。
続いて、各実施形態における画像生成システムの処理の概要について説明する。以下の各実施形態における画像生成システムは、仮想空間において機械のアバタのコミュニケーション相手となるユーザの非言語動作を監視し、ユーザの社会的な振る舞いの行動傾向を適切に判定する。
<画像生成システムの全体構成>
はじめに、画像生成システムについて説明する。図1は、画像生成システムの全体構成の一例を示す図である。図1に示すように、画像生成システム100は、サーバソフトウェアが配置される画像生成装置110と、クライアントアプリケーションソフトウェアが配置される情報処理装置141、151を含むクライアント側システム140、150とを有する。画像生成装置110と、クライアント側システム140、150とは、インターネットやLAN(Local Area Network)等に代表されるネットワーク180を介して接続される。
次に、ユーザ160、ユーザ170のユーザのアバタの画像及び機械のアバタの画像を含む仮想空間の画像について説明する。図2は、仮想空間の画像の一例を示す図である。
次に仮想空間におけるアバタ(ユーザのアバタ、機械のアバタ)の画像の表現方法について説明する。各実施形態において画像生成装置110は、仮想空間における各骨格の位置及び回転角度をアバタ骨格モデルを用いて表現する。また、各実施形態において画像生成装置110は、アバタの表面の状態(アバタの洋服や身体の色、表情等)をメッシュ(mesh)と呼ばれる点群を用いて表現することで、アバタの画像を生成する。
次に、画像生成システム100に含まれる画像生成装置110のハードウェア構成について説明する。図4は、画像生成装置のハードウェア構成の一例を示す図である。図4に示すように、画像生成装置110は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503を備える。また、画像生成装置110は、補助記憶部504、通信部505、表示部506、操作部507、ドライブ部508を備える。なお、画像生成装置110の各部は、バス509を介して相互に接続されている。
次に、HMDのハードウェア構成について説明する。図5は、HMDのハードウェア構成の一例を示す図である。図5に示すように、HMDは、CPU601、ROM602、RAM603を備える。また、HMDは、補助記憶部604、通信部605を備える。HMDは、更に、操作部606、表示部142、頭部姿勢センサ143、I/F(Interface)部607を備え、これらの各部は、バス608を介して相互に接続されている。なお、HMDには、更に、音声出力装置(スピーカ等)及び音声取得装置(マイク等)が配されているが、各実施形態において、音声データの送受信の説明は省略するため、ここでも音声に関連する装置の説明は省略する。
<第1実施形態>
<画像生成装置の社会的振る舞い行動傾向解析部の機能構成及び各DBの説明>
次に、第1実施形態に係る画像生成装置110の社会的振る舞い行動傾向解析部125の機能構成及び各DBについて、図6を用いて説明する。図6は、第1実施形態に係る社会的振る舞い行動傾向解析部125の機能構成及び各DBの一例を示す。社会的振る舞い行動傾向解析部125は、社会的振る舞い基礎情報算出部701、社会的振る舞いログ記録部702、社会的振る舞い値算出部703、社会的振る舞いの接近・回避傾向特定部704、時間区間社会的振る舞い行動傾向判定部705、社会的振る舞いの共有制御部706を有する。
(社会的振る舞い基礎情報算出部)
社会的振る舞い行動傾向解析部125が有する各部の機能について説明する。社会的振る舞い基礎情報算出部701は、第一のユーザのアバタである第一のアバタと、第一のユーザの対話相手である第二のユーザのアバタである第二のアバタとの間で共有している仮想空間(共有環境空間)における互いの物理的距離や、互いの互いに対する向き等の社会的振る舞いの基礎情報を算出する。例えば、社会的振る舞い基礎情報算出部701は、共有環境空間における物体と各アバタとの物理的距離や、該物体に対する各アバタの向き等を算出する。
社会的振る舞いログ記録部702は、各ユーザのアバタAV1、AV2の身体及び身体パーツのうち、監視対象となっているもののデータの連続する振る舞いのログデータを更新する。具体的には、社会的振る舞いログ記録部702は、図12に示す監視対象データログ定義情報870で定義される"更新監視対象"の身体及び身体パーツのデータが"更新閾値"の条件を満たす場合、図9に示す振る舞いログ更新記録データテーブル840へ振る舞いログデータ("記録開始時データ"、"記録更新時データ"等)を記録し、"更新ステータス"を「変化記録中」にする。"更新監視対象"の身体及び身体パーツのデータが"更新閾値"の条件を満たさない場合、"更新ステータス"を「変化記録なし」に変更し、"記録開始時データ"及び"記録更新時データ"を記録しないようにする。
社会的振る舞い値算出部703は、社会的振る舞いログ記録データテーブル850に記録された各社会的振る舞いの遠近、向き変化、増減の様態の種類や強度や時間及び、前記算出した社会的振る舞い基礎情報を用いて求めた振る舞いの属性値を算出し、社会的振る舞い値算出記録データテーブル860にする。属性値は、各社会的振る舞いによって異なり、"Distance"や"Orientation"等の変化量を示す。例えば、"Directto"で何度相手の方へ向いたかや、"Indirectto"で何度相手と逆の方へ向いたかを示す。
社会的振る舞いの接近・回避傾向特定部704は、社会的振る舞い値算出記録データテーブル860に記録された社会的振る舞いが対話相手に対して接近性傾向の社会的振る舞いであるか、回避性傾向の社会的振る舞いであるかを特定する。このとき、社会的振る舞いの接近・回避傾向特定部704は、図14に示す社会的振る舞いの接近・回避傾向定義情報890に基づき、社会的振る舞いの接近・回避傾向を特定する。特定した結果は、図11に示す社会的振る舞い値算出記録データテーブル860の"社会的振る舞いの接近・回避傾向"の項目に記録される。
時間区間社会的振る舞い行動傾向判定部705は、図15に示す社会的振る舞い行動傾向量記録データテーブル910において、ある時間区間内で記録された第一のユーザの第二のユーザに対する社会的振る舞いの接近傾向及び回避傾向の回数もしくは時間量に応じて、第一のユーザの第二のユーザに対する社会的振る舞いの行動傾向が接近行動傾向、回避行動傾向又は中間行動傾向のいずれであるかを判定する。判定した結果は、図17に示す社会的振る舞い行動傾向記録データテーブル920の"社会的振る舞い行動傾向"の項目に記録される。
社会的振る舞いの共有制御部706は、前記時間区間社会的振る舞い行動傾向判定部705によって記録された最も新しい時刻に社会的振る舞い行動傾向記録データテーブル920に記憶された、社会的振る舞い行動傾向の記録を参照し、記録されている行動傾向(接近行動傾向、回避行動傾向、中間行動傾向)に基づき、対話相手のユーザに対するアバタの提示を制御する。例えば、第二のユーザが機械アバタの講師であり、第一のユーザが学習者であった場合に、第二のアバタを第一のユーザの社会的振る舞い行動傾向に合わせて提示したい場合であるとする。第一のユーザの第二のユーザに対する社会的振る舞い行動傾向の記録を参照し、記録されている行動傾向に基づき、第二のユーザの第一のユーザに対する社会的振る舞いの提示を制御する。制御の一例としては、"社会的振る舞いの行動傾向"に記録された判定結果が、回避行動傾向である場合、第二のユーザの社会的振る舞いがあまり目立たないように変更をする等が挙げられる。もし、接近も回避もしていない中間行動傾向である場合、共有環境空間における第二のユーザの位置を見えやすい位置へ変更する等が挙げられる。
次に、各DB(センサデータ用DB132、定義情報用DB133、ログ用DB134、社会的振る舞い行動傾向情報用DB135)に格納される各テーブルについて説明する。
はじめに、センサデータ用DB132に格納されるセンサデータテーブルについて説明する。センサデータテーブルは、センサデータ収集処理管理部111により、センサデータ用DB132に格納される。
続いて、ログ用DB134に格納されるログテーブルについて説明する。
図9に示す振る舞いログ更新記録データテーブル840は、社会的振る舞いログ記録部702により、ログ用DB134に格納される。図9に示すように、振る舞いログ更新記録データテーブル840に含まれる情報の項目には、"DB記録時刻"、"記録開始時刻"、"記録更新時刻"、"振る舞いアバタ名"、"振る舞いログタイプラベル"、"更新監視対象"、"更新ステータス"、"記録開始時データ"、"記録更新時データ"、"社会的振る舞いログ記録ID参照値"が含まれる。振る舞いログ更新記録データテーブル840に含まれる項目の情報を、以下、振る舞いログ更新記録データとも称する。
次に、社会的振る舞いログ記録データテーブル850について、図10を参照して説明する。図10に示す社会的振る舞いログ記録データテーブル850は、社会的振る舞いログ記録部702により、ログ用DB134に格納される。社会的振る舞いログ記録データテーブル850の情報の項目には、"DB記録時刻"、"記録開始時刻"、"記録更新時刻"、"振る舞いアバタ名"、"被振る舞いアバタ名"、"社会的振る舞いログ記録ID"、"社会的振る舞いタイプラベル"、"振る舞いログタイプラベル"が含まれる。
次に、社会的振る舞い値算出記録データテーブル860について、図11を参照して説明する。社会的振る舞いログ記録部702による社会的振る舞いログ記録時において、社会的振る舞い値算出部703は、各社会的振る舞いの遠近、向き変化、増減の様態の種類や強度や時間及び、該算出した社会的振る舞い基礎情報を用いて求めた振る舞いの属性値を算出し、ログ用DB134の社会的振る舞い値算出記録データテーブル860に格納する。社会的振る舞い値算出記録データテーブル860に含まれる情報の項目には、"DB記録時刻"、"記録開始時刻"、"記録更新時刻"、"振る舞いアバタ名"、"被振る舞いアバタ名"、"社会的振る舞いログ記録ID"、"社会的振る舞いタイプラベル"、"社会的振る舞いの種類"、"社会的振る舞いの強度"、"社会的振る舞いの属性値"、"社会的振る舞いの継続秒数"、"社会的振る舞いの接近・回避傾向"が含まれる。
続いて、定義情報用DB133に格納される定義情報について説明する。
図12は、定義情報用DBに格納される監視対象データログ定義情報870の一例を示す。図12に示すように、監視対象データログ定義情報870に含まれる情報の項目には、"振る舞いログタイプラベル"、"更新閾値"、"更新監視対象"、"センサ入力情報"、"情報収集装置種類ID"が含まれる。
図13は、定義情報用DBに格納される社会的振る舞い判定API定義情報880の一例を示す。社会的振る舞い判定API定義情報880の情報の項目には、"社会的振る舞いタイプラベル"、"社会的振る舞い判定API"、"振る舞いログタイプラベル"が含まれる。"社会的振る舞い判定API"には、"振る舞いログタイプラベル"に定義する種類のユーザの振る舞いが、"社会的振る舞いタイプラベル"に定義する社会的振る舞いに該当するかの判定に用いるシステム内の呼び出し関数(API)が定義される。
図14は、定義情報用DBに格納される社会的振る舞いの接近・回避傾向定義情報890の一例を示す。社会的振る舞いの接近・回避傾向定義情報890情報の項目には、"社会的振る舞いタイプラベル"、"接近・回避傾向"が含まれる。"接近・回避傾向"には、"社会的振る舞いタイプラベル"に示す社会的振る舞いが接近傾向又は回避傾向かが定義される。
続いて、社会的振る舞い行動傾向情報用DB135に格納される情報について説明する。
図15は、社会的振る舞い行動傾向情報用DB135に格納される社会的振る舞い行動傾向量記録データテーブル910の一例を示す。図15に示すように、社会的振る舞い行動傾向量記録データテーブル910に含まれる情報の項目には、"DB記録時刻"、"判定範囲の開始時刻"、"判定範囲の終了時刻"、"振る舞いアバタ名"、"被振る舞いアバタ名"、"接近行動傾向量(回数)"、"回避行動傾向量(回数)"、"接近行動傾向量(時間[秒])"、"回避行動傾向量(時間[秒])"、"接近行動傾向量(回数の割合)"、"回避行動傾向量(回数の割合)"、"接近行動傾向量(時間[秒]の割合)"、"回避行動傾向量(時間[秒]の割合)"が含まれる。
図16は、定義情報用DBに格納される社会的振る舞い行動傾向量閾値定義情報900の一例を示す。社会的振る舞い行動傾向量閾値定義情報900に含まれる情報の項目には、"判定"、"閾値-回数の割合"、"閾値-時間[秒]の割合"が含まれる。
図17は、社会的振る舞い行動傾向情報用DB135に格納される社会的振る舞い行動傾向記録データテーブル920の一例を示す。図17に示すように、社会的振る舞い行動傾向記録データテーブル920に含まれる情報の項目には、"DB記録時刻"、"判定範囲の開始時刻"、"判定範囲の終了時刻"、"振る舞いアバタ名"、"被振る舞いアバタ名"、"社会的振る舞い行動傾向"が含まれる。
次に、第1実施形態に係る社会的振る舞いの情報収集処理の一例について図18を参照して説明する。図18は、第1実施形態に係る社会的振る舞いの情報収集処理の一例を示すフローチャートである。
次に、第1実施形態に係る社会的振る舞い情報提示処理の一例について図19を参照して説明する。図19は、第1実施形態に係る社会的振る舞いの判定処理の一例を示すフローチャートである。
次に、第1実施形態に係る社会的振る舞い行動傾向判定処理の一例について図20を参照して説明する。図20は、第1実施形態に係る社会的振る舞い行動傾向判定処理の一例を示すフローチャートである。
・ケース1:第一のユーザが第二のユーザに接近性/回避性の社会的振る舞いを行っていること
・ケース2:第一のユーザが第二のユーザに接近性/回避性の社会的振る舞いを行っていないこと
例えば、本実施形態に係る画像生成システム100によれば、時刻tl-1から時刻tlまでの間に第一のユーザが第二のユーザに対して行った社会的振る舞いを統合的に確認することで、例えば、第一のユーザのAttentionが示す回避傾向は、ケース2の場合(中間行動傾向)であって、単純に見えないから相手の方向を見ないという行動の帰結の可能性が高いことを判定することができる。この場合、第一のユーザは統合的には接近傾向及び回避傾向のいずれも示していないと確認できるため、第二のユーザの振る舞いを増幅するように第一のユーザと第二のユーザとの社会的振る舞いの共有を制御することができる。
<第2実施形態>
<画像生成装置の社会的振る舞い行動傾向解析部の機能構成及び各DBの説明>
次に、第2実施形態に係る社会的振る舞い行動傾向解析部125の機能構成及び各DBについて、図21を用いて説明する。図21は、第2実施形態に係る社会的振る舞い行動傾向解析部125の機能構成及び各DBの一例を示す。第2実施形態に係る社会的振る舞い行動傾向解析部125は、社会的振る舞い基礎情報算出部701、社会的振る舞いログ記録部702、社会的振る舞い値算出部703、社会的振る舞いの接近・回避傾向特定部704、社会的振る舞いの共有制御部706に加えて、カテゴリ別社会的振る舞い行動傾向量算出部710及びカテゴリ毎の時間区間社会的振る舞い行動傾向判定部711を有する点が第1実施形態と異なる。
カテゴリ別社会的振る舞い行動傾向量算出部710は、社会的振る舞い値算出部703で算出した社会的振る舞い値の情報を、社会的振る舞いをカテゴリ毎にある時間区間内で記録された第一のユーザの第二のユーザに対する社会的振る舞いの接近傾向及び回避傾向の回数もしくは時間量を、該カテゴリ毎に接近傾向量と回避傾向量として算出する。
カテゴリ毎の時間区間社会的振る舞い行動傾向判定部711は、前記算出したカテゴリ別社会的振る舞い行動傾向量に基づき、カテゴリ毎にある時間区間内の社会的振る舞い行動傾向を判定する。
図22は、一実施形態に係る社会的振る舞いのカテゴリ分類定義情報1000の一例を示す。社会的振る舞いのカテゴリ分類定義情報1000に含まれる情報の項目には、"カテゴリID"、"カテゴリ名"、"社会的振る舞いタイプラベル"が含まれる。
図23は、一実施形態に係るカテゴリ別社会的振る舞い行動傾向量閾値定義情報1010の一例を示す。カテゴリ別社会的振る舞い行動傾向量閾値定義情報1010に含まれる情報の項目には、"カテゴリID"、"判定"、"閾値-回数の割合"、"閾値-時間[秒]の割合"が含まれる。
図24は、一実施形態に係るカテゴリ別社会的振る舞い行動傾向量記録データテーブル1020の一例を示す。カテゴリ別社会的振る舞い行動傾向量記録データテーブル1020に含まれる情報の項目は、図15の社会的振る舞い行動傾向量記録データテーブル910に含まれる情報の項目に、"カテゴリID"の項目を加えたものである。カテゴリ別社会的振る舞い行動傾向量記録データテーブル1020には、"カテゴリID"で識別される社会的振る舞いのカテゴリ毎に社会的振る舞い行動傾向量("接近行動傾向量(回数、時間、回数の割合、時間の割合)"、"回避行動傾向量(回数、時間、回数の割合、時間の割合)")が記録される。
図25は、一実施形態に係るカテゴリ別社会的振る舞い行動傾向記録データテーブル1030の一例を示す。カテゴリ別社会的振る舞い行動傾向記録データテーブル1030に含まれる情報の項目は、図17の社会的振る舞い行動傾向記録データテーブル920に含まれる情報の項目に、"カテゴリID"の項目を加えたものであり、カテゴリ別に社会的振る舞い行動傾向が記録される。
図26は、一実施形態に係る社会的振る舞い行動傾向記録データテーブル1040の一例を示す。社会的振る舞い行動傾向記録データテーブル1040に含まれる情報の項目は、図17の社会的振る舞い行動傾向記録データテーブル920に含まれる情報の項目と同じである。社会的振る舞い行動傾向記録データテーブル1040の"社会的振る舞い行動傾向"の項目には、カテゴリ別社会的振る舞い行動傾向記録データテーブル1030の"社会的振る舞い行動傾向"に記録された社会的振る舞いの行動傾向から多数決により決定した社会的振る舞いの行動傾向が記録される。
第2実施形態に係る社会的振る舞い情報の収集及び判定処理は、図18及び図19に示す第1実施形態に係る社会的振る舞い情報の収集及び判定処理のフローチャートと同様であるため、説明を省略する。
次に、第2実施形態に係る社会的振る舞い行動傾向判定処理の一例について図27を参照して説明する。図27は、第2実施形態に係る社会的振る舞い行動傾向判定処理の一例を示すフローチャートである。本実施形態に係る社会的振る舞い行動傾向判定処理の入力データは、第一のユーザの第二のユーザに対するある時間帯tの社会的振る舞いとする。
<第3実施形態>
<画像生成装置の社会的振る舞い行動傾向解析部の機能構成及び各DBの説明>
次に、第3実施形態に係る社会的振る舞い行動傾向解析部125の機能構成及び各DBについて、図28を用いて説明する。図28は、第3実施形態に係る社会的振る舞い行動傾向解析部125の機能構成及び各DBの一例を示す。第3実施形態に係る社会的振る舞い行動傾向解析部125は、社会的振る舞い基礎情報算出部701、社会的振る舞いログ記録部702、社会的振る舞い値算出部703、社会的振る舞いの接近・回避傾向特定部704、社会的振る舞いの共有制御部706、カテゴリ別社会的振る舞い行動傾向量算出部710に加えて、社会的振る舞いのカテゴリ別重み算出部720及び統合的な時間区間社会的振る舞い行動傾向判定部721を有する。
社会的振る舞いのカテゴリ別重み算出部720は、社会的振る舞いをカテゴリ毎に分類する際、社会的振る舞い基礎情報の影響の度合いに応じたカテゴリ毎の重み値を算出する。
統合的な時間区間社会的振る舞い行動傾向判定部721は、社会的振る舞いのカテゴリ別重み算出部720によって算出したカテゴリ毎の重み値によって、接近行動傾向量及び回避行動傾向量に重みづけを行い、該重みづけ後の接近行動傾向量及び回避行動傾向量を統合的に用いることで当該時間区間内の社会的振る舞い行動傾向を判定する。
図29は、一実施形態に係る考慮すべき事象(当該環境における見るという動作が実環境とは異なること等)の影響の度合いによる社会的振る舞いのカテゴリ毎重み定義情報1100の一例を示す。社会的振る舞い基礎情報の影響の度合いによる社会的振る舞いのカテゴリ毎重み定義情報1100に含まれる情報の項目は、図22の社会的振る舞いのカテゴリ分類定義情報1000に含まれる情報の項目に、"影響度合い"、"重み"の項目を加えたものである。
図30は、一実施形態に係るカテゴリ別重みつき社会的振る舞い行動傾向量記録データテーブル1110の一例を示す。カテゴリ別重みつき社会的振る舞い行動傾向量記録データテーブル1110に含まれる情報の項目は、図24のカテゴリ別社会的振る舞い行動傾向量記録データテーブル1020に含まれる情報の項目に、"重みづけ後の接近行動傾向量(回数の割合)"、"重みづけ後の回避行動傾向量(回数の割合)"、"重みづけ後の接近行動傾向量(時間[秒]の割合)"、"重みづけ後の回避行動傾向量(時間[秒]の割合)"の項目を加えたものである。
図31は、一実施形態に係るカテゴリ別社会的振る舞い行動傾向記録データテーブル1120の一例を示す。カテゴリ別社会的振る舞い行動傾向記録データテーブル1120は、図25に示すカテゴリ別社会的振る舞い行動傾向記録データテーブル1030と同一の項目を有する。
図32は、一実施形態に係る社会的振る舞い行動傾向記録データテーブル1130の一例を示す。社会的振る舞い行動傾向記録データテーブル1130は、図26に示す社会的振る舞い行動傾向記録データテーブル1040と同一の項目を有する。
第3実施形態に係る社会的振る舞い情報の収集及び判定処理は、図18及び図19に示す第1実施形態に係る社会的振る舞い情報の収集及び判定処理のフローチャートと同様であるため、説明を省略する。
次に、第3実施形態に係る社会的振る舞い行動傾向判定処理の一例について図33を参照して説明する。図33は、第3実施形態に係る社会的振る舞い行動傾向判定処理の一例を示すフローチャートである。
<第4実施形態>
<画像生成装置の社会的振る舞い行動傾向解析部の機能構成及び各DBの説明>
次に、第4実施形態に係る社会的振る舞い行動傾向解析部125の機能構成及び各DBについて、図34を用いて説明する。図34は、第4実施形態に係る社会的振る舞い行動傾向解析部125の機能構成及び各DBの一例を示す。第4実施形態に係る社会的振る舞い行動傾向解析部125は、社会的振る舞い基礎情報算出部701、社会的振る舞いログ記録部702、社会的振る舞い値算出部703、社会的振る舞いの接近・回避傾向特定部704、社会的振る舞いの共有制御部706、カテゴリ別社会的振る舞い行動傾向量算出部710に加えて、カテゴリ別社会的振る舞い行動傾向量記録部730、接近性行動傾向及び回避性行動傾向時間帯検索部731、社会的振る舞い行動傾向代表値算出部732、ログ区間における社会的振る舞い行動傾向代表値算出部733、代表値を用いた時間区間社会的振る舞い行動傾向判定部734を有する。
カテゴリ別社会的振る舞い行動傾向量記録部730は、カテゴリ別社会的振る舞い行動傾向量算出部710によって算出されたカテゴリ毎の時間区間社会的振る舞い行動傾向量を記録する。
接近性行動傾向及び回避性行動傾向時間帯検索部731は、カテゴリ毎の時間区間内の社会的振る舞い行動傾向量の記録データの中から、接近傾向もしくは回避傾向が明瞭に表れていた時間帯を検索する。
社会的振る舞い行動傾向代表値算出部732は、ある時間帯の社会的振る舞いのデータの傾向を当該時間帯の社会的振る舞いの代表値を求める。社会的振る舞い行動傾向代表値算出部732は、例えば、時刻jl-1~時刻jlの間(例えば1秒間隔等定量区間でもよいし、連続する数秒等の可変区間でもよい)の間の社会的振る舞いログ記録データテーブル850の記録を対象として、当該時間帯の接近行動傾向の比率を示す値、当該時間帯の回避行動傾向の比率を示す値、接近行動傾向と回避行動傾向の比率を示す値を当該時間帯の社会的振る舞いの代表値の行列として算出する。
ログ区間における社会的振る舞い行動傾向代表値算出部733は、接近性行動傾向及び回避性行動傾向時間帯検索部731を用いて、一定のログ区間の過去の記録データの中から、接近傾向及び回避傾向が明瞭に表れていた時間帯をそれぞれ抽出し、該時間帯において社会的振る舞い行動傾向代表値算出部732を用いて該ログ区間における各代表値の算出する。
代表値を用いた時間区間社会的振る舞い行動傾向判定部734は、ある時間帯の社会的振る舞い行動傾向代表値と、一定のログ区間における社会的振る舞い行動傾向代表値の比較を行うことで、当該時間帯の社会的振る舞い行動傾向代表値とあるログ区間における社会的振る舞い行動傾向代表値の一致度合いを算出する。これにより、代表値を用いた時間区間社会的振る舞い行動傾向判定部734は、第一のユーザの第二のユーザに対する社会的振る舞いの行動の傾向を接近行動傾向もしくは回避行動傾向もしくは中間行動傾向のいずれであるかを判定する。
図35は、一実施形態に係る社会的振る舞い行動傾向代表値行列定義情報の一例を示す。社会的振る舞い行動傾向代表値行列定義情報1210は、"求める値の種類"、"求める値の定義"の項目を有する。
図36は、一実施形態に係るログ区間における社会的振る舞い行動傾向代表値記録データテーブルの一例を示す。ログ区間における社会的振る舞い行動傾向代表値記録データテーブル1230に含まれる情報の項目には、"DB記録時刻"、"判定範囲の開始時刻"、"判定範囲の終了時刻"、"振る舞いアバタ名"、"被振る舞いアバタ名"、"時間区間の明瞭特徴"、"代表値行列"、が含まれる。
図37は、一実施形態に係る代表値を用いた時間区間社会的振る舞い行動傾向判定記録データテーブルの一例を示す。代表値を用いた時間区間社会的振る舞い行動傾向判定記録データテーブル1220に含まれる情報の項目には、"DB記録時刻"、"判定範囲の開始時刻"、"判定範囲の終了時刻"、"振る舞いアバタ名"、"被振る舞いアバタ名"、"時間区間の明瞭特徴"、"代表値行列"、"距離"が含まれる。
第4実施形態に係る社会的振る舞い情報の収集及び判定処理は、図18及び図19に示す第1実施形態に係る社会的振る舞い情報の収集及び判定処理と同様である。
次に、第4実施形態に係る社会的振る舞い行動傾向判定処理の一例について、図38に示す第4実施形態に係る社会的振る舞い行動傾向代表値算出処理の一例を示すフローチャートを参照しながら説明する。
次に、第4実施形態に係る社会的振る舞い行動傾向判定処理の一例について図39に示す第4実施形態に係る社会的振る舞い行動傾向判定処理の一例を示すフローチャートを参照しながら説明する。
(付記1)
ユーザの動作を検出し、
ユーザの動作に対応づけてユーザの振る舞いの種別を記憶する記憶部を参照して、検出した前記ユーザの動作に対応するユーザの振る舞いの種別を判定する、処理をコンピュータに実行させる判定プログラム。
(付記2)
検出された前記ユーザの動作がユーザの複数の動作であり、検出された前記ユーザの複数の動作に対応する振る舞いの種別が複数の種別である場合に、前記複数の動作のうち、種別判断の確からしさの高い動作が優先的に選択されるように、ユーザの振る舞いの種別を判定する、
付記1に記載の判定プログラム。
(付記3)
前記ユーザの動作は、ユーザの身体の全体の動作及び/又はユーザの身体の部分の動作である、
付記1又は2に記載の判定プログラム。
(付記4)
前記ユーザの振る舞いの種別は、コミュニケーション対象の第一のユーザの第一のアバタと、コミュニケーション相手の機械のアバタ又は第二のユーザの第二のアバタとの位置の変化を示すカテゴリ、前記第一のアバタの身体の向きを示すカテゴリ、前記第一のアバタの身体の傾きを示すカテゴリ、前記第一のアバタの注目を示すカテゴリ、及び前記第一のアバタのジェスチャを示すカテゴリを含む、
付記1~3のいずれか一項に記載の判定プログラム。
(付記5)
前記ユーザの振る舞いの種別を、接近行動傾向、回避行動傾向又は中間行動傾向のいずれかに判定する、
付記1~4のいずれか一項に記載の判定プログラム。
(付記6)
ユーザの動作に応じた影響度を示す重みを記憶した記憶部を参照して、特定の前記ユーザの動作に重み付けを行い、
重み付けを行った後の前記ユーザの動作に対応するユーザの振る舞いの種別を判定する、
付記1~5のいずれか一項に記載の判定プログラム。
(付記7)
前記ユーザの動作を検出した所定時間と異なる時間帯に検出したユーザの動作に対応して判定した前記ユーザの振る舞いの種別に基づき、前記所定時間に検出したユーザの動作に対応するユーザの振る舞いの種別を判定する、
付記1~6のいずれか一項に記載の判定プログラム。
(付記8)
前記ユーザの振る舞いの種別を判定する処理は、検出した前記ユーザの動作の変化が閾値以下となったとき、コミュニケーションの相手となるユーザのアバタ又は機械のアバタによる特定の動作が検出されたとき、又は、アバタ同士のコミュニケーションが行われる環境について特定の変化が検出されたとき、の少なくともいずれかに対応して開始される、
付記1~7のいずれか一項に記載の判定プログラム。
(付記9)
ユーザの動作を検出し、
ユーザの動作に対応づけてユーザの振る舞いの種別を記憶する記憶部を参照して、検出した前記ユーザの動作に対応するユーザの振る舞いの種別を判定する、
ことをコンピュータが実行する判定方法。
(付記10)
検出された前記ユーザの動作がユーザの複数の動作であり、検出された前記ユーザの複数の動作に対応する振る舞いの種別が複数の種別である場合に、前記複数の動作のうち、種別判断の確からしさの高い動作が優先的に選択されるように、ユーザの振る舞いの種別を判定する、
付記9に記載の判定方法。
(付記11)
前記ユーザの動作は、ユーザの身体の全体の動作及び/又はユーザの身体の部分の動作である、
付記9又は10に記載の判定方法。
(付記12)
前記ユーザの振る舞いの種別は、コミュニケーション対象の第一のユーザの第一のアバタと、コミュニケーション相手の機械のアバタ又は第二のユーザの第二のアバタとの位置の変化を示すカテゴリ、前記第一のアバタの身体の向きを示すカテゴリ、前記第一のアバタの身体の傾きを示すカテゴリ、前記第一のアバタの注目を示すカテゴリ、及び前記第一のアバタのジェスチャを示すカテゴリを含む、
付記9~11のいずれか一項に記載の判定方法。
(付記13)
前記ユーザの振る舞いの種別を、接近行動傾向、回避行動傾向又は中間行動傾向のいずれかに判定する、
付記9~12のいずれか一項に記載の判定方法。
(付記14)
ユーザの動作に応じた影響度を示す重みを記憶した記憶部を参照して、特定の前記ユーザの動作に重み付けを行い、
重み付けを行った後の前記ユーザの動作に対応するユーザの振る舞いの種別を判定する、
付記9~13に記載の判定方法。
(付記15)
前記ユーザの動作を検出した所定時間と異なる時間帯に検出したユーザの動作に対応して判定した前記ユーザの振る舞いの種別に基づき、前記所定時間に検出したユーザの動作に対応するユーザの振る舞いの種別を判定する、
付記9~14のいずれか一項に記載の判定方法。
(付記16)
前記ユーザの振る舞いの種別を判定する処理は、検出した前記ユーザの動作の変化が閾値以下となったとき、コミュニケーションの相手となるユーザのアバタ又は機械のアバタによる特定の動作が検出されたとき、又は、アバタ同士のコミュニケーションが行われる環境について特定の変化が検出されたとき、の少なくともいずれかに対応して開始される、
付記9~15のいずれか一項に記載の判定方法。
(付記17)
ユーザの動作を検出する基本機能部と、
ユーザの動作に対応づけてユーザの振る舞いの種別を記憶する記憶部を参照して、検出した前記ユーザの動作に対応するユーザの振る舞いの種別を判定する判定部と、
を有する画像生成装置。
(付記18)
前記判定部は、検出された前記ユーザの動作がユーザの複数の動作であり、検出された前記ユーザの複数の動作に対応する振る舞いの種別が複数の種別である場合に、前記複数の動作のうち、種別判断の確からしさの高い動作が優先的に選択されるように、ユーザの振る舞いの種別を判定する、
付記17に記載の画像生成装置。
(付記19)
前記ユーザの動作は、ユーザの身体の全体の動作及び/又はユーザの身体の部分の動作である、
付記17又は18に記載の画像生成装置。
(付記20)
前記ユーザの振る舞いの種別は、コミュニケーション対象の第一のユーザの第一のアバタと、コミュニケーション相手の機械のアバタ又は第二のユーザの第二のアバタとの位置の変化を示すカテゴリ、前記第一のアバタの身体の向きを示すカテゴリ、前記第一のアバタの身体の傾きを示すカテゴリ、前記第一のアバタの注目を示すカテゴリ、及び前記第一のアバタのジェスチャを示すカテゴリを含む、
付記17~19のいずれか一項に記載の画像生成装置。
(付記21)
前記ユーザの振る舞いの種別を、接近行動傾向、回避行動傾向又は中間行動傾向のいずれかに判定する、
付記17~20のいずれか一項に記載の画像生成装置。
(付記22)
ユーザの動作に応じた影響度を示す重みを記憶した記憶部を参照して、特定の前記ユーザの動作に重み付けを行う重み算出部を有し、
前記判定部は、重み付けを行った後の前記ユーザの動作に対応するユーザの振る舞いの種別を判定する、
付記17~21のいずれか一項に記載の画像生成装置。
(付記23)
前記判定部は、前記ユーザの動作を検出した所定時間と異なる時間帯に検出したユーザの動作に対応して判定した前記ユーザの振る舞いの種別に基づき、前記所定時間に検出したユーザの動作に対応するユーザの振る舞いの種別を判定する、
付記17~22のいずれか一項に記載の画像生成装置。
(付記24)
前記判定部は、検出した前記ユーザの動作の変化が閾値以下となったとき、コミュニケーションの相手となるユーザのアバタ又は機械のアバタによる特定の動作が検出されたとき、又は、アバタ同士のコミュニケーションが行われる環境について特定の変化が検出されたとき、の少なくともいずれかに対応して前記ユーザの振る舞いの種別の判定を開始する、
付記17~23のいずれか一項に記載の画像生成装置。
110 :画像生成装置
125 :社会的振る舞い行動傾向解析部
131 :コンテンツ用DB
132 :センサデータ用DB
133 :定義情報用DB
134 :ログ用DB
135 :社会的振る舞い行動傾向情報用DB
140、150 :クライアント側システム
141、151 :情報処理装置
142、152 :情報提示装置
143、153 :情報収集装置(頭部姿勢センサ)
144、154 :情報収集装置(深度センサ)
145、155 :情報収集装置(筋電位センサ)
220、230 :ユーザのアバタの画像
240 :機械のアバタの画像
701 :社会的振る舞い基礎情報算出部
702 :社会的振る舞いログ記録部
703 :社会的振る舞い値算出部
704 :社会的振る舞いの接近・回避傾向特定部
705 :時間区間社会的振る舞い行動傾向判定部
706 :社会的振る舞いの共有制御部
710 :カテゴリ別社会的振る舞い行動傾向量算出部
711 :カテゴリ毎の時間区間社会的振る舞い行動傾向判定部
720 :社会的振る舞いのカテゴリ別重み算出部
721 :統合的な時間区間社会的振る舞い行動傾向判定部
730 :カテゴリ別社会的振る舞い行動傾向量記録部
731 :接近性行動傾向及び回避性行動傾向時間帯検索部
732 :社会的振る舞い行動傾向代表値算出部
733 :ログ区間における社会的振る舞い行動傾向代表値算出部
734 :代表値を用いた時間区間社会的振る舞い行動傾向判定部
810 :筋電位データテーブル
820 :頭部姿勢データテーブル
830 :深度センサデータファイルテーブル
840 :振る舞いログ更新記録データテーブル
850 :社会的振る舞いログ記録データテーブル
860 :社会的振る舞い値算出記録データテーブル
870 :監視対象データログ定義情報
880 :社会的振る舞い判定API定義情報
890 :社会的振る舞いの接近・回避傾向定義情報
900 :社会的振る舞い行動傾向量閾値定義情報
910 :社会的振る舞い行動傾向量記録データテーブル
920 :社会的振る舞い行動傾向記録データテーブル
1000 :社会的振る舞いのカテゴリ分類定義情報
1010 :カテゴリ別社会的振る舞い行動傾向量閾値定義情報
1020 :カテゴリ別社会的振る舞い行動傾向量記録データテーブル
1030 :カテゴリ別社会的振る舞い行動傾向記録データテーブル
1040 :社会的振る舞い行動傾向記録データテーブル
1100 :社会的振る舞い基礎情報の影響の度合いによる社会的振る舞いのカテゴリ毎重み定義情報
1110 :カテゴリ別重みつき社会的振る舞い行動傾向量記録データテーブル
1120 :カテゴリ別社会的振る舞い行動傾向記録データテーブル
1130 :社会的振る舞い行動傾向記録データテーブル
1210 :社会的振る舞い行動傾向代表値行列定義情報
1220 :代表値を用いた時間区間社会的振る舞い行動傾向判定記録データテーブル
1230 :ログ区間における社会的振る舞い行動傾向代表値記録データテーブル
Claims (8)
- ユーザの振る舞いを仮想空間で表示させるアバタの画像を生成する際に、前記ユーザの体の複数箇所を測定することで得られたデータを取得し、
ユーザの動作タイプに対応づけてユーザの振る舞いの接近傾向又は回避傾向を記憶する記憶部を参照して、取得した前記データが示す動作に対応するユーザの振る舞いの接近傾向又は回避傾向を判定し、
前記接近傾向及び回避傾向の判定結果から、所定時間の接近行動傾向量及び回避行動傾向量を算出し、
算出した前記接近行動傾向量と予め設定された接近行動傾向量の閾値とを比較し、算出した前記回避行動傾向量と予め設定された回避行動傾向量の閾値とを比較し、比較の結果に基づき、前記ユーザの振る舞いの種別を、カテゴリ別社会的振る舞い行動傾向量閾値定義情報に応じて、以下の(1)~(4)の場合に分けてカテゴリ別に接近行動傾向、回避行動傾向又は中間行動傾向のいずれかに判定し、
前記ユーザの振る舞いの種別は、コミュニケーション対象の第一のユーザの第一のアバタと、コミュニケーション相手の機械のアバタ又は第二のユーザの第二のアバタとの位置の変化を示すカテゴリ、前記第一のアバタの身体の向きを示すカテゴリ、前記第一のアバタの身体の傾きを示すカテゴリ、前記第一のアバタの注目を示すカテゴリ、及び前記第一のアバタのジェスチャを示すカテゴリを含み、
(1)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合、該当カテゴリについての前記ユーザの振る舞いの種別を接近行動傾向と判定し、
(2)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合、該当カテゴリについての前記ユーザの振る舞いの種別を回避行動傾向と判定し、
(3)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合、該当カテゴリについての前記ユーザの振る舞いの種別を、中間行動傾向と判定し、
(4)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合、該当カテゴリについての前記ユーザの振る舞いの種別を中間行動傾向と判定する、処理をコンピュータに実行させる判定プログラム。 - 検出された前記ユーザの動作がユーザの複数の動作であり、検出された前記ユーザの複数の動作に対応する振る舞いの種別が複数の種別である場合に、前記複数の動作のうち、種別判断の確からしさの高い動作が優先的に選択されるように、ユーザの振る舞いの種別を判定する、
請求項1に記載の判定プログラム。 - 前記ユーザの動作は、ユーザの身体の全体の動作及び/又はユーザの身体の部分の動作である、
請求項1又は2に記載の判定プログラム。 - ユーザの動作に応じた影響度を示す重みを記憶した記憶部を参照して、特定の前記ユーザの動作に重み付けを行い、
重み付けを行った後の前記ユーザの動作に対応するユーザの振る舞いの種別を判定する、
請求項1~3のいずれか一項に記載の判定プログラム。 - 前記ユーザの動作を検出した所定時間と異なる時間帯に検出したユーザの動作に対応して判定した前記ユーザの振る舞いの種別に基づき、前記所定時間に検出したユーザの動作に対応するユーザの振る舞いの種別を判定する、
請求項1~4のいずれか一項に記載の判定プログラム。 - 前記ユーザの振る舞いの種別を判定する処理は、検出した前記ユーザの動作の変化が閾値以下となったとき、コミュニケーションの相手となるユーザのアバタ又は機械のアバタによる特定の動作が検出されたとき、又は、アバタ同士のコミュニケーションが行われる環境について特定の変化が検出されたとき、の少なくともいずれかに対応して開始される、
請求項1~5のいずれか一項に記載の判定プログラム。 - ユーザの振る舞いを仮想空間で表示させるアバタの画像を生成する際に、前記ユーザの体の複数箇所を測定することで得られたデータを取得し、
ユーザの動作タイプに対応づけてユーザの振る舞いの接近傾向又は回避傾向を記憶する記憶部を参照して、取得した前記データが示す動作に対応するユーザの振る舞いの接近傾向又は回避傾向を判定し、
前記接近傾向及び回避傾向の判定結果から、所定時間の接近行動傾向量及び回避行動傾向量を算出し、
算出した前記接近行動傾向量と予め設定された接近行動傾向量の閾値とを比較し、算出した前記回避行動傾向量と予め設定された回避行動傾向量の閾値とを比較し、比較の結果に基づき、前記ユーザの振る舞いの種別を、カテゴリ別社会的振る舞い行動傾向量閾値定義情報に応じて、以下の(1)~(4)の場合に分けてカテゴリ別に接近行動傾向、回避行動傾向又は中間行動傾向のいずれかに判定し、
前記ユーザの振る舞いの種別は、コミュニケーション対象の第一のユーザの第一のアバタと、コミュニケーション相手の機械のアバタ又は第二のユーザの第二のアバタとの位置の変化を示すカテゴリ、前記第一のアバタの身体の向きを示すカテゴリ、前記第一のアバタの身体の傾きを示すカテゴリ、前記第一のアバタの注目を示すカテゴリ、及び前記第一のアバタのジェスチャを示すカテゴリを含み、
(1)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合、該当カテゴリについての前記ユーザの振る舞いの種別を接近行動傾向と判定し、
(2)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合、該当カテゴリについての前記ユーザの振る舞いの種別を回避行動傾向と判定し、
(3)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合、該当カテゴリについての前記ユーザの振る舞いの種別を、中間行動傾向と判定し、
(4)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合、該当カテゴリについての前記ユーザの振る舞いの種別を中間行動傾向と判定する、処理をコンピュータが実行する判定方法。 - ユーザの振る舞いを仮想空間で表示させるアバタの画像を生成する際に、前記ユーザの体の複数箇所を測定することで得られたデータを取得するセンサデータ収集処理管理部と、
ユーザの動作タイプに対応づけてユーザの振る舞いの接近傾向又は回避傾向を記憶する記憶部を参照して、取得した前記データが示す動作に対応するユーザの振る舞いの接近傾向又は回避傾向を判定し、
前記接近傾向及び回避傾向の判定結果から、所定時間の接近行動傾向量及び回避行動傾向量を算出し、
算出した前記接近行動傾向量と予め設定された接近行動傾向量の閾値とを比較し、算出した前記回避行動傾向量と予め設定された回避行動傾向量の閾値とを比較し、比較の結果に基づき、前記ユーザの振る舞いの種別を、カテゴリ別社会的振る舞い行動傾向量閾値定義情報に応じて、以下の(1)~(4)の場合に分けてカテゴリ別に接近行動傾向、回避行動傾向又は中間行動傾向のいずれかに判定する社会的振る舞い行動傾向解析部と、
を有し、
前記ユーザの振る舞いの種別は、コミュニケーション対象の第一のユーザの第一のアバタと、コミュニケーション相手の機械のアバタ又は第二のユーザの第二のアバタとの位置の変化を示すカテゴリ、前記第一のアバタの身体の向きを示すカテゴリ、前記第一のアバタの身体の傾きを示すカテゴリ、前記第一のアバタの注目を示すカテゴリ、及び前記第一のアバタのジェスチャを示すカテゴリを含み、
社会的振る舞い行動傾向解析部は、
(1)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合、該当カテゴリについての前記ユーザの振る舞いの種別を接近行動傾向と判定し、
(2)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合、該当カテゴリについての前記ユーザの振る舞いの種別を回避行動傾向と判定し、
(3)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えなかった場合、該当カテゴリについての前記ユーザの振る舞いの種別を、中間行動傾向と判定し、
(4)前記接近行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合であって、かつ、前記回避行動傾向量が前記接近行動傾向量のカテゴリ別の閾値を超えた場合、該当カテゴリについての前記ユーザの振る舞いの種別を中間行動傾向と判定する、画像生成装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017242963A JP7077603B2 (ja) | 2017-12-19 | 2017-12-19 | 判定プログラム、判定方法及び画像生成装置 |
US16/222,331 US10824223B2 (en) | 2017-12-19 | 2018-12-17 | Determination apparatus and determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017242963A JP7077603B2 (ja) | 2017-12-19 | 2017-12-19 | 判定プログラム、判定方法及び画像生成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019109761A JP2019109761A (ja) | 2019-07-04 |
JP7077603B2 true JP7077603B2 (ja) | 2022-05-31 |
Family
ID=66815959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017242963A Active JP7077603B2 (ja) | 2017-12-19 | 2017-12-19 | 判定プログラム、判定方法及び画像生成装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10824223B2 (ja) |
JP (1) | JP7077603B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11410359B2 (en) * | 2020-03-05 | 2022-08-09 | Wormhole Labs, Inc. | Content and context morphing avatars |
US11423620B2 (en) * | 2020-03-05 | 2022-08-23 | Wormhole Labs, Inc. | Use of secondary sources for location and behavior tracking |
JP7459679B2 (ja) * | 2020-06-23 | 2024-04-02 | 富士通株式会社 | 行動認識方法、行動認識プログラム及び行動認識装置 |
US20240020626A1 (en) * | 2022-07-14 | 2024-01-18 | ThirdEye Gen, Inc | Augmented reality system for supply chain operational environments |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012533120A (ja) | 2009-07-09 | 2012-12-20 | マイクロソフト コーポレーション | プレーヤーの表現に基づく視覚表示の表現方法及びシステム |
JP2015035769A (ja) | 2013-08-09 | 2015-02-19 | 株式会社リコー | 情報処理装置、情報処理システム及びプログラム |
JP2017073042A (ja) | 2015-10-08 | 2017-04-13 | 富士通株式会社 | 画像生成システム、画像生成プログラム及び画像生成方法 |
JP2017076202A (ja) | 2015-10-13 | 2017-04-20 | 富士通株式会社 | 反応出力システム、反応出力プログラム、反応出力方法 |
JP2017215468A (ja) | 2016-05-31 | 2017-12-07 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3753882B2 (ja) | 1999-03-02 | 2006-03-08 | 株式会社東芝 | マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法 |
JP3368226B2 (ja) | 1999-03-26 | 2003-01-20 | キヤノン株式会社 | 情報処理方法及び情報処理装置 |
US7908554B1 (en) * | 2003-03-03 | 2011-03-15 | Aol Inc. | Modifying avatar behavior based on user action or mood |
US7990387B2 (en) * | 2007-08-16 | 2011-08-02 | International Business Machines Corporation | Method and apparatus for spawning projected avatars in a virtual universe |
US20090058862A1 (en) * | 2007-08-27 | 2009-03-05 | Finn Peter G | Automatic avatar transformation for a virtual universe |
US20110004481A1 (en) * | 2008-09-19 | 2011-01-06 | Dell Products, L.P. | System and method for communicating and interfacing between real and virtual environments |
US8788973B2 (en) * | 2011-05-23 | 2014-07-22 | Microsoft Corporation | Three-dimensional gesture controlled avatar configuration interface |
JP5966121B2 (ja) | 2011-10-03 | 2016-08-10 | 株式会社ユピテル | 運転支援システムおよび運転支援プログラム |
US10702773B2 (en) * | 2012-03-30 | 2020-07-07 | Videx, Inc. | Systems and methods for providing an interactive avatar |
US20160134840A1 (en) * | 2014-07-28 | 2016-05-12 | Alexa Margaret McCulloch | Avatar-Mediated Telepresence Systems with Enhanced Filtering |
WO2016145129A1 (en) * | 2015-03-09 | 2016-09-15 | Ventana 3D, Llc | Avatar control system |
-
2017
- 2017-12-19 JP JP2017242963A patent/JP7077603B2/ja active Active
-
2018
- 2018-12-17 US US16/222,331 patent/US10824223B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012533120A (ja) | 2009-07-09 | 2012-12-20 | マイクロソフト コーポレーション | プレーヤーの表現に基づく視覚表示の表現方法及びシステム |
JP2015035769A (ja) | 2013-08-09 | 2015-02-19 | 株式会社リコー | 情報処理装置、情報処理システム及びプログラム |
JP2017073042A (ja) | 2015-10-08 | 2017-04-13 | 富士通株式会社 | 画像生成システム、画像生成プログラム及び画像生成方法 |
JP2017076202A (ja) | 2015-10-13 | 2017-04-20 | 富士通株式会社 | 反応出力システム、反応出力プログラム、反応出力方法 |
JP2017215468A (ja) | 2016-05-31 | 2017-12-07 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2019109761A (ja) | 2019-07-04 |
US20190187780A1 (en) | 2019-06-20 |
US10824223B2 (en) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11379287B2 (en) | System and method for error detection and correction in virtual reality and augmented reality environments | |
JP7077603B2 (ja) | 判定プログラム、判定方法及び画像生成装置 | |
US10593025B2 (en) | Method and system for reconstructing obstructed face portions for virtual reality environment | |
EP3674852B1 (en) | Method and apparatus with gaze estimation | |
US20220207772A1 (en) | Generating pose information for a person in a physical environment | |
JP6756236B2 (ja) | アクション指示プログラム、アクション指示方法及び画像生成装置 | |
JP6569452B2 (ja) | 画像生成システム、画像生成プログラム及び画像生成方法 | |
JP2021534516A (ja) | 眼鏡用仮想試着システム及び方法 | |
Plantard et al. | Filtered pose graph for efficient kinect pose reconstruction | |
US20160171287A1 (en) | Fitting glasses frames to a user | |
US20170365084A1 (en) | Image generating apparatus and image generating method | |
US11449718B2 (en) | Methods and systems of real time movement classification using a motion capture suit | |
JP4868360B2 (ja) | 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム | |
Haggag et al. | Body parts segmentation with attached props using rgb-d imaging | |
US10788887B2 (en) | Image generation program, image generation device, and image generation method | |
Kim et al. | Head-mounted binocular gaze detection for selective visual recognition systems | |
Leoncini et al. | Multiple NUI device approach to full body tracking for collaborative virtual environments | |
JP2008046802A (ja) | インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム | |
JPWO2022024272A5 (ja) | ||
Adiani et al. | Evaluation of webcam-based eye tracking for a job interview training platform: Preliminary results | |
WO2024069997A1 (ja) | 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ | |
US20210255704A1 (en) | Methods and systems of real time hand movement classification | |
WO2022091166A1 (ja) | 追跡装置、追跡システム、追跡方法、および記録媒体 | |
WO2024110779A1 (en) | Method for triggering actions in the metaverse or virtual worlds | |
CN116685891A (zh) | 在虚拟环境中用于多用户群组意图处理的跨模态输入融合 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7077603 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |