JP2017102639A - アバター表示システム、ユーザ端末、及びプログラム - Google Patents

アバター表示システム、ユーザ端末、及びプログラム Download PDF

Info

Publication number
JP2017102639A
JP2017102639A JP2015234650A JP2015234650A JP2017102639A JP 2017102639 A JP2017102639 A JP 2017102639A JP 2015234650 A JP2015234650 A JP 2015234650A JP 2015234650 A JP2015234650 A JP 2015234650A JP 2017102639 A JP2017102639 A JP 2017102639A
Authority
JP
Japan
Prior art keywords
user
terminal
avatar
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015234650A
Other languages
English (en)
Other versions
JP6017008B1 (ja
Inventor
多一郎 白石
Taichiro Shiraishi
多一郎 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015234650A priority Critical patent/JP6017008B1/ja
Application granted granted Critical
Publication of JP6017008B1 publication Critical patent/JP6017008B1/ja
Priority to PCT/JP2016/082710 priority patent/WO2017094434A1/ja
Priority to US15/358,056 priority patent/US9836268B2/en
Publication of JP2017102639A publication Critical patent/JP2017102639A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/323Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections between game devices with different hardware characteristics, e.g. hand-held game devices connectable to game consoles or arcade machines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/34Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using peer-to-peer connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects

Abstract

【課題】ユーザの頭部や視線の動きを他のユーザに対して選択的に公開することが可能なアバター表示システムを提供する。【解決手段】第1端末200は、第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段231と、第1ユーザに関する属性情報を記憶するユーザ属性記憶手段221と、属性情報に基づいて、第1ユーザのユーザ姿勢情報を第2ユーザに公開するか否かを決定する公開可否決定手段232と、第1ユーザのユーザ姿勢情報を第2ユーザに公開すると決定された場合に、第1ユーザのユーザ姿勢情報を第2端末へ送信する送信手段と、を備える。第2端末は、第1端末から第1ユーザのユーザ姿勢情報が受信された場合に、第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において第1ユーザを表すアバター画像を生成する画像生成手段233と、アバター画像を表示する表示手段234と、を備える。【選択図】図3

Description

本発明は、アバター表示システム、ユーザ端末、及びプログラムに関する。
特許文献1には、複数のユーザがそれぞれユーザステーションを使用してビデオ会議を行うビデオ会議システムにおいて、各ユーザの頭部の動きの情報を他のユーザのユーザステーションへ送り、その情報に基づいてアバターの頭部の動きをユーザの頭部の動きに対応するようにアニメ化する技術が開示されている。
特開2000−244886号公報
しかしながら、特許文献1の技術では、アバターの頭部の動きは必ずユーザの頭部の動きに対応したものとなる。
本発明は、上記の点に鑑みてなされたものであり、その目的の1つは、ユーザの頭部や視線の動きを他のユーザに対して選択的に公開することが可能なアバター表示システム、ユーザ端末、及びプログラムを提供することにある。
上述した課題を解決するために、本発明の一態様は、第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムであって、前記第1端末は、前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段と、前記第1ユーザに関する属性情報を記憶するユーザ属性記憶手段と、前記属性情報に基づいて、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段と、を備え、前記第2端末は、前記第1端末から前記第1ユーザのユーザ姿勢情報が受信された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段と、前記アバター画像を表示する表示手段と、を備える、アバター表示システムである。
また、本発明の他の一態様は、第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムであって、前記第1端末は、前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段と、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段と、を備え、前記第2端末は、前記第1ユーザに関する属性情報に基づいて、前記第1端末から受信された前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段と、前記アバター画像を表示する表示手段と、を備える、アバター表示システムである。
また、本発明の他の一態様は、第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第1端末としてのユーザ端末であって、前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段と、前記第1ユーザに関する属性情報を記憶するユーザ属性記憶手段と、前記属性情報に基づいて、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段と、を備えるユーザ端末である。
また、本発明の他の一態様は、第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第2端末としてのユーザ端末であって、前記第1端末から、前記第1端末において検出された前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を受信する受信手段と、前記第1ユーザに関する属性情報に基づいて、前記第1端末から受信された前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段と、前記アバター画像を表示する表示手段と、を備えるユーザ端末である。
また、本発明の他の一態様は、第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第1端末としてのユーザ端末を、前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段、前記第1ユーザに関する属性情報を記憶するユーザ属性記憶手段、前記属性情報に基づいて、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段、として機能させるためのプログラムである。
また、本発明の他の一態様は、第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第2端末としてのユーザ端末を、前記第1端末から、前記第1端末において検出された前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を受信する受信手段、前記第1ユーザに関する属性情報に基づいて、前記第1端末から受信された前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段、前記アバター画像を表示する表示手段、として機能させるためのプログラムである。
本発明によれば、ユーザの頭部や視線の動きを他のユーザに対して選択的に公開することが可能である。
本発明の一実施形態に係るアバター表示システム10の概略構成を示す図である。 本発明の一実施形態に係るHMDシステム100のハードウェア構成図である。 本発明の一実施形態に係る画像生成装置200の機能的な構成を示すブロック図である。 本発明の一実施形態に係る画像生成装置200aの動作を示すフローチャートである。 本発明の一実施形態に係る画像生成装置200bの動作を示すフローチャートである。 本発明の一実施形態に係る画像生成装置200aの動作を示すフローチャートである。 本発明の一実施形態に係る画像生成装置200bの動作を示すフローチャートである。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態は、以下のような構成を備える。
(項目1)第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムであって、前記第1端末は、前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段と、前記第1ユーザに関する属性情報を記憶するユーザ属性記憶手段と、前記属性情報に基づいて、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段と、を備え、前記第2端末は、前記第1端末から前記第1ユーザのユーザ姿勢情報が受信された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段と、前記アバター画像を表示する表示手段と、を備える、アバター表示システム。
(項目2)前記画像生成手段は、前記第1端末から前記第1ユーザのユーザ姿勢情報が受信されなかった場合に、前記第1ユーザを表すデフォルトのアバター画像を生成する、項目1に記載のアバター表示システム。
(項目3)前記属性情報は、コンピュータゲームにおける前記第1ユーザの経験値又は能力値を含む、項目1又は2に記載のアバター表示システム。
(項目4)前記公開可否決定手段は、前記経験値又は能力値が所定値よりも大きい場合に前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定し、前記経験値又は能力値が所定値よりも小さい場合に前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開しないと決定する、項目3に記載のアバター表示システム。
(項目5)前記属性情報は、前記第1ユーザと前記第2ユーザとのコミュニケーションの頻度、深度、又は近接度に関連する値を含む、項目1又は2に記載のアバター表示システム。
(項目6)前記第1ユーザのユーザ姿勢情報に基づく前記アバター画像は、前記第1ユーザのユーザ姿勢情報によって示される方向に顔又は目の少なくとも一方を向けているアバターの画像である、項目1から5のいずれか1項に記載のアバター表示システム。
(項目7)前記第1端末及び前記第2端末は、ヘッドマウントディスプレイを含んで構成される端末である、項目1から6のいずれか1項に記載のアバター表示システム。
(項目8)第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムであって、前記第1端末は、前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段と、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段と、を備え、前記第2端末は、前記第1ユーザに関する属性情報に基づいて、前記第1端末から受信された前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段と、前記アバター画像を表示する表示手段と、を備える、アバター表示システム。
(項目9)第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第1端末としてのユーザ端末であって、前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段と、前記第1ユーザに関する属性情報を記憶するユーザ属性記憶手段と、前記属性情報に基づいて、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段と、を備えるユーザ端末。
(項目10)第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第2端末としてのユーザ端末であって、前記第1端末から、前記第1端末において検出された前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を受信する受信手段と、前記第1ユーザに関する属性情報に基づいて、前記第1端末から受信された前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段と、前記アバター画像を表示する表示手段と、を備えるユーザ端末。
(項目11)第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第1端末としてのユーザ端末を、前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段、前記第1ユーザに関する属性情報を記憶するユーザ属性記憶手段、前記属性情報に基づいて、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段、として機能させるためのプログラム。
(項目12)第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第2端末としてのユーザ端末を、前記第1端末から、前記第1端末において検出された前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を受信する受信手段、前記第1ユーザに関する属性情報に基づいて、前記第1端末から受信された前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段、前記アバター画像を表示する表示手段、として機能させるためのプログラム。
[本発明の実施形態の詳細]
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態に係るアバター表示システム10の概略構成を示す図である。アバター表示システム10は、第1ユーザ101aによって使用される第1サブシステム(第1端末)100aと、第2ユーザ101bによって使用される第2サブシステム(第2端末)100bとを備える。第1サブシステム100aと第2サブシステム100bは、ネットワーク105を介して相互に通信可能に接続されている。ネットワーク105は、例えばインターネットやLAN(Local Area Network)などの、任意のタイプのネットワークであってよい。図1には2つのサブシステム100a及び100bのみが示されているが、アバター表示システム10は、それぞれが別個のユーザによって使用される任意の数の同様のサブシステムを含んでもよい。
第1サブシステム100aは、ヘッドマウントディスプレイ(Head Mounted Display:以下HMDと称する)120aと、画像生成装置200aとを備える。画像生成装置200aは、第1ユーザ101aに提示するための仮想現実空間を表す画像を生成して、生成した仮想現実空間画像をHMD120aに表示させる。HMD120aに表示される仮想現実空間画像は、第2ユーザ101bの顔や身体などの容姿を視覚的に表現したアバターを含む。第1ユーザ101aは、第2ユーザ101bのアバターを介して、仮想現実空間において第2ユーザ101bとコミュニケーションをすることができる。同様に、第2サブシステム100bは、HMD120bと、画像生成装置200bとを備える。画像生成装置200bは、第2ユーザ101bに提示するための仮想現実空間を表す画像を生成して、生成した仮想現実空間画像をHMD120bに表示させる。HMD120bに表示される仮想現実空間画像は、第1ユーザ101aのアバターを含む。第2ユーザ101bは、第1ユーザ101aのアバターを介して、仮想現実空間において第1ユーザ101aとコミュニケーションをすることができる。
図2は、本発明の一実施形態に係るHMDシステム100のハードウェア構成図である。HMDシステム100は、図1に示された第1サブシステム100aと第2サブシステム100bのそれぞれに対応するものである。上述したように、HMDシステム100は、HMD120と、画像生成装置200とを備える。HMD120と画像生成装置200は、一例として有線ケーブル150によって電気的に接続され、相互に通信可能である。有線ケーブル150に代えて、無線接続が用いられてもよい。
HMD120は、ユーザ101の頭に装着されて利用される表示デバイスである。HMD120は、ディスプレイ122と、アイトラッキングデバイス(Eye Tracking Device:以下ETDと称する)124と、センサ126とを備える。ETD124とセンサ126は、どちらか一方だけが択一的に設けられてもよい。HMD120は更に、不図示のスピーカ(ヘッドホン)を備えてもよい。
ディスプレイ122は、HMD120を装着したユーザ101の視界に画像を提示するように構成される。例えば、ディスプレイ122は、非透過型ディスプレイとして構成することができる。この場合、HMD120の外界の光景はユーザ101の視界から遮断され、ユーザ101の目にはディスプレイ122に映し出された画像だけが届けられる。ディスプレイ122には、例えば、コンピュータグラフィックスを用いて生成した画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想現実空間(例えばコンピュータゲームで作り出される世界)を画像化した仮想現実空間画像である。上述したように、仮想現実空間画像は、HMD120を装着しているユーザ101がコミュニケーションをする相手ユーザのアバターを含む。このような例示的なアバターとして、コンピュータゲームのポーカーの相手プレイヤーを表すアバター、格闘ゲームの対戦相手を表すアバター、あるいは、仮想現実空間内でのチャットの相手を表すアバター等が用いられてよい。
ETD124は、ユーザ101の眼球の動きを追跡して、ユーザ101の視線がどちらの方向に向けられているかを検出するように構成される。例えば、ETD124は、赤外線光源と赤外線カメラとを備える。赤外線光源は、HMD120を装着したユーザ101の目に向けて赤外線を照射する。赤外線カメラは、赤外線で照射されたユーザ101の目の画像を撮像する。赤外線はユーザ101の目の表面で反射されるが、瞳と瞳以外の部分とで赤外線の反射率が異なる。赤外線カメラで撮像されたユーザ101の目の画像には、赤外線の反射率の違いが画像の明暗となって現れる。この明暗に基づいて、ユーザ101の目の画像において瞳が識別され、更に、識別された瞳の位置に基づいて、ユーザ101の視線の方向が検出される。
センサ126は、HMD120を装着したユーザ101の頭がどちらの方向を向いているかを検知するためのセンサである。センサ126としては、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせが用いられてよい。センサ126が磁気センサ、角速度センサ、又は加速度センサである場合、センサ126はHMD120に内蔵されて、HMD120の向きや動きに応じた値(磁気、角速度、又は加速度の値)を出力する。センサ126からの出力値を適宜の方法で加工することで、HMD120を装着したユーザ101の頭の向きが算出される。ユーザ101の頭の向きは、ユーザ101が頭を動かした際にその動きに追従するようにディスプレイ122の表示画像を変化させるのに利用されてよい。例えば、ユーザ101が頭を右(又は左、上、下)に向けると、ディスプレイ122には、仮想現実空間においてユーザの右(又は左、上、下)方向にある仮想的光景が映し出されるのであってよい。
なおセンサ126として、HMD120の外部に設けられたセンサを適用することとしてもよい。例えば、センサ126は、HMD120とは別体の、室内の固定位置に設置された赤外線センサであってよい。この赤外線センサを用いて、HMD120の表面に設けられた赤外線発光体又は赤外線反射マーカーを検知することにより、HMD120を装着したユーザ101の頭の向きを特定することができる。このようなタイプのセンサ126は、ポジショントラッキングセンサと呼ばれることもある。
画像生成装置200は、HMD120に表示される画像を生成するための装置である。画像生成装置200は、プロセッサ202と、メモリ204と、ユーザ入力インターフェイス206と、通信インターフェイス208とを少なくとも備える。画像生成装置200は、例えば、パーソナルコンピュータ、ゲームコンソール、スマートフォン、タブレット端末等として実現することが可能である。
メモリ204には、少なくともオペレーティングシステムと画像生成プログラムとが格納されている。オペレーティングシステムは、画像生成装置200の全体的な動作を制御するためのコンピュータプログラムである。画像生成プログラムは、画像生成装置200が後述する画像生成処理の各機能を実現するためのコンピュータプログラムである。メモリ204はまた、画像生成装置200の動作によって生成されるデータを一時的又は永続的に記憶することもできる。メモリ204の具体例は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。
プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納された画像生成プログラムを実行することによって、後述する画像生成処理の各機能が実現される。プロセッサ202は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む。
ユーザ入力インターフェイス206は、HMDシステム100のユーザ101から画像生成装置200を操作するための入力を受け取るように構成される。ユーザ入力インターフェイス206の具体例は、ゲームコントローラ、タッチパッド、マウス、キーボード等である。
通信インターフェイス208は、ネットワークを介して他の装置と通信するためのネットワークインターフェイスである。例えば図1に示された第1サブシステム100aの画像生成装置200aと第2サブシステム100bの画像生成装置200bは、それぞれの通信インターフェイス208を用いて、ネットワーク105を介して相互に通信する。
図3は、本発明の一実施形態に係る画像生成装置200の機能的な構成を示すブロック図である。画像生成装置200は、記憶部220及び処理部230を有する。処理部230は更に、ユーザ姿勢検出部231と、公開可否決定部232と、画像生成部233と、画像出力部234とを含む。記憶部220は、図1に示されたメモリ204に対応する。処理部230及び処理部230に含まれる各部231〜234は、図1に示されたプロセッサ202がメモリ204内の画像生成プログラムを読み出して実行することによって実現される、本発明に係る画像生成処理の機能を表す。
記憶部220には、ユーザ101に関する属性情報221が記憶されている。ユーザ101に関する属性情報221は、ユーザ間のコミュニケーションにおいてユーザ姿勢情報を相手に公開するか否かを判断するための材料として用いられるものである(詳細は後述する)。例えば、ユーザ101に関する属性情報221は、コンピュータゲームにおけるユーザ101の経験値や能力値を含んでよい。コンピュータゲームの具体例は、トランプ(ポーカー等)や花札などのカードゲーム、麻雀や将棋、囲碁などのテーブルゲーム、格闘ゲーム、ロールプレイングゲーム、テニスやサッカー、野球などのスポーツゲームを含む。ユーザ101の経験値は、ユーザ101がそのコンピュータゲームのプレイにどの程度習熟しているかを示す指標であり、例えばユーザ101がそのゲームの初心者であるか熟練者であるかを区別する。ユーザ101の能力値は、そのコンピュータゲームのプレイにおいてユーザ101が発揮できる能力のパラメータ設定値であり、例えば、格闘ゲーム等の対戦時における攻撃力や防御力などのパラメータ値を含む。経験値と能力値は、数値として表されてもよいし、あるいは「初心者・中級者・熟練者」や「攻撃力大・中・小」のような分類であってもよい。数値で表される場合、一例として、数値が大きいほど経験値や能力値が優れていることとしてよい。なお、経験値と能力値は、スキル、ランク、レベルといった呼称で呼ばれる概念を含む。
また、ユーザ101に関する属性情報221は、仮想現実空間におけるユーザ同士の関係性を表す指標値を含むのであってもよい。ユーザ同士の関係性として、例えば、ユーザ間のコミュニケーションの頻度、深度、近接度などの指標を用いることができる。コミュニケーションの頻度は、ユーザ101が別のあるユーザとのコミュニケーションや交流(ゲームの対戦や会話等)をどれくらい頻繁に行っているか(例えば、初対面か、週に1回一緒にオンラインプレイをするか等)を示す。コミュニケーションの深度は、ユーザ101と別のあるユーザとのコミュニケーションにおける質的な接触の強さを示し、例えば、どのような種類のゲームを一緒にプレイしたか(カードゲームか、格闘ゲームか、チャットか等)や、どのような形で交流したか(一対一で会ったのか、多人数の中の一人として会ったのか、挨拶を交わしただけか、趣味について語り合ったのか等)などの、ユーザ間のコミュニケーション体験の質に関する。コミュニケーションの近接度は、ユーザ101と別のあるユーザとの間に形成されている距離感や親密さの度合い(例えば、フレンド登録しているか否か等)を示す。これらの各指標は、数値化された値、又は「フレンド登録有り」のような分類のいずれであってもよい。
記憶部220には、更に、仮想現実空間構成情報223が記憶されている。仮想現実空間構成情報223は、仮想現実空間画像を生成するのに必要な、仮想現実空間内に存在する様々なオブジェクト(アバターを含む)の配置位置、形状、色などに関するデータである。
ユーザ姿勢検出部231は、ユーザ101の頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出する。例えば、ユーザ姿勢検出部231は、センサ126からの出力値に基づいて、HMD120を装着したユーザ101の頭の向きを検出することとしてよい。あるいはまた、ユーザ姿勢検出部231は、ETD124から得られる赤外線画像に基づいて、ユーザ101の視線の方向を検出することとしてもよい。更に、ユーザ姿勢検出部231は、ユーザ101の頭の向きと視線の両方を検出するのであってもよい。
公開可否決定部232は、属性情報221に基づいてユーザ姿勢情報(頭の向き及び/又は視線)の公開可否を決定する。決定方法の詳細については後述する。
画像生成部233は、記憶部220に記憶されている仮想現実空間構成情報223に基づいて、コンピュータグラフィックス処理によって仮想現実空間画像を生成する。画像生成部233が生成する仮想現実空間画像の一例は、コンピュータゲーム(例えばポーカーなどのカードゲーム、格闘ゲーム、チャット等)の仮想現実空間を表現する画像である。仮想現実空間画像は、仮想現実空間内においてユーザ101がコミュニケーションをする相手ユーザのアバターを表す画像を含む。画像生成部233は、アバターに対応するユーザのユーザ姿勢情報がユーザ101への公開を許可されている場合、そのユーザ姿勢情報に基づいてアバター画像を制御する。例えば、画像生成部233は、ユーザ姿勢情報によって示される方向にアバターが顔や目を向けているアバター画像を生成することとしてよい。
図4及び図5は、本発明の一実施形態に係る画像生成装置200の動作を示すフローチャートである。図4は、第1サブシステム100aの画像生成装置200aの動作に対応し、図5は、第2サブシステム100bの画像生成装置200bの動作に対応する。図4及び図5のフローチャートは、第1サブシステム100aの第1ユーザ101aを表すアバター画像を第2サブシステム100bのHMD120bに表示するための処理の一例を示す。以下では、コンピュータゲームのポーカーをプレイする事例を適宜参照して説明を行うが、これは本発明を限定するものではなく、本発明は、ユーザのアバターを表示する処理を実施する任意のシステムに適用可能である。
まず図4を参照すると、ステップS101において、画像生成装置200aの画像生成部233(以下、画像生成部233aと記す)は、コンピュータゲーム(ポーカー)の進行に応じた各場面を表すゲーム画像を生成する。ポーカーの場面は、例えば、カードを各プレイヤーに配る場面、各プレイヤーがチップを賭ける場面、各プレイヤーが自分の手札の一部を場に積まれたカードと交換する場面などからなる。画像生成部233aが生成する各場面のゲーム画像は、自分の手札を表す画像のほか、一緒にプレイしている他のプレイヤーの(例えば顔や上半身を描いた)アバター画像も含む。他のプレイヤーのアバターは、ポーカーが行われているテーブルの周りを取り囲んでいるように描かれてもよいし、単に画面を縦横に分割した1つ1つの画面エリアに各アバターが正面を向いて配置されるのであってもよい。
ステップS102において、画像生成装置200aのユーザ姿勢検出部231(以下、ユーザ姿勢検出部231aと記す)は、HMD120aを装着した第1ユーザ101aのユーザ姿勢情報を検出する。上述したように、ユーザ姿勢情報は、頭の向きと視線の少なくとも一方を含む。ユーザ姿勢検出部231aは、第1ユーザ101aの頭の向きをセンサ126からの出力値に基づいて、また、第1ユーザ101aの視線をETD124から得られる赤外線画像に基づいて、それぞれ検出する。
ステップS103において、画像生成装置200aの公開可否決定部232(以下、公開可否決定部232aと記す)は、コンピュータゲームの現在の場面が、ゲームのかけ引きに影響を与える場面であるか否かを判定する。例えば、ポーカーにおいてかけ引きに影響を与える場面とは、プレイヤーがチップを賭ける場面や、手札を場のカードと交換する場面である。反対に、最初にカードを各プレイヤーに配る場面は、ゲームのかけ引きに影響を与えない場面である。場面の判定のために、一例として公開可否決定部232aは、ゲームの進行を管理するための予め各場面に割り振られたゲーム進行フラグを用いることとしてよい。現在の場面がかけ引きに影響を与える場面である場合、処理はステップS104へ進み、そうでない場合、処理はステップS106へ進む。
ステップS104において、公開可否決定部232aは、画像生成装置200aの記憶部220(以下、記憶部220aと記す)から第1ユーザ101aに関する属性情報221を取り出す。
ステップS105において、公開可否決定部232aは、記憶部220aから取り出した第1ユーザ101aに関する属性情報221を評価する。属性情報221の評価結果に応じて、公開可否決定部232aは、第1ユーザ101aのユーザ姿勢情報を第2サブシステム100bの第2ユーザ101bに対して公開する(ステップS106)、又は公開しない(ステップS107)と決定する。
例えば、第1ユーザ101aに関する属性情報221は、第1ユーザ101aのコンピュータゲーム(ポーカー)の経験値や能力値を含む。一例として、公開可否決定部232aは、第1ユーザ101aの経験値又は能力値が所定の値よりも大きい(経験や能力が優れている)場合、ステップS106において、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開すると決定し、一方、第1ユーザ101aの経験値又は能力値が所定の値よりも小さい(経験や能力が劣っている)場合、ステップS107において、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開しないと決定する。例えば、公開可否決定部232aは、属性情報221が第1ユーザ101aをポーカーの熟練者に分類している場合、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開すると決定し(ステップS106)、属性情報221が第1ユーザ101aをポーカーの初心者に分類している場合、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開しないと決定する(ステップS107)。
また例えば、第1ユーザ101aに関する属性情報221は、第1ユーザ101aと第2ユーザ101bとの関係性(コミュニケーションの頻度、深度、近接度等)を表す指標値を含む。一例として、公開可否決定部232aは、第1ユーザ101aが第2ユーザ101bを「フレンド登録」していることが属性情報221に示されている場合、ステップS106において、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開すると決定し、一方、第1ユーザ101aが第2ユーザ101bを「フレンド登録」していることが属性情報221に示されていない場合、ステップS107において、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開しないと決定する。あるいはこの反対に、公開可否決定部232aは、第1ユーザ101aが第2ユーザ101bを「フレンド登録」していない場合に、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開し(ステップS106)、第1ユーザ101aが第2ユーザ101bを「フレンド登録」している場合に、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開しない(ステップS107)こととしてもよい。更に、公開可否決定部232aは、「フレンド登録」の有無に限らず、第1ユーザ101aと第2ユーザ101bの間のコミュニケーションの頻度や深度を表す指標値の大小に応じて、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開するかしないかを決定してもよい。
なお、公開可否決定部232aは、上述したステップS103の判定においてコンピュータゲームの現在の場面がかけ引きに影響を与えない場面であった場合も、ステップS106において、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開すると決定する。
第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開することが決定(ステップS106)されると、ステップS108において、第1ユーザ101aのユーザ姿勢情報が通信インターフェイス208を介して第2サブシステム100bの画像生成装置200bへ送信される。一方、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開しないことが決定(ステップS107)されると、第1ユーザ101aのユーザ姿勢情報は第2サブシステム100bの画像生成装置200bへ送信されない。
次に図5を参照すると、ステップS201において、画像生成装置200bの画像生成部233(以下、画像生成部233bと記す)は、図4のステップS101と同様に、またステップS101と同期して、コンピュータゲーム(ポーカー)の進行に応じた各場面を表すゲーム画像を生成する。ただし、画像生成部233bが生成する各場面のゲーム画像は、第1サブシステム100aの第1ユーザ101aを表すアバター画像を含む。
ステップS202において、画像生成部233bは、通信インターフェイス208を介して第1サブシステム100aの画像生成装置200aから第1ユーザ101aのユーザ姿勢情報が受信されたか否かを判定する。第1ユーザ101aのユーザ姿勢情報が受信された場合、処理はステップS203へ進み、受信されなかった場合、処理はステップS204へ進む。
ステップS203において、画像生成部233bは、受信された第1ユーザ101aのユーザ姿勢情報に基づいて、ゲーム画像に含まれる第1ユーザ101aを表すアバター画像を制御する。一例として、画像生成部233bは、第1ユーザ101aを表すアバターが、第1ユーザ101aのユーザ姿勢情報(頭の向き及び/又は視線)によって示される方向に顔や目を向けているアバター画像を生成する。
ステップS204において、画像生成部233bは、ゲーム画像に含まれる第1ユーザ101aを表すアバター画像をデフォルトの状態に制御する。一例として、画像生成部233bは、第1ユーザ101aを表すアバターがデフォルトの方向(例えば真正面)に顔や目を向けているアバター画像を生成する。
ステップS205において、画像生成装置200bの画像出力部234は、画像生成部233bによって生成されたゲーム画像(第1ユーザ101aのアバター画像を含む)をHMD120bへ供給する。これにより、HMD120bにゲーム画像が表示される。
このように、本発明の一実施形態に係るアバター表示システム10によれば、第1ユーザ101aに関する属性情報221に基づいて第1ユーザ101aのユーザ姿勢情報の公開が許可される場合には、第2サブシステム100bのHMD120bに表示されるゲーム画像において、第1ユーザ101aを表すアバターの顔や目の動きが、第1ユーザ101aのユーザ姿勢情報に応じて制御される。第1ユーザ101aのユーザ姿勢情報は、第1サブシステム100aのセンサ126又はETD124によって検出された、第1ユーザ101aの頭の向きや視線を示す。したがって、第2サブシステム100bのHMD120bに表示される第1ユーザ101aのアバターの顔や目の動きを、ユーザ姿勢情報の公開が許可されている場合にのみ、第1ユーザ101aの実際の頭の向きや視線に同期させることができる。例えばポーカーゲームでは、対戦相手の表情を読むことがゲームのかけ引きにおける1つの重要な要素であるため、第1ユーザ101aのアバターの顔や目の動きが第1ユーザ101aの実際の頭の向きや視線と一致しているかどうかは、第2ユーザ101bにとってゲームの難易度に大きく影響する。本実施形態のアバター表示システム10では、アバターの顔や目の動きを実際のユーザに追従させるか否かを、ユーザのゲーム経験値(レベル)やユーザ間の関係性に応じて定めるようにすることによって、ゲームの難易度を調整することができる。こうして、仮想現実空間で実施されるコンピュータゲームにおいて、かけ引きを含めたゲーム性を提供することができ、コンピュータゲームの趣向性を向上させることが可能である。
図6及び図7は、本発明の一実施形態に係る画像生成装置200の動作の別の例を示すフローチャートである。図6は、第1サブシステム100aの画像生成装置200aの動作に対応し、図7は、第2サブシステム100bの画像生成装置200bの動作に対応する。図6及び図7のフローチャートは、図4及び図5と同様、第1サブシステム100aの第1ユーザ101aを表すアバター画像を第2サブシステム100bのHMD120bに表示するための処理を示すが、ユーザ姿勢情報を公開するか否かの判断を第2サブシステム100b側で行う点が図4及び図5の場合と異なる。
図6を参照すると、ステップS301及びステップS302の処理は、図4のステップS101及びステップS102の処理と同じである。次のステップS303において、第1ユーザ101aのユーザ姿勢情報が、その公開を許可するか否かの判断を行うことなく、通信インターフェイス208を介して第2サブシステム100bの画像生成装置200bへ送信される。即ち、図6のフローチャートに示される動作では、第1サブシステム100aから第2サブシステム100bへ無条件で第1ユーザ101aのユーザ姿勢情報が提供される。
次に図7を参照すると、ステップS401の処理は図5のステップS201の処理と同じであり、第1ユーザ101aのアバター画像を含むゲーム画像が、画像生成部233bによって生成される。ゲーム画像は、コンピュータゲーム(ポーカー)の進行に応じた各場面を表す。
ステップS402において、第1ユーザ101aのユーザ姿勢情報が、通信インターフェイス208を介して第1サブシステム100aの画像生成装置200aから受信される。
ステップS403の処理は、図4のステップS103の処理と同様であり、画像生成装置200bの公開可否決定部232(以下、公開可否決定部232bと記す)は、コンピュータゲームの現在の場面が、ゲームのかけ引きに影響を与える場面であるか否かを判定する。現在の場面がかけ引きに影響を与える場面である場合、処理はステップS404へ進み、そうでない場合、処理はステップS406へ進む。
ステップS404において、公開可否決定部232bは、画像生成装置200bの記憶部220(以下、記憶部220bと記す)から第1ユーザ101aに関する属性情報221を取り出す。記憶部220bに記憶されている第1ユーザ101aの属性情報221は、例えば、第1ユーザ101aと第2ユーザ101bとの関係性(コミュニケーションの頻度、深度、近接度等)を表す指標値である。この属性情報(ユーザ間の関係性の指標値)は、第1ユーザ101aと第2ユーザ101bの双方に関するものであるので、第1サブシステム100a側の記憶部220aだけでなく、第2サブシステム100b側の記憶部220bにも記憶されていてよい。あるいはまた、第1ユーザ101aの属性情報221として、例えば、第1ユーザ101aのコンピュータゲームの経験値や能力値に関するデータが、予め、又は第1ユーザ101aのユーザ姿勢情報と一緒(ステップS304)に、画像生成装置200aから画像生成装置200bへ送られて、記憶部220bに記憶されるのであってもよい。
ステップS405において、公開可否決定部232bは、記憶部220bから取り出した第1ユーザ101aに関する属性情報221を評価する。属性情報221の評価結果に応じて、公開可否決定部232bは、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに対して公開する(ステップS406)、又は公開しない(ステップS407)と決定する。ステップS405からステップS407までの各処理は、図4のステップS105からステップS107までの各処理と同じである。
第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開することが決定(ステップS406)されると、ステップS408において、画像生成部233bは、ステップS402で受信された第1ユーザ101aのユーザ姿勢情報に基づいて、ゲーム画像に含まれる第1ユーザ101aを表すアバター画像を制御する。一例として、画像生成部233bは、第1ユーザ101aを表すアバターが、第1ユーザ101aのユーザ姿勢情報(頭の向き及び/又は視線)によって示される方向に顔や目を向けているアバター画像を生成する(図5のステップS203と同様)。
一方、第1ユーザ101aのユーザ姿勢情報を第2ユーザ101bに公開しないことが決定(ステップS407)されると、ステップS409において、画像生成部233bは、ゲーム画像に含まれる第1ユーザ101aを表すアバター画像をデフォルトの状態に制御する。一例として、画像生成部233bは、第1ユーザ101aを表すアバターがデフォルトの方向(例えば真正面)に顔や目を向けているアバター画像を生成する(図5のステップS204と同様)。
ステップS410の処理は図5のステップS205の処理と同じであり、画像生成部233bによって生成されたゲーム画像(第1ユーザ101aのアバター画像を含む)がHMD120bへ供給される。
このように、図6及び図7の動作例においても、第2サブシステム100bのHMD120bに表示される第1ユーザ101aのアバターの顔や目の動きを、ユーザ姿勢情報の公開が許可されている場合にのみ、第1ユーザ101aの実際の頭の向きや視線に同期させることができる。これにより、仮想現実空間で実施されるコンピュータゲームにおいて、かけ引きを含めたゲーム性を提供することができ、コンピュータゲームの趣向性を向上させることが可能である。
以上、本発明の実施形態を説明したが、本発明はこれに限定されず、その要旨を逸脱しない範囲内において様々な変更が可能である。
10 アバター表示システム
100a 第1サブシステム(第1端末)
100b 第2サブシステム(第2端末)
101a 第1ユーザ
101b 第2ユーザ
105 ネットワーク
120a、120b ヘッドマウントディスプレイ(HMD)
200a、200b 画像生成装置
100 HMDシステム
150 有線ケーブル
122 ディスプレイ
124 アイトラッキングデバイス(ETD)
126 センサ
202 プロセッサ
204 メモリ
206 ユーザ入力インターフェイス
208 通信インターフェイス
220 記憶部
221 属性情報
223 仮想現実空間構成情報
230 処理部
231 ユーザ姿勢検出部
232 公開可否決定部
233 画像生成部
234 画像出力部

Claims (12)

  1. 第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムであって、
    前記第1端末は、
    前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段と、
    前記第1ユーザに関する属性情報を記憶するユーザ属性記憶手段と、
    前記属性情報に基づいて、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、
    前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段と、を備え、
    前記第2端末は、
    前記第1端末から前記第1ユーザのユーザ姿勢情報が受信された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段と、
    前記アバター画像を表示する表示手段と、を備える、
    アバター表示システム。
  2. 前記画像生成手段は、前記第1端末から前記第1ユーザのユーザ姿勢情報が受信されなかった場合に、前記第1ユーザを表すデフォルトのアバター画像を生成する、請求項1に記載のアバター表示システム。
  3. 前記属性情報は、コンピュータゲームにおける前記第1ユーザの経験値又は能力値を含む、請求項1又は2に記載のアバター表示システム。
  4. 前記公開可否決定手段は、前記経験値又は能力値が所定値よりも大きい場合に前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定し、前記経験値又は能力値が所定値よりも小さい場合に前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開しないと決定する、請求項3に記載のアバター表示システム。
  5. 前記属性情報は、前記第1ユーザと前記第2ユーザとのコミュニケーションの頻度、深度、又は近接度に関連する値を含む、請求項1又は2に記載のアバター表示システム。
  6. 前記第1ユーザのユーザ姿勢情報に基づく前記アバター画像は、前記第1ユーザのユーザ姿勢情報によって示される方向に顔又は目の少なくとも一方を向けているアバターの画像である、請求項1から5のいずれか1項に記載のアバター表示システム。
  7. 前記第1端末及び前記第2端末は、ヘッドマウントディスプレイを含んで構成される端末である、請求項1から6のいずれか1項に記載のアバター表示システム。
  8. 第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムであって、
    前記第1端末は、
    前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段と、
    前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段と、を備え、
    前記第2端末は、
    前記第1ユーザに関する属性情報に基づいて、前記第1端末から受信された前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、
    前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段と、
    前記アバター画像を表示する表示手段と、を備える、
    アバター表示システム。
  9. 第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第1端末としてのユーザ端末であって、
    前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段と、
    前記第1ユーザに関する属性情報を記憶するユーザ属性記憶手段と、
    前記属性情報に基づいて、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、
    前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段と、
    を備えるユーザ端末。
  10. 第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第2端末としてのユーザ端末であって、
    前記第1端末から、前記第1端末において検出された前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を受信する受信手段と、
    前記第1ユーザに関する属性情報に基づいて、前記第1端末から受信された前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段と、
    前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段と、
    前記アバター画像を表示する表示手段と、
    を備えるユーザ端末。
  11. 第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第1端末としてのユーザ端末を、
    前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を検出するユーザ姿勢検出手段、
    前記第1ユーザに関する属性情報を記憶するユーザ属性記憶手段、
    前記属性情報に基づいて、前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段、
    前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報を前記第2端末へ送信する送信手段、
    として機能させるためのプログラム。
  12. 第1ユーザによって使用される第1端末と第2ユーザによって使用される第2端末とを備え、仮想現実空間において前記第1ユーザを表すアバター画像を前記第2端末に表示させるアバター表示システムにおける、前記第2端末としてのユーザ端末を、
    前記第1端末から、前記第1端末において検出された前記第1ユーザの頭の向きと視線のうち少なくとも一方を含むユーザ姿勢情報を受信する受信手段、
    前記第1ユーザに関する属性情報に基づいて、前記第1端末から受信された前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開するか否かを決定する公開可否決定手段、
    前記第1ユーザのユーザ姿勢情報を前記第2ユーザに公開すると決定された場合に、前記第1ユーザのユーザ姿勢情報に基づいて、仮想現実空間において前記第1ユーザを表すアバター画像を生成する画像生成手段、
    前記アバター画像を表示する表示手段、
    として機能させるためのプログラム。
JP2015234650A 2015-12-01 2015-12-01 アバター表示システム、ユーザ端末、及びプログラム Active JP6017008B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015234650A JP6017008B1 (ja) 2015-12-01 2015-12-01 アバター表示システム、ユーザ端末、及びプログラム
PCT/JP2016/082710 WO2017094434A1 (ja) 2015-12-01 2016-11-02 アバター表示システム、ユーザ端末、及びプログラム
US15/358,056 US9836268B2 (en) 2015-12-01 2016-11-21 Avatar displaying system, user terminal, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015234650A JP6017008B1 (ja) 2015-12-01 2015-12-01 アバター表示システム、ユーザ端末、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016183466A Division JP6707429B2 (ja) 2016-09-20 2016-09-20 アバター表示システム、ユーザ端末、及びプログラム

Publications (2)

Publication Number Publication Date
JP6017008B1 JP6017008B1 (ja) 2016-10-26
JP2017102639A true JP2017102639A (ja) 2017-06-08

Family

ID=57197606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015234650A Active JP6017008B1 (ja) 2015-12-01 2015-12-01 アバター表示システム、ユーザ端末、及びプログラム

Country Status (3)

Country Link
US (1) US9836268B2 (ja)
JP (1) JP6017008B1 (ja)
WO (1) WO2017094434A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021187646A1 (ko) * 2020-03-20 2021-09-23 라인플러스 주식회사 아바타를 이용한 컨퍼런스 처리 방법 및 시스템
JP7413122B2 (ja) 2020-03-30 2024-01-15 日産自動車株式会社 画像生成システム、画像生成装置及び画像生成方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6298432B2 (ja) * 2015-10-19 2018-03-20 株式会社コロプラ 画像生成装置、画像生成方法、及び画像生成プログラム
US10438394B2 (en) 2017-03-02 2019-10-08 Colopl, Inc. Information processing method, virtual space delivering system and apparatus therefor
JP6223614B1 (ja) * 2017-03-24 2017-11-01 株式会社コロプラ 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置
KR20180113109A (ko) * 2017-04-05 2018-10-15 삼성전자주식회사 전자 장치 및 전자 장치의 화면 표시 방법
US10244208B1 (en) * 2017-12-12 2019-03-26 Facebook, Inc. Systems and methods for visually representing users in communication applications
EP3751422A4 (en) * 2018-02-07 2021-04-21 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
US11294453B2 (en) * 2019-04-23 2022-04-05 Foretell Studios, LLC Simulated reality cross platform system
CN110349527B (zh) * 2019-07-12 2023-12-22 京东方科技集团股份有限公司 虚拟现实显示方法、装置及系统、存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6009458A (en) * 1996-05-09 1999-12-28 3Do Company Networked computer game system with persistent playing objects
JP2000244886A (ja) * 1999-01-20 2000-09-08 Canon Inc コンピュータ会議システム、コンピュータ処理装置、コンピュータ会議を行う方法、コンピュータ処理装置における処理方法、ビデオ会議システム、ビデオ会議を行う方法、ヘッドホン
US8585476B2 (en) * 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
WO2015139002A1 (en) * 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021187646A1 (ko) * 2020-03-20 2021-09-23 라인플러스 주식회사 아바타를 이용한 컨퍼런스 처리 방법 및 시스템
JP7413122B2 (ja) 2020-03-30 2024-01-15 日産自動車株式会社 画像生成システム、画像生成装置及び画像生成方法

Also Published As

Publication number Publication date
US9836268B2 (en) 2017-12-05
US20170153863A1 (en) 2017-06-01
JP6017008B1 (ja) 2016-10-26
WO2017094434A1 (ja) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6017008B1 (ja) アバター表示システム、ユーザ端末、及びプログラム
CN109643161B (zh) 动态进入和离开由不同hmd用户浏览的虚拟现实环境
US11865453B2 (en) Simulation system, process method, and information storage medium
US10430018B2 (en) Systems and methods for providing user tagging of content within a virtual scene
US10183220B2 (en) Image generation device and image generation method
US8611594B2 (en) Dynamic display of virtual content on several devices using reference tags
US9652063B2 (en) Input direction determination system, terminal, server, network system, information storage medium, and input direction determination method
JP6097377B1 (ja) 画像表示方法及びプログラム
US20120062758A1 (en) Relative positioning of devices based on captured images of tags
JP4917664B1 (ja) 画像表示装置、ゲームプログラム、ゲーム制御方法
TW201642943A (zh) 用以傳遞hmd所渲染環境中之虛擬物件的觸摸感及移動感之動態手套
JP6770598B2 (ja) ゲームプログラム、方法、および情報処理装置
JP6707429B2 (ja) アバター表示システム、ユーザ端末、及びプログラム
WO2017056892A1 (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
JP7216493B2 (ja) ゲームシステム及びプログラム
JP2017097696A (ja) 仮想空間内オブジェクトへの動作指示方法、及びプログラム
JP2024045446A (ja) プログラム、情報処理装置、情報処理システム、および情報処理方法
JP6785325B2 (ja) ゲームプログラム、方法、および情報処理装置
JP2018147465A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020110376A (ja) ゲームプログラム、方法、および情報処理装置
JP2020179184A (ja) ゲームプログラム、方法、および情報処理装置
JP2017142816A (ja) 同期サーバ及び同期方法
JP2023095862A (ja) プログラム及び情報処理方法
JP6865878B2 (ja) アバター表示システム、ユーザ端末、及びプログラム
JP6114848B1 (ja) 同期サーバ及び同期方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160927

R150 Certificate of patent or registration of utility model

Ref document number: 6017008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250