JP2019023768A - 情報処理装置、及び映像表示装置 - Google Patents

情報処理装置、及び映像表示装置 Download PDF

Info

Publication number
JP2019023768A
JP2019023768A JP2015227826A JP2015227826A JP2019023768A JP 2019023768 A JP2019023768 A JP 2019023768A JP 2015227826 A JP2015227826 A JP 2015227826A JP 2015227826 A JP2015227826 A JP 2015227826A JP 2019023768 A JP2019023768 A JP 2019023768A
Authority
JP
Japan
Prior art keywords
user
video display
display device
information processing
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015227826A
Other languages
English (en)
Inventor
洋一 西牧
Yoichi Nishimaki
洋一 西牧
平田 真一
Shinichi Hirata
真一 平田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2015227826A priority Critical patent/JP2019023768A/ja
Priority to PCT/JP2016/071137 priority patent/WO2017085963A1/ja
Publication of JP2019023768A publication Critical patent/JP2019023768A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】頭部に映像表示装置を装着した状態のユーザーの表情を把握することのできる情報処理装置を提供する。
【解決手段】ユーザーの頭部に装着される映像表示装置40と接続される情報処理装置10であって、映像表示装置40のユーザーに向けられる面に配置されたセンサーの検出結果を取得し、取得した検出結果に基づいて、ユーザーの顔の部位の動きを特定する情報処理装置である。
【選択図】図1

Description

本発明は、ユーザーの頭部に装着される映像表示装置、当該映像表示装置と接続される情報処理装置、その制御方法、及び制御プログラムに関する。
例えばヘッドマウントディスプレイのように、ユーザーが頭部に装着して使用する映像表示装置がある。このような映像表示装置は、ユーザーの目の前に画像を結像させることで、その画像をユーザーに閲覧させる。このような映像表示装置は、臨場感のある映像をユーザーに閲覧させることができるため、バーチャルリアリティ技術などに利用されている。さらにこのようなバーチャルリアリティ技術を用いて、複数のユーザーが互いにより臨場感のある形でコミュニケーションを取れるようにすることも検討されている。
上述した映像表示装置をユーザーが装着した状態では、ユーザーの顔が隠れてしまい、その表情が分からなくなってしまう。しかしながら、ユーザーに臨場感のある体験をしてもらう上では、ユーザーの表情や感情を把握することが重要な場合がある。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、頭部に映像表示装置を装着した状態のユーザーの表情を把握することのできる映像表示装置、情報処理装置、その制御方法、及び制御プログラムを提供することにある。
本発明に係る情報処理装置は、ユーザーの頭部に装着される映像表示装置と接続される情報処理装置であって、前記映像表示装置の前記ユーザーに向けられる面に配置されたセンサーの検出結果を取得する取得部と、前記取得した検出結果に基づいて、前記ユーザーの顔の部位の動きを特定する特定部と、を含むことを特徴とする。
また、本発明に係る映像表示装置は、ユーザーの頭部に装着される映像表示装置であって、前記ユーザーが装着した際に当該ユーザーに向けられる面に、当該ユーザーの顔の部位の動きを特定するためのセンサーが配置されていることを特徴とする。
また、本発明に係る情報処理装置の制御方法は、ユーザーの頭部に装着される映像表示装置と接続される情報処理装置の制御方法であって、前記映像表示装置の前記ユーザーに向けられる面に配置されたセンサーの検出結果を取得するステップと、前記取得した検出結果に基づいて、前記ユーザーの顔の部位の動きを特定するステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、ユーザーの頭部に装着される映像表示装置と接続されるコンピュータを、前記映像表示装置の前記ユーザーに向けられる面に配置されたセンサーの検出結果を取得する取得部、及び、前記取得した検出結果に基づいて、前記ユーザーの顔の部位の動きを特定する特定部、として機能させるためのプログラムである。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の実施の形態に係る情報処理装置を含んだ情報処理システムの構成を示す構成ブロック図である。 ユーザーが映像表示装置を装着した様子を示す図である。 映像表示装置を背面側から見た図である。 情報処理装置の機能を示す機能ブロック図である。 アバターが表示される画面の一例を示す図である。 情報処理装置が実行する処理の流れの一例を示すフロー図である。 映像表示装置の前面に表示画面を備える例を示す図である。
以下、本発明の実施形態について、図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理装置10を含む情報処理システム1の構成を示す構成ブロック図である。同図に示されるように、情報処理システム1は、情報処理装置10と、操作デバイス20と、中継装置30と、映像表示装置40と、を含んで構成されている。
情報処理装置10は、映像表示装置40が表示すべき映像を供給する装置であって、例えば家庭用ゲーム機、携帯型ゲーム機、パーソナルコンピューター、スマートフォン、タブレット等であってよい。図1に示されるように、情報処理装置10は、制御部11と、記憶部12と、インタフェース部13と、を含んで構成される。
制御部11は、CPU等のプロセッサを少なくとも一つ含み、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。なお、本実施形態において制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。
インタフェース部13は、操作デバイス20、及び中継装置30との間のデータ通信のためのインタフェースである。情報処理装置10は、インタフェース部13を介して有線又は無線のいずれかで操作デバイス20及び中継装置30のそれぞれと接続される。具体例として、インタフェース部13は、情報処理装置10が供給する映像や音声を中継装置30に送信するために、HDMI(High-Definition Multimedia Interface:登録商標)などのマルチメディアインタフェースを含んでよい。また、中継装置30経由で映像表示装置40から各種の情報を受信したり、制御信号等を送信したりするために、USB等のデータ通信インタフェースを含んでよい。さらにインタフェース部13は、操作デバイス20に対するユーザーの操作入力の内容を示す信号を受信するために、USB等のデータ通信インタフェースを含んでよい。
操作デバイス20は、家庭用ゲーム機のコントローラ等であって、ユーザーが情報処理装置10に対して各種の指示操作を行うために使用される。操作デバイス20に対するユーザーの操作入力の内容は、有線又は無線のいずれかにより情報処理装置10に送信される。なお、操作デバイス20は情報処理装置10の筐体表面に配置された操作ボタンやタッチパネル等を含んでもよい。
中継装置30は、有線又は無線のいずれかにより映像表示装置40と接続されており、情報処理装置10から供給される映像のデータを受け付けて、受け付けたデータに応じた映像信号を映像表示装置40に対して出力する。このとき中継装置30は、必要に応じて、供給された映像データに対して、映像表示装置40の光学系によって生じる歪みを補正する処理などを実行し、補正された映像信号を出力してもよい。なお、中継装置30から映像表示装置40に供給される映像信号は、左目用映像、及び右目用映像の二つの映像を含んでいる。また、中継装置30は、映像データ以外にも、音声データや制御信号など、情報処理装置10と映像表示装置40との間で送受信される各種の情報を中継する。
映像表示装置40は、ユーザーが頭部に装着して使用する映像表示装置であって、中継装置30から入力される映像信号に応じた映像を表示し、ユーザーに閲覧させる。本実施形態では、映像表示装置40は両目での映像の閲覧に対応しており、ユーザーの右目及び左目それぞれの目の前に映像を表示するものとする。図2は、ユーザーが映像表示装置40を装着した様子を示しており、図3は映像表示装置40を背面側から見た様子を示している。また、図1に示すように、映像表示装置40は、映像表示素子41、光学素子42、顔面センサー43、及び通信インタフェース45を含んで構成される。
映像表示素子41は、有機EL表示パネルや液晶表示パネルなどであって、中継装置30から供給される映像信号に応じた映像を表示する。映像表示素子41は、左目用映像、及び右目用映像の2つの映像を表示する。なお、映像表示素子41は、左目用映像及び右目用映像を並べて表示する1つの表示素子であってもよいし、それぞれの映像を独立に表示する2つの表示素子によって構成されてもよい。また、公知のスマートフォン等を映像表示素子41として用いてもよい。また、映像表示装置40は、ユーザーの網膜に直接映像を投影する網膜照射型(網膜投影型)の装置であってもよい。この場合、映像表示素子41は、光を発するレーザーとその光を走査するMEMS(Micro Electro Mechanical Systems)ミラーなどによって構成されてもよい。
光学素子42は、ホログラムやプリズム、ハーフミラーなどであって、ユーザーの目の前に配置され、映像表示素子41が表示する映像の光を透過又は屈折させて、ユーザーの左右それぞれの目に入射させる。具体的に、映像表示素子41が表示する左目用映像は、光学素子42を経由してユーザーの左目に入射し、右目用映像は光学素子42を経由してユーザーの右目に入射する。これによりユーザーは、映像表示装置40を頭部に装着した状態で、左目用映像を左目で、右目用映像を右目で、それぞれ閲覧することができる。なお、本実施形態において映像表示装置40は、ユーザーが外界の様子を視認することができない非透過型の映像表示装置であるものとする。
顔面センサー43は、映像表示装置40を装着したユーザーの顔面の状態に関する各種の情報を計測する。具体的に顔面センサー43は、図3に示すように、映像表示装置40の本体背面、すなわち装着時にユーザーの顔と対向する面の複数の箇所に配置される。図3の例では、ユーザーの額と接触する箇所には顔面センサー43aが、頬の上部と接触する箇所には顔面センサー43bが、こめかみの近傍には顔面センサー43cが、眼球の周囲には顔面センサー43dが、それぞれ配置されている。
具体的に顔面センサー43は、対象物までの距離を計測する近接センサーを含んでよい。近接センサーは、対象物に光を照射して反射光の強度を測定する方式や、反射光が戻ってくるまでの時間を測定するTime-of-Flight方式など、各種のものであってよい。ユーザーが顔の筋肉を動かすと、この動きによって顔面センサー43からユーザーの顔の計測対象箇所までの距離が変化する。そのため、近接センサーを用いることで、計測対象箇所におけるユーザーの顔の筋肉の動きを検出することができる。また、ユーザーの眉が動くことによって近接センサーの計測対象箇所に含まれる眉毛の割合が変動すると、反射光の強度が変動する。そのため、反射光の強度を測定する方式の近接センサーを用いることによって、眉の動きを直接検出することもできる。このような非接触型のセンサーによれば、ユーザーの眉や頬などの動きを特定するための情報を、ユーザーの顔にセンサーを接触させることなく検出することができる。そのため、使用時のユーザーへの負担を軽くすることができる。
また、顔面センサー43は、ユーザーの顔の接触を検知するタッチセンサーを含んでもよい。ユーザーのおでこが接触する箇所(図中の43a)にタッチセンサーを配置することで、ユーザーの眉の上下を検出できる。また、顔面センサー43は、ユーザーの顔の筋肉の動きを直接的に検出する筋電センサーを含んでもよい。また、顔面センサー43は、ユーザーの眼の位置を撮影するカメラを含んでもよい。これらのセンサーにより、ユーザーの顔の筋肉の動きが検出できる。なお、映像表示装置40の背面の各箇所に配置される顔面センサー43は、一種類に限らず、以上説明したような複数種類のセンサーを同じ箇所に配置してもよい。
また、顔面センサー43は、ユーザーの顔の動きを検出するセンサーに限らず、その他の顔の状態に関する情報を検出するセンサーを含んでもよい。具体的に、顔面センサー43は、眼球周辺の肌の色を計測する色センサーや、眼球周辺の肌の温度を計測する温度センサーなどを含んでもよい。これらのセンサーの計測結果を用いることにより、ユーザーの血流や興奮度合いを推定することができる。
通信インタフェース45は、中継装置30との間でデータ通信を行うためのインタフェースである。例えば映像表示装置40が中継装置30との間で無線LANやBluetooth(登録商標)などの無線通信によりデータの送受信を行う場合、通信インタフェース45は通信用のアンテナ、及び通信モジュールを含む。
次に、情報処理装置10が実現する機能について図4を用いて説明する。図4に示すように、情報処理装置10は、機能的に、センサー情報取得部51と、顔部位特定部52と、処理実行部53と、を含む。これらの機能は、制御部11が記憶部12に記憶されたプログラムを実行することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して情報処理装置10に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。
センサー情報取得部51は、ユーザーが映像表示装置40を頭部に装着して使用している間、例えば一定時間おきなどのタイミングで、顔面センサー43による計測結果を取得する。以下では、センサー情報取得部51が映像表示装置40から取得する顔面センサー43の計測結果の情報を単にセンサー情報という。
顔部位特定部52は、センサー情報取得部51が取得したセンサー情報を用いて、ユーザーの顔を構成する各部位(顔部位)の位置の変化を特定する。すなわち、顔部位特定部52は、顔面センサー43による計測が行われた時点における顔部位の動きを特定する。顔部位特定部52が特定対象とする顔部位は、眉、まぶた、瞳、目尻、口などであってよい。例えば顔部位特定部52は、ユーザーが眉を上げた、下げた、中央に寄せた、まぶたを開いた、閉じた、目尻を上げた、下げた、口を開いた、閉じた、口角を上げた、下げた、また瞳をいずれかの向きに向けた、などの動きを、センサー情報を用いて特定する。また、これらの動きについて、その動きの大きさを特定してもよい。センサー情報は、検出対象箇所における顔の筋肉(表情筋)の動きを検出する。このような筋肉の動きは、顔部位の動きに連動しているので、センサー情報を用いることで、顔部位特定部52はユーザーの顔部位の動きを特定できる。
具体的に顔部位特定部52は、センサー情報が予め用意された判断基準を満たすか否かを判定することによって、顔部位の動きを特定する。この判断基準は、例えば教師付きの機械学習によって生成されるものであってよい。具体的には、映像表示装置40を装着したユーザーが特定の顔部位に特定の動きをさせた状態で顔面センサー43の計測結果を取得し、そのときの顔部位の動きを教師情報として入力する。このような機械学習を複数回実行することによって、新たなセンサー情報が得られた際に顔部位の動きを推定するための判断基準となる推定器を生成することができる。
特に本実施形態では、図2に示すように映像表示装置40はユーザーの目を中心とした領域を覆い、顔の下半分は覆わないため、口のような顔の下側にある顔部位の動きについては、顔面センサー43によって直接検出することができない。しかしながら、口を動かす際には頬が連動して動くなど、顔の筋肉は比較的広い範囲にわたって連動して動作する。そのため、予めセンサー情報と顔部位の動きとを対応付ける適切な判断基準を用意することによって、頬の筋肉の動きの計測結果を含むセンサー情報を用いてユーザーの口の動きを推定することができる。
また、ユーザーの顔立ちや映像表示装置40の装着の仕方などの差異により、顔部位の特定のために常に同一の判断基準を使用するのは適切でない場合もある。そこで情報処理装置10は、ユーザーが映像表示装置40の使用を開始する際などに、予めキャリブレーションを実行し、その内容を判断基準に反映させてもよい。具体的に、例えば顔部位特定部52は、キャリブレーションとして、ユーザーに特定の顔部位を動かす動きをしてもらい、その際に顔面センサー43によって得られるセンサー情報を取得する。そして、得られたセンサー情報の基準値からの乖離度合いを評価し、評価結果を顔部位特定の判断基準として用いる数値に反映させる。これにより、ユーザーごとに適切な判断基準で顔部位の特定を実施することができる。
処理実行部53は、顔部位特定部52による特定の結果を用いて各種の処理を実行する。以下では具体例として、処理実行部53は、制御部11がオンラインゲームのアプリケーションプログラムを実行することによって実現されることとし、そのゲーム内に登場するアバターを生成することとする。アバターは、ユーザーを表象する仮想オブジェクトであって、人と同様に目や口などのパーツを備えている。処理実行部53は、通信ネットワークを介して生成したアバターのデータを他のゲーム参加者が使用する情報処理装置に対して送信する。アバターのデータを受信した情報処理装置は、その内容に従って生成されたアバターの画像を表示装置の画面に表示させる。これにより、他のゲーム参加者は、映像表示装置40を装着したユーザーを表すアバターを閲覧できる。
さらに本実施形態において、処理実行部53は、顔部位特定部52によって特定されたユーザーの顔部位の動きに連動するように、アバターのパーツを動かすこととする。具体的に、例えば処理実行部53は、ユーザーが口を開いたと特定されたときには、アバターの口を開くこととし、ユーザーの眉が下がったと特定されたときには、アバターの眉を下げることとする。この動きを示す情報は、他のゲーム参加者が使用する情報処理装置に送信され、アバターの表示の更新に使用される。このような処理によれば、ユーザーの表情の変化をアバターに反映させることができ、アバターを閲覧する他のゲーム参加者に対してユーザーの表情を提示することができる。なお、処理実行部53は、ユーザーの顔の動きに応じて変化するアバターを、他のゲーム参加者が閲覧する表示装置だけでなく、ユーザーが装着している映像表示装置40に表示させてもよい。図5はユーザーの顔部位の動きに連動して目や口などのパーツが動くアバターが表示されている画面の一例を示している。
以下、情報処理装置10がユーザーの顔部位の動きをアバターに反映させる処理の流れの一例について、図6のフロー図を用いて説明する。まずセンサー情報取得部51が、顔面センサー43の計測結果を含んだセンサー情報を中継装置30経由で映像表示装置40から取得する(S1)。その後、顔部位特定部52が、S1で取得されたセンサー情報を用いて、ユーザーの顔部位の動きを特定する(S2)。
次に、処理実行部53が、S2で特定された顔部位の動きに応じて、アバターの顔のパーツの位置を決定する(S3)。そして、決定された位置に顔のパーツを配置させたアバターの画像を更新し(S4)、映像表示装置40に表示させる(S5)。また、S3で決定したパーツ位置の情報を、他のゲーム参加者が使用する情報処理装置に送信する(S6)。その後、S1に戻って以上の処理を所定時間おきに繰り返し実行する。これにより、ユーザーの顔の動きに連動して表情の変化するアバターをユーザーや他のゲーム参加者に提示することができる。
なお、アバターは必ずしも通常の人間と同様の部位を全て備えているとは限らず、人とは異なる外見を備えている場合もある。そこで、顔部位特定部52によって特定された部位の動きを、そのままアバターの同じ部位の動きに反映させるのではなく、予め関連づけられた別の部位の動きに反映させてもよい。一例として、アバターが動物を模した外観を備えている場合、ユーザーの眉などの動きを、アバターの耳や尻尾などの動きに連動させてもよい。
また、ここでは処理実行部53はオンラインゲームを実行することとしたが、これに限らず複数のユーザーが参加するローカルゲームを実行してもよい。この場合にも、同様にして複数のユーザーがそれぞれ映像表示装置40を装着し、その顔部位の動きをそれぞれのアバターに反映させることで、各プレイヤーの表情に連動して表情が変化する他プレイヤーのアバターを閲覧することができる。また、処理実行部53は、ゲームの処理を実行するではなく、アバターを介して他のユーザーとコミュニケーションを取るコミュニケーションソフトウェアを実行してもよい。この場合も、アバターの顔のパーツをユーザーの顔部位の動きに連動して動かすことで、アバターによってユーザーの表情に近い表情を表現できる。
また、映像表示装置40の前面のユーザーの目を覆う部分には、映像を表示可能な表示画面Dが設けられてもよい。そして、処理実行部53は、アバターの目の周辺部分の映像をこの表示画面Dに表示させてもよい。図7は表示画面Dにアバターの一部が表示された映像表示装置40を示している。この表示画面に表示される目や眉も、顔部位特定部52によって特定されるユーザーの目や眉の動きに連動して動かすこととする。これにより、ユーザーの周囲にいる別の人にも、ユーザーの表情を伝えることができる。
また、処理実行部53が実行する処理は、アバターを動作させる処理に限られない。例えば処理実行部53がゲームの処理を実行する場合、その処理内容を顔部位特定部52によって特定された顔部位の動きに応じて変化させてもよい。ユーザーの顔部位の動きは、ユーザーの感情を反映していると考えられる。そこで処理実行部53は、ユーザーの顔部位の動きに基づいて、予め定められた判断基準に従って、ユーザーの感情を推定する。具体的には、ユーザーの眉やまぶた、口などの動きから、ユーザーが笑っている、悲しんでいる、怒っているなどの感情を推定する。そして、推定された感情に応じて、ゲームの進行を変化させたり、特定のパラメータを増減させるなどする。これにより、ユーザーの感情の変化を反映した処理を実行することができる。また、処理実行部53は、ユーザーの顔部位の動きの大きさに基づいて、ユーザーの怒り度、悲しみ度などの指標を数値として算出してもよい。これらの指標を用いて処理を実行することで、ユーザーの感情の度合いに応じたゲームの進行などを実現できる。
また、処理実行部53は、ユーザーの感情だけでなく、疲労度や興奮度の推定に顔部位特定部52の特定結果を利用してもよい。例えば処理実行部53は、ユーザーが目を大きく見開いたときや、眉をつり上げたときなど、特定の顔部位による特定の動きが検出された場合に、ユーザーが興奮していると推定する。また、顔部位の動きが緩慢になっているときには、ユーザーが疲労していると推定してもよい。なお、処理実行部53は、顔部位の動きだけでなく、顔面センサー43に含まれる色センサーや温度センサーの計測結果を併せて興奮度や疲労度の推定に利用してもよい。
また、処理実行部53は、ユーザーの発話内容を特定する音声認識処理を実行する際に、顔部位特定部52の特定結果を利用してもよい。音声認識処理を実行する際には、マイクロホンによって集音された音声信号を利用するが、その中にはユーザーの声だけでなく周囲の環境音等のノイズも含まれており、どのタイミングでユーザーが話しているのか識別するのが困難な場合がある。そこで処理実行部53は、顔部位特定部52によってユーザーの口が動いていると特定されている期間に、ユーザーが発話をしていると推定する。そして、その期間に集音された音声信号を用いて音声認識処理を実行する。このような処理によれば、音声認識の際の誤認識を減らすことができる。
以上説明したように、本実施形態に係る情報処理装置10によれば、ユーザーの顔に対向する面に配置されたセンサーの計測結果を用いてユーザーの顔部位の動きを特定することにより、映像表示装置40の装着時には隠れてしまうユーザーの表情の変化を捉え、各種の処理に利用することができる。
なお、本発明の実施の形態は、以上説明したものに限られない。例えば処理実行部53は、顔部位特定部52によって特定されたユーザーの顔部位の動きだけでなく、その他のユーザーの態度に関する各種の情報を用いて処理を実行してもよい。例えば処理実行部53は、センサー情報取得部51が取得したセンサー情報そのものをユーザーの感情の推定に利用してもよい。また、処理内容を決定する上で、感情推定の結果だけでなく、ユーザーのバイタル情報など、他の種類の情報を併せて利用してもよい。
また、以上の説明では顔部位特定部52は顔面センサー43の検出結果だけを用いてユーザーの顔部位の動きを特定することとしたが、これ以外の情報を用いて顔部位の動きを特定してもよい。例えば、ユーザーの正面方向の位置に設置されたカメラで映像表示装置40を装着したユーザーの様子を撮影し、その撮影画像を解析して顔部位の特定に利用してもよい。この撮影画像には、ユーザーの顔のうち映像表示装置40が覆っていない領域(特にユーザーの口周辺の領域)が含まれる。この撮影画像を解析することで、ユーザーの口などの動きを特定することができる。一方、映像表示装置40が覆っている領域については、これまで説明したように顔面センサー43によりその動きを計測することができる。そこで、これらの情報を組み合わせて利用することにより、精度よくユーザーの顔全体の顔部位の動きを特定することができる。
また、以上の説明では映像表示装置40とローカルで接続された情報処理装置10が顔部位の特定、及び特定された内容に応じた処理を実行することとしたが、これに限らず以上の説明において情報処理装置10が実行することとした処理の一部は通信ネットワークを介して接続されたサーバ装置等によって実行されてもよい。例えばオンラインゲームなどにおいては、ローカルで特定された顔部位の動きに応じて、サーバ装置がアバターの表情を変化させる処理を実行してもよい。また、サーバ装置が、ローカルの情報処理装置10から送信されるセンサー情報を用いて顔部位の特定を行ってもよい。
1 情報処理システム、10 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、20 操作デバイス、30 中継装置、40 映像表示装置、41 映像表示素子、42 光学素子、43 顔面センサー、45 通信インタフェース、51 センサー情報取得部、52 顔部位特定部、53 処理実行部。

Claims (7)

  1. ユーザーの頭部に装着される映像表示装置と接続される情報処理装置であって、
    前記映像表示装置の前記ユーザーに向けられる面に配置されたセンサーの検出結果を取得する取得部と、
    前記取得した検出結果に基づいて、前記ユーザーの顔の部位の動きを特定する特定部と、
    を含むことを特徴とする情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    前記センサーは、近接センサー、タッチセンサー、及び筋電センサーのいずれか少なくとも一つを含む
    ことを特徴とする情報処理装置。
  3. 請求項1又は2に記載の情報処理装置において、
    前記情報処理装置は、前記特定された部位の動きに基づいて、前記ユーザーを表象するオブジェクトが備えるパーツを動作させる処理実行部をさらに含む
    ことを特徴とする情報処理装置。
  4. 請求項1から3のいずれか一項に記載の情報処理装置において、
    前記映像表示装置は、前記ユーザーが装着した状態で当該ユーザーの顔の一部範囲を覆い、
    前記特定部は、前記取得した検出結果に基づいて、前記ユーザーの顔の前記映像表示装置が覆っていない部位の動きを特定する
    ことを特徴とする情報処理装置。
  5. ユーザーの頭部に装着される映像表示装置であって、
    前記ユーザーが装着した際に当該ユーザーに向けられる面に、当該ユーザーの顔の部位の動きを特定するためのセンサーが配置されている
    ことを特徴とする映像表示装置。
  6. ユーザーの頭部に装着される映像表示装置と接続される情報処理装置の制御方法であって、
    前記映像表示装置の前記ユーザーに向けられる面に配置されたセンサーの検出結果を取得するステップと、
    前記取得した検出結果に基づいて、前記ユーザーの顔の部位の動きを特定するステップと、
    を含むことを特徴とする情報処理装置の制御方法。
  7. ユーザーの頭部に装着される映像表示装置と接続されるコンピュータを、
    前記映像表示装置の前記ユーザーに向けられる面に配置されたセンサーの検出結果を取得する取得部、及び、
    前記取得した検出結果に基づいて、前記ユーザーの顔の部位の動きを特定する特定部、
    として機能させるためのプログラム。
JP2015227826A 2015-11-20 2015-11-20 情報処理装置、及び映像表示装置 Pending JP2019023768A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015227826A JP2019023768A (ja) 2015-11-20 2015-11-20 情報処理装置、及び映像表示装置
PCT/JP2016/071137 WO2017085963A1 (ja) 2015-11-20 2016-07-19 情報処理装置、及び映像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015227826A JP2019023768A (ja) 2015-11-20 2015-11-20 情報処理装置、及び映像表示装置

Publications (1)

Publication Number Publication Date
JP2019023768A true JP2019023768A (ja) 2019-02-14

Family

ID=58718566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015227826A Pending JP2019023768A (ja) 2015-11-20 2015-11-20 情報処理装置、及び映像表示装置

Country Status (2)

Country Link
JP (1) JP2019023768A (ja)
WO (1) WO2017085963A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051230A (ja) * 2019-09-25 2021-04-01 株式会社Nttドコモ 表示装置及び表示方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7344894B2 (ja) * 2018-03-16 2023-09-14 マジック リープ, インコーポレイテッド 眼追跡カメラからの顔の表情

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4465414B2 (ja) * 2008-07-11 2010-05-19 パナソニック株式会社 脳波を用いた機器の制御方法および脳波インタフェースシステム
US9785242B2 (en) * 2011-03-12 2017-10-10 Uday Parshionikar Multipurpose controllers and methods
JP2014021707A (ja) * 2012-07-18 2014-02-03 Nikon Corp 情報入出力装置、及び情報入出力方法
US20160134938A1 (en) * 2013-05-30 2016-05-12 Sony Corporation Display control device, display control method, and computer program
JP2015092646A (ja) * 2013-11-08 2015-05-14 ソニー株式会社 情報処理装置、制御方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051230A (ja) * 2019-09-25 2021-04-01 株式会社Nttドコモ 表示装置及び表示方法

Also Published As

Publication number Publication date
WO2017085963A1 (ja) 2017-05-26

Similar Documents

Publication Publication Date Title
JP7344894B2 (ja) 眼追跡カメラからの顔の表情
JP7378431B2 (ja) フレーム変調機能性を伴う拡張現実ディスプレイ
US11656680B2 (en) Technique for controlling virtual image generation system using emotional states of user
JP7190434B2 (ja) 外部条件に基づくウェアラブルディスプレイデバイスの自動制御
JP2020047237A (ja) データ融合を用いた顔表情生成の方法
JP6392911B2 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018124666A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10350761B2 (en) Communication device
JP2018124981A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2017085963A1 (ja) 情報処理装置、及び映像表示装置
JP2019032844A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP7387198B2 (ja) プログラムおよび画像表示システム
US20240005612A1 (en) Content transformations based on reflective object recognition
WO2021106552A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020195292A1 (ja) 感覚器オブジェクトを表示する情報処理装置