JP6273243B2 - 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム - Google Patents

仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム Download PDF

Info

Publication number
JP6273243B2
JP6273243B2 JP2015205478A JP2015205478A JP6273243B2 JP 6273243 B2 JP6273243 B2 JP 6273243B2 JP 2015205478 A JP2015205478 A JP 2015205478A JP 2015205478 A JP2015205478 A JP 2015205478A JP 6273243 B2 JP6273243 B2 JP 6273243B2
Authority
JP
Japan
Prior art keywords
user
voice
dialogue
virtual reality
reality space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015205478A
Other languages
English (en)
Other versions
JP2017078893A (ja
Inventor
篤 猪俣
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015205478A priority Critical patent/JP6273243B2/ja
Publication of JP2017078893A publication Critical patent/JP2017078893A/ja
Application granted granted Critical
Publication of JP6273243B2 publication Critical patent/JP6273243B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラムに関する。
従来、コンピュータゲームにおいて、ユーザは例えばゲームコントローラを使用することによってゲーム内のキャラクタとの会話を行っていた(例えば特許文献1参照)。
特開2008−212269号公報
コンピュータゲームなどの仮想現実空間に現実世界と同じような感覚のコミュニケーションを導入することは、大きなメリットがある。
本発明は、上記の点に鑑みてなされたものであり、その目的の1つは、コンピュータゲームなどの仮想現実空間に現実世界と同じような感覚のコミュニケーションを導入することにある。
上述した課題を解決するために、本発明の一態様は、仮想現実空間のオブジェクトと対話するための装置であって、ディスプレイに表示するためのオブジェクトを生成するオブジェクト生成手段と、ユーザが前記ディスプレイに表示されたオブジェクトを見ることに応答して、当該見られたオブジェクトを指定するオブジェクト指定手段と、前記ユーザの音声を検出する音声検出手段と、前記オブジェクトの指定と前記ユーザの音声の検出とが関連して行われたことを条件として、前記指定されたオブジェクトに対する対話を実施する対話実施手段と、を備える装置である。
また、本発明の他の一態様は、コンピュータによって実行される、仮想現実空間のオブジェクトと対話するための方法であって、ディスプレイに表示するためのオブジェクトを生成するステップと、ユーザが前記ディスプレイに表示されたオブジェクトを見ることに応答して、当該見られたオブジェクトを指定するステップと、前記ユーザの音声を検出するステップと、前記オブジェクトの指定と前記ユーザの音声の検出とが関連して行われたことを条件として、前記指定されたオブジェクトに対する対話を実施するステップと、を含む方法である。
また、本発明の他の一態様は、仮想現実空間のオブジェクトと対話するためのプログラムであって、コンピュータに、ディスプレイに表示するためのオブジェクトを生成するステップと、ユーザが前記ディスプレイに表示されたオブジェクトを見ることに応答して、当該見られたオブジェクトを指定するステップと、前記ユーザの音声を検出するステップと、前記オブジェクトの指定と前記ユーザの音声の検出とが関連して行われたことを条件として、前記指定されたオブジェクトに対する対話を実施するステップと、を実行させるプログラムである。
本発明によれば、コンピュータゲームなどの仮想現実空間に現実世界と同じような感覚のコミュニケーションを導入することが可能である。
図1は、本発明の一実施形態に係る対話システム100のハードウェア構成図である。 図2は、本発明の一実施形態に係る画像生成装置200の機能的な構成を示すブロック図である。 図3は、ディスプレイ122の画面例320を示す。 図4は、ディスプレイ122の画面例420を示す。 図5は、本発明の一実施形態に係る画像生成装置200の処理手順を示すフローチャートである。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態は、以下のような構成を備える。
(項目1)仮想現実空間のオブジェクトと対話するための装置であって、ディスプレイに表示するためのオブジェクトを生成するオブジェクト生成手段と、ユーザが前記ディスプレイに表示されたオブジェクトを見ることに応答して、当該見られたオブジェクトを指定するオブジェクト指定手段と、前記ユーザの音声を検出する音声検出手段と、前記オブジェクトの指定と前記ユーザの音声の検出とが関連して行われたことを条件として、前記指定されたオブジェクトに対する対話を実施する対話実施手段と、を備える装置。
(項目2)前記ディスプレイは、ヘッドマウントディスプレイとして構成される、項目1に記載の装置。
(項目3)前記オブジェクトは、前記仮想現実空間内に配置されたキャラクタであり、前記オブジェクトに対する対話は、前記キャラクタとコミュニケーションを行うことに関連する、項目1又は2に記載の装置。
(項目4)前記対話実施手段は、前記音声検出手段によって検出された音声の特性に基づいて前記対話を制御する、項目3に記載の装置。
(項目5)前記対話実施手段は、前記音声検出手段によって検出された音声の音量と前記仮想現実空間における前記キャラクタまでの距離とに基づいて前記対話を制御する、項目4に記載の装置。
(項目6)前記オブジェクトは、前記仮想現実空間に重畳して表示されるメニュー又はアイコンであり、前記オブジェクトに対する対話は、前記メニュー又はアイコンにより特定される処理を起動することである、項目1又は2に記載の装置。
(項目7)前記対話実施手段は、前記ユーザが前記ディスプレイに表示されたオブジェクトを見ている間に前記ユーザの音声が検出されたことを条件として、前記オブジェクトに対する対話を実施する、項目1から6のいずれか1項に記載の装置。
(項目8)前記オブジェクト指定手段は、前記ディスプレイの画面内の所定部位がオブジェクトと重なっているか否かに応じてオブジェクトを指定する、項目1から7のいずれか1項に記載の装置。
(項目9)前記オブジェクト指定手段は、視線方向検出手段によって検出された前記ユーザの視線方向に基づいてオブジェクトを指定する、項目1から7のいずれか1項に記載の装置。
(項目10)コンピュータによって実行される、仮想現実空間のオブジェクトと対話するための方法であって、ディスプレイに表示するためのオブジェクトを生成するステップと、ユーザが前記ディスプレイに表示されたオブジェクトを見ることに応答して、当該見られたオブジェクトを指定するステップと、前記ユーザの音声を検出するステップと、前記オブジェクトの指定と前記ユーザの音声の検出とが関連して行われたことを条件として、前記指定されたオブジェクトに対する対話を実施するステップと、を含む方法。
(項目11)仮想現実空間のオブジェクトと対話するためのプログラムであって、コンピュータに、ディスプレイに表示するためのオブジェクトを生成するステップと、ユーザが前記ディスプレイに表示されたオブジェクトを見ることに応答して、当該見られたオブジェクトを指定するステップと、前記ユーザの音声を検出するステップと、前記オブジェクトの指定と前記ユーザの音声の検出とが関連して行われたことを条件として、前記指定されたオブジェクトに対する対話を実施するステップと、を実行させるプログラム。
[本発明の実施形態の詳細]
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態に係る対話システム100のハードウェア構成図である。対話システム100は、ヘッドマウントディスプレイ(Head Mounted Display:以下HMDと称する)120と、画像生成装置200とを備える。HMD120と画像生成装置200は、一例として有線ケーブル150によって電気的に接続され、相互に通信可能である。有線ケーブル150に代えて、無線接続が用いられてもよい。
HMD120は、ユーザ160の頭に装着されて利用される表示デバイスである。HMD120は、ディスプレイ122と、アイトラッキングデバイス(Eye Tracking Device:以下ETDと称する)124と、センサ126と、マイク128とを備える。ETD124とセンサ126は、どちらか一方だけが択一的に設けられてもよい。HMD120は更に、不図示のスピーカ(ヘッドホン)やカメラを備えてもよい。
ディスプレイ122は、HMD120を装着したユーザ160の視界に画像を提示するように構成される。例えば、ディスプレイ122は、非透過型ディスプレイとして構成することができる。この場合、HMD120の外界の光景はユーザ160の視界から遮断され、ユーザ160の目にはディスプレイ122に映し出された画像だけが届けられる。ディスプレイ122には、例えば、コンピュータグラフィックスを用いて生成した画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想現実の空間(例えばコンピュータゲームで作り出される世界)を画像化した仮想現実画像である。あるいは、現実世界の実際の地形や物体等の位置座標データに基づいて、現実世界をコンピュータグラフィックスで表現してもよい。更に、コンピュータグラフィックスによるのではなく、HMD120に装備された不図示のカメラを用いてユーザ160の視点で撮影した映像を、ディスプレイ122に表示することとしてもよい。
ETD124は、ユーザ160の眼球の動きを追跡して、ユーザ160の視線がどちらの方向に向けられているかを検出するように構成される。例えば、ETD124は、赤外線光源と赤外線カメラとを備える。赤外線光源は、HMD120を装着したユーザ160の目に向けて赤外線を照射する。赤外線カメラは、赤外線で照射されたユーザ160の目の画像を撮像する。赤外線はユーザ160の目の表面で反射されるが、瞳と瞳以外の部分とで赤外線の反射率が異なる。赤外線カメラで撮像されたユーザ160の目の画像には、赤外線の反射率の違いが画像の明暗となって現れる。この明暗に基づいて、ユーザ160の目の画像において瞳が識別され、更に、識別された瞳の位置に基づいて、ユーザ160の視線の方向が検出される。ユーザ160の視線方向は、ディスプレイ122に表示された画像のうちユーザ160がどの部分を見ているかを示す。
センサ126は、HMD120を装着したユーザ160の頭がどちらの方向を向いているかを検知するためのセンサである。センサ126としては、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせが用いられてよい。センサ126が磁気センサ、角速度センサ、又は加速度センサである場合、センサ126はHMD120に内蔵されて、HMD120の向きや動きに応じた値(磁気、角速度、又は加速度の値)を出力する。センサ126からの出力値を適宜の方法で加工することで、HMD120を装着したユーザ160の頭の向きが算出される。ユーザ160の頭の向きは、ユーザ160が頭を動かした際にその動きに追従するようにディスプレイ122の表示画像を変化させるのに利用することができる。例えば、ユーザ160が頭を右(又は左、上、下)に向けると、ディスプレイ122には、仮想現実空間においてユーザの右(又は左、上、下)方向にある仮想的光景が映し出される。
なおセンサ126は、HMD120の外部に設けられたセンサであってもよい。例えば、センサ126は、HMD120とは別体の赤外線センサであってよい。この赤外線センサを用いて、HMD120の表面に設けられた赤外線反射マーカーを検知することにより、HMD120を装着したユーザ160の頭の向きを特定することができる。
マイク128は、ユーザ160が発した音声を集音するためのものである。後述するように、ユーザ160の音声は、仮想現実空間のオブジェクトに対する対話(インタラクション)を制御するために利用される。
画像生成装置200は、HMD120に表示される画像を生成するための装置である。画像生成装置200は、プロセッサ202と、メモリ204と、ユーザ入力インターフェイス208とを少なくとも備える。画像生成装置200は更に、その他のコンポーネントとして、例えばネットワークを介して他の装置と通信するためのネットワークインターフェイス(不図示)を備えてもよい。画像生成装置200は、例えば、パーソナルコンピュータ、ゲームコンソール、スマートフォン、タブレット端末等として実現することが可能である。
メモリ204には、少なくともオペレーティングシステムと画像生成プログラムとが格納されている。オペレーティングシステムは、画像生成装置200の全体的な動作を制御するためのコンピュータプログラムである。画像生成プログラムは、画像生成装置200が後述する画像生成処理の各機能を実現するためのコンピュータプログラムである。メモリ204はまた、画像生成装置200の動作によって生成されるデータを一時的又は永続的に記憶することもできる。メモリ204の具体例は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。
プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納された画像生成プログラムを実行することによって、後述する画像生成処理の各機能が実現される。プロセッサ202は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む。
ユーザ入力インターフェイス208は、対話システム100のユーザから画像生成装置200を操作するための入力を受け取るように構成される。ユーザ入力インターフェイス208の具体例は、ゲームコントローラ、タッチパッド、マウス、キーボード等である。また図1において、マイク128はHMD120に付随するように描かれているが、マイク128はユーザ入力インターフェイス208の一部として画像生成装置200に含まれてもよい。
図2は、本発明の一実施形態に係る画像生成装置200の機能的な構成を示すブロック図である。画像生成装置200は、記憶部220及び処理部230を有する。処理部230は更に、画像生成部231と、オブジェクト指定部232と、音声検出部233と、対話実施部234と、画像出力部235とを含む。記憶部220は、図1に示されたメモリ204に対応する。処理部230及び処理部230に含まれる各部231〜235は、図1に示されたプロセッサ202がメモリ204内の画像生成プログラムを読み出して実行することによって実現される、本発明に係る画像生成処理の機能を表す。
画像生成部231は、HMD120に表示するための画像を生成する。例えば、画像生成部231は、記憶部220から所定のデータを取得し、取得したデータに基づいてコンピュータグラフィックス処理によって画像を生成する。一例として、画像生成部231は、HMD120を装着したユーザ160がコンピュータゲームによる仮想現実空間を認識することができるような仮想現実画像を生成することとしてよい。仮想現実画像は、ユーザが仮想現実空間内で目にすることのできる光景を表す。例えば、画像生成部231によって生成される仮想現実画像は、コンピュータゲーム内に登場するキャラクタ、建物や木などの風景、室内の家具や壁の内装、地面に落ちているアイテム、ユーザが操作しているアバターの体の一部(手や足)やアバターが手で持っている物体(銃や剣)等を含む。また、画像生成部231は、現実世界の実際の地形データ等に基づいて現実世界を再現したコンピュータグラフィックス画像を生成することとしてもよい。更に、画像生成部231が生成する画像は、コンピュータグラフィックス処理によるものではなく、例えば、HMD120に装備された外部カメラによってユーザ160の視点で撮影された映像そのものであってもよい。
画像生成部231は、更に、センサ126からの出力値に基づいて画像を変化させることとしてもよい。例えば、画像生成部231が生成する画像は、仮想現実空間内におけるユーザの視界が、センサ126からの出力値が示すユーザ160の頭の動きに追従して移り変わっていく様子を表す画像であってよい。
画像生成部231によって生成された画像は、画像出力部235を介してHMD120へ出力されて、ディスプレイ122に表示される。
本明細書及びクレームにおいて、画像生成部231が生成した画像のうちユーザが対話(インタラクション)の対象として選択し得るものを、「オブジェクト」と称する。また、オブジェクトに対する「対話」とは、オブジェクトに対してユーザが何らかの影響を及ぼすこと、即ち、オブジェクトに向けたユーザからのアクションに応じてそのオブジェクトに関連した何らかのコンピュータ処理が実行されることを意味する。例えば、仮想現実空間を舞台とするコンピュータゲームに登場するNPC(non-player character)などのゲームキャラクタは、オブジェクトの一例である。この場合、そのキャラクタのコンピュータゲーム内での行動をユーザのアクションに応答して変化させることが、オブジェクト(ゲームキャラクタ)に対する「対話」である。一つの具体例として、ユーザはコンピュータゲーム内においてあるNPCと遭遇する。そのNPCは初めユーザに背中を向けているが、ユーザからの呼び掛け(例えばマイク128からの音声入力)に反応してユーザの方に向き直る。この例では、このようなユーザとNPCとのコミュニケーションによって、NPCに対する対話が行われている。また例えば、仮想現実画像(あるいは他の画像)を表示した画面上のメニューやアイコンも、オブジェクトの一例である。この場合には、そのメニューやアイコンに関連付けられた機能を起動することが、オブジェクト(メニューやアイコン)との対話に該当する。更にオブジェクトは、ゲームキャラクタやアイコン以外にも、ユーザが影響を及ぼし得るものであれば任意のものを含んでよい。そのようないくつかの例として、仮想現実空間内においてユーザが地面から拾うことができるアイテム、ユーザが開閉することができるドア、ユーザが目にする広告等を想定することができる。それぞれの場合、アイテムを拾うこと、ドアを開ける又は閉めること、広告を覗き込んで拡大表示することが、各オブジェクトとの対話である。
オブジェクト指定部232は、HMD120を装着したユーザ160が、ディスプレイ122に表示された画像内のどのオブジェクトを見ているかを識別し、ユーザ160が見ているオブジェクトを対話対象オブジェクトとして指定する。例えば、オブジェクト指定部232は、ディスプレイ122の画面内の所定部位とオブジェクトとの位置関係に基づいて、ユーザ160が見ているオブジェクトを識別する。あるいは、オブジェクト指定部232は、ETD124によって検出されたユーザ160の視線方向に基づいて、ユーザ160が見ているオブジェクトを識別することとしてもよい。
一つの具体例として、図3は、仮想現実空間のゲームキャラクタ340(オブジェクト)が表示されているディスプレイ122の画面320を示す。画面320には、その中央部に固定の十字マーカー330も表示される。図3(A)において、ゲームキャラクタ340は画面320の右上エリアに存在しており、十字マーカー330から離れている。これは、ユーザ160が仮想現実空間においてゲームキャラクタ340を視界の中心に捉えていない状況を表している。ここでユーザ160は、ゲームキャラクタ340とコミュニケーションをとろうと(例えばゲームキャラクタ340に話し掛けようと)考え、視界をゲームキャラクタ340の方へ向けようとしたとする。例えば、ユーザ160は、HMD120を装着している自分の頭を右へ向ける(あるいは自分の体ごと右へ向く)。ユーザ160の頭の動きはセンサ126によって検知され、センサ126の出力値に従って新たな画像が画像生成部231によって生成されてディスプレイ122に表示される。こうしてユーザ160の視界はユーザ160の頭の動きに追従して仮想現実空間を動き、図3(B)に示されるように、ディスプレイ122の画面320の中央にゲームキャラクタ340が配置される。即ちゲームキャラクタ340はユーザ160の視界の中心に捉えられて、十字マーカー330とゲームキャラクタ340とが重なる。オブジェクト指定部232は、図3(B)の状態において、ユーザ160がゲームキャラクタ340を見ていると判断し、ゲームキャラクタ340を対話対象オブジェクトとして指定する。
ユーザ160は頭を動かすのではなく、視線をゲームキャラクタ340に向けるのであってもよい。ユーザ160が視線をゲームキャラクタ340の方へ動かすと、ETD124によってユーザ160の視線の方向が逐次検出される。この時、ディスプレイ122の画面320に表示されるユーザ160の視界自体(画面320内に表示される仮想現実空間の範囲)は変化しない。その代わりに、例えば、十字マーカー330がユーザ160の視線方向を指し示すように画面320内を動き回るようにしてもよい。図3(C)は、ユーザ160の視線、即ち十字マーカー330がゲームキャラクタ340上に置かれている様子を示す。オブジェクト指定部232は、図3(C)のようにユーザ160の視線方向がゲームキャラクタ340の方向と一致した場合、ゲームキャラクタ340を対話対象オブジェクトとして指定する。
別の具体例として、図4は、仮想現実空間に重畳して複数のアイコン450(オブジェクト)が表示されているディスプレイ122の画面420を示す。画面420は、仮想現実空間内のゲームキャラクタ440も含む。例えばゲームキャラクタ440は、コンピュータゲームにおいてユーザ160が攻撃を加える相手(敵キャラクタ)である。アイコン450は、画面420の右上、右下、左上、左下にそれぞれ配置されている。各アイコン450には、コンピュータゲームにおいてユーザ160が実行可能な行動が割り当てられる。いずれかのアイコン450が選択されると、当該アイコンに割り当てられた行動がコンピュータゲーム内で実行される。一例として、4つのアイコン450はそれぞれ、「戦う」、「魔法」、「防御」、「逃げる」の各行動に対応する。例えば「戦う」のアイコン450をユーザ160が選択すると、ユーザ160の操作キャラクタ(不図示)は、所定の武器(例えば剣)を使って敵キャラクタ440を攻撃する。
オブジェクト指定部232は、例えば、図3(C)に関連して説明したのと同様に、ユーザ160の視線方向に基づいてユーザ160がどのアイコン450を見ているかを識別し、識別したアイコン450を対話対象オブジェクトとして指定する。図4(A)は、十字マーカー430(ユーザ160の視線方向)が画面420の中央部に配置された初期状態を示す。ユーザ160は、例えば、視線を左下へ動かすことによって、図4(B)に示されるように十字マーカー430を画面420の左下のアイコン450に重ね合わせる。図4(B)の状態では、画面左下のアイコン450が対話対象オブジェクトとして指定される。
音声検出部233は、マイク128からの音声信号に基づいて、ユーザ160が発した音声を検出する。例えば、記憶部220には音声認識用の所定のキーワードが格納されている。音声検出部233は、マイク128からの音声信号の中に記憶部220のキーワードが含まれているか否かを判定する。一例として、図3に示されるようにユーザ160がゲームキャラクタ340に話し掛けようとする例では、音声検出部233は、マイク128からの音声信号の中に「オーイ」という呼び掛けのキーワードが含まれているか否かを判定する。また、図4に示されるようにアイコン450を選択する例では、音声検出部233は、「チェック」や「選択」といったようなアイコンを選択することに関連したキーワードが音声信号に含まれているか否かを判定してもよい。更にまた、音声検出部233は、ユーザ160の声紋などの音響的特徴を利用してユーザ160の音声を検出してもよいし、あるいは単に一定音量以上の音が音声信号に含まれるかどうかを判定することとしてもよい。
対話実施部234は、対話対象オブジェクトに対するユーザ160の対話(インタラクション)を制御する。対話の制御は、オブジェクト指定部232による対話対象オブジェクトの指定に関連して、音声検出部233によるユーザの音声の検出が行われたか否かに基づく。例えば、対話実施部234は、ユーザ160がディスプレイ122に表示されたオブジェクトを見ている間(ユーザ160がオブジェクトを見ることによってそのオブジェクトが対話対象オブジェクトとして指定され続けている間)にユーザの音声が検出されたことを条件として、対話対象オブジェクトに対するユーザ160の対話を実施する。
一つの具体例として、図3(B)に示されるように、ユーザ160はゲームキャラクタ340がディスプレイ122の画面320の中央にくる(十字マーカー330と重なる)ように視界を移動させる。上述したように、この状態において、ゲームキャラクタ340が対話対象オブジェクトとして指定される。ユーザ160が視界をそのまま停止させて(即ちゲームキャラクタ340に十字マーカー330を合わせたまま)、例えば「オーイ」と発声することによってゲームキャラクタ340に呼び掛ける。すると、対話実施部234は、ゲームキャラクタ340に対する対話を実施する。例えば、対話実施部234は、ユーザ160に背中を向けていたゲームキャラクタ340をユーザ160の方に振り向かせる。このように、コミュニケーションをとりたいゲームキャラクタ340を視界の真ん中に捉えて声で呼び掛けることによって、そのゲームキャラクタ340とのコミュニケーション(例えば会話)を開始することができる。これにより、現実世界のリアルな人と人とのコミュニケーションに近いコミュニケーションを、コンピュータゲームのような仮想現実空間において実現することができる。
あるいはまた、図3(C)に示されるように、ユーザ160は視線を動かすことで十字マーカー330をゲームキャラクタ340に合わせる。そしてその状態で(即ち視線をゲームキャラクタ340から逸らすことなく)ユーザ160が「オーイ」とゲームキャラクタ340に呼び掛けると、対話実施部234は、上記と同様にしてゲームキャラクタ340に対する対話を実施する。
また別の具体例として、図4(B)に示されるように、ユーザ160は自分の操作キャラクタに実行させたい行動に対応する所望のアイコン450上に視線(十字マーカー430)をもっていく。上述したように、この状態において、当該所望のアイコン450が対話対象オブジェクトとして指定される。ユーザ160は、視線をそのアイコン450に合わせたまま、例えば「チェック」と発声することによって、アイコンを選択する意図を表明する。すると、対話実施部234は、対話対象オブジェクトとして指定されたアイコン450に対する対話を実施する。例えば、対話実施部234は、対話対象オブジェクトのアイコン450に割り当てられている行動を、ユーザ160の操作キャラクタに実行させる。このように、ユーザ160は、所望のアイコンを見て声を発することによって、そのアイコンに対応する処理を起動することができる。これにより、ユーザ160は手を使うことなくアイコンの操作が可能である。
また、対話実施部234は、音声検出部233によって検出されたユーザ160の音声の特性に基づいて、対話対象オブジェクトに対する対話を制御することとしてもよい。音声の特性は、例えば、音量、音の高低、(音声認識処理によって識別される)音声に含まれるコンテンツ等である。例えば、対話実施部234は、ユーザ160の音声の音量が所定の閾値を上回っている場合は、対話対象オブジェクトに対する対話を実施し、ユーザ160の音声の音量が当該閾値を下回っている場合には、対話対象オブジェクトに対する対話を実施しない。対話実施部234は、更に、仮想現実空間におけるユーザ160の操作キャラクタとゲームキャラクタ340との距離を考慮してもよい。例えば、ユーザ160の音声の音量が仮想現実空間におけるゲームキャラクタ340までの距離に比べて小さすぎる(仮想現実空間においてその音量ではゲームキャラクタ340にユーザ160の声が届かないと想定される)場合、対話実施部234は、そのゲームキャラクタ340との対話を実施しないが、ユーザ160の音声の音量が十分大きい場合には、対話実施部234は、その音声が届く範囲に存在する複数のゲームキャラクタ340を対話対象オブジェクトとして対話を実施する。これにより、現実世界の感覚により近いコミュニケーションを実現することができる。
図5は、本発明の一実施形態に係る画像生成装置200の処理手順を示すフローチャートである。まず、ステップS502において、画像生成部231が、HMD120に表示するための画像を生成する。次に、ステップS504において、画像出力部235が、画像生成部231により生成された画像をHMD120へ出力する。これにより、HMD120のディスプレイ122に画像が表示される。次に、ステップS506において、オブジェクト指定部232が、ディスプレイ122に表示された画像のうちユーザ160が見ているオブジェクトを対話対象オブジェクトとして指定する。次に、ステップS508において、音声検出部233が、マイク128からの音声信号に基づいてユーザ160の音声を検出する。次に、ステップS510において、対話実施部234が、オブジェクトの指定とユーザの音声の検出とが関連して行われたことを条件として、対話対象オブジェクトに対する対話を実施する。
以上、本発明の実施形態を説明したが、本発明はこれに限定されず、その要旨を逸脱しない範囲内において様々な変更が可能である。
100 対話システム
120 ヘッドマウントディスプレイ(HMD)
122 ディスプレイ
124 アイトラッキングデバイス(ETD)
126 センサ
128 マイク
150 有線ケーブル
200 画像生成装置
202 プロセッサ
204 メモリ
208 ユーザ入力インターフェイス
220 記憶部
230 処理部
231 画像生成部
232 オブジェクト指定部
233 音声検出部
234 対話実施部
235 画像出力部

Claims (10)

  1. 仮想現実空間のオブジェクトと対話するための装置であって、
    非透過型ヘッドマウントディスプレイに表示するためのオブジェクトを生成するオブジェクト生成手段と、
    ユーザが前記非透過型ヘッドマウントディスプレイに表示されたオブジェクトを見ることに応答して、当該見られたオブジェクトを対話の対象として指定するオブジェクト指定手段と、
    前記ユーザの音声を検出する音声検出手段と、
    前記オブジェクトを見ることに基づく前記オブジェクトの指定と、前記ユーザの音声の検出とに基づき、前記ユーザが前記非透過型ヘッドマウントディスプレイ上のオブジェクトを見ながら音声を発したことを条件として、前記指定されたオブジェクトに対する対話を実施する対話実施手段と、
    を備える装置。
  2. 前記オブジェクトは、前記仮想現実空間内に配置されたキャラクタであり、
    前記オブジェクトに対する対話は、前記キャラクタとコミュニケーションを行うことに関連する、
    請求項1に記載の装置。
  3. 前記対話実施手段は、前記音声検出手段によって検出された音声の特性に基づいて前記対話を制御する、
    請求項2に記載の装置。
  4. 前記対話実施手段は、前記音声検出手段によって検出された音声の音量と前記仮想現実空間における前記キャラクタまでの距離とに基づいて前記対話を制御する、
    請求項3に記載の装置。
  5. 前記オブジェクトは、前記仮想現実空間に重畳して表示されるメニュー又はアイコンであり、
    前記オブジェクトに対する対話は、前記メニュー又はアイコンにより特定される処理を起動することである、
    請求項1に記載の装置。
  6. 前記対話実施手段は、前記ユーザが前記非透過型ヘッドマウントディスプレイに表示されたオブジェクトを見ている間に前記ユーザの音声が検出されたことを条件として、前記オブジェクトに対する対話を実施する、
    請求項1から5のいずれか1項に記載の装置。
  7. 前記オブジェクト指定手段は、前記非透過型ヘッドマウントディスプレイの画面内の所定部位がオブジェクトと重なっているか否かに応じてオブジェクトを指定する、
    請求項1から6のいずれか1項に記載の装置。
  8. 前記オブジェクト指定手段は、視線方向検出手段によって検出された前記ユーザの視線方向に基づいてオブジェクトを指定する、
    請求項1から6のいずれか1項に記載の装置。
  9. コンピュータによって実行される、仮想現実空間のオブジェクトと対話するための方法であって、
    非透過型ヘッドマウントディスプレイに表示するためのオブジェクトを生成するステップと、
    ユーザが前記非透過型ヘッドマウントディスプレイに表示されたオブジェクトを見ることに応答して、当該見られたオブジェクトを対話の対象として指定するステップと、
    前記ユーザの音声を検出するステップと、
    前記オブジェクトを見ることに基づく前記オブジェクトの指定と、前記ユーザの音声の検出とに基づき、前記ユーザが前記非透過型ヘッドマウントディスプレイ上のオブジェクトを見ながら音声を発したことを条件として、前記指定されたオブジェクトに対する対話を実施するステップと、
    を含む方法。
  10. 仮想現実空間のオブジェクトと対話するためのプログラムであって、コンピュータに、
    非透過型ヘッドマウントディスプレイに表示するためのオブジェクトを生成するステップと、
    ユーザが前記非透過型ヘッドマウントディスプレイに表示されたオブジェクトを見ることに応答して、当該見られたオブジェクトを対話の対象として指定するステップと、
    前記ユーザの音声を検出するステップと、
    前記オブジェクトを見ることに基づく前記オブジェクトの指定と、前記ユーザの音声の検出とに基づき、前記ユーザが前記非透過型ヘッドマウントディスプレイ上のオブジェクトを見ながら音声を発したことを条件として、前記指定されたオブジェクトに対する対話を実施するステップと、
    を実行させるプログラム。
JP2015205478A 2015-10-19 2015-10-19 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム Active JP6273243B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015205478A JP6273243B2 (ja) 2015-10-19 2015-10-19 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015205478A JP6273243B2 (ja) 2015-10-19 2015-10-19 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017078893A JP2017078893A (ja) 2017-04-27
JP6273243B2 true JP6273243B2 (ja) 2018-01-31

Family

ID=58665510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015205478A Active JP6273243B2 (ja) 2015-10-19 2015-10-19 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6273243B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6298558B1 (ja) * 2017-05-11 2018-03-20 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019028725A (ja) * 2017-07-31 2019-02-21 有限会社ふりーむ 音量値を使用して表示手段に表示された対象を操作制御する方法及びプログラム
JP6623199B2 (ja) * 2017-09-28 2019-12-18 株式会社コロプラ ヘッドマウントデバイスを用いて仮想現実を提供するためにコンピュータで実行されるプログラムおよび情報処理装置
JP6971932B2 (ja) * 2018-07-27 2021-11-24 日本電信電話株式会社 映像操作装置、映像操作方法、及び映像操作プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
CN103202010B (zh) * 2010-11-09 2014-12-03 富士胶片株式会社 增强现实感提供设备
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
JP6221535B2 (ja) * 2013-09-11 2017-11-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2017078893A (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
US8854304B2 (en) Image generation system, image generation method, and information storage medium
JP6470796B2 (ja) 情報処理方法、プログラム及びコンピュータ
EP2394710A2 (en) Image generation system, image generation method, and information storage medium
JP6368411B1 (ja) 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
US20180356880A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
JP6273243B2 (ja) 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム
JP2011258158A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2018190163A (ja) 情報処理方法、コンピュータ、及びプログラム
JP2021053181A (ja) プログラム、方法、および視聴端末
JP6513241B1 (ja) プログラム、情報処理装置、及び情報処理方法
JP6393387B1 (ja) 仮想体験を提供するためのプログラム、コンピュータ、および方法
US20180129274A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
JP6771006B2 (ja) プログラム、方法および情報処理装置
JP2020044132A (ja) プログラム、情報処理装置、及び情報処理方法
JP6458179B1 (ja) プログラム、情報処理装置、および方法
EP3988186A1 (en) Game program, game method, and information terminal device
JP7138483B2 (ja) コンピュータプログラム、情報処理装置および情報処理方法
JP6710731B2 (ja) プログラム、情報処理装置、及び情報処理方法
JP6703578B2 (ja) プログラム、方法及び情報処理装置
JP6441517B1 (ja) プログラム、情報処理装置、および方法
JP2019155115A (ja) プログラム、情報処理装置、及び情報処理方法
US12029973B2 (en) Game program, game method, and information terminal device
JP7474822B2 (ja) 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
JP7295045B2 (ja) プログラム、コンピュータが実行する方法及びコンピュータ
JP7440401B2 (ja) ゲームプログラム、ゲーム方法、および情報端末装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161007

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180105

R150 Certificate of patent or registration of utility model

Ref document number: 6273243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250