JP2020052793A - システム - Google Patents
システム Download PDFInfo
- Publication number
- JP2020052793A JP2020052793A JP2018182211A JP2018182211A JP2020052793A JP 2020052793 A JP2020052793 A JP 2020052793A JP 2018182211 A JP2018182211 A JP 2018182211A JP 2018182211 A JP2018182211 A JP 2018182211A JP 2020052793 A JP2020052793 A JP 2020052793A
- Authority
- JP
- Japan
- Prior art keywords
- wearer
- image
- head
- face
- sensor unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 19
- 230000005540 biological transmission Effects 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims description 29
- 230000008921 facial expression Effects 0.000 claims description 17
- 230000001815 facial effect Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 abstract description 37
- 230000006870 function Effects 0.000 abstract description 7
- 210000003128 head Anatomy 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Abstract
【課題】装着者の映像視聴を阻害することなく、装着者の顔情報を適切に取得すること。【解決手段】本発明に係る頭部搭載型ディスプレイシステム1は、映像表示装置として機能する通信端末12と、通信端末12が表示する映像を装着者Yに向かって伝送する光学部品13と、通信端末12及び光学部品13を収容すると共に装着者Yの頭部に搭載され、可視域の光を吸収し赤外線を透過させる赤外線透過フィルタ11bで構成された筐体11と、を備える頭部搭載型ディスプレイ10と、筐体11の外部に設置されており、装着者Yからの赤外線を検知することによって装着者Yの顔情報を取得する赤外線カメラ20と、を備える。【選択図】図2
Description
本発明は、頭部搭載型装置を含むシステムに関する。
頭部搭載型ディスプレイ(HMD:Head Mounted Display)では、装着者の顔が筐体で覆われてしまうため、映像を視聴する装着者の表情等の顔情報を取得することが難しい。例えば特許文献1には、装着者の顔面を写す撮像手段を備える頭部搭載型ディスプレイが開示されている。
ここで、上述したような頭部搭載型ディスプレイでは、装着者の顔情報を取得するために、装着者の映像視聴を阻害してしまうおそれがある。
本発明は上記実情に鑑みてなされたものであり、装着者の映像視聴を阻害することなく、装着者の顔情報を適切に取得することを目的とする。
本発明の一態様に係るシステムは、映像表示装置と、映像表示装置が表示する映像を装着者に向かって伝送する光学部品と、映像表示装置及び光学部品を収容すると共に装着者の頭部に搭載され、可視域の光を吸収し赤外線を透過させる赤外線透過フィルタで構成された筐体と、を備える頭部搭載型装置と、筐体の外側に付属するか又は筐体の外部に設置されており、装着者からの赤外線を検知することによって装着者の顔情報を取得するセンサ部と、を備える。
本発明の一態様に係るシステムでは、装着者に映像が表示される頭部搭載型装置において、筐体が赤外線透過フィルタで構成されている。このため、映像を視聴する装着者視点では、外光が遮蔽され、外光に阻害されることなく映像を主張することが可能になる。そして、本システムでは、筐体の外方に設けられたセンサ部が装着者からの赤外線を検知して装着者の顔情報が取得される。このように、装着者からの赤外線を検知するセンサ部を用いることによって、赤外線透過フィルタで構成された筐体の外方において装着者の顔情報を適切に取得することができる。以上のように、本発明の一態様に係るシステムによれば、装着者の映像視聴を阻害することなく、装着者の顔情報を適切に取得することができる。なお、従来、装着者の顔面情報の一部(視線や目の画像等)のみを取得することが一般的であったのに対して、本発明の一態様に係るシステムでは、赤外線透過フィルタで構成された筐体の外方から筐体自体を透過可能な赤外線を検知することによって、単一のセンサ部によって広範囲(眉から口元まで含めた領域)の顔情報を取得することができる。そのため、部分的な顔の情報(それぞれ個別に取得される視線、目の画像、口元の画像等)を組み合わせて装着者の顔情報を再構成する必要がなく、簡易な構成・処理で顔情報を取得することができる。
上記システムにおいて、センサ部は、装着者から放射される赤外線を検知して装着者の顔画像を取得する赤外線カメラであってもよい。このような赤外線カメラによれば、装着者の顔画像を適切に取得することができる。顔画像が取得されることによって、装着者の視線又は表情等の特徴を取得すること、他者(装着者と実世界で空間を共有している者又は装着者と仮想空間で空間を共有している者)に対して装着者が誰であってどんな表情をしているかを伝達すること、個人認証を実施すること等が可能になる。
上記システムにおいて、センサ部は、赤外線を装着者に照射すると共に装着者から反射する赤外線を検知し、装着者の顔の距離情報を取得する距離画像センサであってもよい。このようにして取得された距離情報(深度情報)が用いられることにより、精緻に装着者の顔の3Dモデルを作成すること、正確に個人認証を行うこと等が可能になる。
上記システムは、センサ部によって取得された顔情報である装着者の顔画像に色彩情報を付与する色復元処理を行う処理装置を更に備えていてもよい。これにより、顔の色を含んだ自然な顔画像を取得することができる。
上記システムは、センサ部によって取得された顔情報である装着者の顔画像を、予め取得している装着者の3Dモデルに適用する処理装置を更に備えていてもよい。これにより、仮想空間内において、取得された顔画像を反映させた装着者の例えば頭部全体又は身体全体の画像(3Dモデル)を取得することができる。
上記システムは、センサ部によって取得された顔情報である装着者の顔画像に基づき、装着者の表情を抽出し、抽出した装着者の表情を、予め取得しているキャラクタ画像に適用する処理装置を更に備えていてもよい。これにより、仮想空間内において、取得された顔画像を反映させたキャラクタとして行動することが可能になる。
本発明によれば、装着者の映像視聴を阻害することなく、装着者の顔情報を適切に取得することができる。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。図面の説明において、同一又は同等の要素には同一符号を用い、重複する説明を省略する。
図1は、本実施形態に係る頭部搭載型ディスプレイシステム1の一部の構成の斜視図である。図2は、本実施形態に係る頭部搭載型ディスプレイシステム1の一部の構成を模式的に示す図である。図1及び図2に示されるように、頭部搭載型ディスプレイシステム1は、頭部搭載型ディスプレイ10(頭部搭載型装置)と、赤外線カメラ20(センサ部)と、処理サーバ50と備えている。
頭部搭載型ディスプレイ10は、装着者Yの頭部に装着(搭載)されるディスプレイ装置である。頭部搭載型ディスプレイ10は、コンピュータによって作られた仮想世界を現実世界のように装着者Yに体験させる。頭部搭載型ディスプレイ10は、筐体11と、通信端末12(映像表示装置)と、光学部品13と、を備えている。
筐体11は、通信端末12及び光学部品13を収容すると共に装着者Yの頭部に搭載される。筐体11は、例えばベルト状の装着具15と連結されており、該装着具15が装着者Yの頭部に装着されることにより、装着者Yの頭部に搭載される。筐体11は、筐体11の形状を形成するベース部11aと、ベース部11aを覆う赤外線透過フィルタ11bとを含んで構成されている。
ベース部11aは、箱状に形成されており、装着者Yの両目を覆う位置(装着者Yの両目に対応する位置に設けられたレンズ部(不図示)に対応する位置)から、装着者Yの正面方向(且つ装着者Yから離間する方向)に延びている。以下では、頭部搭載型ディスプレイ10の説明において、装着者Yの正面方向のうち、装着者Yから離間する方向を「前」、装着者Yに近づく方向を「後」として説明する場合がある。ベース部11aは、例えば、前方に延びるに従って、徐々に高さ方向に大きくなるように形成されていてもよい。
赤外線透過フィルタ11bは、可視光の光を吸収し赤外線を透過させるフィルタである。赤外線透過フィルタ11bは、例えばフィルム状に形成されており、ベース部11aの内部に可視光が入射しないように、ベース部11aの側面(内側面又は外側面)を覆っている。
通信端末12は、例えばスマートフォン、タブレッド型PC等の、通信可能であって且つ映像を表示するディスプレイを有した携帯端末である。通信端末12によって表示される映像は、装着者YによるVR(Virtual Reality)体験に係る映像である。通信端末12は、例えば筐体11の上部に設けられており、筐体11の内部に向かって映像を出力する。通信端末12は、例えば赤外線カメラ20及び処理サーバ50と通信可能に構成されている。通信端末12は、例えば赤外線カメラ20から装着者Yの顔画像を取得し、処理サーバ50に送信する。
光学部品13は、通信端末12が表示する映像を装着者Yに向かって伝送する。光学部品13は、例えばハーフミラー等の光学系を含んで構成されている。光学部品13は、筐体11の内部において、通信端末12から出力された映像を装着者Yの両目に対応する位置に設けられたレンズ部(不図示)に向かって反射させることが可能なように配置・傾斜させられている。装着者Yは、レンズ部(不図示)を介して、光学部品13によって反射した映像を視聴する。
赤外線カメラ20は、筐体11の外部に配置されており、装着者Yからの赤外線を検知することによって装着者Yの顔情報を取得する。赤外線カメラ20は、例えば連結部16を介して筐体11と連結されている。赤外線カメラ20は、装着者Yから放射される赤外線を、赤外線透過フィルタ11bをとおして検知し、装着者Yの顔画像を取得する。赤外線カメラ20は、例えば魚眼レンズ等を備えていてもよい。赤外線カメラ20は、検知した装着者Yの顔画像を通信端末12に出力する。上述したように、通信端末12は、赤外線カメラ20から取得した装着者Yの顔画像を処理サーバ50に送信する。なお、赤外線カメラ20を用いる態様においては、その光源として、赤外線を含む環境光が用いられてもよいし、頭部搭載型ディスプレイ10又は赤外線カメラ20に設けられた赤外線装置が用いられてもよい。
処理サーバ50は、通信端末12から取得した装着者Yの顔画像に所定の処理を行う処理装置である。処理サーバ50は、例えば、取得した装着者Yの顔画像に色彩情報を付与する色復元処理を行う。処理サーバ50は、色復元処理を行った後に、例えば従来から周知となっている画像処理又は機械学習等の手法を用いて装着者Yの表情を推定する。色復元処理の方法は限定されないが、例えば、機械学習により生成したカラー化モデルを用いる方法、複数波長の赤外線LEDを装着者Yに照射して得た顔画像を用いる方法、事前に取得している装着者Yの色彩情報を付与する方法等が考えられる。
機械学習により生成したカラー化モデルを用いる方法では、事前に、カラー画像を正解データ、正解データと対になる単色画像を入力データとして、深層学習等の機械学習によって画像のカラー化モデルを生成(学習)しておく。そして、処理サーバ50は、通信端末12から取得した装着者Yの顔画像を、上記カラー化モデルを用いてカラー化する。
複数波長の赤外線LEDを装着者Yに照射して得た顔画像を用いる方法では、前提として、複数波長の赤外線LEDを装着者Yに照射する構成が必要となる。赤外線カメラ20は、複数波長の赤外線LEDが照射された装着者Yからの反射光を撮像する。そして、処理サーバ50は、赤外線の波長毎の反射率の違いに基づき色彩を推定し、推定した色彩情報を装着者Yの顔画像に適用して顔画像のカラー化を行う。
事前に取得している装着者Yの色彩情報を付与する方法では、事前に、頭部搭載型ディスプレイ10を装着する前の装着者の顔画像を取得しておき、顔画像の色彩情報を取得する。そして、処理サーバ50は、通信端末12から取得した装着者Yの顔画像に、事前に取得している色彩情報を適用し、顔画像のカラー化を行う。
処理サーバ50は、通信端末12から取得した装着者Yの顔画像を、予め取得している装着者Yの3Dモデルに適用する処理を行ってもよい。この場合、事前に、3Dスキャナ等の三次元計測装置を用いて装着者Yの全身又は一部の3Dモデルを取得しておく。処理サーバ50は、装着者Yの顔画像の取得前において、取得予定の顔画像と、事前に取得している上記3Dモデルとの対応関係を特定する。そして、処理サーバ50は、特定した対応関係に基づき、通信端末12から取得した装着者Yの顔画像を装着者Yの3Dモデルにマッピングする。
処理サーバ50は、通信端末12から取得した装着者Yの顔画像に基づき、装着者Yの表情を抽出し、抽出した装着者Yの表情を、予め取得しているキャラクタ画像に適用してもよい。処理サーバ50は、上述したように、例えば従来から周知となっている画像処理又は機械学習等の手法を用いて装着者Yの表情を推定する。そして、処理サーバ50は、キャラクタ画像に対して抽出した表情の情報を与え、キャラクタ画像の表情を変形させる。
次に、頭部搭載型ディスプレイシステム1が実施する処理の一例を図3を用いて説明する。図3は、頭部搭載型ディスプレイシステム1の処理を示すフローチャートである。
図3に示されるように、頭部搭載型ディスプレイシステム1では、まず、通信端末12によって装着者YによるVR体験にかかわる映像が表示される(ステップS1)。当該映像は、光学部品13によって反射し、装着者Yに向かって伝送される。
つづいて、筐体11の外部に配置された赤外線カメラ20によって装着者Yからの赤外線を検知することにより、装着者Yの顔画像が撮像される(ステップS2)。撮像された顔画像は、通信端末12を介して処理サーバ50に送信される。
つづいて、処理サーバ50によって、装着者Yの顔画像に色彩情報を付与する色復元処理が行われる(ステップS3)。処理サーバ50は、色復元処理を行った後に、装着者Yの表情を推定する(ステップS4)。なお、処理サーバ50は、表情を推定した後に、装着者Yの顔画像を3Dモデルに適用する処理、又は、装着者Yの表情をキャラクタ画像に適用する処理等を行ってもよい。
次に、頭部搭載型ディスプレイシステム1の作用効果について説明する。
上述したように、頭部搭載型ディスプレイシステム1は、映像表示装置として機能する通信端末12と、通信端末12が表示する映像を装着者Yに向かって伝送する光学部品13と、通信端末12及び光学部品13を収容すると共に装着者Yの頭部に搭載され、可視域の光を吸収し赤外線を透過させる赤外線透過フィルタ11bで構成された筐体11と、を備える頭部搭載型ディスプレイ10と、筐体11の外部に設置されており、装着者Yからの赤外線を検知することによって装着者Yの顔情報を取得する赤外線カメラ20と、を備える。
このような頭部搭載型ディスプレイシステム1では、装着者Yに映像が表示される頭部搭載型ディスプレイ10において、筐体11が赤外線透過フィルタ11bで構成されている。このため、映像を視聴する装着者Y視点では、外光が遮蔽され、外光に阻害されることなく映像を主張することが可能になる。そして、本頭部搭載型ディスプレイシステム1では、筐体11の外方に設けられた赤外線カメラ20が装着者Yからの赤外線を検知して装着者Yの顔情報が取得される。このように、装着者Yからの赤外線を検知する赤外線カメラ20を用いることによって、赤外線透過フィルタ11bで構成された筐体11の外方において装着者Yの顔情報を適切に取得することができる。以上のように、頭部搭載型ディスプレイシステム1によれば、装着者Yの映像視聴を阻害することなく、装着者Yの顔情報を適切に取得することができる。なお、従来、装着者Yの顔面情報の一部(視線や目の画像等)のみを取得することが一般的であったのに対して頭部搭載型ディスプレイシステム1では、赤外線透過フィルタ11bで構成された筐体11の外方から筐体11自体を透過可能な赤外線を検知することによって、単一のセンサ部(赤外線カメラ20)によって広範囲(眉から口元まで含めた領域)の顔情報を取得することができる。そのため、部分的な顔の情報(それぞれ個別に取得される視線、目の画像、口元の画像等)を組み合わせて装着者Yの顔情報を再構成する必要がなく、簡易な構成・処理で顔情報を取得することができる。
上述したように、頭部搭載型ディスプレイシステム1では、センサ部として、装着者Yから放射される赤外線を検知して装着者Yの顔画像を取得する赤外線カメラ20が用いられている。このような赤外線カメラ20によれば、装着者Yの顔画像を適切に取得することができる。顔画像が取得されることによって、装着者Yの視線又は表情等の特徴を取得すること、他者(装着者Yと実世界で空間を共有している者又は装着者Yと仮想空間で空間を共有している者)に対して装着者Yが誰であってどんな表情をしているかを伝達すること、個人認証を実施すること等が可能になる。
頭部搭載型ディスプレイシステム1は、赤外線カメラ20によって取得された顔画像に色彩情報を付与する色復元処理を行う処理サーバ50を更に備えている。これにより、顔の色を含んだ自然な顔画像を取得することができる。
処理サーバ50は、装着者Yの顔画像を、予め取得している装着者Yの3Dモデルに適用してもよい。これにより、仮想空間内において、取得された顔画像を反映させた装着者Yの例えば頭部全体又は身体全体の画像(3Dモデル)を取得することができる。
処理サーバ50は、赤外線カメラ20によって取得された顔画像に基づき、装着者Yの表情を抽出し、抽出した装着者Yの表情を、予め取得しているキャラクタ画像に適用してもよい。これにより、仮想空間内において、取得された顔画像を反映させたキャラクタとして行動すること等が可能になる。
最後に、処理サーバ50のハードウェア構成について、図5を参照して説明する。上述の処理サーバ50は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。処理サーバ50のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
処理サーバ50における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、処理サーバ50の制御機能はプロセッサ1001で実現されてもよい。
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、処理サーバ50の制御機能は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。
通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
また、処理サーバ50は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。
例えば、頭部搭載型ディスプレイシステム1は、頭部搭載型ディスプレイ10に代えて、図4(a)〜図4(c)に示される頭部搭載型ディスプレイ10A〜10Cを有していてもよい。図4(a)に示される頭部搭載型ディスプレイ10Aは、赤外線カメラ20が筐体11の外側に付属している点において、赤外線カメラ20が筐体11の外部に設置されている頭部搭載型ディスプレイ10(図2参照)と異なっている。このように、頭部搭載型ディスプレイシステムにおいて、赤外線カメラ20は筐体11の外部に設置されていてもよいし、筐体11の外側に付属していてもよい。
図4(b)に示される頭部搭載型ディスプレイ10B及び図4(c)に示される頭部搭載型ディスプレイ10Cは、センサ部として距離画像センサ40を用いている点において、センサ部として赤外線カメラ20を用いている頭部搭載型ディスプレイ10(図2参照)と異なっている。距離画像センサ40は、赤外線を装着者Yに照射すると共に装着者から反射する赤外線を検知し装着者Yの顔の距離情報を取得する。このようにして取得された装着者Yの顔の距離情報は、例えば装着者Yの顔の3Dモデルを作成すること、個人認証を行うこと等に用いられる。距離情報を用いることによって、精緻に装着者Yの顔の3Dモデルを作成することが可能になると共に、正確に個人認証を行うことが可能になる。距離画像センサ40は、図4(b)に示されるように筐体11の外部に設置されていてもよいし、図4(c)に示されるように筐体11の外側に付属していてもよい。なお、頭部搭載型ディスプレイシステムは、赤外線カメラ20及び距離画像センサ40のいずれか一方を用いてもよいし、両方を組み合わせて用いてもよい。
上述した実施形態では、赤外線カメラ20が取得した顔画像を通信端末12経由で処理サーバ50に送信するとして説明したがこれに限定されず、赤外線カメラ20から処理サーバ50に直接顔画像が送信されてもよい。また、処理装置として機能する処理サーバ50を設けずに、通信端末12が処理装置の機能を有していてもよい。
本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broad-band)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-Wide Band)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。
ユーザ端末は、当業者によって、移動通信端末、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。
本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。
本明細書において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。
本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。
1…頭部搭載型ディスプレイシステム(システム)、10,10A,10B,10C…頭部搭載型ディスプレイ(頭部搭載型装置)、11…筐体、11b…赤外線透過フィルタ、12…通信端末(映像表示装置)、13…光学部品、20…赤外線カメラ(センサ部)、40…距離画像センサ(センサ部)、50…処理サーバ(処理装置)、Y…装着者。
Claims (6)
- 映像表示装置と、前記映像表示装置が表示する映像を装着者に向かって伝送する光学部品と、前記映像表示装置及び前記光学部品を収容すると共に前記装着者の頭部に搭載され、可視域の光を吸収し赤外線を透過させる赤外線透過フィルタで構成された筐体と、を備える頭部搭載型装置と、
前記筐体の外側に付属するか又は前記筐体の外部に設置されており、前記装着者からの赤外線を検知することによって前記装着者の顔情報を取得するセンサ部と、を備えるシステム。 - 前記センサ部は、前記装着者から放射される赤外線を検知して前記装着者の顔画像を取得する赤外線カメラである、請求項1記載のシステム。
- 前記センサ部は、赤外線を前記装着者に照射すると共に前記装着者から反射する赤外線を検知し、前記装着者の顔の距離情報を取得する距離画像センサである、請求項1又は2記載のシステム。
- 前記センサ部によって取得された前記顔情報である前記装着者の顔画像に色彩情報を付与する色復元処理を行う処理装置を更に備える、請求項1〜3のいずれか一項記載のシステム。
- 前記センサ部によって取得された前記顔情報である前記装着者の顔画像を、予め取得している前記装着者の3Dモデルに適用する処理装置を更に備える、請求項1〜4のいずれか一項記載のシステム。
- 前記センサ部によって取得された前記顔情報である前記装着者の顔画像に基づき、前記装着者の表情を抽出し、抽出した前記装着者の表情を、予め取得しているキャラクタ画像に適用する処理装置を更に備える、請求項1〜5のいずれか一項記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182211A JP2020052793A (ja) | 2018-09-27 | 2018-09-27 | システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182211A JP2020052793A (ja) | 2018-09-27 | 2018-09-27 | システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020052793A true JP2020052793A (ja) | 2020-04-02 |
Family
ID=69997294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018182211A Pending JP2020052793A (ja) | 2018-09-27 | 2018-09-27 | システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020052793A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022089075A1 (zh) * | 2020-10-28 | 2022-05-05 | 青岛小鸟看看科技有限公司 | 图像采集方法、手柄设备、头戴设备及头戴系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10271470A (ja) * | 1997-03-24 | 1998-10-09 | Olympus Optical Co Ltd | 画像音声通信システムおよびテレビ電話送受信方法 |
JP2000352688A (ja) * | 1999-06-09 | 2000-12-19 | Nec Corp | ヘッドマウントディスプレイおよびヘッドマウントディスプレイを備えた画像入出力装置 |
WO2017006872A1 (ja) * | 2015-07-03 | 2017-01-12 | 学校法人慶應義塾 | 顔表情識別システム、顔表情識別方法及び顔表情識別プログラム |
-
2018
- 2018-09-27 JP JP2018182211A patent/JP2020052793A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10271470A (ja) * | 1997-03-24 | 1998-10-09 | Olympus Optical Co Ltd | 画像音声通信システムおよびテレビ電話送受信方法 |
JP2000352688A (ja) * | 1999-06-09 | 2000-12-19 | Nec Corp | ヘッドマウントディスプレイおよびヘッドマウントディスプレイを備えた画像入出力装置 |
WO2017006872A1 (ja) * | 2015-07-03 | 2017-01-12 | 学校法人慶應義塾 | 顔表情識別システム、顔表情識別方法及び顔表情識別プログラム |
Non-Patent Citations (1)
Title |
---|
暦本純一,外2名: "Behind-the-Mask: 顔映像が取得可能な頭部搭載型ディスプレイ", 第24回インタラクティブシステムとソフトウェアに関するワークショップ(WISS2016), JPN6021047754, 15 December 2016 (2016-12-15), JP, pages 1 - 4, ISSN: 0004785942 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022089075A1 (zh) * | 2020-10-28 | 2022-05-05 | 青岛小鸟看看科技有限公司 | 图像采集方法、手柄设备、头戴设备及头戴系统 |
US11754835B2 (en) | 2020-10-28 | 2023-09-12 | Qingdao Pico Technology Co., Ltd. | Image acquisition method, handle device, head-mounted device and head-mounted system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102544062B1 (ko) | 가상 이미지 표시 방법, 저장 매체 및 이를 위한 전자 장치 | |
CN108664783B (zh) | 基于虹膜识别的识别方法和支持该方法的电子设备 | |
US20180053352A1 (en) | Occluding augmented reality content or thermal imagery for simultaneous display | |
CN108392182B (zh) | 提供皮肤信息的方法和支持所述方法的电子设备 | |
US9685001B2 (en) | System and method for indicating a presence of supplemental information in augmented reality | |
EP3419024A1 (en) | Electronic device for providing property information of external light source for interest object | |
ES2742416T3 (es) | Dispositivo y método de imagen corneal | |
US9123272B1 (en) | Realistic image lighting and shading | |
US20180053055A1 (en) | Integrating augmented reality content and thermal imagery | |
CN106575155A (zh) | 沉浸在虚拟现实环境中时的防绊倒 | |
US10803988B2 (en) | Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment | |
US11582409B2 (en) | Visual-inertial tracking using rolling shutter cameras | |
CN109890266B (zh) | 用于通过捕捉眼睛获得信息的方法和设备 | |
KR20210052570A (ko) | 분리가능한 왜곡 불일치 결정 | |
US20230388632A1 (en) | Dynamic adjustment of exposure and iso to limit motion blur | |
US20230300464A1 (en) | Direct scale level selection for multilevel feature tracking under motion blur | |
CN111091610A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
KR20240008915A (ko) | 모션 블러 완화를 위한 선택적 이미지 피라미드 계산 | |
US9449427B1 (en) | Intensity modeling for rendering realistic images | |
US20220375041A1 (en) | Selective image pyramid computation for motion blur mitigation in visual-inertial tracking | |
US20210378509A1 (en) | Pupil assessment using modulated on-axis illumination | |
JP2020052793A (ja) | システム | |
US11765457B2 (en) | Dynamic adjustment of exposure and iso to limit motion blur | |
US20220280037A1 (en) | Ophthalmic imaging using a head-worn device | |
US20220377238A1 (en) | Direct scale level selection for multilevel feature tracking under motion blur |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220531 |