JP6934806B2 - 表示装置、表示装置の制御方法 - Google Patents

表示装置、表示装置の制御方法 Download PDF

Info

Publication number
JP6934806B2
JP6934806B2 JP2017213224A JP2017213224A JP6934806B2 JP 6934806 B2 JP6934806 B2 JP 6934806B2 JP 2017213224 A JP2017213224 A JP 2017213224A JP 2017213224 A JP2017213224 A JP 2017213224A JP 6934806 B2 JP6934806 B2 JP 6934806B2
Authority
JP
Japan
Prior art keywords
sickness
display device
unit
movement
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017213224A
Other languages
English (en)
Other versions
JP2019086592A5 (ja
JP2019086592A (ja
Inventor
弘市 山口
弘市 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2017213224A priority Critical patent/JP6934806B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2018/035692 priority patent/WO2019087623A1/ja
Priority to DE112018005224.9T priority patent/DE112018005224T5/de
Priority to CN201880069813.2A priority patent/CN111279410B/zh
Priority to GB2008184.0A priority patent/GB2582106B/en
Publication of JP2019086592A publication Critical patent/JP2019086592A/ja
Priority to US16/842,836 priority patent/US11474595B2/en
Publication of JP2019086592A5 publication Critical patent/JP2019086592A5/ja
Priority to JP2021137366A priority patent/JP2022000697A/ja
Application granted granted Critical
Publication of JP6934806B2 publication Critical patent/JP6934806B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons

Description

本発明は、現実空間と仮想空間との合成空間である複合現実空間の提示技術に関するものである。
近年、現実世界と仮想世界とをリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、次のような技術が知られている。ビデオシースルー型HMD(Head Mounted Display)を利用して、HMD使用者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像する。そして該撮像により得られる撮像画像にCG(Computer Graphics)を重畳した画像をHMD使用者に提示する。
ビデオシースルー型HMDではCCD等の電荷結合素子により被写体を撮像して該被写体のデジタル画像データを取得し、該デジタル画像データにCG画像を重畳したMR画像(複合現実空間画像)を液晶や有機EL等の表示デバイスを介して装着者に表示する。HMDの他に外部装置があり、HMDから外部装置にHMDで撮像した撮像画像を送信する。外部装置は、HMDから受信した撮像画像からHMDの位置姿勢を計算し、この計算結果を元に撮像画像に対してCG画像を重畳した重畳画像を生成してHMDへ送信する。HMDは、外部装置から受信した重畳画像を表示する。HMD使用者はHMD装着することでMR空間を体験することが可能となる。
HMDを装着して没入しているようなとき、HMD使用者によっては映像酔いが発生する。特許文献1では、HMD装着者が視認する情報量を抑えることによって映像酔いを低減する技術が提案されている。
特開2017−059196号公報
特許文献1には、仮想カメラの移動量が所定以上の場合は視認する情報量を抑える処理が開示されている。しかし特許文献1に開示されている技術では、HMD使用者は映像酔いを発生しやすい動作を認識せず、映像酔いを感じることがあった。
本発明はこのような問題に鑑みてなされたものであり、表示装置を観察するユーザの映像酔いを軽減するための技術を提供する。
本発明の一様態は、表示装置であって、
前記表示装置の動きが、酔い易い動きとして予め設定されている酔い動作である場合に、該酔い動作の酔い易さを判定する判定手段と、
前記酔い動作の酔い易さに対応する警告を報知する報知手段と
を備えることを特徴とする。
本発明の構成によれば、表示装置を観察するユーザの映像酔いを軽減することができる。
システムの構成例を示す図。 HMD1101及び画像処理装置1104のそれぞれの機能構成例を示すブロック図。 動作判定部1205の機能構成例を示すブロック図。 酔い動作の一例を示す図。 動作判定の一例を示す図。 複合現実空間画像、警告メッセージを重畳した複合現実空間画像、の一例を示す図。 HMD1101が行う処理のフローチャート。 ステップS1705における処理の詳細を示すフローチャート。 動作定義部1301に格納されている情報の構成例を示す図。 HMD1101及び画像処理装置1104のそれぞれの機能構成例を示すブロック図。 動作判定部1205の機能構成例を示すブロック図。 動作判定の一例を示す図。 動作定義部1301が保持しているテーブルの構成例を示す図。 ステップS1705における処理の詳細を示すフローチャート。 動作判定部1205の機能構成例を示すブロック図。 点数部2501が保持しているテーブルの構成例を示す図。 第3の実施形態を説明する図。 ステップS1705における処理の詳細を示すフローチャート。 HMD1101及び画像処理装置1104のそれぞれの機能構成例を示すブロック図。 動作判定部1205の機能構成例を示すブロック図。 点数部3001が保持している情報の構成例を示す図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、現実空間の画像と仮想空間の画像との合成画像(複合現実空間の画像)を頭部装着型表示装置に提示するシステムであって、該頭部装着型表示装置の動きが酔い易い動きに該当するのであれば警告を報知するシステムの一例について説明する。
先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、HMD1101、表示装置1103、画像処理装置1104、操作装置1105、を有する。そしてHMD1101と画像処理装置1104とは、無線若しくは有線のネットワークを介して互いにデータ通信が可能なように構成されている。HMD1101と画像処理装置1104との間の無線ネットワークには、例えば、WLAN(Wireless Local Area Network)やWPAN(Wireless Personal Area Network)を適用することができる。なお、HMD1101及び画像処理装置1104は、1つ以上の通信機器を介して互いにデータ通信を行うようにしても良い。また画像処理装置1104には、表示装置1103及び操作装置1105が接続されている。
本実施形態では、HMD1101を頭部装着型表示装置の一例として使用したケースについて説明するが、HMD1101以外の頭部装着型表示装置を用いても構わない。また、頭部装着型表示装置に限らず、ハンドヘルド型の表示装置など、他の種類の表示装置を用いても良い。
次に、HMD1101及び画像処理装置1104のそれぞれの機能構成例について、図2のブロック図を用いて説明する。
先ずHMD1101について説明する。撮像部1202は、現実空間の動画像を撮像し、撮像した動画像の各フレームの画像(現実空間の撮像画像)を順次、通信部1204を介して画像処理装置1104に対して送信する。撮像部1202は、例えば、HMD1101を頭部に装着したユーザ(以下、HMDユーザと称する場合がある)の眼の近傍に位置するようにHMD1101に取り付けられる。
姿勢センサ部1203は、加速度センサやジャイロセンサ等のセンサである。姿勢センサ部1203は、「自身の姿勢を表す姿勢情報(例えばクオータ二オン)」、「自身の加速度」、「自身の位置姿勢を基準とするローカル座標系を構成する各軸(X軸、Y軸、Z軸)周りの自身の角速度」、を測定する。以下では姿勢センサ部1203が測定した姿勢情報、角速度、加速度をそれぞれ、HMD1101の姿勢情報、角速度、加速度と称する場合がある。そして姿勢センサ部1203は、測定した情報のうち姿勢情報を通信部1204を介して画像処理装置1104に対して送信する。
なお、姿勢センサ部1203が測定するものは自身の姿勢情報、角速度、加速度の全てに限らず、このうち1つ以上であっても良いし、これらに代えて若しくは加えて自身の位置など自身に係る他の情報を測定するようにしても良い。
表示部1206は、HMDユーザの眼前に位置するようにHMD1101に取り付けられており、動作判定部1205から出力された画像や文字を表示する。
音声出力部1208は、HMDユーザの耳(両方の耳若しくは片方の耳)に対して音声を出力可能な位置に取り付けられており、動作判定部1205から出力された音声信号に基づく音声を出力する。
動作判定部1205は、姿勢センサ部1203による測定結果に基づくHMD1101(HMDユーザの頭部)の動きが、酔い易い動きとして予め設定されている規定の動きに該当するのか否かを判断する。そして動作判定部1205は、HMD1101の動きが規定の動きに該当するのであれば、ユーザに対して警告を報知するべく、画像処理装置1104から受信した画像に警告を表す情報を重畳して表示部1206に出力する。また動作判定部1205は、HMD1101の動きが規定の動きに該当するのであれば、警告を表す音声の音声信号を音声出力部1208に出力する。動作判定部1205の詳細については、図3のブロック図を用いて後述する。
制御部1207は、CPU等のプロセッサと、該プロセッサが実行するコンピュータプログラムやデータが格納されているメモリと、を有する。プロセッサがメモリ内のコンピュータプログラムやデータを用いて処理を実行することで、HMD1101全体の動作制御を行うと共に、HMD1101が行うものとして後述する各処理を実行若しくは制御する。通信部1204は、画像処理装置1104との間のデータ通信を行うためのインターフェースとして機能する。
次に、画像処理装置1104について説明する。画像処理装置1104は、PC(パーソナルコンピュータ)やWS(ワークステーション)、タブレット端末装置やスマートフォン等のコンピュータ装置である。通信部1211は、HMD1101との間のデータ通信を行うためのインターフェースとして機能する。
算出部1212は、HMD1101から送信された撮像画像及び姿勢情報を通信部1211を介して取得する。そして算出部1212は、該取得した撮像画像から該撮像画像を撮像したときの撮像部1202の位置を算出する。撮像画像から該撮像画像を撮像した撮像装置の位置を算出するための技術は周知であり、本実施形態では如何なる技術を採用してもよい。例えば、現実空間において位置が既知の特徴(現実物体のエッジや角など)の現実空間における3次元位置と、撮像画像中の該特徴の画像座標(2次元座標)と、に基づいて、該撮像画像を撮像した撮像装置の位置を算出する技術を採用してもよい。また、撮像装置の位置を、該撮像装置若しくは該撮像装置を有する頭部装着型表示装置に取り付けられている位置センサによる計測値に基づいて取得するようにしてもよいし、GPSを用いて撮像装置の位置を取得してもよい。つまり、算出部1212は、HMD1101から送信された撮像画像を撮像したときの撮像部1202の位置を取得することができるのであれば、如何なる技術を適用してもよい。また算出部1212は、該取得した姿勢情報が表す姿勢センサ部1203の姿勢を、撮像部1202と姿勢センサ部1203との間の相対的な姿勢関係(既知の情報であり、コンテンツDB1214に予め登録されている)を用いて変換する。この変換により、撮像部1202の姿勢を求めることができる。なお、撮像部1202の姿勢を取得するための構成についても特定の構成に限らず、例えば、撮像画像から該撮像画像を撮像したときの撮像部1202の姿勢を上記の既知の方法でもって求めるようにしても良い。
CG描画部1213は、コンテンツDB1214に登録されている仮想物体データを用いて仮想物体を構築し、該構築した仮想物体を該仮想物体データが規定する位置姿勢でもって仮想空間中に配置する。仮想物体データは、仮想物体の幾何形状、色、質感、テクスチャ等の該仮想物体の外観を規定するモデルデータ、仮想物体を配置する位置姿勢を示すデータ、仮想空間を照射する光源に係るデータ、等を含む。
そしてCG描画部1213は、視点(視点の位置は撮像部1202の位置、視点の姿勢は撮像部1202の姿勢)から見える仮想物体の画像を仮想空間画像として生成する。そしてCG描画部1213は、算出部1212が通信部1211を介してHMD1101から取得した撮像画像と、該生成した仮想空間画像とを合成した合成画像を複合現実空間画像として生成する。そしてCG描画部1213は、該生成した複合現実空間画像を通信部1211を介してHMD1101に対して送信する。
制御部1219は、CPU等のプロセッサと、該プロセッサが実行するコンピュータプログラムやデータが格納されているメモリと、を有する。プロセッサがメモリ内のコンピュータプログラムやデータを用いて処理を実行することで、画像処理装置1104全体の動作制御を行うと共に、画像処理装置1104が行うものとして後述する各処理を実行若しくは制御する。通信部1215は、操作装置1105及び表示装置1103を画像処理装置1104に接続するためのインターフェースとして機能するものである。
次に、操作装置1105について説明する。操作装置1105は、キーボードなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示を入力することができる。ユーザインターフェースはキーボードに限らず、マウスやタッチパネルなどの他の種類のインターフェースであってもよい。ユーザによる操作によって入力された指示は、通信部1221を介して画像処理装置1104に入力され、制御部1219は、該指示に応じた処理を実行する。
次に、表示装置1103について説明する。表示装置1103は、CRTや液晶画面などにより構成されており、画像処理装置1104による処理結果を画像や文字などでもって表示することができる。例えば表示装置1103には、画像処理装置1104がHMD1101に出力する画像を表示することができる。また表示装置1103には、上記の警告の内容(テキストや音声)や後述するテーブルの内容等を編集するためのGUIを表示することもできる。なお、表示装置1103は、タッチパネル画面であっても良い。
画像処理装置1104の上記の各機能部は何れもハードウェアで実装しても良いが、算出部1212、CG描画部1213をソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、このコンピュータプログラムはコンテンツDB1214に格納され、制御部1219がこのコンピュータプログラムを用いて処理を実行することで、算出部1212及びCG描画部1213の機能を実現することができる。
次に、動作判定部1205の機能構成例について、図3のブロック図を用いて説明する。
動作定義部1301には、複数種類の「HMD1101を頭部に装着して表示部1206を観察しているユーザが酔ってしまうような該ユーザの頭部(HMD1101)の動き」(酔い動作)のそれぞれについて、酔い易さ、検知順番が格納されている。動作定義部1301に格納されている情報の構成例を図9に示す。図9のテーブルには、「下を向く」、「Roll動作」、「急な加速」、「二軸回転」の4つの酔い動作のそれぞれについて、「酔い易さ」及び「検知順番」が対応付けて登録されている。
酔い動作「下を向く」の一例を図4(a)に示す。図4(a)では、HMD1101を頭部に装着したユーザ1401の頭部の向きが図4(a)の左側に示した状態(頭部が正面方向を向いている)から右側に示した状態(頭部が正の俯角方向を向いている)に変化している。
酔い動作「Roll動作」の一例を図4(b)に示す。図4(b)では、HMD1101を頭部に装着したユーザ1401の頭部が矢印で示す如く、Roll方向に回転している。
酔い動作「急な加速」の一例を図4(c)に示す。図4(c)では、HMD1101を頭部に装着したユーザ1401が、矢印で示す如く、自身の首を該ユーザ1401の左側に早く振っている。
酔い動作「二軸回転」の一例を図4(d)に示す。図4(d)では、HMD1101を頭部に装着したユーザ1401の頭部が2つの矢印で示す如く、二軸で回転(例えばパン方向及びチルト方向の両方向に回転)している。
図9のテーブルでは、酔い動作「下を向く」に対応する「酔い易さ」として「段々と酔う」、酔い動作「Roll動作」に対応する「酔い易さ」として「直ぐに酔う」、が登録されている。また、図9のテーブルでは、酔い動作「急な加速」に対応する「酔い易さ」として「段々と酔う」、酔い動作「二軸回転」に対応する「酔い易さ」として「直ぐに酔う」が登録されている。「直ぐに酔う」とは、動作を行うことで直ぐに映像酔いを起こしやすい、ことを意味している。また「段々と酔う」とは、動作を続けることで映像酔いを起こしやすい、ことを意味している。このように図9のテーブルには、酔い動作ごとに、その酔い易さを示す情報が管理されている。
また、図9のテーブルでは、「下を向く」に対応する検知順番として「4」、「Roll動作」に対応する検知順番として「2」、「急な加速」に対応する検知順番として「3」、「二軸回転」に対応する検知順番として「1」が登録されている。検知順番については後述する。以下の説明では、動作定義部1301は図9のテーブルを保持しているものとして説明するが、テーブルに登録される酔い動作は図9に示した酔い動作に限らず、図9の4つの酔い動作に代えて若しくは加えて他の酔い動作を登録してもよい。また、酔い動作に対応する酔い易さや検知順番についても図9に示したものに限らない。
判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101の動きが酔い動作に該当するのかを判断する。動作定義部1301が図9のテーブルを保持している場合、判定部1302は先ず、姿勢センサ部1203による測定結果に基づくHMD1101の動きが、検知順番「1」に対応する酔い動作である「二軸回転」に該当するか否かを判断する。この判断の結果、HMD1101の動きが「二軸回転」には該当しない場合、判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101の動きが、検知順番「2」に対応する酔い動作である「Roll動作」に該当するか否かを判断する。この判断の結果、HMD1101の動きが「Roll動作」には該当しない場合、判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101の動きが、検知順番「3」に対応する酔い動作である「急な加速」に該当するか否かを判断する。この判断の結果、HMD1101の動きが「急な加速」には該当しない場合、判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101の動きが、検知順番「4」に対応する酔い動作である「下を向く」に該当するか否かを判断する。この判断の結果、HMD1101の動きが「下を向く」には該当しない場合、判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101の動きは酔い動作ではなく、「通常動作」であると判断する。
それぞれの動きに対する検知順番は、直ぐ酔いにつながり易い順番となっており、図9の場合は、「二軸回転」、「Roll動作」、「急な加速」、「下を向く」の順に直ぐ酔いにつながり易い動きとなっている。
ここで、判定部1302が、HMD1101(頭部)の動きが酔い動作に該当するのか否かを、図4(a)〜(d)のそれぞれに示した酔い動作(「下を向く」、「Roll動作」、「急な加速」、「二軸回転」)を例にとり説明する。姿勢センサ部1203は図5(a)に示す如く、自身の位置を原点とし、撮像部1202の視線方向をX軸の正方向、撮像部1202の鉛直上向き方向をY軸の正方向、X軸及びY軸と直交する軸をZ軸とする座標系における姿勢情報、角速度、加速度を測定する。
このような場合において、先ず、判定部1302がHMD1101(頭部)の動きが「下を向く」であるか否かを判断する処理について、図5(b)を用いて説明する。図5(b)の左側に示す如く、HMDユーザ1590が水平方向を観察している状態では、姿勢センサ部1203の重力軸は矢印1502で示す如くY軸の負の方向に向く。然るに、HMDユーザ1590が水平方向を観察している状態では、姿勢センサ部1203からは加速度として「Y軸の負の方向に1Gを示すベクトル」が出力される。ここでHMDユーザ1590が下を向くと、図5(b)の右側に示す如く、姿勢センサ部1203の軸が傾くため、姿勢センサ部1203から出力される加速度は、Y軸方向のベクトル1503とX軸方向のベクトル1504として出力される。HMDユーザ1590が下を向くほど、X軸方向のベクトル1504の大きさが大きくなる。そこで、例えば判定部1302は、X軸方向のベクトルのサイズが規定サイズ以上であれば、HMD1101(頭部)の動きは「下を向く」であると判断する。
次に、判定部1302がHMD1101(頭部)の動きが「Roll動作」であるか否かを判断する処理について、図5(c)を用いて説明する。矢印で示す如く、HMDユーザ1590が首をひねるなどして頭部をRoll方向に回転させると、姿勢センサ部1203からは、矢印1505で示す如く、X軸周りの角速度として規定値以上の角速度が出力される。そこで、例えば判定部1302は、X軸周りの角速度が規定値以上であれば、HMD1101(頭部)の動きは「Roll動作」であると判断する。
次に、判定部1302がHMD1101(頭部)の動きが「急な加速」であるか否かを判断する処理について、図5(d)を用いて説明する。図5(d)の左側に示すように、HMDユーザ1590が矢印で示す如く自身の首を早く振ると、図5(d)の右側に示すように、姿勢センサ部1203からは、矢印1506で示す如くY軸周りの角速度として規定値以上の角速度が出力される。そこで、例えば判定部1302は、Y軸周りの角速度の変化量が規定値以上であれば、HMD1101(頭部)の動きは「急な加速」であると判断する。なお、角速度の代わりに加速度を用いても良く、一定値以上の加速度が得られた場合に、HMD1101(頭部)の動きは「急な加速」であると判断してもよい。
次に、判定部1302がHMD1101(頭部)の動きが「二軸回転」であるか否かを判断する処理について、図5(e)を用いて説明する。図5(e)に示す如く、HMDユーザ1590が自身の頭部を2つの矢印で示す如くパン方向及びチルト方向に回転させたとする。このとき姿勢センサ部1203からは、矢印1508で示す如くY軸周りの角速度として規定値以上の角速度が出力されると共に、矢印1507で示す如くZ軸周りの角速度として規定値以上の角速度が出力される。そこで、例えば判定部1302は、姿勢センサ部1203からY軸周りの角速度として規定値以上の角速度が出力され且つZ軸周りの角速度として規定値以上の角速度が出力されると、HMD1101(頭部)の動きは「二軸回転」であると判断する。
このようにして判定部1302は、姿勢センサ部1203から出力される測定結果に基づいてHMD1101(頭部)の動きが何れの酔い動作であるのかを判断することができる。なお、姿勢センサ部1203による測定結果がどのような動きを示すのかを判断するための処理については特定の処理に限らない。
そして判定部1302は、HMD1101(頭部)の動きが酔い動作に該当すると判断した場合には、保持部1303に格納されている文字情報のうち、該酔い動作に対応する酔い易さに対応する文字情報を取得する。文字情報は、警告を示す文字/文字列(警告メッセージ)である。本実施形態では、保持部1303には、酔い易さごとに対応する文字情報が保持されているものとする。例えば、酔い易さが「段々と酔う」と「直ぐに酔う」の2種類である場合、保持部1303には、「段々と酔う」に対応する文字情報、「直ぐに酔う」に対応する文字情報、が格納されている。然るに例えば判定部1302は、HMD1101(頭部)の動きが「下を向く」であると判断した場合、図9のテーブルより、対応する酔い易さは「段々と酔う」であるから、保持部1303から酔い易さ「段々と酔う」に対応付けられている文字情報を取得する。また例えば判定部1302はHMD1101(頭部)の動きが「Roll動作」であると判断した場合、図9のテーブルより、対応する酔い易さは「直ぐに酔う」であるから、保持部1303から酔い易さ「直ぐに酔う」に対応付けられている文字情報を取得する。なお、保持部1303は、酔い易さごとに対応する文字情報を保持することに加えて若しくは代えて、酔い動作ごとに対応する文字情報を保持するようにしてもよい。この場合、判定部1302は、HMD1101(頭部)の動きに対応する文字情報及び/又はHMD1101(頭部)の動きに対応する酔い易さに対応する文字情報を保持部1303から取得することになる。そして判定部1302は、保持部1303から文字情報を取得すると、該取得した文字情報を重畳部1304に対して送出する。
また判定部1302は、HMD1101(頭部)の動きが酔い動作に該当すると判断した場合には、保持部1305に格納されている音声データのうち、該酔い動作に対応する酔い易さに対応する音声データを取得する。本実施形態では、保持部1305には、酔い易さごとに対応する音声データが保持されているものとする。例えば、酔い易さが「段々と酔う」と「直ぐに酔う」の2種類である場合、保持部1305には、「段々と酔う」に対応する音声データ、「直ぐに酔う」に対応する音声データ、が格納されている。然るに例えば判定部1302はHMD1101(頭部)の動きが「下を向く」であると判断した場合、図9のテーブルより、対応する酔い易さは「段々と酔う」であるから、保持部1305から酔い易さ「段々と酔う」に対応付けられている音声データを取得する。また例えば判定部1302はHMD1101(頭部)の動きが「Roll動作」であると判断した場合、図9のテーブルより対応する酔い易さは「直ぐに酔う」であるから、保持部1305から酔い易さ「直ぐに酔う」に対応付けられている音声データを取得する。なお、保持部1305は、酔い易さごとに対応する音声データを保持することに加えて若しくは代えて、酔い動作ごとに対応する音声データを保持するようにしてもよい。この場合、判定部1302は、HMD1101(頭部)の動きに対応する音声データ及び/又はHMD1101(頭部)の動きに対応する酔い易さに対応する音声データを保持部1305から取得することになる。そして判定部1302は、保持部1305から音声データを取得すると、該取得した音声データを音声生成部1306に対して送出する。
重畳部1304は、判定部1302から文字情報を取得した場合、通信部1204を介して画像処理装置1104から受信した複合現実空間画像に該文字情報が示すメッセージを重畳し、該メッセージが重畳された複合現実空間画像を表示部1206に送出する。一方、重畳部1304は、判定部1302から文字情報を取得していない場合には、通信部1204を介して画像処理装置1104から受信した複合現実空間画像を表示部1206に対して送出する。
例えば、重畳部1304が画像処理装置1104から図6(a)に示した複合現実空間画像を受信したとする。このとき、現在のHMD1101の動きが酔い動作ではない通常動作である場合には、重畳部1304は、画像処理装置1104から受信した図6(a)の複合現実空間画像を、警告メッセージを重畳することなく表示部1206に対して送出する。一方、現在のHMD1101の動きが酔い動作であり且つ該酔い動作の酔い易さが「段々と酔う」であるとする。このとき重畳部1304は図6(b)に示す如く、画像処理装置1104から受信した図6(a)の複合現実空間画像に、HMDユーザが現在の動作(頭部の動作)を続けると映像酔いになる可能性があることを報知するための警告メッセージ601を重畳する。そして重畳部1304は、警告メッセージ601が重畳された複合現実空間画像を表示部1206に対して送出する。また、現在のHMD1101の動きが酔い動作であり且つ該酔い動作の酔い易さが「直ぐに酔う」であるとする。このとき重畳部1304は図6(c)に示す如く、画像処理装置1104から受信した図6(a)の複合現実空間画像に対して、HMDユーザの現在の動作(頭部の動作)は映像酔いになる可能性があることを報知するための警告メッセージ602を重畳する。そして重畳部1304は、警告メッセージ602が重畳された複合現実空間画像を表示部1206に対して送出する。なお、警告メッセージの内容や表示方法については特定の内容、表示方法に限らない。
音声生成部1306は、判定部1302から音声データを取得した場合には、該音声データに基づく音声信号を生成して音声出力部1208に対して送出する。これにより、現在のHMD1101の動きが酔い動作である場合には、その酔い易さに応じた警告を示す音声が音声出力部1208から出力される。つまり、酔い易さが「段々と酔う」であれば、HMDユーザが現在の動作(頭部の動作)を続けると映像酔いになる可能性があることを報知するための音声が音声出力部1208から出力される。一方、酔い易さが「直ぐに酔う」であれば、HMDユーザの現在の動作(頭部の動作)は映像酔いになる可能性があることを報知するための音声が音声出力部1208から出力される。一方、現在のHMD1101の動きが酔い動作ではなく通常動作である場合には、判定部1302は音声データを音声生成部1306に対して送出しないので、音声出力部1208からは何も音声が出力されない。
HMDユーザへの警告の報知は、表示部1206による上記の表示報知のみで行っても良いし、音声出力部1208による上記の音声報知のみで行っても良いし、上記の表示報知及び音声報知の両方でもって警告を報知するようにしても良い。
次に、HMD1101が1フレーム分の複合現実空間画像を表示部1206に表示するために行う処理について、同処理のフローチャートを示す図7を用いて説明する。HMD1101は図7のフローチャートに従った処理を繰り返し行うことで、複数フレーム分の複合現実空間画像を表示部1206に表示することができる。
ステップS1701では、撮像部1202は、現実空間を撮像することで該現実空間の撮像画像を取得し、該取得した撮像画像を通信部1204を介して画像処理装置1104に対して送信する。ステップS1702では、姿勢センサ部1203は、自身の姿勢情報、加速度、角速度を測定することで取得し、該取得した姿勢情報を通信部1204を介して画像処理装置1104に対して送信する。
ステップS1703では、重畳部1304は、画像処理装置1104から送信された複合現実空間画像を、通信部1204を介して受信する。ステップS1705で判定部1302は、ステップS1702で姿勢センサ部1203が取得した測定結果(姿勢情報、角速度、加速度)に基づくHMD1101(HMDユーザの頭部)の動きが通常動作であるのか、何れかの酔い動作であるのかを判断する。ステップS1705における処理の詳細について、図8のフローチャートを用いて説明する。
ステップS1801では、判定部1302は、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、動作定義部1301が保持する図9のテーブルにおいて検知順番が「1」である酔い動作「二軸回転」に該当する条件を満たすか否かを判断する。この判断処理の一例については図5(e)を用いて説明した通りである。
この判断の結果、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、酔い動作「二軸回転」に該当する条件を満たす(姿勢センサ部1203による測定結果が示す動きが「二軸回転」に該当する)、とする。このとき判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101(頭部)の動きが「二軸回転」であると判断して、処理はステップS1805に進む。一方、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、酔い動作「二軸回転」に該当する条件を満たさない(姿勢センサ部1203による測定結果が示す動きが「二軸回転」には該当しない)場合には、処理はステップS1802に進む。
ステップS1802では判定部1302は、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、動作定義部1301が保持する図9のテーブルにおいて検知順番が「2」である酔い動作「Roll動作」に該当する条件を満たすか否かを判断する。この判断処理の一例については図5(c)を用いて説明した通りである。
この判断の結果、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、酔い動作「Roll動作」に該当する条件を満たす(姿勢センサ部1203による測定結果が示す動きが「Roll動作」に該当する)、とする。このとき判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101(頭部)の動きが「Roll動作」であると判断して、処理はステップS1805に進む。一方、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、酔い動作「Roll動作」に該当する条件を満たさない(姿勢センサ部1203による測定結果が示す動きが「Roll動作」には該当しない)場合には、処理はステップS1803に進む。
ステップS1803では、判定部1302は、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、動作定義部1301が保持する図9のテーブルにおいて検知順番が「3」である酔い動作「急な加速」に該当する条件を満たすか否かを判断する。この判断処理の一例については図5(d)を用いて説明した通りである。
この判断の結果、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、酔い動作「急な加速」に該当する条件を満たす(姿勢センサ部1203による測定結果が示す動きが「急な加速」に該当する)、とする。このとき判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101(頭部)の動きが「急な加速」であると判断して、処理はステップS1805に進む。一方、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、酔い動作「急な加速」に該当する条件を満たさない(姿勢センサ部1203による測定結果が示す動きが「急な加速」には該当しない)場合には、処理はステップS1804に進む。
ステップS1804では、判定部1302は、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、動作定義部1301が保持する図9のテーブルにおいて検知順番が「4」である酔い動作「下を向く」に該当する条件を満たすか否かを判断する。この判断処理の一例については図5(b)を用いて説明した通りである。
この判断の結果、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、酔い動作「下を向く」に該当する条件を満たす(姿勢センサ部1203による測定結果が示す動きが「下を向く」に該当する)、とする。このとき判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101(頭部)の動きが「下を向く」であると判断して、処理はステップS1805に進む。一方、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、酔い動作「下を向く」に該当する条件を満たさない(姿勢センサ部1203による測定結果が示す動きが「下を向く」には該当しない)、とする。このとき判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101(頭部)の動きが通常動作であると判断して、処理はステップS1706に進む。
ステップS1805では、判定部1302は、姿勢センサ部1203による測定結果に基づくHMD1101(頭部)の動きに該当する酔い動作に対応する酔い易さを、動作定義部1301が保持する図9のテーブルから取得する。そして処理はステップS1706に進む。
図7に戻って、次に、ステップS1706では、判定部1302は、ステップS1705における処理の結果、HMD1101(頭部)の動きは通常動作であるか否かを判断する。この判断の結果、HMD1101(頭部)の動きが通常動作であれば、処理はステップS1707に進む。一方、HMD1101(頭部)の動きが通常動作ではない(何れかの酔い動作)であれば、処理はステップS1708に進む。
ステップS1707では、重畳部1304は、上記のステップS1703において画像処理装置1104から受信した複合現実空間画像を表示部1206に対して送出することで、該複合現実空間画像を表示部1206に表示させる。
ステップS1708では、判定部1302は、上記のステップS1805で取得した酔い易さが「直ぐに酔う」であるか否かを判断する。この判断の結果、上記のステップS1805で取得した酔い易さが「直ぐに酔う」であれば、処理はステップS1709に進む。一方、上記のステップS1805で取得した酔い易さが「段々と酔う」であれば、処理はステップS1710に進む。
ステップS1709では、判定部1302は、「直ぐに酔う」に対応する文字情報を保持部1303から取得し、該取得した文字情報を重畳部1304に対して送出する。重畳部1304は、判定部1302から受けた文字情報が示す警告メッセージを、上記のステップS1703において画像処理装置1104から受信した複合現実空間画像に重畳し、警告メッセージが重畳された複合現実空間画像を表示部1206に送出する。
ステップS1710では、判定部1302は、「段々と酔う」に対応する文字情報を保持部1303から取得し、該取得した文字情報を重畳部1304に対して送出する。重畳部1304は、判定部1302から受けた文字情報が示す警告メッセージを、上記のステップS1703において画像処理装置1104から受信した複合現実空間画像に重畳し、警告メッセージが重畳された複合現実空間画像を表示部1206に送出する。
なお、図7のフローチャートでは、姿勢センサ部1203による測定結果に基づくHMD1101(頭部)の動きが酔い動作である場合における警告の報知として表示報知のみを示している。しかし、ステップS1709,S1710のそれぞれにおいて対応する音声報知を更に行うようにしても良い。即ちステップS1709では「直ぐに酔う」に対応する音声データに基づく音声通知を表示通知に加えて又は代えて行い、ステップS1710では「段々と酔う」に対応する音声データに基づく音声通知を表示通知に加えて又は代えて行うようにしても良い。
このように本実施形態によれば、HMDユーザが酔いを発生させやすい頭部の動きを行った場合には警告を通知することで、HMDユーザに注意喚起を行ってHMDユーザに認識させることができる。
<第1の実施形態の変形例>
第1の実施形態では、HMD1101が有する各機能部は何れもハードウェアで実装されているものとして説明した。しかし、動作判定部1205の一部の機能(例えば、図3の判定部1302、重畳部1304、音声生成部1306)についてはソフトウェア(コンピュータプログラム)で実装しても良い。この場合、このコンピュータプログラムは制御部1207が有するメモリに格納されている。そして、制御部1207が有するプロセッサが該コンピュータプログラムを実行することで、判定部1302、重畳部1304、音声生成部1306の各機能部の機能を実現することができる。
第1の実施形態では、加速度センサやジャイロセンサ等のセンサにより上記の姿勢情報、加速度、角速度を測定していたが、他の手法を用いてHMD1101(頭部)の動きを取得するようにしても構わない。例えば、磁気センサ、光学式センサ、超音波センサを用いてHMD1101の位置や姿勢を測定し、HMD1101若しくは画像処理装置1104が、該測定した位置や姿勢の変化から加速度や角速度等を求めるようにしても構わない。また、現実空間中にHMDユーザを撮像する撮像装置を設置し、HMD1101若しくは画像処理装置1104が、該撮像装置による撮像画像からHMDユーザの頭部の姿勢情報、加速度、角速度を求めるようにしても構わない。
また、第1の実施形態では、警告の報知を表示及び/又は音声によって行ったが、他の報知方法でもって警告を報知するようにしても良い。例えば、HMD1101にバイブレータを搭載し、現在のHMD1101(頭部)の動きに対応する酔い易さに応じた振動パターンでもってHMDユーザに警告や酔い易さを報知しても良い。また、ランプの点灯/点滅パターンでもって警告や酔い易さを報知しても良い。その場合、例えば、画像処理装置1104が現在のHMD1101(頭部)の動きに対応する酔い易さに応じてランプの点灯/点滅パターンを制御することで、警告や酔い易さを報知しても良い。
また、第1の実施形態では、HMD1101はビデオシースルー型のHMDであるものとして説明したが、光学シースルー型のHMDを採用しても良い。その場合、視点の位置は、センサなど上記の様々な周知技術を用いて求める必要がある。また、画像処理装置1104は生成した仮想空間画像をHMD1101に送出する。そして重畳部1304は、判定部1302から文字情報を取得した場合には、画像処理装置1104から受信した仮想空間画像上に該文字情報に応じた警告メッセージを重畳し、該警告メッセージを重畳した仮想空間画像を表示部1206に表示する。一方、重畳部1304は、判定部1302から文字情報を取得していない場合には、画像処理装置1104から受信した仮想空間画像を表示部1206に表示する。
また、第1の実施形態では、警告メッセージの代わりに若しくは加えて警告画像を複合現実空間画像に重畳させるようにしても良い。警告画像は、例えば、警告を表すマークやキャラクタの画像等、警告に関連する画像である。警告画像は予め作成された2次元画像であっても良いし、重畳部1304が視点の位置姿勢に基づいて生成した3次元仮想物体のCG画像であっても良い。
また、第1の実施形態では加速度は姿勢センサ部1203が測定していたが、加速度の取得方法は特定の取得方法に限らない。例えば、HMD1101若しくは画像処理装置1104は、撮像部1202の位置を取得した場合には、位置の変化に基づいて加速度を求めても良い。
また、第1の実施形態では、警告の内容は、HMDユーザが現在の動作(頭部の動作)を続けると映像酔いになる可能性があることや、HMDユーザの現在の動作(頭部の動作)は映像酔いになる可能性があること、を報知するためのものであった。しかし、警告の内容は、警告に関連するものであれば如何なる内容であっても良い。また、報知する内容は警告に限らず、例えば、単に現在のHMDユーザの頭部の動きを報知するためのメッセージであっても良い。
また、算出部1212をHMD1101に移動させても良い。この場合、算出部1212は、撮像部1202の位置姿勢を求め、該位置姿勢を画像処理装置1104に送信する。CG描画部1213は、該位置姿勢に基づいて仮想空間画像を生成し、該仮想空間画像をHMD1101に対して送信する。重畳部1304は、撮像部1202による撮像画像と、画像処理装置1104から受信した仮想空間画像との合成画像を複合現実空間画像として生成する。このように、複合現実空間画像を生成するための処理を画像処理装置1104及びHMD1101でどのように分担するのかについては特定の構成に限らない。
[第2の実施形態]
本実施形態を含む以下の各実施形態や各変形例では、第1の実施形態との差分について説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。先ず、HMD1101及び画像処理装置1104のそれぞれの機能構成例について、図10のブロック図を用いて説明する。
図10に示した構成は、図2に示した構成において画像処理装置1104が有していた算出部1212をHMD1101側に移動させている。算出部1212は、撮像部1202による撮像画像から該撮像画像を撮像したときの撮像部1202の位置を算出する。また算出部1212は、姿勢センサ部1203が測定した姿勢を、撮像部1202と姿勢センサ部1203との間の相対的な姿勢関係(既知の情報であり、HMD1101内の不図示のメモリに予め登録されている)を用いて変換する。この変換により、撮像部1202の姿勢を求めることができる。そして算出部1212は、撮像部1202の位置及び姿勢を通信部1204を介して画像処理装置1104に対して送信する。
CG描画部1213は、視点(視点の位置、姿勢はそれぞれ、通信部1211を介してHMD1101から受信した撮像部1202の位置、姿勢)から見える仮想物体の画像を仮想空間画像として生成する。そしてCG描画部1213は、通信部1211を介してHMD1101から受信した撮像画像と、該生成した仮想空間画像と、の合成画像を複合現実空間画像として生成し、該生成した複合現実空間画像を通信部1211を介してHMD1101に対して送信する。
動作判定部1205は、算出部1212が算出した撮像部1202の位置姿勢や姿勢センサ部1203が測定した加速度及び角速度に基づくHMDユーザの頭部の動きが、酔い易い動きとして予め設定されている規定の動きに該当するのか否かを判断する。本実施形態に係る動作判定部1205の機能構成例について、図11のブロック図を用いて説明する。
算出部1212は、上記の通り求めた撮像部1202の位置及び姿勢と、姿勢センサ部1203が測定した加速度及び角速度と、を判定部1302に対して送出する。判定部1302は、撮像部1202の位置も取得しているため、第1の実施形態で説明したような動作判定に加え、撮像部1202の位置に基づく動作判定も行うことができ、例えば、図12に示すような歩く動作も検知可能となる。
図12では、HMDユーザ1590は下を向いたまま矢印で示す方向に歩いている。HMDユーザがこのような動作を行っているか否かの判定については、例えば、次のようにして行う。HMDユーザ1590が下を向いていると判定するための方法については図5(b)を用いて説明したとおりである。歩いていると判定するためには、例えば、単位時間あたりのHMDユーザ1590の位置の変化が規定量以上であれば、歩いていると判定することができる。
動作定義部1301が保持しているテーブルの構成例を図13に示す。図13に示したテーブルは、図9に示したテーブルに新たに酔い動作として「下を向いて歩く」を加えると共に、対応する酔い易さとして「段々と酔う」を加えている。また、それぞれの酔い動作に対する検知順番を図9から変更している。動作定義部1301が保持するテーブルが図9のテーブルから図13のテーブルに変更されても、判定部1302の動作は同様である。すなわち、算出部1212から受けた位置姿勢、角速度、加速度に基づくHMDユーザの頭部の動きが図13の何れの酔い動作に該当するのかを、検知順番で判断する。
本実施形態では、HMD1101は、図7のフローチャートにおいてステップS1702及びステップS1705のそれぞれで以下のような処理を行う点で第1の実施形態と異なる。
ステップS1702では、姿勢センサ部1203は、自身の姿勢情報、加速度、角速度を測定することで取得する。算出部1212は、撮像部1202による撮像画像から撮像部1202の位置を求め、姿勢センサ部1203による姿勢情報から撮像部1202の姿勢を求め、撮像部1202の位置及び姿勢を通信部1204を介して画像処理装置1104に対して送信する。
ステップS1705では、図14のフローチャートに従った処理を行う。ステップS1801〜S1804では、図9のテーブルではなく図13のテーブルを用いる点が第1の実施形態と異なる。
ステップS1803において判定部1302が、姿勢センサ部1203による測定結果の一部若しくは全部が、酔い動作「急な加速」に該当する条件を満たさないと判断した場合には、処理はステップS2401に進む。
ステップS2401で判定部1302は、算出部1212から取得した位置姿勢、加速度、角速度の一部若しくは全部が、動作定義部1301が保持する図13のテーブルにおいて検知順番が「4」である酔い動作「下を向いて歩く」に該当する条件を満たすか否かを判断する。
この判断の結果、算出部1212から取得した位置姿勢、加速度、角速度の一部若しくは全部が、酔い動作「下を向いて歩く」に該当する条件を満たす、とする。このとき判定部1302は、HMD1101(頭部)の動きが「下を向いて歩く」であると判断して、処理はステップS1805に進む。一方、算出部1212から取得した位置姿勢、加速度、角速度の一部若しくは全部が、酔い動作「下を向いて歩く」に該当する条件を満たさない場合には、処理はステップS1804に進む。ステップS1804では、判定部1302は、姿勢センサ部1203が取得した測定結果の一部若しくは全部が、動作定義部1301が保持する図13のテーブルにおいて検知順番が「5」である酔い動作「下を向く」に該当する条件を満たすか否かを判断する。
[第3の実施形態]
本実施形態に係る動作判定部1205の機能構成例について、図15のブロック図を用いて説明する。点数部2501は、酔い動作ごとに、酔い易さ、検知順番、に加えて、点数を保持しているテーブルを保持している。点数部2501が保持しているテーブルの構成例を図16に示す。
図16に示したテーブルは、図13のテーブルに点数の項目を付加したもので、それぞれの酔い動作に対応する点数が登録されている。図16のテーブルには、酔い動作「下を向く」、「Roll動作」、「急な加速」、「二軸回転」、「下を向いて歩く」のそれぞれの点数として、「0.5」、「5」、「1」、「10」、「1」が登録されている。
本実施形態では判定部1302は、HMD1101の動きが何れかの酔い動作に該当すると判断する度に、該酔い動作に対応する点数を取得し、該取得した点数を累積する。そして判定部1302は、該累積した点数の和(累積点数)が規定値以上になると、警告を報知するべく、文字情報や音声データの出力を行う。そして判定部1302は、警告の報知後、累積点数を0に初期化する。なお、HMD1101の起動時にも累積点数は0に初期化されている。
例えば図17に示す如く、時刻tまではHMD1101の動きは通常動作であると判断されており、時刻tにおいてHMD1101の動きが酔い動作「Roll動作」であると判断されると、図16のテーブルから対応する点数「5」が取得される。この時点で累積した点数の和(累積点数)は「5」となる。その後、時刻(t+1)においてHMD1101の動きが酔い動作「急な加速」であると判断されると、図16のテーブルから対応する点数「1」が取得され、この時点で累積点数は「6」となる。その後、時刻(t+2)においてHMD1101の動きが酔い動作「急な加速」であると判断されると、図16のテーブルから対応する点数「1」が取得され、この時点で累積点数は「7」となる。その後、時刻(t+3)においてHMD1101の動きが酔い動作「急な加速」であると判断されると、図16のテーブルから対応する点数「1」が取得され、この時点で累積点数は「8」となる。その後、時刻(t+4)においてHMD1101の動きが酔い動作「急な加速」であると判断されると、図16のテーブルから対応する点数「1」が取得され、累積点数は「9」となる。その後、時刻(t+5)においてHMD1101の動きが酔い動作「下を向いて歩く」であると判断されると、図16のテーブルから対応する点数「1」が取得され、累積点数は「10」となる。ここで、規定値を「10」とした場合、時刻(t+5)において累積点数が規定値以上となったため、判定部1302は、警告の報知を行うべく、文字情報や音声データの出力を行う。
なお、時刻t、(t+1)、(t+2)、…は隣接する離散時刻を表したものではなく、HMD1101の動きが何れかの酔い動作に該当すると判断されたタイミングを表したものである。
本実施形態では、図7のフローチャートにおいて以下の点が第1の実施形態と異なる。本実施形態に係るステップS1702は第2の実施形態に係るステップS1702と同様である。ステップS1705では、図18のフローチャートに従った処理を行う。ステップS2805では、判定部1302は、HMD1101(頭部)の動きに該当する酔い動作に対応する点数を取得して累積する。そして判定部1302は、累積点数が規定値以上であれば、HMD1101(頭部)の動きは通常動作ではないと判断し、累積点数が規定値未満であれば、HMD1101(頭部)の動きは通常動作であると判断する。そして処理はステップS1706に進む。
更に本実施形態では、図7のフローチャートからステップS1708,S1709を削除し、HMD1101(頭部)の動きが通常動作ではない場合は、処理はステップS1706を介してステップS1710に進む。本実施形態では、保持部1303には、1種類の警告用のメッセージが格納されているので、本実施形態に係るステップS1710では、判定部1302は、このメッセージを保持部1303から取得して重畳部1304に対して送出する。
[第4の実施形態]
第1〜3の実施形態では、HMDユーザが誰であるのかに関係なく、該HMDユーザの頭部の動きに応じて警告を報知していた。しかし、映像酔いは個人差が大きく、例えばHMDを装着して下を向いて歩く動作が酔い易い人もいれば、下を向いて歩く動作は酔い難い人もいる。本実施形態では、この点に鑑み、第3の実施形態で説明した点数を、ユーザ若しくはユーザの属性ごとに管理する。そして累積点数の計算には、HMDユーザに対応する点数を用いる。以下では、第3の実施形態との差分について説明する。
HMD1101及び画像処理装置1104のそれぞれの機能構成例について、図19のブロック図を用いて説明する。図19の構成は、図10のHMD1101の構成に認証部2901を加えたものとなっている。認証部2901は、HMD1101を装着するユーザを識別するためのものであり、該識別が可能な構成であれば、如何なる構成を採用してもよい。例えば、認証部2901は、ユーザの虹彩や指紋を認証することで、該ユーザを一意に識別するようにしてもよい。また、HMD1101にユーザが自身のユーザID及びパスワードを入力可能な操作部を設け、認証部2901は、該ユーザが該操作部を操作することで入力したユーザID及びパスワードを認証することで、該ユーザを一意に識別するようにしてもよい。認証部2901は、HMD1101を頭部に装着するユーザが該HMD1101を使用する前に該ユーザの識別を行う。そして認証部2901は、識別したユーザに固有の情報(ユーザ情報)を動作判定部1205に対して送出する。
動作判定部1205の機能構成例について、図20のブロック図を用いて説明する。図20の構成は、図15の構成において、認証部2901からの出力(ユーザ情報)が判定部1302に入力され、点数部2501の代わりに点数部3001が設けられている構成となっている。
点数部3001は、図16に例示したような「酔い動作ごとに酔い易さ、検知順番、点数を管理するテーブル」を、ユーザごとに保持している。点数部3001が保持している情報の構成例を図21(a)に示す。
図21(a)のテーブルは、ユーザ(使用者)ごとに、酔い動作、酔い易さ、検知順番、点数を管理しているテーブルの一例である。図21(a)では、テーブルは、使用者「Aさん」に対する酔い動作、酔い易さ、検知順番、点数、使用者「Bさん」に対する酔い動作、酔い易さ、検知順番、点数、を管理している。図21(a)のテーブルでは、「Aさん」は「Bさん」より、「急な加速」、「二軸回転」は高い点数で定義されており、「下を向いて歩く」は低い点数で定義されている。つまりこれは、「Aさん」は「Bさん」よりも「下を向いて歩く」動作は酔い難いことを示しており、「Bさん」は「Aさん」よりも「下を向いて歩く」動作は酔い易いことを示している。
なお、点数部3001は、図21(a)のテーブルの代わりに、図21(b)のテーブルを保持するようにしてもよい。図21(b)では、テーブルは、「Aさん」及び「Cさん」を「初心者」として管理しており、「Bさん」及び「Dさん」を「経験者」として管理している。そしてこのテーブルは、「初心者」に対する酔い動作、酔い易さ、検知順番、点数、「経験者」に対する酔い動作、酔い易さ、検知順番、点数、を管理している。一般的に経験者の方が酔い難いため、図21(b)の例では、経験者の方の点数が低くなっている。このように、ユーザは初心者であるのか、それとも経験者であるのかなど、ユーザの属性に応じて、酔い動作、酔い易さ、検知順番、点数のセットを管理するようにしてもよい。
なお、点数部3001は、図21(a)のテーブル及び図21(b)のテーブルの両方を保持し、判定部1302は、ユーザが操作装置1105を操作することで選択した一方のテーブルを使用するようにしてもよい。
本実施形態では、図7のフローチャートに従った処理の開始前に、認証部2901は、HMDユーザのユーザ情報を取得して動作判定部1205に送出する。そして本実施形態では、図7のフローチャートにおいてステップS1702では第2の実施形態に係るステップS1702と同様の処理を行い、ステップS1705では、判定部1302は、図18のフローチャートに従った処理を行う。しかし、ステップS2805では、判定部1302は、ユーザ情報が示す使用者及びHMD1101(頭部)の動きに該当する酔い動作の組み合わせに対応する点数を取得して累積する。そして判定部1302は、累積点数が規定値以上であれば、HMD1101(頭部)の動きは通常動作ではないと判断し、累積点数が規定値未満であれば、HMD1101(頭部)の動きは通常動作であると判断する。そして処理はステップS1706に進む。
なお、以上説明した各実施形態や各変形例の一部若しくは全部は適宜組み合わせても良い。また、以上説明した各実施形態や各変形例の一部若しくは全部は選択的に使用しても構わない。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1202:撮像部 1203:姿勢センサ部 1205:動作判定部 1207:制御部 120:表示部 1208:音声出力部

Claims (11)

  1. 表示装置であって、
    前記表示装置の動きが、酔い易い動きとして予め設定されている酔い動作である場合に、該酔い動作の酔い易さを判定する判定手段と、
    前記酔い動作の酔い易さに対応する警告を報知する報知手段と
    を備えることを特徴とする表示装置。
  2. 前記判定手段は、前記表示装置の動きが前記酔い動作であるかを判定し、前記表示装置の動きが前記酔い動作である場合に該酔い動作の酔い易さを判定することを特徴とする請求項1に記載の表示装置。
  3. 前記判定手段は、複数の酔い動作のうち、より酔い易い酔い動作から順に、前記表示装置の動きが該酔い動作であるか否かを判定することを特徴とする請求項に記載の表示装置。
  4. 前記報知手段は、前記表示装置の動きが前記酔い動作であると判定される度に、該酔い動作に対応する点数を取得して累積し、該累積した点数の和が規定値以上であれば、警告を報知することを特徴とする請求項に記載の表示装置。
  5. 前記報知手段は、前記表示装置の動きが前記酔い動作であると判定される度に、該酔い動作及び前記表示装置の使用者の組み合わせに対応する点数を累積し、該累積した点数の和が規定値以上であれば、警告を報知することを特徴とする請求項に記載の表示装置。
  6. 更に、
    撮像手段と、
    前記表示装置の位置姿勢に応じた仮想空間の画像と前記撮像手段による撮像画像との合成画像を取得する手段と
    を備え、
    前記報知手段は、
    前記表示装置の動きが前記酔い動作であると判定された場合には、前記合成画像に警告を示す情報を重畳し、該情報を重畳した該合成画像を表示することを特徴とする請求項乃至の何れか1項に記載の表示装置。
  7. 前記判定手段は、前記表示装置の姿勢、加速度、角速度、位置のうち1つ以上に基づいて前記表示装置の動きを判定することを特徴とする請求項乃至の何れか1項に記載の表示装置。
  8. 前記報知手段は、
    前記表示装置の動きが前記酔い動作である場合には、警告を示す音声を出力することを特徴とする請求項1乃至7の何れか1項に記載の表示装置。
  9. 前記表示装置は、頭部装着型表示装置であることを特徴とする請求項1乃至の何れか1項に記載の表示装置。
  10. 表示装置の制御方法であって、
    前記表示装置の判定手段が、前記表示装置の動きが、酔い易い動きとして予め設定されている酔い動作である場合に、該酔い動作の酔い易さを判定する判定工程と、
    前記表示装置の報知手段が、前記酔い動作の酔い易さに対応する警告を報知する報知工程と
    を備えることを特徴とする表示装置の制御方法。
  11. コンピュータを、請求項1乃至9の何れか1項に記載の表示装置の各手段として機能させるためのコンピュータプログラム。
JP2017213224A 2017-11-02 2017-11-02 表示装置、表示装置の制御方法 Active JP6934806B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2017213224A JP6934806B2 (ja) 2017-11-02 2017-11-02 表示装置、表示装置の制御方法
DE112018005224.9T DE112018005224T5 (de) 2017-11-02 2018-09-26 Anzeigevorrichtung und Anzeigevorrichtungssteuerverfahren
CN201880069813.2A CN111279410B (zh) 2017-11-02 2018-09-26 显示设备和显示设备控制方法
GB2008184.0A GB2582106B (en) 2017-11-02 2018-09-26 Display device and display device control method
PCT/JP2018/035692 WO2019087623A1 (ja) 2017-11-02 2018-09-26 表示装置、表示装置の制御方法
US16/842,836 US11474595B2 (en) 2017-11-02 2020-04-08 Display device and display device control method
JP2021137366A JP2022000697A (ja) 2017-11-02 2021-08-25 表示装置、表示装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017213224A JP6934806B2 (ja) 2017-11-02 2017-11-02 表示装置、表示装置の制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021137366A Division JP2022000697A (ja) 2017-11-02 2021-08-25 表示装置、表示装置の制御方法

Publications (3)

Publication Number Publication Date
JP2019086592A JP2019086592A (ja) 2019-06-06
JP2019086592A5 JP2019086592A5 (ja) 2020-12-17
JP6934806B2 true JP6934806B2 (ja) 2021-09-15

Family

ID=66331669

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017213224A Active JP6934806B2 (ja) 2017-11-02 2017-11-02 表示装置、表示装置の制御方法
JP2021137366A Withdrawn JP2022000697A (ja) 2017-11-02 2021-08-25 表示装置、表示装置の制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021137366A Withdrawn JP2022000697A (ja) 2017-11-02 2021-08-25 表示装置、表示装置の制御方法

Country Status (6)

Country Link
US (1) US11474595B2 (ja)
JP (2) JP6934806B2 (ja)
CN (1) CN111279410B (ja)
DE (1) DE112018005224T5 (ja)
GB (1) GB2582106B (ja)
WO (1) WO2019087623A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6934806B2 (ja) 2017-11-02 2021-09-15 キヤノン株式会社 表示装置、表示装置の制御方法
JP7467094B2 (ja) 2019-12-09 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH674800A5 (ja) 1986-03-12 1990-07-31 Warner Lambert Co
JP2000339490A (ja) * 1999-05-28 2000-12-08 Mitsubishi Electric Corp Vr酔い低減方法
JP3673217B2 (ja) * 2001-12-20 2005-07-20 オリンパス株式会社 映像表示装置
CN100478849C (zh) * 2007-04-10 2009-04-15 南京航空航天大学 基于多加速度传感器的虚拟现实头盔防眩晕系统及方法
WO2012063542A1 (ja) 2010-11-09 2012-05-18 富士フイルム株式会社 拡張現実感提供装置
US8831278B2 (en) * 2010-11-30 2014-09-09 Eastman Kodak Company Method of identifying motion sickness
CN103380625A (zh) 2011-06-16 2013-10-30 松下电器产业株式会社 头戴式显示器及其位置偏差调整方法
WO2014100484A1 (en) * 2012-12-19 2014-06-26 HeadsUp Technologies, Inc. Methods and systems for managing motion sickness
JP6397243B2 (ja) 2014-07-22 2018-09-26 キヤノン株式会社 表示装置、制御方法、及びプログラム
JP2016031439A (ja) * 2014-07-28 2016-03-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム
WO2016017245A1 (ja) * 2014-07-31 2016-02-04 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
US9999835B2 (en) * 2015-02-05 2018-06-19 Sony Interactive Entertainment Inc. Motion sickness monitoring and application of supplemental sound to counteract sickness
KR101700767B1 (ko) * 2015-06-02 2017-01-31 엘지전자 주식회사 헤드 마운티드 디스플레이
KR102380432B1 (ko) * 2015-06-03 2022-04-01 클리어모션, 아이엔씨. 차체 모션 및 승객 경험을 제어하기 위한 방법 및 시스템
JP2017054457A (ja) * 2015-09-11 2017-03-16 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
CN105204642B (zh) * 2015-09-24 2018-07-06 小米科技有限责任公司 虚拟现实交互画面的调节方法和装置
JP2017079389A (ja) * 2015-10-20 2017-04-27 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
KR20170051013A (ko) * 2015-11-02 2017-05-11 엘지전자 주식회사 테더링 형 hmd 및 그 hmd의 제어 방법
JP2017059196A (ja) 2015-12-22 2017-03-23 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム
US10388071B2 (en) * 2016-03-25 2019-08-20 Sony Interactive Entertainment Inc. Virtual reality (VR) cadence profile adjustments for navigating VR users in VR environments
JP6214105B1 (ja) 2016-05-31 2017-10-18 株式会社大一商会 遊技機
CN106339084A (zh) * 2016-08-21 2017-01-18 乐视控股(北京)有限公司 虚拟现实设备的控制方法及系统
US10565777B2 (en) * 2016-09-30 2020-02-18 Sony Interactive Entertainment Inc. Field of view (FOV) throttling of virtual reality (VR) content in a head mounted display
JP6934806B2 (ja) 2017-11-02 2021-09-15 キヤノン株式会社 表示装置、表示装置の制御方法

Also Published As

Publication number Publication date
US11474595B2 (en) 2022-10-18
JP2019086592A (ja) 2019-06-06
CN111279410B (zh) 2022-10-11
GB202008184D0 (en) 2020-07-15
JP2022000697A (ja) 2022-01-04
GB2582106B (en) 2022-12-14
DE112018005224T5 (de) 2020-07-16
CN111279410A (zh) 2020-06-12
WO2019087623A1 (ja) 2019-05-09
US20200241633A1 (en) 2020-07-30
GB2582106A (en) 2020-09-09

Similar Documents

Publication Publication Date Title
CN109840947B (zh) 增强现实场景的实现方法、装置、设备及存储介质
CN107111340B (zh) 在虚拟或增强现实场景内进行用户交互的方法和系统
JP6316387B2 (ja) 広範囲同時遠隔ディジタル提示世界
US9495008B2 (en) Detecting a primary user of a device
JP5337915B2 (ja) 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP6087453B1 (ja) 仮想空間の提供方法、およびプログラム
CN108369449A (zh) 第三方全息门户
JP6675209B2 (ja) 情報処理装置およびユーザガイド提示方法
JP2022000697A (ja) 表示装置、表示装置の制御方法
JP2012053631A (ja) 情報処理装置、情報処理方法
JP6312512B2 (ja) 遠隔見守りシステム
JP6470859B1 (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
KR20160096392A (ko) 직관적인 상호작용 장치 및 방법
JP6212666B1 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
JP7085578B2 (ja) 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
US20220405996A1 (en) Program, information processing apparatus, and information processing method
JP6398938B2 (ja) 投影制御装置、及びプログラム
JP6739254B2 (ja) プログラム、情報処理装置、情報処理方法、及びサーバ装置
JP2019160295A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP6738308B2 (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
JP6983639B2 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
TW201832054A (zh) 虛擬實境移動畫面顯示方法、虛擬實境裝置及記錄媒體
JP2023096844A (ja) プログラム、情報処理方法、及び情報処理装置
JP2019113881A (ja) 頭部装着装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201102

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210824

R151 Written notification of patent or utility model registration

Ref document number: 6934806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151