JP2019057009A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2019057009A
JP2019057009A JP2017179965A JP2017179965A JP2019057009A JP 2019057009 A JP2019057009 A JP 2019057009A JP 2017179965 A JP2017179965 A JP 2017179965A JP 2017179965 A JP2017179965 A JP 2017179965A JP 2019057009 A JP2019057009 A JP 2019057009A
Authority
JP
Japan
Prior art keywords
instruction
user
moving image
posture
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017179965A
Other languages
English (en)
Other versions
JP7027753B2 (ja
Inventor
圭悟 服部
Keigo Hattori
圭悟 服部
裕丈 佐々木
Hirotake Sasaki
裕丈 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017179965A priority Critical patent/JP7027753B2/ja
Priority to US15/945,320 priority patent/US10600331B2/en
Publication of JP2019057009A publication Critical patent/JP2019057009A/ja
Application granted granted Critical
Publication of JP7027753B2 publication Critical patent/JP7027753B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザが動画の動きに合った姿勢を取らない場合と比較して、ユーザの酔いを効果的に軽減することができる情報処理装置及びプログラムを提供する。【解決手段】情報処理装置10Aは、ユーザが観視する動画の動きを検出する検出部50と、検出部50により検出された動画の動きに応じて、ユーザに対して動画の動きに合った姿勢を取る指示を行う指示部52と、を備える。【選択図】図3

Description

本発明は、情報処理装置及びプログラムに関する。
特許文献1には、加速度センサ及び情報処理装置を備えた乗り物酔い防止回復装置が記載されている。ここで、加速度センサは、車両の加速度の方向及び大きさを検出する。また、情報処理装置は、所定の放射点から画面の手前方向に画像が移動する動画像を生成すると共に、加速度センサにより検出された加速度の方向及び大きさに応じて生成される動画像の放射点、及び動画像の方向を制御し、生成した動画像を表示部に出力する。
また、特許文献2には、コンテンツ格納部、コンテンツ解析部、コンテンツ選択部、及びコンテンツ再生部を備えた画像表示装置が記載されている。ここで、コンテンツ格納部は、コンテンツを格納する。また、コンテンツ解析部は、コンテンツ格納部からコンテンツを取り出し、取り出したコンテンツに含まれるフレームの画像から動きベクトルを算出してコンテンツの内容を解析する。また、コンテンツ選択部は、コンテンツ解析部による解析結果に基づいて、乗り物酔いになり難いコンテンツを選択する。また、コンテンツ再生部は、コンテンツ選択部により選択された乗り物酔いになり難いコンテンツを再生する。
特開2008−230575号公報 特開2006−040056号公報
ところで、近年、VR(Virtual Reality:仮想現実)、AR(Augmented Reality:拡張現実)、及びMR(Mixed Reality:複合現実)等の環境において、乗り物での移動を体験させる様々な動画が提供されている。この種の動画では、観視するユーザの酔いが問題となっている。
これに対して、実際の乗り物に乗るユーザを対象として、乗り物酔いし難い映像を表示することで、ユーザの酔いを軽減する技術がある。しかしながら、この技術は、動画を観視するユーザを対象としたものではない。従って、例えば、VR空間でジェットコースターに乗った状態を体験させる動画を表示する場合等に、当該動画を観視するユーザの酔いを軽減することは考慮されていない。
本発明は、ユーザが動画の動きに合った姿勢を取らない場合と比較して、ユーザの酔いを効果的に軽減することができる情報処理装置及びプログラムを提供することを目的とする。
上記目的を達成するために、請求項1に記載の情報処理装置は、ユーザが観視する動画の動きを検出する検出部と、前記検出部により検出された前記動画の動きに応じて、前記ユーザに対して前記動画の動きに合った姿勢を取る指示を行う指示部と、を備えたものである。
また、請求項2に記載の情報処理装置は、請求項1に記載の発明において、前記ユーザの姿勢を示す姿勢情報を取得する取得部を更に備えたものである。
また、請求項3に記載の情報処理装置は、請求項2に記載の発明において、前記指示部が、前記取得部により取得された前記姿勢情報により示される前記ユーザの姿勢が前記動画の動きに対して予め定められた姿勢ではない場合に、前記予め定められた姿勢を取る指示を行うものである。
また、請求項4に記載の情報処理装置は、請求項3に記載の発明において、前記指示部が、前記取得部により取得された前記姿勢情報により示される前記ユーザの姿勢が前記動画の動きに対して前記予め定められた姿勢である場合に、前記指示を行わないものである。
また、請求項5に記載の情報処理装置は、請求項1に記載の発明において、前記指示部が、前記動画の動く方向が上下左右のいずれかの方向である場合に、前記ユーザに対して、前記方向に合った姿勢を取る指示を行うものである。
また、請求項6に記載の情報処理装置は、請求項5に記載の発明において、前記指示部が、前記動画の動く方向が前記上の方向である場合、前記ユーザの頭を後傾させる姿勢を取る指示を行い、前記動画の動く方向が前記下の方向である場合、前記ユーザの頭を前傾させる姿勢を取る指示を行い、前記動画の動く方向が前記右の方向である場合、前記ユーザの頭を左傾させる姿勢を取る指示を行い、前記動画の動く方向が前記左の方向である場合、前記ユーザの頭を右傾させる姿勢を取る指示を行うものである。
また、請求項7に記載の情報処理装置は、請求項1に記載の発明において、前記指示部が、前記動画の動きが加速及び減速のいずれかを示す動きである場合に、前記ユーザに対して、前記動きに合った姿勢を取る指示を行うものである。
また、請求項8に記載の情報処理装置は、請求項7に記載の発明において、前記指示部が、前記動画の動きが前記加速を示す動きの場合、前記ユーザの頭を後傾させる姿勢を取る指示を行い、前記動画の動きが前記減速を示す動きの場合、前記ユーザの頭を前傾させる姿勢を取る指示を行うものである。
また、請求項9に記載の情報処理装置は、請求項1〜8のいずれか1項に記載の発明において、前記指示部が、前記指示を、視覚的な指示、触覚的な指示、及び聴覚的な指示の少なくとも1つの指示により行うものである。
また、請求項10に記載の情報処理装置は、請求項9に記載の発明において、前記動画と共に、マーカを表示する表示部を更に備え、前記指示部が、前記視覚的な指示として、前記動画の動きに応じて、前記マーカの形状を変化させて指示を行うものである。
また、請求項11に記載の情報処理装置は、請求項10に記載の発明において、前記指示部が、前記動画の動きにおける加速度に応じて、前記マーカの形状を変化させて指示を行うものである。
また、請求項12に記載の情報処理装置は、請求項9〜11のいずれか1項に記載の発明において、前記ユーザの体の一部に接触する振動部材を更に備え、前記指示部が、前記触覚的な指示として、前記動画の動きに応じて、前記振動部材の振動の状態を変化させて指示を行うものである。
また、請求項13に記載の情報処理装置は、請求項9〜12のいずれか1項に記載の発明において、前記ユーザに音を出力する音出力部を更に備え、前記指示部が、前記聴覚的な指示として、前記動画の動きに応じて、前記音出力部から出力する音の指向の方向を変化させて指示を行うものである。
一方、上記目的を達成するために、請求項14に記載のプログラムは、コンピュータを、請求項1〜13のいずれか1項に記載の情報処理装置が備える各部として機能させるためのものである。
請求項1及び請求項14に係る発明によれば、ユーザが動画の動きに合った姿勢を取らない場合と比較して、ユーザの酔いを効果的に軽減することができる。
請求項2に係る発明によれば、ユーザの姿勢を考慮して指示を行うことができる。
請求項3に係る発明によれば、ユーザの姿勢に係らず常に指示が行われる場合と比較して、ユーザが煩わしいと感じる度合いを抑制することができる。
請求項4に係る発明によれば、ユーザの姿勢が好適な場合でも常に指示が行われる場合と比較して、ユーザが煩わしいと感じる度合いを抑制することができる。
請求項5に係る発明によれば、ユーザが上下左右のいずれかの動画の動く方向に合った姿勢を取らない場合と比較して、ユーザの酔いをより効果的に軽減することができる。
請求項6に係る発明によれば、ユーザに対して、上下左右のいずれかの動画の動く方向に合った好適な姿勢を指示することができる。
請求項7に係る発明によれば、ユーザが加速及び減速のいずれかを示す動画の動きに合った姿勢を取らない場合と比較して、ユーザの酔いをより効果的に軽減することができる。
請求項8に係る発明によれば、ユーザに対して、加速及び減速のいずれかを示す動画の動きに合った好適な姿勢を指示することができる。
請求項9に係る発明によれば、視覚的な指示、触覚的な指示、及び聴覚的な指示の少なくとも1つの指示を行わない場合と比較して、ユーザに対して直感的に分かり易い指示を行うことができる。
請求項10に係る発明によれば、ユーザの視覚を利用して、ユーザが取るべき好適な姿勢を分かり易く指示することができる。
請求項11に係る発明によれば、ユーザの視覚を利用して、ユーザが取るべき加速度に応じた好適な姿勢を分かり易く指示することができる。
請求項12に係る発明によれば、ユーザの触覚を利用して、ユーザが取るべき好適な姿勢を分かり易く指示することができる。
請求項13に係る発明によれば、ユーザの聴覚を利用して、ユーザが取るべき好適な姿勢を分かり易く指示することができる。
第1の実施形態に係る情報処理システムの構成の一例を示す概観図である。 第1の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第1の実施形態に係る情報処理装置の機能的な構成の一例を示すブロック図である。 実施形態に係る動画の一例を示す正面図である。 実施形態に係る動画の動きを検出する処理の一例を説明するための図である。 実施形態に係るユーザが取り得る姿勢の一例を示す図である。 実施形態に係る動画と共に表示されるマーカ及びユーザが取るべき姿勢の一例を示す図である。 実施形態に係る動画の動きが緩やかな加速を示す動きの場合におけるマーカ及びユーザが取るべき姿勢の一例を示す図である。 実施形態に係る動画の動きが急加速を示す動きの場合におけるマーカ及びユーザが取るべき姿勢の一例を示す図である。 実施形態に係る動画の動きが緩やかな減速を示す動きの場合におけるマーカ及びユーザが取るべき姿勢の一例を示す図である。 実施形態に係る動画の動きが急減速を示す動きの場合におけるマーカ及びユーザが取るべき姿勢の一例を示す図である。 実施形態に係る動画の動きが右折を示す動きの場合におけるマーカ及びユーザが取るべき姿勢の一例を示す図である。 実施形態に係る動画の動きが左折を示す動きの場合におけるマーカ及びユーザが取るべき姿勢の一例を示す図である。 実施形態に係る動画の動きが緩やかな加速を示す動きの場合におけるマーカ及びユーザが取るべき姿勢の他の例を示す図である。 実施形態に係る世界座標系及びカメラ座標系の概念を説明するための図である。 第1の実施形態に係るプログラムの処理の流れの一例を示すフローチャートである。 第2の実施形態に係る情報処理装置の機能的な構成の一例を示すブロック図である。 第2の実施形態に係る動画の右折を示す動きの場合におけるマーカ及びユーザが取るべき姿勢の一例を示す図である。 第2の実施形態に係る動画の右折を示す動きの場合におけるマーカ及びユーザが取るべき姿勢の他の例を示す図である。 第3の実施形態に係る情報処理装置の機能的な構成の一例を示すブロック図である。
以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。
[第1の実施形態]
図1は、第1の実施形態に係る情報処理システム90の構成の一例を示す概観図である。
図1に示すように、本実施形態に係る情報処理システム90は、情報処理装置10A、第1コントローラ31、第2コントローラ32、第1センサ41、及び第2センサ42を備える。
本実施形態に係る情報処理装置10Aは、一例として、動画を表示する表示部を備えたHMD(Head Mount Display)と一体的に構成されている。この場合、情報処理装置10Aは、ユーザUの頭部に装着される。情報処理装置10Aは、ユーザUの視界を覆う状態で装着されるため、動画を観視するユーザUは高い没入感が得られる。なお、本実施形態に係る情報処理装置10Aは、例えば、表示部を備えたメガネ型端末と一体で構成されていてもよいし、据え置き型の大画面の表示装置と一体で構成されていてもよい。
本実施形態に係る第1コントローラ31及び第2コントローラ32の各々には、一例として、振動機能を備えたコントローラが適用される。当該コントローラは、上記HMDで表示させる動画に対応して各種の操作を行う場合に用いられるコントローラである。なお、HMD及びコントローラに関する既存の製品の一例として、Oculus Rift(登録商標)とOculus Touch(登録商標)との組み合わせが挙げられる。更には、HTC Vive(登録商標)や、Microsoft Hololens(登録商標)とOculus Touchとの組み合わせ等も挙げられる。本実施形態においては、第1コントローラ31がユーザUの右手に把持され、第2コントローラ32がユーザUの左手に把持される。
本実施形態に係る第1センサ41及び第2センサ42の対は、情報処理装置10Aの3次元的な位置及び角度を検出し、検出した位置及び角度を、ユーザUの姿勢を示す姿勢情報として外部に送信する。本実施形態では、情報処理装置10A(つまりHMD)の3次元的な位置及び角度を、ユーザUの頭の3次元的な位置及び角度とみなすものとする。また、本実施形態に係る第1センサ41及び第2センサ42の対は、一例として、ステレオカメラとして構成される。
本実施形態に係る情報処理装置10Aは、第1コントローラ31、第2コントローラ32、第1センサ41、及び第2センサ42の各々と無線通信を介して接続される。なお、有線通信を介して接続されてもよい。
図2は、第1の実施形態に係る情報処理装置10Aの構成の一例を示すブロック図である。
図2に示すように、本実施形態に係る情報処理装置10Aは、制御部12と、記憶部14と、表示部16と、操作部18と、通信部20と、外部機器インターフェース(外部機器I/F)22と、を備える。
制御部12は、CPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、及び入出力インターフェース(I/O)12Dを備えており、これら各部がバスを介して各々接続されている。
I/O12Dには、記憶部14と、表示部16と、操作部18と、通信部20と、外部機器I/F22とを含む各機能部が接続されている。これらの各機能部は、I/O12Dを介して、CPU12Aと相互に通信可能とされる。
制御部12は、情報処理装置10Aの全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部12の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部12の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
記憶部14としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、情報処理装置10Aで再生可能な動画が格納されている。記憶部14には、本実施形態に係る姿勢指示処理を実行するためのプログラム14Aが記憶される。なお、このプログラム14Aは、ROM12Bに記憶されていてもよい。
プログラム14Aは、例えば、情報処理装置10Aに予めインストールされていてもよい。プログラム14Aは、不揮発性の記憶媒体に記憶して、又はネットワークを介して配布して、情報処理装置10Aに適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM、光磁気ディスク、HDD、DVD-ROM、フラッシュメモリ、メモリカード等が想定される。
表示部16は、ユーザUにより再生対象とされた動画を表示する。表示部16には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や、有機EL(Electro Luminescence)ディスプレイ等が用いられる。
操作部18には、情報処理装置10AのユーザUから各種の指示を受け付けるための操作キー群が設けられている。
通信部20は、LAN(Local Area Network)、WAN(Wide Area Network)等のネットワークに接続されており、外部のサーバ装置とネットワークを介して通信可能とされる。なお、外部のサーバ装置には、情報処理装置10Aで再生可能な動画が格納されていてもよい。この場合、情報処理装置10Aは、外部のサーバ装置から動画を取得してもよい。
外部機器I/F22は、第1コントローラ31、第2コントローラ32、第1センサ41、及び第2センサ42の各々と無線通信を介して接続するためのI/Fである。なお、外部機器I/F22は、これらの第1コントローラ31、第2コントローラ32、第1センサ41、及び第2センサ42の各々と有線通信を介して接続してもよい。
ところで、表示部16に表示される動画を観視するユーザUが乗り物酔い状態となる原因の一つとして、ユーザUが動画の動きに合った好適な姿勢を取っていないことが挙げられる。このため、本実施形態に係る情報処理装置10Aは、動画の動きに応じて、ユーザUが好適な姿勢を取る指示を行う。そして、ユーザUが当該指示に従って姿勢を変化させることにより、動画による酔いを軽減させる。
本実施形態に係る情報処理装置10AのCPU12Aは、記憶部14に記憶されているプログラム14AをRAM12Cに書き込んで実行することにより、図3に示す各部として機能する。
図3は、第1の実施形態に係る情報処理装置10Aの機能的な構成の一例を示すブロック図である。
図3に示すように、本実施形態に係る情報処理装置10AのCPU12Aは、検出部50、指示部52、及び取得部54として機能する。
本実施形態に係る検出部50は、ユーザUが観視する動画の動きを検出する。動画の動きの検出には、一例として、動画そのものを解析して、物体の動きをベクトルで示すオプティカルフローを検出する方法が用いられる。また、別の例として、動画を撮影したカメラを搭載した移動体に加速度センサ及びジャイロセンサを取り付けておき、これらのセンサにより動画撮影時に得られた計測情報を、タイムスタンプ等を用いて動画に時系列順で予め対応付けておく方法を用いてもよい。
本実施形態に係る指示部52は、検出部50により検出された動画の動きに応じて、ユーザUに対して動画の動きに合った姿勢を取る指示を行う。例えば、動画の動く方向が上下左右のいずれかの方向である場合に、ユーザUの酔いが起こり易い。このため、指示部52は、動画の動く方向が上下左右のいずれかの方向である場合に、ユーザUに対して、当該方向に合った姿勢を取る指示を行う。具体的には、動画の動く方向が上の方向である場合、ユーザUの頭を後傾させる姿勢を取る指示を行い、動画の動く方向が下の方向である場合、ユーザUの頭を前傾させる姿勢を取る指示を行う。また、動画の動く方向が右の方向である場合、ユーザUの頭を左傾させる姿勢を取る指示を行い、動画の動く方向が左の方向である場合、ユーザUの頭を右傾させる姿勢を取る指示を行う。
なお、ここでいう上の方向とは、右斜め上45度の方向から左斜め上45度の方向までの範囲で上の方向を表す。また、下の方向とは、右斜め下45度の方向から左斜め下45度の方向までの範囲で下の方向を表す。また、右の方向とは、右斜め上45度の方向から右斜め下45度の方向までの範囲で右の方向を表す。また、左の方向とは、左斜め上45度の方向から左斜め下45度の方向までの範囲で左の方向を表す。
一方、動画の動きが加速及び減速のいずれかを示す動きである場合にも、ユーザUの酔いが起こり易い。このため、指示部52は、動画の動きが加速及び減速のいずれかを示す動きである場合にも、ユーザUに対して、当該動きに合った姿勢を取る指示を行う。具体的には、動画の動きが加速を示す動きの場合、ユーザUの頭を後傾させる姿勢を取る指示を行い、動画の動きが減速を示す動きの場合、ユーザUの頭を前傾させる姿勢を取る指示を行う。
なお、加速の程度が大きいほど、後傾の角度を大きく取る指示を行い、減速の程度が大きいほど、前傾の角度を大きく取る指示を行うようにしてもよい。
なお、指示部52による指示は、ユーザUが直感的に分かり易い指示であることが望ましい。このため、指示部52は、当該指示を、視覚的な指示、触覚的な指示、及び聴覚的な指示の少なくとも1つの指示により行う。この指示部52による指示の具体例については後述する。
また、マーカ68を常に表示して指示されるとユーザUが煩わしいと感じる場合がある。このため、本実施形態に係る取得部54は、第1センサ41及び第2センサ42から、ユーザUの姿勢を示す姿勢情報を取得する。この場合、指示部52は、取得部54により取得された姿勢情報により示されるユーザUの姿勢が動画の動きに対して予め定められた姿勢ではない場合に、指示を行う。一方、取得部54により取得された姿勢情報により示されるユーザUの姿勢が動画の動きに対して予め定められた姿勢である場合には、指示を行わない。ここでいう指示を行わない場合とは、一例として、マーカ68を非表示とすることが考えられる。
まず、図4及び図5を参照して、検出部50の具体的な動作について説明する。
図4は、本実施形態に係る動画60の一例を示す正面図である。
本実施形態に係る動画60は、ユーザUの操作に従って、記憶部14から読み出されて表示部16に表示される。ユーザUは表示部16に表示される動画60を観視する。
本実施形態に係る動画60は、移動体の一例である自動車に搭載されたカメラにより予め撮影された車載動画である。動画60では、遠方の山62に向かって道路64を走行している状態が撮影されている。なお、本実施形態に係る動画60では、図示を簡単にするため、映像を矩形状に区切った状態で示しているが、実際にはユーザUの視野角いっぱいに映像が広がっているものとする。
図5は、本実施形態に係る動画60の動きを検出する処理の一例を説明するための図である。
本実施形態に係る動画60は、上述したように車載動画であるため、自動車の加速、減速、右折、及び左折等を示す動きが含まれる。本実施形態に係る検出部50では、動画60に含まれる特定の物体の動きを解析し、加速度の向き及び大きさを検出する。動画60のみを用いて加速度の向き及び大きさを検出する場合、例えば、動画60を解析して、オプティカルフロー66を検出する方法が適用される。
図5に示すように、検出したオプティカルフロー66が下向きであれば、動画60を撮影したカメラを搭載した自動車は前方に向かって進行していると特定される。つまり、オプティカルフロー66の向きを計測することで、動画60の動く方向が特定される。ここでいう動画60の動く方向は、自動車の進行方向と一致するものとする。そして、オプティカルフロー66の大きさを計測することで、加速及び減速の各々の程度が特定される。
図6は、本実施形態に係るユーザUが取り得る姿勢の一例を示す図である。
図6においては、ユーザUの顔が紙面手前側に向けられた状態として説明する。
図6に示すように、基準の姿勢とは、ユーザUの顔が水平方向に向く姿勢を表す。なお、本実施形態において、水平方向に向くとは、水平方向に対して予め定められた角度(一例として±5度)以内の範囲の方向を向くことを意味する。前傾の姿勢とは、ユーザUの顔が下方に傾いた姿勢を表す。なお、本実施形態において、下方に傾くとは、垂直方向に対して予め定められた角度(一例として5度)を超えて下方に傾くことを意味する。後傾の姿勢とは、ユーザUの顔が上方に傾いた姿勢を表す。なお、本実施形態において、上方に傾くとは、垂直方向に対して予め定められた角度(一例として5度)を超えて上方に傾くことを意味する。左傾の姿勢とは、ユーザUの顔が左方に傾いた姿勢を表す。なお、本実施形態において、左方に傾くとは、垂直方向に対して予め定められた角度(一例として5度)を超えて左方に傾くことを意味する。右傾の姿勢とは、ユーザUの顔が右方に傾いた姿勢を表す。なお、本実施形態において、右方に傾くとは、垂直方向に対して予め定められた角度(一例として5度)を超えて右方に傾くことを意味する。
次に、図7〜図14を参照して、指示部52により視覚的な指示を行う場合の具体的な動作について説明する。
図7は、本実施形態に係る動画60と共に表示されるマーカ68及びユーザUが取るべき姿勢の一例を示す図である。
本実施形態に係るマーカ68は、視覚的な指示の一例であり、動画60に半透明の状態で表示される。なお、マーカ68の取り得る形状は、一例であり、これに限定されるものではない。
図7に示すように、例えば、自動車が等速で直進している場合、マーカ68の形状は基準形状となる。このときの基準形状は、一例として、矩形状に設定されている。そしてこの場合、ユーザUが取るべき姿勢は、基準の姿勢となる。なお、図7〜図14においては、ユーザUの顔が紙面奥側に向けられた状態として説明する。
図8は、本実施形態に係る動画60の動きが緩やかな加速を示す動きの場合におけるマーカ68及びユーザUが取るべき姿勢の一例を示す図である。
図8に示すように、動画60の動きが緩やかな加速を示す動きの場合、マーカ68の形状は、図7に示す基準形状と比べて、下方向に小さく引っ張られた形状に変化する。なお、本実施形態では、図5に示すオプティカルフロー66の検出結果から、加速度の向きが「下向き」、大きさが「小」の場合、緩やかな加速を示す動きと判定される。そしてこの場合、ユーザUが取るべき姿勢は、小さく後傾した姿勢となる。
図9は、本実施形態に係る動画60の動きが急加速を示す動きの場合におけるマーカ68及びユーザUが取るべき姿勢の一例を示す図である。
図9に示すように、動画60の動きが急加速を示す動きの場合、マーカ68の形状は、図7に示す基準形状と比べて、下方向に大きく引っ張られた形状に変化する。なお、本実施形態では、図5に示すオプティカルフロー66の検出結果から、加速度の向きが「下向き」、大きさが「大」の場合、急加速を示す動きと判定される。このように、加速度の大きさに応じて、マーカ68の形状の変化量を調整する。そしてこの場合、ユーザUが取るべき姿勢は、大きく後傾した姿勢となる。
図10は、本実施形態に係る動画60の動きが緩やかな減速を示す動きの場合におけるマーカ68及びユーザUが取るべき姿勢の一例を示す図である。
図10に示すように、動画60の動きが緩やかな減速を示す動きの場合、マーカ68の形状は、図7に示す基準形状と比べて、上方向に小さく引っ張られた形状に変化する。なお、本実施形態では、図5に示すオプティカルフロー66の検出結果から、加速度の向きが「上向き」、大きさが「小」の場合、緩やかな減速を示す動きと判定される。そしてこの場合、ユーザUが取るべき姿勢は、小さく前傾した姿勢となる。
図11は、本実施形態に係る動画60の動きが急減速を示す動きの場合におけるマーカ68及びユーザUが取るべき姿勢の一例を示す図である。
図11に示すように、動画60の動きが急減速を示す動きの場合、マーカ68の形状は、図7に示す基準形状と比べて、上方向に大きく引っ張られた形状に変化する。なお、本実施形態では、図5に示すオプティカルフロー66の検出結果から、加速度の向きが「上向き」、大きさが「大」の場合、急減速を示す動きと判定される。図9に示す急加速の場合と同様に、加速度の大きさに応じて、マーカ68の形状の変化量を調整する。そしてこの場合、ユーザUが取るべき姿勢は、大きく前傾した姿勢となる。
図12は、本実施形態に係る動画60の動きが右折を示す動きの場合におけるマーカ68及びユーザUが取るべき姿勢の一例を示す図である。
図12に示すように、動画60の動きが「加速度<0(減速中)」の右折を示す動きの場合、マーカ68の形状は、図7に示す基準形状と比べて、左上方向に引っ張られた形状に変化する。なお、本実施形態では、図5に示すオプティカルフロー66の検出結果から、加速度の向きが「左上向き」、大きさが「小」の場合、右折を示す動きと判定される。そしてこの場合、ユーザUが取るべき姿勢は、左傾した姿勢となる。
図13は、本実施形態に係る動画60の動きが左折を示す動きの場合におけるマーカ68及びユーザUが取るべき姿勢の一例を示す図である。
図13に示すように、動画60の動きが「加速度<0(減速中)」の左折を示す動きの場合、マーカ68の形状は、図7に示す基準形状と比べて、右上方向に引っ張られた形状に変化する。なお、本実施形態では、図5に示すオプティカルフロー66の検出結果から、加速度の向きが「右上向き」、大きさが「小」の場合、左折を示す動きと判定される。そしてこの場合、ユーザUが取るべき姿勢は、右傾した姿勢となる。
図14は、本実施形態に係る動画60の動きが緩やかな加速を示す動きの場合におけるマーカ68及びユーザUが取るべき姿勢の他の例を示す図である。
上記図7〜図13に示す例では、ユーザUが前方を見ている場合について示したが、VR等の仮想空間では360度見渡せるため、ユーザUの顔の向きに応じて、マーカ68の形状を好適に変化させることが望ましい。
図14に示すように、動画60の動きが緩やかな加速を示す動きである場合に、動画60を観視するユーザUの顔が左方(紙面奥側)を向き、体が正面前方を向いている状態を想定する。この状態で加速した場合、ユーザUは左傾の姿勢を取ることが望ましい。なお、ユーザUの顔の向きは、第1センサ41及び第2センサ42により検出される。この場合、指示部52は、検出されたユーザUの顔の向きに応じて、マーカ68の形状を変化させて指示を行う。
次に、図15を参照して、本実施形態に係る姿勢情報を表すために定義される世界座標系及びカメラ座標系について説明する。
図15は、本実施形態に係る世界座標系及びカメラ座標系の概念を説明するための図である。
図15に示すように、本実施形態係る座標系として、ある空間全体を表す世界座標系と、情報処理装置10A(本実施形態ではHMD)を中心とするカメラ座標系と、が定義される。
初期状態では、これらの世界座標系とカメラ座標系とは一致している。また、世界座標系及びカメラ座標系の各々は、位置及び角度を有している。ここでは、世界座標系の位置(position)を、x、y、zで表し、角度(direction)を、ピッチ(pitch)、ヨー(yaw)、ロール(roll)で表す。一方、カメラ座標系の位置(position’)を、x'、y’、z’で表し、角度(direction’)を、ピッチ’(pitch')、ヨー’(yaw')、ロール’(roll')で表す。なお、これらの角度及び位置の各々は、単精度浮動小数点(float)の値を取る。位置の単位は、メートル[m]とする。角度は、−1.0以上+1.0以下の値(正弦、余弦)を持つ。
本実施形態に係る第1センサ41及び第2センサ42からは、情報処理装置10Aの世界座標系に対する位置及び角度が得られる。本実施形態では、ユーザUが好適な姿勢を取ることを指示するために、世界座標系で受ける力をカメラ座標系で受ける力に変換する処理が行われる。一例として、カメラ座標系でz’方向の力を、z’方向の移動量mz’として表し、カメラ座標系でx’方向の力を、ロール’の回転量mr’として表すものとする。
まず、ユーザUの顔の向きradianは、世界座標系のヨーの値を用いて、下記の式(1)で表される。
(1)
ユーザUの顔の向きradianから、世界座標系のz方向にかかる力fz及びx方向にかかる力fxを、下記の式(2)を用いて、カメラ座標系のfz’及びfx’に変換する。但し、fx、fz、fx’、及びfz’の単位は、加速度[G]とする。
(2)
次に、カメラ座標系のロール’の回転量mr’及びピッチ’の回転量mp’は、下記の式(3)を用いて表される。但し、g及びhは一般化した関数である。
(3)
ここで、ユーザUが取り得る姿勢の範囲を、世界座標系のロール及びピッチがそれぞれ−30度以上+30度以下の範囲とする。一説では、人は絶対値で0.3Gを超える加速度を急加速(+の加速度)又は急減速(−の加速度)と感じると言われている。本実施形態では、一例として、0.3Gより大きい加速度に対しては全て30度を対応付け、−0.3Gより小さい加速度に対しては全て−30度を対応付ける。また、0G以上0.3G以下の加速度に対しては、関数g及びhを用いて線形で表される角度を対応付ける。加速度をaとした場合、関数g及びhは、下記の式(4)を用いて表される。
(4)
なお、カメラ座標系のz’方向の力は、z’方向の移動量として表すため、ピッチ’の回転量mp’をz’方向の移動量に換算する。このとき、ユーザUの座高Tを考慮する。ユーザUの座高が例えば90cmであれば、T=0.9である。z’方向の移動量mz’は、以下の式(5)を用いて表される。
(5)
上記により導出されたカメラ座標系のz’方向の移動量mz’、及び、ロール’の回転量mr’の値に基づいて、本実施形態に係るマーカ68の形状を変化させる。このとき、ユーザUが取るべき理想的な姿勢を示す角度を目安として表示してもよい。
次に、マーカ68を用いて指示を行うタイミングについて説明する。
動画60による酔いを軽減するためには、実際の動画60において、一例として、加速、減速、右折、及び左折のいずれかの動きが発生する前にマーカ68により指示を行う必要がある。蓄積した動画60を再生する場合は、動画60の動きを予め解析しておいて、マーカ68による指示を、一例として、加速、減速、右折、及び左折のいずれかの動きが発生するフレームよりも数フレーム前に表示するという手法が適用される。一方、リアルタイムで動画60を再生する場合は、以下に示す2つの手法が適用される。これらの2つの手法は、それぞれ単独で用いても良いし、組み合わせて用いても良い。
第1の手法は、予測による手法である。一例として、加速、減速、右折、及び左折のいずれかの動きを予測して、当該予測をマーカ68による指示に反映させる。時刻t+1における動きは、時刻tまでの動きから予測可能である。従来手法としては、例えば、回帰分析法、カルマンフィルタ法、RNN(Recurrent Neural Network)法等が適用される。第2の手法は、遅延による手法である。この場合、ユーザUに対して、ある時刻において本来観視されるべきフレームよりも少し過去のフレームを観視させる。つまり、ユーザUがある時刻で観視する少し過去のフレームに表示されるマーカ68は、当該時刻より後の時点で観視されるフレーム内の動きを反映したものである。
次に、図16を参照して、第1の実施形態に係る情報処理装置10Aの作用を説明する。なお、図16は、第1の実施形態に係るプログラム14Aの処理の流れの一例を示すフローチャートである。
まず、情報処理装置10Aは、ユーザによる操作によりプログラム14Aの実行が指示されると、記憶部14から、ユーザにより指定された動画を読み出して表示部16に表示させる。
図16のステップ100では、検出部50が、表示部16に表示されている動画の動きを検出する。
ステップ102では、取得部54が、第1センサ41及び第2センサ42から、ユーザの姿勢を示す姿勢情報を取得する。
ステップ104では、指示部52が、検出部50により検出された動画の動き、及び、取得部54により取得された姿勢情報に基づいて、ユーザの姿勢が動画の動きに対して予め定められた姿勢であるか否かを判定する。ユーザの姿勢が予め定められた姿勢であると判定した場合(肯定判定の場合)、ステップ108に移行する。一方、ユーザの姿勢が予め定められた姿勢ではないと判定した場合(否定判定の場合)、ステップ106に移行する。
ステップ106では、指示部52が、上述の図7〜図14を参照して説明したように、マーカ68を用いて、ユーザに対して予め定められた姿勢を取る指示を行う。
ステップ108では、指示部52が、動画の再生の終了を指示されたか否かを判定する。動画の再生の終了を指示されたと判定した場合(肯定判定の場合)、本プログラム14Aによる一連の処理を終了する。一方、動画の再生の終了を指示されていないと判定した場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。
なお、上記実施形態では、ユーザの姿勢が動画の動きに対して好適な姿勢でない場合にのみ指示を行う形態について説明したが、ユーザの姿勢が動画の動きに対して好適な姿勢であるか否かに係らず、指示を行う形態としてもよい。
ここで、人にはある程度の予測能力があるため、進行方向を注視していれば、ユーザがある程度好適な姿勢を取ることは可能であると考えられる。しかし、ユーザが予測できない急加速や急減速等が起こった場合には、好適な姿勢を取れない、あるいは、姿勢の調整に遅れが生じ、これらが著しい酔いに繋がる場合がある。また、進行方向を注視するあまり、360度の動画を十分に楽しむことができないということもあり得る。
これに対して、本実施形態によれば、ユーザが予測できない急加速や急減速等が起こった場合でも、マーカによる指示に従うことで、ユーザは好適な姿勢を取ることが可能とされる。また、ユーザが360度の動画のどの部分を見ていたとしても、好適な姿勢を取ることが可能とされ、動画による酔いが効果的に軽減される。
[第2の実施形態]
図17は、第2の実施形態に係る情報処理装置10Bの機能的な構成の一例を示すブロック図である。
図17に示すように、本実施形態に係る情報処理装置10Bは、検出部50、指示部56、取得部54、表示部16、第1コントローラ31、及び第2コントローラ32を備える。なお、同じ機能を有する構成要素には同じ符号を付し、繰り返しの説明は省略する。
本実施形態に係る第1コントローラ31及び第2コントローラ32は、ユーザUの体の一部に接触し、触覚的な指示を行うための振動部材の一例である。本実施形態においては、上述の図1に示したように、第1コントローラ31がユーザUの右手に把持され、第2コントローラ32がユーザUの左手に把持される。
本実施形態に係る指示部56は、動画の動きに応じて、第1コントローラ31及び第2コントローラ32の各々の振動の状態を変化させて指示を行う。具体的な例を図18に示す。
図18は、第2の実施形態に係る動画60の右折を示す動きの場合におけるマーカ68及びユーザUが取るべき姿勢の一例を示す図である。
図18に示すように、動画60の動きが「加速度<0(減速中)」の右折を示す動きの場合、マーカ68の形状は、図7に示す基準形状と比べて、左上方向に引っ張られた形状に変化する。更に、指示部56は、ユーザUの左手に把持されている第2コントローラ32のみを振動させて、ユーザUに左傾の姿勢を取るように促す。なお、第1センサ41及び第2センサ42は、ユーザUの頭の3次元的な位置を検出している。この場合、ユーザUの頭が好適な位置に近づくにつれて第2コントローラ32の振動を弱めていくようにしてもよい。
図19は、第2の実施形態に係る動画60の右折を示す動きの場合におけるマーカ68及びユーザUが取るべき姿勢の他の例を示す図である。
図19に示すように、ユーザUの頭の3次元的な位置だけでなく、第1コントローラ31及び第2コントローラ32の各々の3次元的な位置を考慮してもよい。この場合、第1センサ41及び第2センサ42は、ユーザUの頭の3次元的な位置を検出すると共に、第1コントローラ31及び第2コントローラ32の各々の3次元的な位置を検出する。
本実施形態に係る指示部56は、第1センサ41及び第2センサ42の検出結果に基づいて、ユーザUの頭、第1コントローラ31、及び第2コントローラ32の位置関係が図19に示す位置関係になるように指示を行う。例えば、図19に示す位置関係に近づくにつれて、第2コントローラ32の振動の間隔を狭くするようにしてもよい。なお、図19に示す位置関係は、ユーザUが傾いた方向に、第1コントローラ31及び第2コントローラ32の各々が傾いた状態を示している。
なお、上記では、マーカ68を用いた視覚的な指示と、第1コントローラ31及び第2コントローラ32を用いた触覚的な指示と、の組み合わせについて示したが、どちらか一方の指示を単独で適用してもよい。また、最初にマーカ68を用いた視覚的な指示を行った後に、ユーザUの姿勢を検出し、好適な姿勢になっていない場合に、更に、第1コントローラ31及び第2コントローラ32を用いた触覚的な指示を行うようにしてもよい。
また、本実施形態に係る視覚的な指示としては、例えば、明滅する光で姿勢の指示をしても良いし、文字によって直接的に姿勢の指示をしても良い。
また、本実施形態に係る触覚的な指示としては、第1コントローラ31及び第2コントローラ32のいずれか一方を一度だけ振動させ、ユーザは振動があった方向に体を傾ける、という簡単な指示でも良い。更には、ユーザの体が左傾し過ぎであることを検知したら右手側の第1コントローラ31を振動させる、という厳密な指示でも良い。また、触覚的な指示としては、低周波治療器のようなデバイスをユーザの体の前後左右に貼り付け、当該デバイスのいずれかを振動させ、ユーザは振動したデバイスの方向に体を傾けるという指示を与えても良い。
[第3の実施形態]
図20は、第3の実施形態に係る情報処理装置10Cの機能的な構成の一例を示すブロック図である。
図20に示すように、本実施形態に係る情報処理装置10Cは、検出部50、指示部58、取得部54、表示部16、第1コントローラ31、第2コントローラ32、及びヘッドフォン34を備える。なお、同じ機能を有する構成要素には同じ符号を付し、繰り返しの説明は省略する。
本実施形態に係るヘッドフォン34は、ユーザUに音を出力し、聴覚的な指示を行うための音出力部の一例である。本実施形態においては、ユーザUの頭部にヘッドフォン34が装着されているものとする。
本実施形態に係る指示部58は、動画の動きに応じて、ヘッドフォン34から出力する音の指向の方向を変化させて指示を行う。例えば、ユーザUの右耳及び左耳のいずれか一方にのみ聞こえる音を出力し、ユーザUは音が聞こえた方向に体を傾けるという指示を与えても良い。
なお、本実施形態においても、マーカ68を用いた視覚的な指示と、第1コントローラ31及び第2コントローラ32を用いた触覚的な指示と、ヘッドフォン34を用いた聴覚的な指示と、の2つ以上を組み合わせて適用してもよい。あるいは、視覚、触覚、及び聴覚のいずれか1つを利用した指示を単独で適用してもよい。
また、上記各実施形態においては、情報処理装置と表示部とが一体的に構成されている場合について説明したが、情報処理装置と表示部とが別体で構成されていてもよい。つまり、情報処理装置を外部のサーバ装置により実現し、ネットワークを介して、外部のサーバ装置と表示部とを接続する構成としてもよい。
また、上記各実施形態においては、動画を撮影したときの移動体の一例として、自動車を適用した場合について説明したが、上記各実施形態は、航空機や船舶等の他の移動体であっても同様に適用される。
以上、実施形態として情報処理装置を例示して説明した。実施形態は、情報処理装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。
その他、上記実施形態で説明した情報処理装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
10A、10B、10C 情報処理装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
14 記憶部
14A プログラム
16 表示部
18 操作部
20 通信部
22 外部機器I/F
31 第1コントローラ
32 第2コントローラ
34 ヘッドフォン
41 第1センサ
42 第2センサ
50 検出部
52、56、58 指示部
54 取得部
60 動画
62 山
64 道路
66 オプティカルフロー
68 マーカ
90 情報処理システム

Claims (14)

  1. ユーザが観視する動画の動きを検出する検出部と、
    前記検出部により検出された前記動画の動きに応じて、前記ユーザに対して前記動画の動きに合った姿勢を取る指示を行う指示部と、
    を備えた情報処理装置。
  2. 前記ユーザの姿勢を示す姿勢情報を取得する取得部を更に備えた請求項1に記載の情報処理装置。
  3. 前記指示部は、前記取得部により取得された前記姿勢情報により示される前記ユーザの姿勢が前記動画の動きに対して予め定められた姿勢ではない場合に、前記予め定められた姿勢を取る指示を行う請求項2に記載の情報処理装置。
  4. 前記指示部は、前記取得部により取得された前記姿勢情報により示される前記ユーザの姿勢が前記動画の動きに対して前記予め定められた姿勢である場合に、前記指示を行わない請求項3に記載の情報処理装置。
  5. 前記指示部は、前記動画の動く方向が上下左右のいずれかの方向である場合に、前記ユーザに対して、前記方向に合った姿勢を取る指示を行う請求項1に記載の情報処理装置。
  6. 前記指示部は、
    前記動画の動く方向が前記上の方向である場合、前記ユーザの頭を後傾させる姿勢を取る指示を行い、
    前記動画の動く方向が前記下の方向である場合、前記ユーザの頭を前傾させる姿勢を取る指示を行い、
    前記動画の動く方向が前記右の方向である場合、前記ユーザの頭を左傾させる姿勢を取る指示を行い、
    前記動画の動く方向が前記左の方向である場合、前記ユーザの頭を右傾させる姿勢を取る指示を行う請求項5に記載の情報処理装置。
  7. 前記指示部は、前記動画の動きが加速及び減速のいずれかを示す動きである場合に、前記ユーザに対して、前記動きに合った姿勢を取る指示を行う請求項1に記載の情報処理装置。
  8. 前記指示部は、
    前記動画の動きが前記加速を示す動きの場合、前記ユーザの頭を後傾させる姿勢を取る指示を行い、
    前記動画の動きが前記減速を示す動きの場合、前記ユーザの頭を前傾させる姿勢を取る指示を行う請求項7に記載の情報処理装置。
  9. 前記指示部は、前記指示を、視覚的な指示、触覚的な指示、及び聴覚的な指示の少なくとも1つの指示により行う請求項1〜8のいずれか1項に記載の情報処理装置。
  10. 前記動画と共に、マーカを表示する表示部を更に備え、
    前記指示部は、前記視覚的な指示として、前記動画の動きに応じて、前記マーカの形状を変化させて指示を行う請求項9に記載の情報処理装置。
  11. 前記指示部は、前記動画の動きにおける加速度に応じて、前記マーカの形状を変化させて指示を行う請求項10に記載の情報処理装置。
  12. 前記ユーザの体の一部に接触する振動部材を更に備え、
    前記指示部は、前記触覚的な指示として、前記動画の動きに応じて、前記振動部材の振動の状態を変化させて指示を行う請求項9〜11のいずれか1項に記載の情報処理装置。
  13. 前記ユーザに音を出力する音出力部を更に備え、
    前記指示部は、前記聴覚的な指示として、前記動画の動きに応じて、前記音出力部から出力する音の指向の方向を変化させて指示を行う請求項9〜12のいずれか1項に記載の情報処理装置。
  14. コンピュータを、請求項1〜13のいずれか1項に記載の情報処理装置が備える各部として機能させるためのプログラム。
JP2017179965A 2017-09-20 2017-09-20 情報処理装置及びプログラム Active JP7027753B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017179965A JP7027753B2 (ja) 2017-09-20 2017-09-20 情報処理装置及びプログラム
US15/945,320 US10600331B2 (en) 2017-09-20 2018-04-04 Information processing apparatus and nontransitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017179965A JP7027753B2 (ja) 2017-09-20 2017-09-20 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019057009A true JP2019057009A (ja) 2019-04-11
JP7027753B2 JP7027753B2 (ja) 2022-03-02

Family

ID=65720592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017179965A Active JP7027753B2 (ja) 2017-09-20 2017-09-20 情報処理装置及びプログラム

Country Status (2)

Country Link
US (1) US10600331B2 (ja)
JP (1) JP7027753B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140176296A1 (en) * 2012-12-19 2014-06-26 HeadsUp Technologies, Inc. Methods and systems for managing motion sickness
KR101564964B1 (ko) * 2015-02-05 2015-11-02 계명대학교 산학협력단 가상현실 멀미를 감소시키는 전기 자극 헤드 마운트 디스플레이 장치

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE515803C2 (sv) * 1999-12-01 2001-10-08 Kianoush Namvar Anordning vid överföring av signalenheter
JP4362092B2 (ja) 2004-07-28 2009-11-11 パナソニック株式会社 画像表示装置
WO2007029740A1 (ja) * 2005-09-09 2007-03-15 Canon Kabushiki Kaisha 撮像装置
JP4892731B2 (ja) 2007-03-23 2012-03-07 国立大学法人浜松医科大学 乗り物酔い防止回復装置
KR101804848B1 (ko) * 2011-04-22 2017-12-06 삼성전자주식회사 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법
US9007428B2 (en) * 2011-06-01 2015-04-14 Apple Inc. Motion-based image stitching
JP5981006B1 (ja) * 2015-09-14 2016-08-31 株式会社コロプラ 視線誘導のためのコンピュータ・プログラム
WO2017150795A1 (en) * 2016-02-29 2017-09-08 Samsung Electronics Co., Ltd. Video display apparatus and method for reducing vr sickness
US10126553B2 (en) * 2016-06-16 2018-11-13 Microsoft Technology Licensing, Llc Control device with holographic element
JP2018000308A (ja) * 2016-06-28 2018-01-11 フォーブ インコーポレーテッド 映像表示装置システム、心拍特定方法、心拍特定プログラム
US10617956B2 (en) * 2016-09-30 2020-04-14 Sony Interactive Entertainment Inc. Methods for providing interactive content in a virtual reality scene to guide an HMD user to safety within a real world space
EP3622487B1 (en) * 2017-05-18 2021-12-22 Samsung Electronics Co., Ltd. Method for providing 360-degree video and device for supporting the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140176296A1 (en) * 2012-12-19 2014-06-26 HeadsUp Technologies, Inc. Methods and systems for managing motion sickness
KR101564964B1 (ko) * 2015-02-05 2015-11-02 계명대학교 산학협력단 가상현실 멀미를 감소시키는 전기 자극 헤드 마운트 디스플레이 장치

Also Published As

Publication number Publication date
JP7027753B2 (ja) 2022-03-02
US20190088150A1 (en) 2019-03-21
US10600331B2 (en) 2020-03-24

Similar Documents

Publication Publication Date Title
AU2017204739B2 (en) Massive simultaneous remote digital presence world
JP6422137B2 (ja) ヘッドマウントディスプレイのための知覚に基づく予測追跡
JP6092437B1 (ja) 仮想空間画像提供方法、及びそのプログラム
WO2017047178A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20190066630A1 (en) Information processing apparatus, information processing method, and program
CN110300994B (zh) 图像处理装置、图像处理方法以及图像系统
KR20160147735A (ko) 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램
KR20160046495A (ko) 외부 물체의 움직임과 연관된 이벤트에 응답하여 화면을 디스플레이하는 장치 및 방법
US11698258B1 (en) Relative inertial measurement system with visual correction
US10771707B2 (en) Information processing device and information processing method
CN105359082A (zh) 用户接口导航
CN110968190B (zh) 用于触摸检测的imu
JP2017220224A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
US11474595B2 (en) Display device and display device control method
US11366318B2 (en) Electronic device and control method thereof
US20230148185A1 (en) Information processing apparatus, information processing method, and recording medium
JP7027753B2 (ja) 情報処理装置及びプログラム
US9933864B1 (en) Steady content display
JP2019174523A (ja) 慣性力とは反対の姿勢を促す表示装置、並びに表示制御プログラム及び方法
US20230376109A1 (en) Image processing apparatus, image processing method, and storage device
WO2024057783A1 (ja) 360度画像視点位置同定部を備える情報処理装置
CN112308906B (zh) 视角校正方法、虚拟实境显示系统与运算装置
CN116721234A (zh) 增强现实系统及其标定方法、装置、电子设备及存储介质
CN116923438A (zh) 运动状态提示方法、装置、电子设备及存储介质
JP2017220162A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7027753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150