JP6723720B2 - 表示システム、情報処理方法及びプログラム - Google Patents

表示システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6723720B2
JP6723720B2 JP2015206453A JP2015206453A JP6723720B2 JP 6723720 B2 JP6723720 B2 JP 6723720B2 JP 2015206453 A JP2015206453 A JP 2015206453A JP 2015206453 A JP2015206453 A JP 2015206453A JP 6723720 B2 JP6723720 B2 JP 6723720B2
Authority
JP
Japan
Prior art keywords
image
photographing means
unit
orientation
moving speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015206453A
Other languages
English (en)
Other versions
JP2017079400A5 (ja
JP2017079400A (ja
Inventor
一大 古賀
一大 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015206453A priority Critical patent/JP6723720B2/ja
Priority to US15/296,889 priority patent/US10078918B2/en
Publication of JP2017079400A publication Critical patent/JP2017079400A/ja
Publication of JP2017079400A5 publication Critical patent/JP2017079400A5/ja
Application granted granted Critical
Publication of JP6723720B2 publication Critical patent/JP6723720B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本発明は、表示システム、情報処理方法及びプログラムに関する。
従来、現実空間と仮想空間の融合を目的とした複合現実感(Mixed Reality、以下、「MR」と記述)の技術が知られている。MRシステムでは、撮影部によって撮影された現実映像に、仮想物体を表すコンピュータグラフィックス(以下、「CG」と記述)を重畳して表示することで、あたかもその場に仮想物体が存在するかのように体感させることができる。仮想物体を想定通りの位置姿勢と大きさで表示するためには、仮想物体と現実空間との間の幾何学的な整合性が取れている必要がある。
MRシステムとして、ビデオシースルー型HMD(Head Mounted Display)が知られている。ビデオシースルー型HMDを利用するMR技術では、HMDに内蔵されている撮影装置であるカメラから現実空間の画像を取得する毎に、現実空間中におけるカメラの画像撮影時の位置及び姿勢を計測する。そしてこのカメラの位置及び姿勢と、焦点距離等のカメラの固有パラメタに基づいてCGを描画し、現実空間の画像上に重畳する。
ビデオシースルー型HMDを利用する場合には、HMDに内蔵されているカメラで撮影されたマーカやエッジ等の指標を含む画像情報を位置合わせのために利用することが可能である。このように、カメラからの画像情報を位置合わせのために利用した場合には、画像が不鮮明であると指標の特徴を正確に検出することが困難となる。HMDを装着したユーザがMR体験を行う場合において画像が不鮮明になるケースとして、ユーザが速く移動したり首を速く振ったりすることにより、HMDの撮影カメラの動き速度が速くなり、画像が鮮明に撮れない場合がある。
また、撮影カメラの動き速度に関し、特許文献1には、カメラの姿勢変化量に応じてメモリに記憶されているホワイトバランス調整係数を用いてゲインの調整を行って撮影画像のホワイトバランスを調整する技術が開示されている。
特開2003−70006号公報
しかしながら、画像情報を利用する位置合わせ手法では、HMDを装着したユーザが速く移動したり速く首を振ったりすることにより、撮影画像中の指標がぶれたりぼけたりしてしまうことがある。上述のように、画像調整を行ったとしてもユーザの動き速度によっては適切な撮影画像が得られない場合もある。このように適切な撮影画像が得られないと、指標を用いた適切な位置合わせを行うことができないという問題があった。
本発明はこのような問題点に鑑みなされたもので、ユーザに撮影手段の動き速度を意識させることにより、位置合わせの処理の精度の低下を防ぐことを目的とする。
そこで、本発明は、ビデオシースルー型のヘッドマウントディスプレイ装置及び情報処理装置を有する表示システムであって、前記ヘッドマウントディスプレイ装置は、画像を撮影する撮影手段と、前記撮影手段により得られた撮影画像に仮想物体の画像が重畳された合成画像を表示する表示手段と、前記撮影手段の動き速度を計測する計測手段とを有し、前記情報処理装置は、前記計測手段により計測された前記動き速度の計測値を示す画像と、前記撮影手段により得られた前記撮影画像から特徴検出を行い、前記特徴からの相対的な位置姿勢を計算することで前記撮影手段の位置姿勢を算出する位置姿勢算出手段と、前記撮影手段の動き速度の閾値を示す画像との対比を示す状況情報を生成する生成手段と、前記状況情報を出力する出力手段とを有することを特徴とする。
本発明によれば、ユーザに撮影手段の動き速度を意識させることにより、位置合わせの処理の精度の低下を防ぐことができる。
表示システムを示す図である。 HMDと、HMDを装着したユーザが観察する空間と、を模式的に示す図である。 情報処理装置の機能構成を示すブロック図である。 閾値決定処理を示すフローチャートである。 閾値テーブルの一例を示す図である。 状況情報生成処理を示すフローチャートである。 合成画像の一例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
図1は、本実施形態に係る表示システム10を示す図である。表示システム10は、情報処理装置100と、Head Mounted Display(HMD)110とを有している。情報処理装置100とHMD110は、無線通信により接続する。HMD110は、ビデオスルー型HMDである。情報処理装置100は、CPU101、RAM102、ROM103、NVMEM104、インターフェース105及びシステムバス106を有している。CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス106を介して後述する各構成を統括的に制御する。これにより、後述する様々な処理が実行される。
NVMEM104は、書き換え可能な不揮発性メモリで二次記憶装置としての役割を持つ。CPU101は、NVMEM104からのデータ読み出しやNVMEM104へのデータ書き込みを行う。なお、二次記憶装置は、フラッシュメモリやHDDの他、光ディスクドライブ等の記憶デバイスでもよい。インターフェース105は、後述する撮影部111、表示部112、速度計測部113等の外部機器とのデータのやり取りを行う。なお、後述する情報処理装置100の機能や処理は、CPU101がROM103又はNVMEM104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
HMD110は、2つの撮影部111a,111b、表示部112及び速度計測部113を有している。なお、以下の説明においては、適宜2つの撮影部111a,111bを、撮影部111と称することとする。撮影部111は、指標の撮影を行うカメラである。表示部112は、CRTや液晶画面等により構成されており、各種の情報を画像や文字等で表示することができる。速度計測部113は、撮影部111の動き速度を計測するセンサであり、速度情報をCPU101に対して入力することができる。本実施形態に係る速度計測部113は、例えば、ジャイロセンサーを用いて、角速度を動き速度として計測する。なお、本実施形態においては、撮影部111、表示部112及び速度計測部113は、HMD110に組み込まれているものとするが、撮影部111、表示部112及び速度計測部113は、HMD110に組み込まれていない外付けの形態であってもよい。
図2は、HMD110と、HMD110を装着したユーザが観察する空間とを模式的に示す図である。ユーザAは、HMD110を装着している。HMD110には、それぞれ左眼、右眼に対応した撮影部111a,111bが内蔵されている。撮影部111a,111bは、それぞれ現実空間の動画像を撮影するものであり、観察物体200を含む現実空間の動画像を撮影する。観察物体200は、観察対象の物体であり、現実空間に実際に存在する物体である。撮影部111a,111bが撮影した各フレームの画像は順次、情報処理装置100に入力される。情報処理装置100は、撮影部111a,111bから入力された画像と、後述するモデルデータ保存部303に保存されている観察物体200の3次元モデルデータとに基づいて、撮影部111の位置及び姿勢を算出する。
そして情報処理装置100は、算出した撮影部111の位置及び姿勢に基づいて、仮想物体210の画像を、算出のために用いたフレームの画像上に重畳して描画することで、合成画像を生成する。そして情報処理装置100は、この生成した合成画像を、HMD110の表示部112に出力する。これにより、表示部112には、観察物体200に仮想物体210が重畳された合成画像が表示される。ここで、HMD110の表示部112は、HMD110を装着したユーザAの眼前に位置するようにHMD110に取り付けられているものとする。このため、ユーザAの眼前に合成画像が表示される。なお、速度計測部113により計測される角速度は、ユーザAの首振り動作等に起因するものである。
図3は、情報処理装置100の機能構成を示すブロック図である。画像取得部301は、撮影部111から順次出される各フレームの画像(現実空間画像)を受け、後段の特徴検出部302に対して転送する。なお、現実空間の動画像のファイルが、例えば、NVMEM104等に予め保存されており、情報処理装置100がこれを用いる場合には、画像取得部301は、このファイルを読み出し、後段の特徴検出部302に対して転送する処理を行う。特徴検出部302は、画像取得部301から画像を受けると、この画像から、撮影部111の位置及び姿勢を算出する為に用いる画像特徴を検出する。具体的には、特徴検出部302は、予め定められた指標を検出する。ここで、指標としては、HMD110の位置を特定するために現実空間中に人為的に配置されたマーカや、現実空間中に元来存在するコーナー点やエッジ等の自然特徴が挙げられる。
モデルデータ保存部303は、撮影部111の位置及び姿勢を算出する際の基準となる、観察物体200の3次元モデルデータを記憶している。モデルデータ保存部303は、例えば、RAM102の領域である。位置姿勢算出部304は、特徴検出部302が検出した画像特徴と、モデルデータ保存部303に保存されているモデルデータと、に基づき、観察物体200を基準とした座標系(以下、基準座標系)における撮影部111の位置及び姿勢を算出する。
パラメタ取得部305は、撮影部111により撮影され順次出力される各フレームの画像を撮影した際の撮影パラメタを撮影部111から取得する(パラメタ取得処理)。撮影パラメタの具体的な例としては、シャッタースピードやゲイン等の値であるが、本実施例ではシャッタースピードの値を取得する。パラメタ取得部305は、取得した撮影パラメタをRAM102の非図示の領域に書き込む。また、新たに撮影パラメタを取得する度に、撮影パラメタの更新通知を閾値決定部306に送る。なお、撮影部111で自動露出(AE)等の機能が動作している場合には、シャッタースピード等の撮影パラメタは、撮影状況に応じて変動する。この場合、パラメタ取得部305は、撮影部111から画像フレームが出力される度に、撮影パラメタを取得する。
閾値決定部306は、パラメタ取得部305からの更新通知を受けて、パラメタ取得部305で取得した撮影パラメタを参照する。そして、閾値決定部306は、撮影パラメタに基づいて、撮影部111の動き速度の閾値を決定する。ここで、閾値とは、撮影部111の位置及び姿勢を精度良く推定可能な動き速度の上限値である。そして、閾値決定部306は、決定した閾値をRAM102の領域に書き込む。閾値決定部306の処理については、図4を参照しつつ詳述する。
速度取得部307は、速度計測部113で計測された動き速度を取得する(動き速度取得処理)。速度計測部113は、撮影部111の動き速度とほぼ同じ速度が計測できるようにHMD110において撮影部111に隣接して設置されている。速度取得部307は、速度計測部113から動き速度の計測値を読み取り、RAM102の非図示の領域に値を書き込む。速度取得部307は、速度計測部113の計測更新サイクルに従い、周期的に計測値を取得する。そして、速度取得部307は、動き速度の計測値が更新されると、更新通知を状況提示部308へ送る。
状況提示部308は、閾値決定部306により決定された閾値と、速度取得部307が取得した動き速度の計測値と、RAM102から読み出し、これらの情報に基づいて、状況情報を生成する。ここで、状況情報とは、ユーザに撮影部111の動きに関する状況を通知するための情報である。状況提示部308の処理については、図6を参照しつつ後述する。画像生成部309は、画像取得部301が取得した画像フレーム上に仮想物体を重畳した合成画像を生成する。画像生成部309は、さらに合成画像上に、状況提示部308が生成した状況情報を重畳した合成画像を生成する。そして、画像生成部309は、生成した合成画像を表示部112に出力するよう制御する。
図4は、閾値決定部306による閾値決定処理を示すフローチャートである。S401において、閾値決定部306は、パラメタ取得部305から撮影パラメタの更新通知を受けるまで待機する。閾値決定部306は、更新通知を受けると(S401でYes)、処理をS402へ進める。S402において、閾値決定部306は、RAM102に記憶された撮影パラメタからシャッタースピードを特定する。
次に、S403において、閾値決定部306は、閾値テーブルを参照し、シャッタースピードに基づいて、閾値を決定する(閾値決定処理)。図5は、閾値テーブル500の一例を示す図である。閾値テーブル500は、シャッタースピードと、動き速度(角速度)の閾値とを対応付けて記憶している。シャッタースピードが速ければ速いほど、映像がぶれにくくなる。したがって、閾値テーブル500においては、より速いシャッタースピードには、より速い閾値が対応付けられている。閾値テーブル500は、例えば、NVMEM104等に予め記憶されている。閾値テーブル500は、シャッタースピードと閾値とを対応付けた対応情報の一例である。
例えば、シャッタースピードが1/120(sec)であったとする。この場合、閾値決定部306は、閾値テーブル500を参照し、シャッタースピードに対応する閾値を46(degree/sec)と決定する。なお、本実施形態においては、動き速度として角速度を例に説明したが、動き速度は、移動速度等別の動きに対する速度であってもよい。
図4に戻り、S403の処理の後、S404において、閾値決定部306は、決定した閾値をRAM102の領域に書き込む。その後、閾値決定部306は、処理をS401へ進め、S401以降の処理を繰り返す。
図6は、状況提示部308による状況情報生成処理を示すフローチャートである。S601において、状況提示部308は、速度取得部307から動き速度の計測値の更新通知を受け取るまで待つ。状況提示部308は、更新通知を受け取ると(S601でYes)、処理をS602へ進める。S602において、状況提示部308は、RAM102に書き込まれた計測値と閾値とを参照する。次に、S603において、状況提示部308は、動き速度の計測値をRAM102の描画領域に描画する。次に、S604において、状況提示部308は、閾値を同様にRAM102の描画領域に描画する。
次に、S605において、状況提示部308は、動き速度の計測値と閾値とを比較する。状況提示部308は、計測値が閾値よりも大きい場合には(S605でYes)、処理をS606へ進める。状況提示部308は、計測値が閾値以下の場合には(S605でNo)、処理をS607へ進める。S606において、状況提示部308は、S603及びS604において動き速度の計測値及び閾値が描画されたRAM102の描画領域に、警告メッセージを追加描画する。以上で、ユーザに状況を通知するための状況情報としての描画データの生成が完了する。なお、S603,S604,S606の処理は、状況情報を生成する生成処理の一例である。次に、S607において、状況提示部308は、画像生成部309へ描画の準備完了を通知し、処理をS601へ進める。
前述した通り、状況提示部308で描画された描画データは、画像生成部309へ送られる。そして、画像生成部309は、画像取得部301で取得した画像フレームの画像上に、描画データを重ねて描画することにより合成画像を生成する。そして、画像生成部309は、合成画像を表示部112に出力するよう制御する(出力制御処理)。
図7は、表示部112に表示される合成画像の一例を示す図である。図7(a)に示す合成画像700は、計測値が閾値以下である場合に生成された画像であり、図7(b)に示す合成画像710は、計測値が閾値よりも大きい場合に生成された画像である。合成画像700には、現実空間に存在する観察物体200の撮影画像(映像)701と、仮想物体210の画像702が含まれている。合成画像700にはさらに、S603にて描画された計測値703と、S604にて描画された閾値704が含まれている。前述の通り、本実施形態においては、動き速度は角速度であり、計測値703として計測された角速度が表示され、閾値704として情報処理装置100によるHMD110の位置姿勢推定可能な限界角速度が表示される。
このように、本実施形態の表示システム10においては、動き速度の計測値が閾値を超えない場合には、HMD110の表示部112に計測値703と閾値704を表示する。これにより、HMD110を装着したユーザAは、表示部112に表示された動き速度と閾値を認識し、自分の動き速度が閾値を超えない様に注意を払うことができる。
また、図7(b)に示すように、合成画像710には、観察物体200の撮影画像(映像)711と、仮想物体210の画像702が含まれている。但し、合成画像710においては、ユーザAの動き速度が速すぎるため、観察物体200を適切に撮影することができず、このため、観察物体200の撮影画像711は、ぼけた画像になっている。さらに、観察物体200の撮影画像711が適切に撮影されていないため、仮想物体210と観察物体200の位置関係も図2に示す適切な位置関係からずれたものとなっている。この合成画像710には、さらにS603にて描画された計測値713と、S604にて描画された閾値714と、S606において描画された警告メッセージ715が含まれている。ここで、警告メッセージ715は、ユーザに動き速度が閾値を超えていることを伝える情報であり、ユーザは、警告メッセージ715を表示することにより、ユーザにもう少しゆっくり動くよう促すことができる。
このように、本実施形態の表示システム10においては、動き速度の計測値が閾値を超えた場合には、表示部112に計測値713と閾値714だけでなく、警告メッセージ715を表示する。これにより、ユーザAは、表示部112に表示された動き速度と閾値を認識し、もう少しゆっくり動くよう注意することができる。
以上のように、本実施形態に係る表示システム10は、ユーザに撮影手段の動き速度を意識させることにより、位置合わせの処理の精度の低下を防ぐことができる。
本実施形態の表示システム10の第1の変更例としては、状況情報は、実施形態に限定されるものではない。他の例としては、状況情報は、音声情報であってもよい。この場合、HMD110は、状況情報としての音声情報を受信し、不図示のスピーカから音声情報を出力する。すなわちこの場合、HMD110は、動き速度の計測値及び閾値を音声出力する。そして、HMD110は、動き速度が閾値を超えた場合には、警告メッセージを音声出力する。なお、動き速度の計測値及び閾値を出力するタイミングは、特に限定されるものではない。
また、他の例としては、状況情報は、振動発生を指示する情報であってもよい。この場合、情報処理装置100は、動き速度が閾値を超えた場合に振動発生を指示する状況情報を生成し、これをHMD110に送信する。そして、HMD110は、状況情報を受信すると、不図示の振動部が駆動しHMD110の本体を振動させる。これにより、ユーザは、振動の有無により、動き速度が適切か否かを認識することができる。
また、第2の変更例としては、HMD110が情報処理装置100と一体に設けられてもよい。すなわち、実施形態において説明した情報処理装置100による状況情報の生成等の処理をHMD110が行ってもよい。この場合、HMD110が有するCPUが、合成画像に対し、計測値、閾値及び警告メッセージを適宜重畳し、これを表示部112に表示するよう制御する(表示制御処理)。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 情報処理装置
110 HMD

Claims (14)

  1. ビデオシースルー型のヘッドマウントディスプレイ装置及び情報処理装置を有する表示システムであって、
    前記ヘッドマウントディスプレイ装置は、
    画像を撮影する撮影手段と、
    前記撮影手段により得られた撮影画像に仮想物体の画像が重畳された合成画像を表示する表示手段と、
    前記撮影手段の動き速度を計測する計測手段と
    を有し、
    前記情報処理装置は、
    前記計測手段により計測された前記動き速度の計測値を示す画像と、前記撮影手段により得られた前記撮影画像から特徴検出を行い、前記特徴からの相対的な位置姿勢を計算することで得られる、前記撮影手段の位置姿勢の精度の要件に応じた前記撮影手段の動き速度の閾値を示す画像との対比を示す状況情報を生成する生成手段と、
    前記状況情報を出力する出力手段と
    を有することを特徴とする表示システム。
  2. 前記撮影手段の撮影パラメタに基づいて、前記撮影手段の動き速度の閾値を決定する決定手段をさらに有することを特徴とする請求項1に記載の表示システム。
  3. 前記生成手段は、前記計測値及び前記閾値を含む前記状況情報を生成することを特徴とする請求項1又は2に記載の表示システム。
  4. 前記生成手段は、前記計測値が前記閾値を超えた場合に、警告を含む前記状況情報を生成することを特徴とする請求項1乃至3何れか1項に記載の表示システム。
  5. 前記生成手段は、前記状況情報として、前記合成画像に重畳する画像を生成し、
    前記ヘッドマウントディスプレイ装置の前記表示手段は、前記状況情報が重畳された前記合成画像を表示することを特徴とする請求項1乃至4何れか1項に記載の表示システム。
  6. 前記撮影パラメタは、前記撮影手段のシャッタースピードであることを特徴とする請求項2に記載の表示システム。
  7. 前記決定手段は、前記撮影パラメタの値と前記閾値とを対応付けた対応情報に基づいて、前記閾値を決定することを特徴とする請求項2に記載の表示システム。
  8. 撮影手段と、前記撮影手段により撮影された撮影画像に仮想物体を重畳した合成画像を表示する表示装置と、に接続された情報処理装置であって、
    前記撮影手段の動き速度の計測値を示す画像と、前記撮影手段により得られた前記撮影画像から特徴検出を行い、前記特徴からの相対的な位置姿勢を計算することで得られる、前記撮影手段の位置姿勢の精度の要件に応じた前記撮影手段の動き速度の閾値を示す画像との対比を示す状況情報を生成する生成手段と、
    前記状況情報を出力する出力手段と
    を有することを特徴とする情報処理装置。
  9. ビデオシースルー型のヘッドマウントディスプレイ装置であって、
    画像を撮影する撮影手段と、
    前記撮影手段により得られた撮影画像に仮想物体の画像が重畳された合成画像を表示する表示手段と、
    前記撮影手段の動き速度を計測する計測手段と、
    前記計測手段により計測された前記動き速度の計測値を示す画像と、前記撮影手段により得られた前記撮影画像から特徴検出を行い、前記特徴からの相対的な位置姿勢を計算することで得られる、前記撮影手段の位置姿勢の精度の要件に応じた前記撮影手段の動き速度の閾値を示す画像との対比を示す状況情報を生成する生成手段と、
    前記状況情報を出力する出力手段と
    を有することを特徴とする表示装置。
  10. 撮影手段を有するビデオシースルー型のヘッドマウントディスプレイ装置及び情報処理装置を有する表示システムが実行する情報処理方法であって、
    前記ヘッドマウントディスプレイ装置が、画像を撮影する撮影ステップと、
    前記ヘッドマウントディスプレイ装置が、前記撮影ステップにおいて得られた撮影画像に仮想物体の画像が重畳された合成画像を表示する表示ステップと、
    前記ヘッドマウントディスプレイ装置が、前記撮影手段の動き速度を計測する計測ステップと、
    前記情報処理装置が、前記計測ステップにおいて計測された前記動き速度の計測値を示す画像と、前記撮影手段により得られた前記撮影画像から特徴検出を行い、前記特徴からの相対的な位置姿勢を計算することで得られる、前記撮影手段の位置姿勢の精度の要件に応じた前記撮影手段の動き速度の閾値を示す画像との対比を示す状況情報を生成する生成ステップと、
    前記情報処理装置が、前記状況情報を出力する出力ステップと
    を含むことを特徴とする情報処理方法。
  11. 撮影手段と、前記撮影手段により撮影された撮影画像に仮想物体を重畳した合成画像を表示するビデオシースルー型のヘッドマウントディスプレイ装置と、に接続された情報処理装置が実行する情報処理方法であって、
    前記撮影手段の動き速度の計測値を示す画像と、前記撮影手段により得られた前記撮影画像から特徴検出を行い、前記特徴からの相対的な位置姿勢を計算することで得られる、前記撮影手段の位置姿勢の精度の要件に応じた前記撮影手段の動き速度の閾値を示す画像との対比を示す状況情報を生成する生成ステップと、
    前記状況情報を出力する出力ステップと
    を含むことを特徴とする情報処理方法。
  12. 撮影手段を有するビデオシースルー型のヘッドマウントディスプレイ装置が実行する情報処理方法であって、
    画像を撮影する撮影ステップと、
    前記撮影ステップにおいて得られた撮影画像に仮想物体の画像が重畳された合成画像を表示する表示ステップと、
    前記撮影手段の動き速度を計測する計測ステップと、
    前記計測ステップにおいて計測された前記動き速度の計測値を示す画像と、前記撮影手段により得られた前記撮影画像から特徴検出を行い、前記特徴からの相対的な位置姿勢を計算することで得られる、前記撮影手段の位置姿勢の精度の要件に応じた前記撮影手段の動き速度の閾値を示す画像との対比を示す状況情報を生成する生成ステップと、
    前記状況情報を出力する出力ステップと
    を含むことを特徴とする情報処理方法。
  13. コンピュータを、
    撮影手段により撮影された撮影画像に仮想物体を重畳した合成画像を表示する表示装置から、前記撮影手段の撮影パラメタを取得するパラメタ取得手段と、
    前記撮影手段の動き速度の計測値を示す画像と、前記撮影手段により得られた前記撮影画像から特徴検出を行い、前記特徴からの相対的な位置姿勢を計算することで得られる、前記撮影手段の位置姿勢の精度の要件に応じた前記撮影手段の動き速度の閾値を示す画像との対比を示す状況情報を生成する生成手段と、
    前記状況情報を出力する出力手段と
    して機能させるためのプログラム。
  14. コンピュータを、
    撮影手段により得られた撮影画像に仮想物体の画像が重畳された合成画像を表示するよう制御する表示制御手段と、
    前記撮影手段の動き速度の計測値を示す画像と、前記撮影手段により得られた前記撮影画像から特徴検出を行い、前記特徴からの相対的な位置姿勢を計算することで得られる、前記撮影手段の位置姿勢の精度の要件に応じた前記撮影手段の動き速度の閾値を示す画像との対比を示す状況情報を生成する生成手段と、
    前記状況情報を出力するよう制御する出力制御手段と
    して機能させるためのプログラム。
JP2015206453A 2015-10-20 2015-10-20 表示システム、情報処理方法及びプログラム Active JP6723720B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015206453A JP6723720B2 (ja) 2015-10-20 2015-10-20 表示システム、情報処理方法及びプログラム
US15/296,889 US10078918B2 (en) 2015-10-20 2016-10-18 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015206453A JP6723720B2 (ja) 2015-10-20 2015-10-20 表示システム、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017079400A JP2017079400A (ja) 2017-04-27
JP2017079400A5 JP2017079400A5 (ja) 2018-11-29
JP6723720B2 true JP6723720B2 (ja) 2020-07-15

Family

ID=58524254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015206453A Active JP6723720B2 (ja) 2015-10-20 2015-10-20 表示システム、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10078918B2 (ja)
JP (1) JP6723720B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5996138B1 (ja) * 2016-03-18 2016-09-21 株式会社コロプラ ゲームプログラム、方法およびゲームシステム
JP6784218B2 (ja) * 2017-04-13 2020-11-11 株式会社三洋物産 遊技機
JP6705420B2 (ja) * 2017-04-13 2020-06-03 株式会社三洋物産 遊技機
EP3617850A4 (en) * 2017-04-28 2021-01-06 Sony Interactive Entertainment Inc. INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP7262973B2 (ja) * 2018-10-31 2023-04-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6618054B2 (en) * 2000-05-16 2003-09-09 Sun Microsystems, Inc. Dynamic depth-of-field emulation based on eye-tracking
US20020041339A1 (en) * 2000-10-10 2002-04-11 Klaus Diepold Graphical representation of motion in still video images
US20020052724A1 (en) * 2000-10-23 2002-05-02 Sheridan Thomas B. Hybrid vehicle operations simulator
US7084907B2 (en) * 2001-01-15 2006-08-01 Nikon Corporation Image-capturing device
JP3478334B2 (ja) * 2001-03-28 2003-12-15 株式会社ナムコ プログラム、情報記憶媒体及びゲーム装置
JP5076265B2 (ja) 2001-08-24 2012-11-21 株式会社ニコン 電子カメラ
JP2004080417A (ja) * 2002-08-19 2004-03-11 Fuji Photo Film Co Ltd 画像合成機能付きデジタルカメラ
JP2006092156A (ja) * 2004-09-22 2006-04-06 Namco Ltd プログラム、情報記憶媒体及び画像生成装置
JP4462036B2 (ja) * 2005-01-06 2010-05-12 株式会社デンソー 液晶表示装置
US8368720B2 (en) * 2006-12-13 2013-02-05 Adobe Systems Incorporated Method and apparatus for layer-based panorama adjustment and editing
JP4818987B2 (ja) * 2007-05-21 2011-11-16 オリンパスイメージング株式会社 撮像装置、表示方法、及びプログラム
JP2009232275A (ja) * 2008-03-24 2009-10-08 Olympus Imaging Corp 撮像装置
US8300117B2 (en) * 2008-03-28 2012-10-30 Fuji Xerox Co., Ltd. System and method for exposing video-taking heuristics at point of capture
US8786596B2 (en) * 2008-07-23 2014-07-22 Disney Enterprises, Inc. View point representation for 3-D scenes
JP5182004B2 (ja) * 2008-10-22 2013-04-10 カシオ計算機株式会社 画像処理装置、並びに、プログラム
US9186548B2 (en) * 2009-07-20 2015-11-17 Disney Enterprises, Inc. Play sequence visualization and analysis
US9728006B2 (en) * 2009-07-20 2017-08-08 Real Time Companies, LLC Computer-aided system for 360° heads up display of safety/mission critical data
JP5574650B2 (ja) * 2009-09-11 2014-08-20 古野電気株式会社 画像処理装置、これを搭載したレーダ装置、画像処理方法及び画像処理プログラム
US20120002112A1 (en) * 2010-07-02 2012-01-05 Sony Corporation Tail the motion method of generating simulated strobe motion videos and pictures using image cloning
JP2012119867A (ja) * 2010-11-30 2012-06-21 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US9104271B1 (en) * 2011-06-03 2015-08-11 Richard Adams Gloved human-machine interface
WO2013069048A1 (ja) * 2011-11-07 2013-05-16 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2013140223A (ja) * 2011-12-28 2013-07-18 Sharp Corp 情報表示装置、情報表示装置の制御方法、制御プログラム、制御プログラムを記録したコンピュータ読み取り可能な記録媒体
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
JP5891131B2 (ja) * 2012-07-11 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP6230239B2 (ja) * 2013-02-14 2017-11-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
EP2775448A1 (en) * 2013-03-06 2014-09-10 Thomson Licensing Deblurring of an image from a sequence of images
US9609236B2 (en) * 2013-09-16 2017-03-28 Kyle L. Baltz Camera and image processing method
US9558592B2 (en) * 2013-12-31 2017-01-31 Daqri, Llc Visualization of physical interactions in augmented reality
US10078712B2 (en) * 2014-01-14 2018-09-18 Energid Technologies Corporation Digital proxy simulation of robotic hardware
US9619712B2 (en) * 2015-05-18 2017-04-11 Daqri, Llc Threat identification system

Also Published As

Publication number Publication date
US10078918B2 (en) 2018-09-18
US20170109937A1 (en) 2017-04-20
JP2017079400A (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6723720B2 (ja) 表示システム、情報処理方法及びプログラム
EP3414742B1 (en) Optimized object scanning using sensor fusion
JP2022000640A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
EP2812756B1 (en) Method and system for automatic 3-d image creation
JP6789624B2 (ja) 情報処理装置、情報処理方法
JP6182734B2 (ja) 表示制御装置
US11086395B2 (en) Image processing apparatus, image processing method, and storage medium
WO2013069047A1 (ja) 画像生成装置および画像生成方法
WO2013069050A1 (ja) 画像生成装置および画像生成方法
WO2013069049A1 (ja) 画像生成装置および画像生成方法
WO2013069048A1 (ja) 画像生成装置および画像生成方法
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
JP7406875B2 (ja) 情報処理装置およびプログラム
JP6879375B2 (ja) 情報処理装置、長さ測定システム、長さ測定方法およびコンピュータプログラム
US20170061695A1 (en) Wearable display apparatus, information processing apparatus, and control method therefor
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP6456551B1 (ja) 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム
JP7343237B2 (ja) 追跡方法
JP6071670B2 (ja) 撮像画像表示装置、撮像システム、撮像画像表示方法およびプログラム
JP2017040542A (ja) 情報処理装置、情報処理方法、プログラム
TWI694719B (zh) 影像處理方法,電子裝置及非暫態電腦可讀取儲存媒體
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
JP6929037B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2015201734A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP6619217B2 (ja) 顕微鏡システムとその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R151 Written notification of patent or utility model registration

Ref document number: 6723720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151