JPWO2013042530A1 - 表示装置、表示制御方法およびプログラム - Google Patents
表示装置、表示制御方法およびプログラム Download PDFInfo
- Publication number
- JPWO2013042530A1 JPWO2013042530A1 JP2013534655A JP2013534655A JPWO2013042530A1 JP WO2013042530 A1 JPWO2013042530 A1 JP WO2013042530A1 JP 2013534655 A JP2013534655 A JP 2013534655A JP 2013534655 A JP2013534655 A JP 2013534655A JP WO2013042530 A1 JPWO2013042530 A1 JP WO2013042530A1
- Authority
- JP
- Japan
- Prior art keywords
- main body
- display
- movement
- apparatus main
- motion detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000001514 detection method Methods 0.000 claims abstract description 136
- 230000001133 acceleration Effects 0.000 claims description 37
- 238000006073 displacement reaction Methods 0.000 claims description 12
- 230000005484 gravity Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 7
- 230000000052 comparative effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
表示装置は、表示手段11を備えた装置本体10と、装置本体10の動きを検出する動き検出手段13と、装置本体10を保持する保持体の動きを検出する動き検出手段14と、動き検出手段13、14の検出結果に基づいて、装置本体10に対する操作を検出し、該検出した操作に従って表示手段11の表示を制御する制御手段12とを有する。
Description
本発明は、2次元または3次元の仮想空間の所望の領域を表示する技術に関する。
2次元または3次元の仮想空間の所望の領域を表示する仮想空間アクセスシステムが知られている。
例えば、特許文献1には、アプリケーション画面が配置された仮想空間にアクセスする携帯端末が記載されている。
特許文献1に記載の携帯端末は、加速度センサ、動きデータ算出部、画面配置部、テーブル、画面移動部、表示割合算出部、および入力装置を有する。
加速度センサは、携帯端末本体の動きを検出する。動きデータ算出部は、加速度センサの出力信号に基づいて携帯端末本体の動きを示す動きデータを算出する。画面配置部は、アプリケーション画面を仮想空間上に配置する。
表示装置は、仮想空間上の領域を表示する。テーブルは、動きデータと仮想空間上の画面スクロール方向とを対応付けた情報を保持する。
表示装置が仮想空間上の領域を表示している状態で、加速度センサにより携帯端末本体の動きが検知されると、画面移動部が、テーブルを参照して、動きデータに対応する画面スクロール方向を決定し、表示装置が表示する仮想空間上の領域を、その決定した画面スクロール方向に移動させる。
表示装置が表示する仮想空間上の領域にアプリケーション画面が存在する場合、表示割合算出部が、表示装置が表示する仮想空間上の領域に占めるアプリケーション画面の表示割合を算出する。そして、表示割合が所定の値以上である場合、入力装置が、アプリケーションの操作を受け付ける。
特許文献2には、仮想映像を表示するディスプレイ装置およびそれを用いた映像体感装置が記載されている。
特許文献2に記載のディスプレイ装置は、実際の映像表示領域より広い映像表示可能領域を有する映像表示装置を備えた装置本体と、装置本体の変位を検出する変位検出手段と、変位検出手段の検出結果に基づき、映像表示装置に表示する映像の変位を補正する表示制御手段とを有する。
ディスプレイ装置はヘッドマウントディスプレイであり、頭部に装着される。使用者は、映像表示装置に表示された映像を観察する。例えば、頭を動かすと、その動きに連動して、映像表示装置の画面上の映像領域が移動する。この映像領域の移動は、映像のブレとして観察される。
特許文献2に記載のディスプレイ装置によれば、装置本体の変位検出結果に基づいて、映像のブレを補正する。これにより、頭を動かしても、画面上で映像は同じ位置に表示される。
特許文献2に記載の映像体感装置は、上記のディスプレイ装置を姿勢可変装置と共に用いるものであって、姿勢可変装置の基台の動きを検出する基台姿勢検出手段を有し、ディスプレイ装置の変位検出手段の検出結果から基台姿勢検出手段にて検出した基台の動き成分を差し引いた変位に基づいて、映像表示装置における映像の表示位置を最適化する。これにより、ディスプレイ装置を装着した使用者が姿勢可変装置を使用した場合でも、画面上で映像は同じ位置に表示される。
特許文献1に記載の携帯端末においては、携帯端末本体に取り付けられた加速度センサが携帯端末本体の動きを検出し、その検出した動きに連動して、画面のスクロールが行われる。しかし、この制御では、加速度センサは、例えば、携帯端末本体を保持した使用者の移動や体の向き変えなど、携帯端末本体に対する操作とは関係のない動きも検出するため、使用者が意図しない操作により画面の表示が変更されることがある。
特に、携帯端末本体を保持した使用者の移動量が大きい場合、例えば、表示装置に仮想空間上の領域を表示した状態で、電車等の移動手段に乗って移動した場合は、携帯端末本体が仮想空間の範囲外に移動し、画面に何も映像が表示されなくなる。
特許文献2に記載のディスプレイ装置においては、ディスプレイ装置を装着した使用者が移動しても、映像は画面上の同じ位置に表示されるので、上記のような、使用者が意図しない操作により画面の表示が変更される問題は生じない。しかし、この場合は、ディスプレイ装置に対するどのような操作を行っても、映像が画面上の同じ位置に表示されるため、仮想空間上で、現在表示されている領域とは異なる領域を表示することはできない。映像体感装置においても、同様の問題が生じる。
本発明の目的は、使用者が意図しない操作により画面の表示が変更されることを防止することのできる、表示装置、表示制御方法およびプログラムを提供することにある。
上記目的を達成するため、本発明の表示装置は、
表示手段を備えた装置本体と、
前記装置本体の動きを検出する第1の動き検出手段と、
前記装置本体を保持する保持体の動きを検出する第2の動き検出手段と、
前記第1および第2の動き検出手段の検出結果に基づいて、前記装置本体に対する操作を検出し、該検出した操作に従って前記表示手段の表示を制御する制御手段とを有する。
表示手段を備えた装置本体と、
前記装置本体の動きを検出する第1の動き検出手段と、
前記装置本体を保持する保持体の動きを検出する第2の動き検出手段と、
前記第1および第2の動き検出手段の検出結果に基づいて、前記装置本体に対する操作を検出し、該検出した操作に従って前記表示手段の表示を制御する制御手段とを有する。
本発明の表示制御方法は、
表示手段を備えた装置本体の動きを検出するとともに、前記装置本体を保持する保持体の動きを検出し、
前記装置本体の動きの検出結果および前記保持体の動きの検出結果に基づいて、前記装置本体に対する操作を検出し、該検出した操作に従って前記表示手段の表示を制御することを含む。
表示手段を備えた装置本体の動きを検出するとともに、前記装置本体を保持する保持体の動きを検出し、
前記装置本体の動きの検出結果および前記保持体の動きの検出結果に基づいて、前記装置本体に対する操作を検出し、該検出した操作に従って前記表示手段の表示を制御することを含む。
本発明のプログラムは、
表示手段を備えた装置本体の動きを検出した第1の検出結果と、前記装置本体を保持する保持体の動きを検出した第2の検出結果とに基づいて、前記装置本体に対する操作を検出する処理と、
前記検出した操作に従って前記表示手段の表示を制御する処理とを、コンピュータに実行させる。
表示手段を備えた装置本体の動きを検出した第1の検出結果と、前記装置本体を保持する保持体の動きを検出した第2の検出結果とに基づいて、前記装置本体に対する操作を検出する処理と、
前記検出した操作に従って前記表示手段の表示を制御する処理とを、コンピュータに実行させる。
10 装置本体
11 表示手段
12 制御手段
13、14 置誤記検出手段
11 表示手段
12 制御手段
13、14 置誤記検出手段
以下、本発明における一実施形態を、図面を参照して説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態である表示装置の構成を示すブロック図である。
図1は、本発明の第1の実施形態である表示装置の構成を示すブロック図である。
図1示す表示装置は、表示手段11と制御手段12と動き検出手段13とを備えた装置本体10と、装置本体10を保持する保持体の動きを検出する動き検出手段14と、を有する。保持体は、人や車いす等である。
表示手段11は、液晶ディスプレイ等の表示装置であて、例えば、2次元または3次元の仮想空間の一部の領域を表示する。
動き検出手段13は、装置本体10の動きとして、移動および姿勢変化の少なくとも一方を検出する。姿勢変化は、傾きの変化および方位(向き)の変化を含む。動き検出手段13として、加速度センサまたは磁気センサもしくはこれらの組み合わせを用いてもよい。
動き検出手段14は、保持体の動きとして、移動および姿勢変化の少なくとも一方を検出する。姿勢変化は、傾きの変化および方位(向き)の変化を含む。動き検出手段14として、加速度センサまたは磁気センサもしくはこれらの組み合わせを用いてもよい。
動き検出手段14と制御手段12の間の通信は、無線通信であっても、通信線を介した通信であってもよい。動き検出手段13および動き検出手段14の検出結果は、制御手段12に供給される。
制御手段12は、動き検出手段13、14の検出結果に基づいて、装置本体10に対する操作を検出し、該検出した操作に従って、表示手段11の表示を制御する。
本実施形態の表示装置では、装置本体10を所望の方向に移動または傾けるといった操作を行うと、制御手段12が、動き検出手段13、14を介してその装置本体10に対する操作を受け付け、表示手段11の表示を制御する。
以下に、動き検出手段13、14の検出結果に基づいて、装置本体10に対する操作を検出する動作を具体的に説明する。
動き検出手段13は装置本体10に搭載されているので、装置本体10に対する操作を行いながら、保持体が移動した場合は、動き検出手段13は、操作に応じた装置本体10の動きを検出すると同時に、保持体の移動に伴う装置本体10の動きを検出する。すなわち、動き検出手段13の検出結果は、操作に応じた装置本体10の動きの成分と、保持体の移動に伴う装置本体10の動きの成分を含む。
一方、動き検出手段14は、保持体の移動を検出する。この動き検出手段14の検出結果は、動き検出手段13の検出結果のうちの、保持体の移動に伴う装置本体10の動きの成分に相当する。したがって、動き検出手段13の検出結果から動き検出手段14の検出結果を差し引くとで、操作に応じた装置本体10の動きの成分を抽出することができる。制御手段12は、操作に応じた装置本体10の動きの成分に基づいて、装置本体10に対する操作を検出することができる。
また、装置本体10に対する操作なしに、保持体が移動した場合は、動き検出手段13は、保持体の移動に伴う装置本体10の動きを検出する。この場合は、動き検出手段13の検出結果は、保持体の移動に伴う装置本体10の動きの成分のみを含む。一方、動き検出手段14は、保持体の移動を検出する。したがって、動き検出手段13の検出結果から動き検出手段14の検出結果を差し引くと、保持体の移動に伴う動きがキャンセルされる。この結果、動き検出手段13は装置本体10の動きを検出していないこととなり、制御手段12は、装置本体10に対する操作は行われなかったものと判断する。
また、保持体の移動なしに、装置本体10に対する操作を行った場合は、動き検出手段13は、操作に応じた装置本体10の動きを検出する。この場合は、動き検出手段13の検出結果は、操作に応じた装置本体10の動きの成分のみを含む。一方、動き検出手段14では、保持体の移動は検出されない。したがって、制御手段12は、動き検出手段13で検出された、操作に応じた装置本体10の動きの成分のみから、装置本体10に対する操作を検出する。
上述の動作では、装置本体10および保持体の移動についてのものであるが、装置本体10および保持体の姿勢変化についても、同様の制御で操作を検出することができる。
図2は、装置本体10に対する操作を検出する処理の一手順を示すフローチャートである。
以下、図1および図2を参照して操作検出の処理手順を説明する。
まず、制御手段12が、動き検出手段13から検出結果Aを、動き検出手段14から検出結果Bをそれぞれ取得する(ステップS10)。検出結果A、Bの取得は、一定時間毎に行われる。
次に、制御手段12が、検出結果Aが0であるか否かを判定する(ステップS11)。
ステップS11の判定結果が「No」である場合は、続いて、制御手段12が、検出結果Bが0であるか否かを判定する(ステップS12)。
ステップS12の判定結果が「No」である場合は、続いて、制御手段12が、検出結果Aから検出結果Bを差し引いた結果が0であるか否かを判定する(ステップS13)。
ステップS13の判定結果が「No」である場合は、制御手段12が、検出結果Aから検出結果Bを差し引いた結果に基づいて装置本体10に対する操作を検出する(ステップS15)。そして、制御手段12が、検出した操作に従って表示手段11の表示を制御する。
ステップS11の判定結果が「Yes」である場合、および、ステップS13の判定結果が「Yes」である場合は、操作の検出処理を終了する。
ステップS12の判定結果が「Yes」である場合は、制御手段12が、検出結果Aに基づいて装置本体10に対する操作を検出する(ステップS15)。そして、制御手段12が、検出した操作に従って表示手段11の表示を制御する。
以上の処理によれば、保持体の移動や姿勢変化に伴う装置本体10の動きの成分をキャンセルすることで、装置本体10に対する操作を確実に検出することができる。よって、使用者が意図しない操作を抑制することができる。
なお、図2に示した手順において、ステップS11、S12、S15を省略してもよい。この場合は、より簡単な手順で装置本体10に対する操作を確実に検出することができる。
本実施形態の表示装置において、動き検出手段14が検出した保持体の動き成分が、動き検出手段13が検出した保持体の移動に伴う装置本体10の動き成分と略一致するように構成することで、装置本体10に対する操作の検出精度を向上することができる。
以下に、操作の検出精度を向上するための具体例を説明する。ここでは、装置本体10を片手で操作するシチュエーションを例に挙げて説明する。
装置本体10を片手で操作しながら保持者が歩行した場合、動き検出手段13は、操作に応じた装置本体10の動きを検出すると同時に、保持者の移動に伴う装置本体10の動きを検出する。
上記の場合、動き検出手段14が、手の動きは検出せず、保持者の移動のみを検出することができれば、動き検出手段14が検出した保持体の動き成分が、動き検出手段13が検出した保持体の移動に伴う装置本体10の動き成分と略一致する。
手の動きは検出せず、保持者の移動のみを検出することができる動き検出手段14は、例えば、複数の加速度センサから構成される。具体的には、複数の加速度センサを保持体に取り付け、制御手段12が、各加速度センサの出力の平均値に基づいて保持体の動きを検出する。
上記の他、動き検出手段14として、保持体の重心を検出することが可能な複数の加速度センサを用いても良い。具体的には、保持体の重心を検出することができるように複数の加速度センサを保持体に取り付け、制御手段12が、各加速度センサの出力値に基づいて、保持体の重心の移動を検出する。
本実施形態の表示装置において、装置本体10を保持する保持体が車いすなどの移動体である場合、移動体は、装置本体10を回転自在または移動可能に保持する基部を有する。動き検出手段14は、移動体の基部以外の部分に取り付けられる。
また、本実施形態の表示装置において、磁気センサを用いて動き検出手段13、14をそれぞれ構成した場合、動き検出手段13は装置本体の方位の変化を検出し、動き検出手段14は保持体の方位の変化を検出する。この場合は、保持体の方位の変化に伴う装置本体10の動きの成分をキャンセルすることで、装置本体10に対する操作を検出することができる。例えば、保持者が車等の移動手段で移動している場合において、移動手段および保持者の方位が変化しても、それによって表示が変化することはない。これは、例えばナビゲーション等で仮想空間内に方位を示すオブジェクトを配置する場合に有効である。
加速度センサを用いて動き検出手段13、14をそれぞれ構成した場合に、制御手段12は、動き検出手段13、14の所定値以上の加速度検出信号に基づいて操作の検出を行ってもよい。これにより、装置本体10に対する操作をより確実に行うことができる。
また、制御手段12は、動き検出手段13、14の出力信号から所定の変位部分(所定時間内にほぼ同じ値に戻る加速度変位部分)を取り除いた信号に基づいて操作の検出を行ってもよい。これによっても、装置本体10に対する操作をより確実に行うことができる。
また、本実施形態の表示装置において、制御手段12は、プログラムに従って動作するコンピュータ(CPU:Central Processing unit)を用いて構成されてもよい。プログラムは、少なくとも、前述した操作検出処理を、コンピュータに実行させることが可能なものである。プログラムは、記録媒体を用いて提供されてもよく、通信網(例えばインターネット)を介して提供されてもよい。
(第2の実施形態)
図3は、本発明の第2の実施形態である仮想空間アクセス装置の構成を示すブロック図である。
図3は、本発明の第2の実施形態である仮想空間アクセス装置の構成を示すブロック図である。
図3に示す仮想空間アクセス装置は、装置本体20とモジュール30とから構成される。
装置本体20は、表示手段21、制御手段22、動き検出手段23、仮想空間生成手段24および通信手段25を有する。表示手段21および動き検出手段23は、図1に示した表示手段11および動き検出手段13と同じものである。なお、図3には示されていないが、装置本体20は、スピーカ等の出力デバイスや、キーやタッチパネル等の入力デバイスを備えていてもよい。
モジュール30は、保持体に搭載または装着されるものであって、動き検出手段31および通信手段32を有する。動き検出手段31は、図1に示した動き検出手段14と同じものである。モジュール30は、例えば、イヤホン、ヘッドホン、眼鏡、帽子、アクセサリ等の装着部として構成してもよい。
仮想空間生成手段24は、2次元または3次元の仮想空間を形成するためのデータを保持しており、制御手段22からの指示信号に従って、保持したデータに基づく仮想空間を形成する。表示手段21は、制御手段22からの表示制御信号に従って、仮想空間の一部の領域を表示する。
通信手段25と通信手段32との間では、無線通信または通信線を介した通信が行われる。無線通信は、電波、光、音などを用いた通信であり、例えば、赤外線通信等の近距離無線通信を用いてもよい。
制御手段22は、通信手段25、32を介して動き検出手段31の検出結果を取得する。制御手段22は、一定時間毎に、動き検出手段23、31の検出結果を取得し、該取得した検出結果に基づいて、装置本体20に対する操作を検出し、該検出した操作に従って、表示手段11の表示を制御する。
次に、本実施形態の仮想空間アクセス装置の動作を説明する。
図4は、本実施形態の仮想空間アクセス装置にて行われるアクセス処理の一手順を示すフローチャートである。
制御手段22が、入力デバイスを介して仮想空間の表示を行う旨の指示を受け付けると、仮想空間を形成する旨の指示信号を仮想空間形成手段24に供給し、仮想空間形成手段24が、指示信号に従って仮想空間を形成する(ステップS20)。
次に、制御手段22が、仮想空間の所定の領域を表示する旨の表示制御信号を表示手段21に供給し、表示手段21が表示制御信号に従って、仮想空間の所定の領域を表示する(ステップS21)。
次に、制御手段22が、一定時間毎に、動き検出手段23、31の検出結果を取得し、該取得した検出結果に基づいて、装置本体20に対する操作を検出する(ステップS22)。この操作検出の処理は、図2に示した操作検出処理と同じ手順で実行される。
最後に、制御手段22が、ステップS22で検出した操作に基づく表示制御信号を表示手段21に供給し、表示手段21が表示制御信号に従って、仮想空間上における表示位置を変更する(ステップS23)。
上述したアクセス処理によれば、例えば、保持体の移動または姿勢変化に基づく使用者の意図しない操作を排除することができるので、仮想空間上の所望の領域を確実に表示手段21に表示することができる。すなわち、仮想空間への正確なアクセスを実現することができる。
以下に、具体的なシチュエーションを挙げて効果を説明する。
図5に、使用者の歩行等の移動を伴わない場合の仮想空間へのアクセスの一例を示す。
図5を参照すると、世界地図の仮想空間200が形成されている。使用者は、装置本体20を片手で保持し、仮想空間200の所望の位置に装置本体20を移動させることで、表示手段21に、仮想空間200の所望の位置の映像を表示させることができる。
図6に、比較例として、使用者の歩行等の移動を伴う場合で、モジュール30を用いない場合の仮想空間へのアクセスの一例を示す。
図6に示す比較例では、モジュール30は使用者100に装着されておらず、制御手段22は、動き検出手段23の検出結果のみに基づいて操作を検出する。この場合、使用者100が移動すると、装置本体20が仮想空間外に移動し、表示手段21には何も映像が表示されない。
図7に、使用者の歩行等の移動を伴う場合の仮想空間へのアクセスの一例を示す。モジュール30が使用者100に装着されており、制御手段22は、動き検出手段23、31の検出結果に基づいて操作を検出する。この場合、使用者100が移動しても、装置本体20が仮想空間外に移動することはなく、仮想空間の所望の位置の映像が表示手段21に表示される。
図8に、加速度センサを用いて動き検出手段23、31をそれぞれ構成した場合の加速度情報の一例を示す。
図8に示すように、動き検出手段23は加速度情報Aを出力し、動き検出手段31は加速度情報Bを出力する。加速度情報Aは、操作に伴う装置本体20の動き成分と、使用者100の移動に伴う装置本体20の動き成分とを含む。加速度情報Bは、使用者100の動き成分を含む。加速度情報Aから加速度情報Bを差し引くと、操作に伴う装置本体20の動き成分である加速度情報Cを得る。このように、制御手段23は、図7に示すように、使用者100の移動を伴う場合には、加速度情報Aから加速度情報Bを差し引いた加速度情報Cに基づいて、装置本体20に対する操作を検出することができる。
本実施形態の仮想空間アクセス装置において、仮想空間形成手段24は、装置本体20とは別に設けても良い。
また、加速度センサを用いて動き検出手段23、31をそれぞれ構成した場合に、制御手段22は、動き検出手段23、31の所定値以上の加速度検出信号に基づいて操作の検出を行ってもよい。これにより、仮想空間の細かい揺れを防止することができ、所望の空間領域へのアクセスをより確実に行うことができる。
また、制御手段22は、動き検出手段23、31の出力信号から所定の変位部分(所定時間内にほぼ同じ値に戻る加速度変位部分)を取り除いた信号に基づいて操作の検出を行ってもよい。これによっても、仮想空間の細かい揺れを防止することができ、所望の空間領域へのアクセスをより確実に行うことができる。
本実施形態の仮想空間アクセス装置において、制御手段22は、プログラムに従って動作するコンピュータを用いて構成されてもよい。プログラムは、少なくとも、前述したアクセス処理を、コンピュータに実行させることが可能なものである。プログラムは、コンピュータ読み出し可能な記録媒体、例えば、CD(Compact Disc)やDVD(Digital Video Disc)などの光ディスクや、USB(Universal Serial Bus)メモリやメモリカードなどを用いて提供されてもよく、通信網(例えばインターネット)を介して提供されてもよい。
以上説明した本発明の装置は、携帯機器(タブレット端末やノート型パーソナルコンピュータなどの携帯端末、携帯電話機等)、ヘッドマウントディスプレイ、眼鏡型表示装置、ゲーム機にも適用することができる。
以上、実施形態を参照して本発明を説明したが、本発明は上述した実施形態に限定されるものではない。本発明の構成および動作については、本発明の趣旨を逸脱しない範囲において、当業者が理解し得る様々な変更を行うことができる。
この出願は、2011年9月22日に出願された日本出願特願2011−207779を基礎とする優先権を主張し、その開示の全てをここに取り込む。
Claims (10)
- 表示手段を備えた装置本体と、
前記装置本体の動きを検出する第1の動き検出手段と、
前記装置本体を保持する保持体の動きを検出する第2の動き検出手段と、
前記第1および第2の動き検出手段の検出結果に基づいて、前記装置本体に対する操作を検出し、該検出した操作に従って前記表示手段の表示を制御する制御手段とを有する、表示装置。 - 前記第1の動き検出手段は、前記装置本体の移動および姿勢変化の少なくとも一方を検出し、
前記第2の動き検出手段は、前記保持体の移動および姿勢変化の少なくとも一方を検出する、請求項1に記載の表示装置。 - 前記制御手段は、前記第1の動き検出手段の検出結果から前記第2の動き検出手段の検出結果を差し引いた結果に基づいて、前記装置本体に対する操作を検出する、請求項1または2に記載の表示装置。
- 仮想空間を形成する仮想空間形成手段を、さらに有し、
前記制御手段は、前記仮想空間の一部の領域の映像を前記表示手段に表示させるとともに、前記第1および第2の動き検出手段の検出結果に基づいて検出した、前記装置本体に対する操作に従って、前記表示手段が表示する前記仮想空間上の表示領域を変化させる、請求項1から3のいずれか1項に記載の表示装置。 - 前記第1および第2の動き検出手段はそれぞれ、加速度センサであり、
前記制御手段は、前記第1および第2の動き検出手段の所定値以上の出力信号に基づいて、前記装置本体に対する操作を検出する、請求項1から4のいずれか1項に記載の表示装置。 - 前記第1および第2の動き検出手段はそれぞれ、加速度センサであり、
前記制御手段は、前記第1および第2の動き検出手段それぞれの出力信号から所定の変位を示す部分を取り除いた後の信号に基づいて、前記装置本体に対する操作を検出する、請求項1から4のいずれか1項に記載の表示装置。 - 前記第2の動き検出手段は、複数の加速度センサからなり、
前記制御手段は、前記第2の動き検出手段から前記複数の加速度センサの出力値の平均値を示す検出結果を取得する、請求項1から4のいずれか1項に記載の表示装置。 - 前記第2の動き検出手段は、前記保持体の重心を検出し、
前記制御手段は、前記第2の動き検出手段から前記保持体の重心の変化を示す検出結果を取得する、請求項1から4のいずれか1項に記載の表示装置。 - 表示手段を備えた装置本体の動きを検出するとともに、前記装置本体を保持する保持体の動きを検出し、
前記装置本体の動きの検出結果および前記保持体の動きの検出結果に基づいて、前記装置本体に対する操作を検出し、該検出した操作に従って前記表示手段の表示を制御する、表示制御方法。 - 表示手段を備えた装置本体の動きを検出した第1の検出結果と、前記装置本体を保持する保持体の動きを検出した第2の検出結果とに基づいて、前記装置本体に対する操作を検出する処理と、
前記検出した操作に従って前記表示手段の表示を制御する処理とを、コンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013534655A JPWO2013042530A1 (ja) | 2011-09-22 | 2012-09-03 | 表示装置、表示制御方法およびプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011207779 | 2011-09-22 | ||
JP2011207779 | 2011-09-22 | ||
JP2013534655A JPWO2013042530A1 (ja) | 2011-09-22 | 2012-09-03 | 表示装置、表示制御方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2013042530A1 true JPWO2013042530A1 (ja) | 2015-03-26 |
Family
ID=47914307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013534655A Pending JPWO2013042530A1 (ja) | 2011-09-22 | 2012-09-03 | 表示装置、表示制御方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20140218288A1 (ja) |
JP (1) | JPWO2013042530A1 (ja) |
WO (1) | WO2013042530A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210101604A1 (en) * | 2017-03-28 | 2021-04-08 | Kyushu Institute Of Technology | Driver state detection device |
JP2021067899A (ja) * | 2019-10-28 | 2021-04-30 | 株式会社日立製作所 | 頭部装着型表示装置および表示コンテンツ制御方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10254614A (ja) * | 1997-03-06 | 1998-09-25 | Hitachi Ltd | 携帯型電子処理装置及びその操作方法 |
JP3921770B2 (ja) * | 1998-01-14 | 2007-05-30 | ソニー株式会社 | ディスプレイ装置 |
JP2001175883A (ja) * | 1999-12-16 | 2001-06-29 | Sony Corp | バーチャルリアリティ装置 |
JP2002007027A (ja) * | 2000-06-27 | 2002-01-11 | Masanori Idesawa | 画像情報表示装置 |
JP2003280630A (ja) * | 2002-03-20 | 2003-10-02 | Toshiba Corp | 情報処理装置および同装置で使用される表示制御方法 |
JP4977995B2 (ja) * | 2005-10-26 | 2012-07-18 | 日本電気株式会社 | 携帯表示装置 |
US8279242B2 (en) * | 2008-09-26 | 2012-10-02 | Microsoft Corporation | Compensating for anticipated movement of a device |
JP2010086192A (ja) * | 2008-09-30 | 2010-04-15 | Sony Ericsson Mobile Communications Ab | 携帯機器、コンピュータプログラムおよび記録媒体 |
US20110050563A1 (en) * | 2009-08-31 | 2011-03-03 | Timothy Douglas Skutt | Method and system for a motion compensated input device |
-
2012
- 2012-09-03 JP JP2013534655A patent/JPWO2013042530A1/ja active Pending
- 2012-09-03 WO PCT/JP2012/072347 patent/WO2013042530A1/ja active Application Filing
- 2012-09-03 US US14/343,236 patent/US20140218288A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20140218288A1 (en) | 2014-08-07 |
WO2013042530A1 (ja) | 2013-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5869177B1 (ja) | 仮想現実空間映像表示方法、及び、プログラム | |
US9122307B2 (en) | Advanced remote control of host application using motion and voice commands | |
EP3561667B1 (en) | Method for displaying 2d application in vr device, and terminal | |
US9557781B2 (en) | Adjusting coordinates of touch input | |
WO2021136495A1 (zh) | 一种车机显示界面的页面布局控制方法及装置 | |
US9665232B2 (en) | Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device | |
KR20150011885A (ko) | 디바이스의 사용자 인터페이스 제공 방법 및 그 디바이스 | |
KR102192159B1 (ko) | 디스플레이 방법 및 그 방법을 처리하는 전자 장치 | |
JP2017059196A (ja) | 仮想現実空間映像表示方法、及び、プログラム | |
US9860447B1 (en) | Calibration of optical image stabilization module with motion sensor using image comparisons | |
WO2017022031A1 (ja) | 情報端末装置 | |
WO2013042530A1 (ja) | 表示装置、表示制御方法およびプログラム | |
JP6033465B2 (ja) | 表示制御装置 | |
JP6188377B2 (ja) | 表示制御装置、その制御方法、および制御プログラム | |
US20190212834A1 (en) | Software gyroscope apparatus | |
US20150033180A1 (en) | Display control apparatus, display control method, display control signal generating apparatus, display control signal generating method, program, and display control system | |
JP2014067289A (ja) | 情報処理装置および表示制御方法 | |
US20160253088A1 (en) | Display control apparatus and display control method | |
JP6014420B2 (ja) | 操作制御装置、操作制御方法、および、操作制御装置用プログラム | |
JP7129897B2 (ja) | 電子機器 | |
EP2801015A1 (en) | Adjusting coordinates of touch input | |
JP2012073583A (ja) | 情報表示装置、情報表示装置の制御方法、情報表示装置の制御プログラム | |
CN111465921B (zh) | 用户终端设备及其控制方法 | |
KR102289368B1 (ko) | 단말기 및 그를 이용한 오브젝트 제어 방법 | |
KR102295245B1 (ko) | 단말기 및 그를 이용한 이벤트 진행 제어 방법 |