JP2012068495A - 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム - Google Patents

情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2012068495A
JP2012068495A JP2010214043A JP2010214043A JP2012068495A JP 2012068495 A JP2012068495 A JP 2012068495A JP 2010214043 A JP2010214043 A JP 2010214043A JP 2010214043 A JP2010214043 A JP 2010214043A JP 2012068495 A JP2012068495 A JP 2012068495A
Authority
JP
Japan
Prior art keywords
information processing
projection
information
display information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010214043A
Other languages
English (en)
Other versions
JP5728866B2 (ja
Inventor
Shunichi Kasahara
俊一 笠原
Takeshi Miyashita
健 宮下
Kazuyuki Yamamoto
一幸 山本
Ikuo Yamano
郁男 山野
Hiroyuki Mizunuma
宏之 水沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010214043A priority Critical patent/JP5728866B2/ja
Priority to US13/232,594 priority patent/US20120075348A1/en
Priority to EP11181376.2A priority patent/EP2434371B1/en
Priority to CN201110282131.XA priority patent/CN102419686B/zh
Priority to CN2011203519479U priority patent/CN202495023U/zh
Publication of JP2012068495A publication Critical patent/JP2012068495A/ja
Application granted granted Critical
Publication of JP5728866B2 publication Critical patent/JP5728866B2/ja
Priority to US15/708,780 priority patent/US20180004314A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】プロジェクタを備える機器の投影面に対する状態変化に応じて、表示情報を直感的に操作することが可能な情報処理装置を提供する。
【解決手段】本発明の情報処理装置は、被投影体に表示情報を投影する投影部を備える端末の、被投影体に対する動き情報を取得する動き情報取得部と、動き情報に基づいて、被投影体に表示された表示情報に対する操作入力を判定し、投影部から被投影体に投影する表示情報を変更する表示情報処理部と、を備える。
【選択図】図4

Description

本発明は、情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラムに関し、より詳細には、プロジェクタを有する情報処理端末と、当該情報処理端末における表示制御を行う情報処理装置、情報処理方法およびコンピュータプログラム関する。
近年、移動通信端末等のモバイル機器の小型化が進んでいる。機器自体のサイズが小さくなると、これに設けられる表示領域のサイズも必然的に小さくなる。しかし、情報の見易さや操作性を考慮すると、表示領域のサイズを所定の大きさ以下にすることはできず、機器の小型化には限界がある。
これに対して、画像や映像等をスクリーン等に投影して表示するディスプレイ装置の1つであるプロジェクタは、表示領域を機器に設ける必要がない。このため、表示領域の代わりにプロジェクタを設けることにより、モバイル機器の小型化が可能となる。例えば、特許文献1には、携帯型電子機器にプロジェクタモジュールを備える構成が開示されている。
特開2009−3281号公報
しかし、プロジェクタにより画像等を投影して表示させる場合、タッチパネル等とは異なり、表示画面上で直接操作入力を行うことはできない。このため、表示情報を操作するための、ボタン等の操作部を機器に多数設けなければならないという問題があった。ユーザは、操作部を確認しながら操作するため、操作負荷が大きくなってしまう。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、プロジェクタを備える機器の投影面に対する状態変化に応じて、表示情報を直感的に操作することが可能な、新規かつ改良された情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、被投影体に表示情報を投影する投影部を備える端末の、被投影体に対する動き情報を取得する動き情報取得部と、動き情報に基づいて、被投影体に表示された表示情報に対する操作入力を判定し、投影部から被投影体に投影する表示情報を変更する表示情報処理部と、を備える、情報処理装置が提供される。
動き情報取得部は、移動される端末の加速度または角速度のうち少なくともいずれか一方に基づいて、被投影体に対する端末の並行移動成分を動き情報として取得し、表示情報処理部は、動き情報に基づいて、表示情報の表示範囲を変更してもよい。
また、動き情報取得部は、移動される端末の加速度または角速度のうち少なくともいずれか一方に基づいて、被投影体に対する端末の回転移動成分を動き情報として取得し、表示情報処理部は、動き情報に基づいて、被投影体に投影される表示情報の表示範囲を変更してもよい。
さらに、被投影体に、複数のオブジェクトが所定の配列方向に配列されてなるオブジェクトリストが表示されているとき、動き情報取得部は、移動される端末の加速度または角速度のうち少なくともいずれか一方に基づいて、被投影体に対する端末の回転移動成分を動き情報として取得し、表示情報処理部は、回転移動成分のうちオブジェクトの配列方向における回転移動成分に応じて、オブジェクトリストをスクロールさせてもよい。
ここで、端末が被投影体に対する基準位置から所定角度以上傾いているとき、表示情報処理部は、回転移動成分のうちオブジェクトの配列方向における回転移動成分の向きに、オブジェクトリストを継続してスクロールさせてもよい。
また、被投影体に、複数のオブジェクトからなるオブジェクト群が表示されているとき、動き情報取得部は、被投影体と端末との近接距離を動き情報として取得し、表示情報処理部は、動き情報の近接距離に応じて、端末の近接する位置に表示されたオブジェクトを含む所定数のオブジェクトのみを表示させてもよい。
ここで、表示情報処理部は、動き情報の近接距離が小さいほど、被投影体に表示するオブジェクトの数を減少させてもよい。
さらに、動き情報取得部は、被投影体と端末との近接距離を動き情報として取得し、表示情報処理部は、動き情報の近接距離に応じて、被投影体に表示される表示情報の表示粒度を変更してもよい。
また、被投影体に、1または複数の下位オブジェクトが階層的に関連付けられたオブジェクトが表示されているとき、動き情報取得部は、被投影体と端末との近接距離を動き情報として取得し、表示情報処理部は、動き情報の近接距離に応じて、オブジェクトに関連付けられた下位オブジェクトを展開して表示させてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、被投影体に表示情報を投影する投影部と、被投影体に対する投影部の姿勢変化を検出する検出部と、検出された姿勢変化に基づいて、被投影体に対する動き情報を取得する動き情報取得部と、動き情報に基づいて、被投影体に表示された表示情報に対する操作入力を判定し、投影部から被投影体に投影する表示情報を変更する表示情報処理部と、を備える、情報処理端末が提供される。
さらに、上記課題を解決するために、本発明の別の観点によれば、被投影体に表示情報を投影する投影部を備える端末の、被投影体に対する動き情報を取得するステップと、動き情報に基づいて、被投影体に表示された表示情報に対する操作入力を判定し、投影部から被投影体に投影する表示情報を変更するステップと、を含む、情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、被投影体に表示情報を投影する投影部を備える端末の、被投影体に対する動き情報を取得する動き情報取得部と、動き情報に基づいて、被投影体に表示された表示情報に対する操作入力を判定し、投影部から被投影体に投影する表示情報を変更する表示情報処理部と、を備える、情報処理装置として機能させるためのコンピュータプログラムが提供される。
プログラムは、コンピュータが備える記憶装置に格納され、コンピュータが備えるCPUに読み込まれて実行されることにより、そのコンピュータを上記情報処理装置として機能させることができる。また、プログラムが記録された、コンピュータによって読み取り可能な記録媒体も提供される。記録媒体は、例えば磁気ディスク、光ディスク、およびMO(Magneto Optical)ディスクなどである。磁気ディスクとしては、ハードディスクおよび円盤型磁性体ディスクなどがあげられる。また、光ディスクとしては、CD(Compact Disc、DVD−R(Digital Versatile Disc Recordable)およびBD(Blu−Ray Disc(登録商標))などがあげられる。
以上説明したように本発明によれば、プロジェクタを備える機器の投影面に対する状態変化に応じて、表示情報を直感的に操作することが可能な情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラムを提供することができる。
本発明の実施形態に係る情報処理端末のハードウェア構成例を示すブロック図である。 情報処理端末の姿勢変化を、加速度センサを用いて検出する方法を示す説明図である。 情報処理端末の姿勢変化を、角速度センサを用いて検出する方法を示す説明図である。 同実施形態に係る情報処理端末の機能構成を示すブロック図である。 同実施形態に係る情報処理端末による表示制御処理を示すフローチャートである。 情報処理端末の並行移動による表示情報の表示制御処理の一例を示す説明図である。 投影面に投影されたコンテンツの視点を制御する表示制御処理の一例を示す説明図である。 投影面に投影されたオブジェクトリストのスクロールを行う表示制御処理の一例を示す説明図である。 投影面に投影されたオブジェクトリストのスクロールを行う表示制御処理の他の一例を示す説明図である。 投影面に投影されたオブジェクトリストのスクロールを行う表示制御処理の他の一例を示す説明図である。 近接距離に基づき、複数のオブジェクトからなるオブジェクト群から所望のオブジェクトを選択するときの、情報処理端末の動きと表示情報の変化を示す説明図である。 近接距離に応じて投影面に表示された地図の表示粒度を変更する処理を説明する説明図である。 近接距離に応じて投影面に表示されたGUIの表示粒度を変更する処理を説明する説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.プロジェクタを備える情報処理端末の構成(ハードウェア構成例、機能構成)
2.情報処理端末による表示制御
2−1.情報処理端末の並行移動による表示情報の変更
2−2.情報処理端末の傾きによる表示情報の変更
2−3.情報処理端末の傾きによる表示情報のスクロール
2−4.オブジェクト群からのオブジェクト選択操作
2−5.情報処理端末と投影面との近接距離に応じたズーム処理
<1.プロジェクタを備える情報処理端末の構成>
[ハードウェア構成例]
まず、図1〜図3を参照して、本発明の実施形態に係る情報処理端末のハードウェア構成例について説明する。なお、図1は、本実施形態に係る情報処理端末100のハードウェア構成例を示すブロック図である。図2は、情報処理端末100の姿勢変化を、加速度センサを用いて検出する方法を示す説明図である。図3は、情報処理端末100の姿勢変化を、角速度センサを用いて検出する方法を示す説明図である。
本実施形態に係る情報処理端末100は、プロジェクタを備え、当該端末の姿勢変化やプロジェクタによる被投影体の投影面との距離変化に基づいて、投影面に投影されているGUIの表示内容を変化させるデバイスである。情報処理端末100としては、例えば、携帯情報処理端末やスマートフォンのような小型機器等、デバイスの機能によらず、プロジェクタを備えた様々なデバイスを想定している。
本実施形態に係る情報処理端末100は、図1に示すように、CPU101と、RAM(Random Access Memory)102と、不揮発性メモリ103と、センサ104と、投影装置105とを備える。
CPU101は、上述したように、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理端末100内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。RAM102は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。不揮発性メモリ103は、CPU101が使用するプログラムや演算パラメータ等を記憶する。不揮発性メモリ103は、例えばROM(Read Only Memory)やフラッシュメモリ等を用いることができる。
センサ104は、情報処理端末100の姿勢変化や投影面との距離変化を検出する1または複数の検出部を示す。情報処理端末100の姿勢変化を検出するセンサ104としては、例えば、図2および図3に示すように、加速度センサや角速度センサ等を用いることができる。
加速度センサは、加速されることにより質量の位置変化に基づき、加速度を検出するセンサであり、機械式加速度センサ、光学式加速度センサ、静電容量型やピエゾ抵抗型、ガス温度分布型等の半導体式加速度センサ等を用いることができる。例えば、図2に示すように、情報処理端末100が紙面上から下に向かって移動されたとする。このとき、情報処理端末100に3軸の加速度センサを設けることにより、重力加速度を計測することができる。これより、当該端末の姿勢に対する重力方向を検出し、情報処理端末100の姿勢を検出することができる。
角速度センサは、物体に働く力学的な慣性や光学的な干渉を利用して、角速度を検出するジャイロスコープ等のセンサであり、例えば、回転型や振動型等の機械式角速度センサや、光学式角速度センサ等を用いることができる。図2と同様、例えば、図3に示すように、情報処理端末100が紙面上から下に向かって移動されたとする。このとき、情報処理端末100に角速度センサを設けることにより角速度が取得され、情報処理端末100の傾きθを検出することができる。
また、情報処理端末100は、センサ104として、投影装置105から投影面までの距離を検出可能な距離センサを備えている。
投影装置105は、画像や映像等をスクリーン等の被投影体の投影面に投影して表示するディスプレイ装置である。投影装置105は、例えば、CRTや液晶、DPL(登録商標)(Digital Light Processing)を用いて画像を拡大して表示することができる。
このような情報処理端末100の投影装置105により投影して表示された画像や映像等の表示情報は情報処理端末100の姿勢や投影面に対する近接距離を変化させることにより操作することができる。次に、図4に基づいて、本実施形態に係る情報処理端末100の機能構成について説明する。なお、図4は、本実施形態に係る情報処理端末100の機能構成を示すブロック図である。
[機能構成]
本実施形態に係る情報処理端末100は、図4に示すように、検出部110と、動き情報取得部120と、表示情報処理部130と、投影部140と、設定記憶部150とを備える。
検出部110は、情報処理端末100の姿勢変化や投影面に対する近接距離の変化を検出する。検出部110は、図1のセンサ104に対応し、加速度センサ、角速度センサ、距離センサ等により実現できる。検出部110は、検出した情報処理端末100の重力方向や角速度、投影面に対する近接距離を取得し、動き情報取得部120へ出力する。
動き情報取得部120は、検出部110から入力された検出結果に基づいて、情報処理端末100の姿勢状態や移動方向等の動きを表す動き情報を取得する。すなわち、動き情報取得部120は、情報処理端末100の重力方向や加速度の変化より、情報処理端末100がユーザによってどのように動かされたかを判定する。そして、動き情報取得部120は、取得した動き情報を表示情報処理部130へ出力する。
表示情報処理部130は、動き情報取得部120から入力された情報処理端末100の動き情報に基づいて、投影部140により投影してスクリーン等に表示させる表示情報を決定する。表示情報処理部130は、例えば、動き情報から情報処理端末100の姿勢が変化したことを認識すると、その姿勢変化に応じて、投影部140により投影する表示情報を変化させる。このとき、表示情報処理部130は、動き情報から、投影面に表示されている表示情報に対する操作入力を判定し、表示情報を変化させる。表示情報処理部130は、行われた操作入力を、後述する設定記憶部150を参照することにより、現在表示されている表示情報と動き情報とを用いて判定することができる。
このように、情報処理端末100自身の姿勢を変化させたり、投影面との近接距離を変化させたりすることで、投影面に投影された表示情報を操作することができる。表示情報処理部130は、表示情報を投影部140へ出力する。なお、動き情報取得部120および表示情報処理部130は、当該情報処理端末100により投影されている表示情報に対する操作入力に応じて表示情報を変更する情報処理装置として機能する。
投影部140は、画像や映像等の表示情報を投影面に投影する。投影部140は、例えばプロジェクタ等であり、図1に示す投影装置105に対応する。ユーザは、投影部140から投影面に対して出力された表示情報を見て、情報処理端末100を動かし、表示情報を操作することができる。
設定記憶部150は、情報処理端末100の姿勢変化等に応じて表示情報を変化させる表示制御処理に用いられる情報を記憶する記憶部であり、図1のRAM102や不揮発性メモリ103に対応する。設定記憶部150には、例えば、検出部110の検出結果を表す信号と、重力方向、角速度、投影面からの距離等との対応関係が記憶されている。また、設定記憶部150には、現在表示されている表示情報および動き情報と表示情報の変更処理との対応関係(すなわち、操作入力に応じた表示情報の変更処理)等が記憶される。これらの情報は、動き情報取得部120や表示情報処理部130等により参照される。設定記憶部150に記憶される情報は、予め設定されていてもよく、ユーザが適宜設定し記録してもよい。
<2.情報処理端末による表示制御>
情報処理端末100は、投影部140により投影面に投影した表示情報を、当該情報処理端末100の姿勢変化等に応じて変化させる。以下、図5〜図13に基づいて、本実施形態に係る情報処理端末100による表示制御処理について説明する。
[2−1.情報処理端末の並行移動による表示情報の変更]
まず、図5および図6に基づいて、本実施形態に係る情報処理端末100による表示制御処理の一例として、情報処理端末100が並行移動された表示情報の変更処理について説明する。なお、図5は、本実施形態に係る情報処理端末100による表示制御処理を示すフローチャートである。図6は、情報処理端末100の並行移動による表示情報の表示制御処理の一例を示す説明図である。なお、後述する情報処理端末100による表示制御処理も、図5のフローチャートに沿って行われる。
本実施形態に係る情報処理端末100によれば、ユーザが情報処理端末100を投影面に沿って並行移動させることにより、投影面に表示させる表示情報の範囲を変更することができる。例えば、図6に示す例では、投影面200に、表示情報として地図が表示されている。図6上図に示す状態では、地図202全体のうち一部202Aのみが投影面200に表示されているとする。この状態から、ユーザが情報処理端末100を投影面に沿って例えばx方向に並行移動させると、図6下図に示すように、投影面200に表示される地図202の内容が、符号202Aの表示内容から他の一部202Bの表示内容に変更される。
かかる表示制御処理は、図5に示すように、まず、動き情報取得部120により投影部140の操作が開始されたか否かを判定することから開始される(S100)。動き情報取得部120は、例えば、情報処理端末100の投影部140による表示情報の投影を開始する投影開始信号を検知すると、投影面200に投影される表示情報の表示制御処理を開始する。投影開始信号は、例えば情報処理端末100に設けられたスイッチ等を押下されると投影開始信号が出力され、投影部140による表示情報の投影が可能となる。動き情報取得部120は、投影開始信号を検出するまでは投影面200に投影される表示情報の表示制御処理は開始せず、ステップS100の処理を繰り返す。
投影部140の操作が開始されたことを検知すると、動き情報取得部120は、情報処理端末100に動きがあったか否かを判定する(S110)。動き情報判定部120は、検出部110による検出結果より、情報処理端末100の姿勢が変更されたり、投影面200に対する近接距離が変化したりしたか否かを判定する。そして、情報処理端末100に動きがあった場合、動き情報取得部120は、情報処理端末100の動き情報を表示情報処理部130へ出力する。表示情報処理部130は、現在表示されている表示情報および動き情報に基づき、情報処理端末100の動きに応じて投影面200に表示されている表示情報を変更する(S120)。変更後の表示情報は投影部140へ出力され、投影部140によって投影面200に表示される。
図6に示す例では、地図202が表示されているとき、情報処理端末100の並行移動によって、情報処理端末100により表示される地図202の視点を移動させる処理が行われる。かかる処理の内容は、設定記憶部150に記憶されている。ここで、情報処理端末100の並行移動は、例えば、上述したように加速度センサにより検出可能な加速度の変化や、角速度センサにより検出可能な角速度の変化によって、情報処理端末100の移動成分を抽出することで検出することができる。あるいは、情報処理端末100が投影部140の投影方向にカメラ(図示せず。)を備えている場合には、動き情報取得部120は、カメラにより投影方向を撮像し、撮影された画像変化より情報処理端末100の移動成分を抽出することもできる。
動き情報取得部120は、情報処理端末100の移動成分を抽出すると、これを動き情報として表示情報処理部130へ出力する。表示情報処理部130は、動き情報に基づいて、情報処理端末100が並行移動された移動量に対応して投影する表示情報の移動量(表示情報移動量)を決定する。そして、表示情報処理部130は、投影面200に表示される地図202のうち、図6上図に表示された部分202Aから表示情報移動量だけ移動した部分202Bを新たな表示情報とし、投影部140へ出力する。
このように、ユーザが情報処理端末100を並行移動させると、投影面200に投影される表示情報の視点も対応して移動し、投影面200に投影される表示情報が変化する。その後、例えば、スイッチ等が押下される等の所定の操作が行われ、投影部140による操作を終了する投影終了信号が検知されると、投影部140の操作は終了される(S130)。一方、投影終了信号が検知されるまではステップS110からの処理が繰り返し行われる。
以上、本実施形態に係る情報処理端末100により、ユーザが情報処理端末100を投影面に沿って並行移動させて、投影面200に表示させる表示情報の範囲を変更する場合について説明した。このように、ユーザは情報処理端末100を投影面200上で並行移動させるだけで投影面200に投影される表示情報を変化させる操作を行うことができる。
[2−2.情報処理端末の傾きによる表示情報の変更]
次に、図7に基づいて、本実施形態に係る情報処理端末100により、投影面200に投影されたコンテンツの視点を制御する表示制御処理について説明する。なお、図7は、投影面200に投影されたコンテンツの視点を制御する表示制御処理の一例を示す説明図である。
本例では、情報処理端末100の姿勢のうち投影面200に対する傾きを変化させることで、情報処理端末100により投影されるコンテンツの視点(視線方向)が制御され、投影される表示情報の内容が変化する。例えば、情報処理端末100の投影部140を投影面200に向けて投影を開始すると、図7左図に示すように、例えば写真204等のコンテンツの一部204Aが投影面200に表示される。このとき、情報処理端末100は下向き(x軸負方向)を向いており、下向きの視線方向で見たときの写真204の一部204を表示している。
かかる状態から、例えば図7右図に示すように、情報処理端末100が上向き(x軸正方向)に向けられ、情報処理端末100の姿勢が変更されたとする。このとき、投影面200に対する情報処理端末100の傾きが変化するので、動き情報取得部120は、情報処理端末100の投影面200に対する傾きを取得し、表示情報処理部130へ出力する。
表示情報処理部130は、動き情報に基づいて、情報処理端末100の投影面200に対する傾き変化に対応して、投影する表示情報の移動量(表示情報移動量)を決定する。そして、表示情報処理部130は、投影面200に表示される写真204のうち、図7左図に表示された部分204Aから表示情報移動量だけ移動した部分204Bを新たな表示情報とし、投影部140へ出力する。こうして、図7右図に示すように、上向きの視線方向で見たときの写真204の一部204Bが表示される。
以上、本実施形態に係る情報処理端末100により、ユーザが情報処理端末100を投影面に対して傾かせて、投影面200に表示させる表示情報の範囲を変更する場合について説明した。このように、ユーザは、投影面200に対する情報処理端末100の傾きを変化させるだけで投影面200に投影される表示情報を変化させる操作を行うことができる。
[2−3.情報処理端末の傾きによる表示情報のスクロール]
次に、図8〜図10に基づいて、本実施形態に係る情報処理端末100の姿勢変化に応じて、投影面200に表示されている表示情報の操作を行う例について説明する。なお、図8は、投影面200に投影されたオブジェクトリストのスクロールを行う表示制御処理の一例を示す説明図である。図9および図10は、投影面200に投影されたオブジェクトリストのスクロールを行う表示制御処理の他の一例を示す説明図である。
本例では、投影面200に複数のオブジェクト210a、210b、210c、・・・からなるオブジェクトリスト210が表示されている場合を考える。このとき、情報処理端末100は、当該情報処理端末100の所定方向への回転の動きを検出し、その方向にオブジェクトリスト210をスクロールさせる。
例えば、図8左図に示すように、投影面200に、複数のオブジェクト210a、210b、210c、210dがy方向に配列されてなるオブジェクトリスト210が表示されている。このとき、ユーザが情報処理端末100を所定方向、ここではオブジェクトリスト210の配列方向(y方向)へ回転させると、情報処理端末100の動きに応じた検出結果を検出部110は出力する。動き情報取得部120は、検出部110の検出結果より情報処理端末100のy方向における回転方向を取得する。
ここで、y方向における回転方向とは、投影面200に対して垂直なz軸を基準として、情報処理端末100が投影面200に対して傾いたときのy方向成分の向きをいう。表示情報処理部130は、動き情報より、情報処理端末100がy軸正方向に傾いていることを検知すると、スクロールリスト210をy軸正方向にスクロールさせるよう、表示情報を変化させる。一方、表示情報処理部130は、動き情報より、情報処理端末100がy軸負方向に傾いていることを検知すると、スクロールリスト210をy軸負方向にスクロールさせるよう、表示情報を変化させる。
例えば、情報処理端末100の姿勢が、図8左図のように下向きの視線方向を向いた状態から、図8右図のように上向きの視線方向を向いた状態へ変化したとする。このとき、情報処理端末100はy軸負方向に傾くため、図8右図のようにオブジェクトリスト210はy軸負方向側へスクロールされ、例えばオブジェクト210c、210d、210e
、210fが投影面200に表示される。このように、情報処理端末100の投影面200に対する傾きを変化させることにより、投影されたオブジェクトリスト210をスクロールさせることができる。
ここで、情報処理端末100の傾きとオブジェクトリスト210を構成する全オブジェクトの投影面200における表示位置とは、一対一に対応させてよい。あるいは、図9および図10に示すように、情報処理端末100が基準位置から所定角度以上傾いている間は、スクロールを継続して行うようにしてもよい。
図9に示す例では、図8と同様に、投影面200に複数のオブジェクト210a、210b、210c、・・・からなるオブジェクトリスト210が表示されているとき、情報処理端末100は、当該情報処理端末100の所定方向への回転の動きを検出し、その方向にオブジェクトリスト210をスクロールさせる。このとき、動き情報取得部120は、検出部110の検出結果より、投影面200に対して垂直なz方向を基準位置として、基準位置からの情報処理端末100の傾きを取得する。なお、基準位置は、投影面200に対する位置関係に基づき決定することができる。そして、表示情報処理部130は、基準位置からの情報処理端末100の傾きが所定角以上であるか否かを判定し、傾きが所定角以上である場合には、情報処理端末100の回転方向にオブジェクトリスト210を継続してスクロールさせる。
例えば、図9上図に示すように、情報処理端末100がy軸正方向に傾いており、基準位置からの情報処理端末100の傾きθが所定角以上であるとする。このとき、表示情報処理部130は、投影面200に表示されたオブジェクトリスト210をy軸正方向に継続してスクロールさせる。また、図9下図に示すように、情報処理端末100がy軸負方向に傾いており、基準位置からの情報処理端末100の傾きθが所定角以上であるとする。このとき、表示情報処理部130は、投影面200に表示されたオブジェクトリスト210をy軸負方向に継続してスクロールさせる。
なお、基準位置からの情報処理端末100の傾きが所定角より小さい場合には、オブジェクトリスト210は、情報処理端末100の傾きθの大きさに応じて、回転方向にスクロールされる。
また、図9では、鉛直方向に立てられた投影面200に、鉛直方向に複数のオブジェクトが配列されてなるオブジェクトリスト210のスクロールについて説明したが、図10に示すように、投影面200を水平に置いた場合も同様に表示制御される。図10では、投影面200が鉛直方向に直交する水平面に設けられ、水平面に沿って所定方向(例えばx方向)にオブジェクト210a、210b、210c、・・・が配列されている。この場合も、情報処理端末100は、当該情報処理端末100の所定方向への回転の動きを検出し、その方向にオブジェクトリスト210をスクロールさせる。
このとき、動き情報取得部120は、検出部110の検出結果より、投影面200に対して垂直なz方向を基準位置として、基準位置からの情報処理端末100の傾きを取得する。そして、表示情報処理部130は、基準位置からの情報処理端末100の傾きが所定角以上であるか否かを判定し、傾きが所定角以上である場合には、情報処理端末100の回転方向にオブジェクトリスト210を継続してスクロールさせる。
例えば、図10左図に示すように、情報処理端末100がx軸負方向に傾いており、基準位置からの情報処理端末100の傾きθが所定角以上であるとする。このとき、表示情報処理部130は、投影面200に表示されたオブジェクトリスト210をx軸負方向に継続してスクロールさせる。また、図10右図に示すように、情報処理端末100がx軸正方向に傾いており、基準位置からの情報処理端末100の傾きθが所定角以上であるとする。このとき、表示情報処理部130は、投影面200に表示されたオブジェクトリスト210をx軸正方向に継続してスクロールさせる。
なお、基準位置からの情報処理端末100の傾きが所定角より小さい場合には、オブジェクトリスト210は、情報処理端末100の傾きθの大きさに応じて、回転方向にスクロールされる。このように、情報処理端末100の投影面200に対する傾きを変化させることにより、投影されたオブジェクトリスト210をスクロールさせることができる。
[2−4.オブジェクト群からのオブジェクト選択操作]
本実施形態に係る情報処理端末100の検出部110は、投影面200に対する情報処理端末100の近接距離も検出することができる。そこで、本実施形態にかかる情報処理端末100は、近接距離に基づき、複数のオブジェクトからなるオブジェクト群から所望のオブジェクトを選択する操作を行うこともできる。以下、図11に基づいて、情報処理端末100によりオブジェクト群からオブジェクトを選択する操作を行うときの、投影面200に表示される表示情報の表示制御処理について説明する。なお、図11は、近接距離に基づき、複数のオブジェクト222からなるオブジェクト群220から所望のオブジェクト222aを選択するときの、情報処理端末100の動きと表示情報の変化を示す説明図である。
図11に示すように、情報処理端末100の投影部140から投影される表示情報が複数のオブジェクト222からなるオブジェクト群220であったとする。投影面200から距離Z1離隔しているとき、図11左図に示すように、投影面200には4×4の格子状に配列されて表示されている。本例では、表示情報処理部130は、情報処理端末100の投影面200に対する近接距離に応じて、オブジェクト群200のうち表示されるオブジェクト222の数を変化させる。
例えば、表示情報処理部130は、情報処理端末100を投影面200に近接させるほど、投影面200に表示されるオブジェクト222を減少させ、最終的に1つのオブジェクト222のみを表示させる。このように投影面200に表示させるオブジェクト222の数を減少させることで、オブジェクト群220のオブジェクト222を絞り込み、最終的に1つのオブジェクト222を選択できるようにすることができる。
図11では、情報処理端末100を投影面200に近接させ、投影面200から情報処理端末100までの距離を距離Z1から距離Z2へ変化させたとき、中央に示す図のように、投影面200に表示されるオブジェクト222の数が減少される。情報処理端末100を投影面200に近接させることで絞り込まれたときに選択候補として表示されるオブジェクト222は、情報処理端末100の投影面200上における位置に応じて決定される。
例えば図11に示すように、情報処理端末100が所望のオブジェクト222aの上方に向かってx軸正方向かつy軸負方向へ移動しながら投影面200に近接したとする。そうすると、オブジェクト群200からオブジェクト222aを中心とする3×3個のオブジェクト222のみが表示されるようになる。このように、4×4個のオブジェクト222から3×3個のオブジェクトに選択対象を絞り込むことができる。
さらに、情報処理端末100を所望のオブジェクト222aに向かって投影面200へ近接させ、投影面200から情報処理端末100までの距離が距離Z3となると、図11右図に示すように、表示情報処理部130は所望のオブジェクト222aのみを表示させる。このように、所望のオブジェクト222aのみを表示させることで、当該オブジェクト222aを選択することができる。その後、所定の操作(例えば、情報処理端末100に設けられたボタン等を押下する等)を行うことで、例えばオブジェクト222aに関連付けられた機能を実行させることができる。
なお、本例では、表示情報処理部130は、投影面200と情報処理端末100との近接距離が、予め設定された距離Z1〜Z3を超えたか否かによって、表示情報を変更させたが、本発明はかかる例に限定されない。例えば、投影面200と情報処理端末100との近接距離に応じて連続的に表示情報を変化させてもよい。
このように、投影部140を備える情報処理端末100と投影面200との近接距離を変化させることで、投影面200に表示された表示情報の絞り込みや選択を行うことができる。ユーザは、投影面200に対する情報処理端末100の位置を変化させるだけで表示情報を操作することができるので、直感的に操作を行うことができる。
[2−5.情報処理端末と投影面との近接距離に応じたズーム処理]
投影面200と情報処理端末100との近接距離を用いて投影面200に表示された表示情報を操作する他の例として、例えば近接距離に応じて投影面200に表示される表示情報の表示粒度を変更させることもできる。図12に、近接距離に応じて投影面200に表示された地図230の表示粒度を変更する処理を説明する説明図を示す。
図12に示すように、情報処理端末100の投影部140により、投影面200に対して、表示情報として例えば地図230が投影されているとする。図12左図に示すように、情報処理端末100と投影面200とが離隔されているときには、広域の地図230Aが投影面200に表示されている。かかる状態から、情報処理端末100が投影面200に向かってz方向に近接されると、図12左図に示すように、ズームされた地図230Bが投影面200に表示される。
表示情報のズーム処理は、例えば、情報処理端末100の投影部140から投影面200に対して下ろした垂線と投影面200との交点を中心として、近接距離に応じて表示粒度を変化させることにより行われる。情報処理端末100と投影面200との近接距離が小さくなるにつれ、表示粒度は大きくなり、表示情報は拡大されて表示される。
これにより、ユーザは、情報処理端末100を投影面に近接させたり離隔させたりすることで、投影面200に表示される表示情報をズームイン/ズームアウトさせることができ、直感的に操作を行うことができる。
また、近接距離に応じて投影面200に表示される表示情報の表示粒度を変更させる他の例として、図13に示すように、近接距離に応じてGUIの表示粒度を変更させることもできる。図13に、近接距離に応じて投影面200に表示されたGUIの表示粒度を変更する処理を説明する説明図を示す。例えば、図13左図のように、複数のオブジェクト241、242、243、244が投影面200に表示されているとする。オブジェクト241、242、243、244は、大局的な内容を表す代表的なアイコンであって、各オブジェクト241、242、243、244には、同一のグループに属するオブジェクトが関連付けられている。
情報処理端末100が投影面200に向かって近接されると、近接距離に応じてオブジェクトが展開される。展開対象となるオブジェクトは、情報処理端末100が最も近接しているオブジェクトとすることができる。例えば、図13左図の状態から情報処理端末100をオブジェクト244の上方に向かってx軸正方向かつy軸負方向へ移動しながら投影面200に近接したとする。表示情報処理部130は、動き情報より上記情報処理端末100の移動を認識してオブジェクト244を展開し、オブジェクト244に関連付けられたオブジェクト244a、244b、244c、244dを投影面に表示させる(図13中央図)。
その後、情報処理端末100が投影面200にさらに近接されると、情報処理端末100が近接するオブジェクトのみが表示されるようになる。例えば、図13右図に示すように、情報処理端末100がオブジェクト244aに向かって投影面200に近接されると、オブジェクト244aのみが投影面200に表示される。このように、所望のオブジェクト244aのみを表示させることで、当該オブジェクト244aを選択することができる。その後、所定の操作(例えば、情報処理端末100に設けられたボタン等を押下する等)を行うことで、例えばオブジェクト244aに関連付けられた機能を実行させることができる。
なお、図13に示した例では、オブジェクトの展開は1回のみであったが、本発明はかかる例に限定されない。オブジェクトは複数に階層化されていてもよく、このとき情報処理端末100は、投影面200に対する情報処理端末100の近接距離に応じて、表示する階層を変更するようにしてもよい。また、図12、図13に示す例では、表示情報処理部130は、投影面200と情報処理端末100との近接距離に応じて連続的に表示情報を変化させたが、本発明はかかる例に限定されない。図11に示す例のように、例えば、投影面200と情報処理端末100との近接距離が、予め設定された距離閾値を超えたか否かによって、表示情報を変更させてもよい。
以上、本発明の実施形態に係る投影部140を備える情報処理端末100の構成と、これによる表示制御処理について説明した。本実施形態に係る情報処理端末100は、当該情報処理端末100の姿勢を変化させることで、投影面200に投影する表示情報の仮想的視点を変化させることができる。これにより、表示情報、特に3Dや全方位映像等のコンテンツにおいて、没入感のある閲覧を可能にする。
また、情報処理端末100の姿勢を変化させることで、投影面200に表示された表示情報の表示領域変更操作、スクロール操作、選択操作等を行うことができ、ユーザは、投影されている表示情報を見ながら直感的に操作を行うことができる。さらに、情報処理端末100と投影面200との近接距離を変化させることにより、地図等の表示情報のズームイン/ズームアウトや、表示情報の展開操作を行うことができ、ユーザは直感的に操作を行うことができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、投影面200に対して垂直なz軸を基準位置として設定したが、本発明はかかる例に限定されない。例えば、情報処理端末100の投影部140による投影開始時にユーザが基準位置を設定してもよく、情報処理端末100の使用開始時にキャリブレーションにより設定してもよい。
100 情報処理端末
110 検出部
120 動き情報取得部
130 表示情報処理部
140 投影部
150 設定記憶部
200 投影面

Claims (12)

  1. 被投影体に表示情報を投影する投影部を備える端末の、前記被投影体に対する動き情報を取得する動き情報取得部と、
    前記動き情報に基づいて、前記被投影体に表示された表示情報に対する操作入力を判定し、前記投影部から前記被投影体に投影する表示情報を変更する表示情報処理部と、
    を備える、情報処理装置。
  2. 前記動き情報取得部は、移動される前記端末の加速度または角速度のうち少なくともいずれか一方に基づいて、前記被投影体に対する前記端末の並行移動成分を動き情報として取得し、
    前記表示情報処理部は、前記動き情報に基づいて、前記表示情報の表示範囲を変更する、請求項1に記載の情報処理装置。
  3. 前記動き情報取得部は、移動される前記端末の加速度または角速度のうち少なくともいずれか一方に基づいて、前記被投影体に対する前記端末の回転移動成分を動き情報として取得し、
    前記表示情報処理部は、前記動き情報に基づいて、前記被投影体に投影される前記表示情報の表示範囲を変更する、請求項1に記載の情報処理装置。
  4. 前記被投影体に、複数のオブジェクトが所定の配列方向に配列されてなるオブジェクトリストが表示されているとき、
    前記動き情報取得部は、移動される前記端末の加速度または角速度のうち少なくともいずれか一方に基づいて、前記被投影体に対する前記端末の回転移動成分を動き情報として取得し、
    前記表示情報処理部は、前記回転移動成分のうち前記オブジェクトの配列方向における回転移動成分に応じて、前記オブジェクトリストをスクロールさせる、請求項1に記載の情報処理装置。
  5. 前記端末が前記被投影体に対する基準位置から所定角度以上傾いているとき、前記表示情報処理部は、前記回転移動成分のうち前記オブジェクトの配列方向における回転移動成分の向きに、前記オブジェクトリストを継続してスクロールさせる、請求項4に記載の情報処理装置。
  6. 前記被投影体に、複数のオブジェクトからなるオブジェクト群が表示されているとき、
    前記動き情報取得部は、前記被投影体と前記端末との近接距離を動き情報として取得し、
    前記表示情報処理部は、前記動き情報の近接距離に応じて、前記端末の近接する位置に表示された前記オブジェクトを含む所定数のオブジェクトのみを表示させる、請求項1に記載の情報処理装置。
  7. 前記表示情報処理部は、前記動き情報の近接距離が小さいほど、前記被投影体に表示するオブジェクトの数を減少させる、請求項6に記載の情報処理装置。
  8. 前記動き情報取得部は、前記被投影体と前記端末との近接距離を動き情報として取得し、
    前記表示情報処理部は、前記動き情報の近接距離に応じて、前記被投影体に表示される表示情報の表示粒度を変更する、請求項1に記載の情報処理装置。
  9. 前記被投影体に、1または複数の下位オブジェクトが階層的に関連付けられたオブジェクトが表示されているとき、
    前記動き情報取得部は、前記被投影体と前記端末との近接距離を動き情報として取得し、
    前記表示情報処理部は、前記動き情報の近接距離に応じて、前記オブジェクトに関連付けられた前記下位オブジェクトを展開して表示させる、請求項1に記載の情報処理装置。
  10. 被投影体に表示情報を投影する投影部と、
    前記被投影体に対する前記投影部の姿勢変化を検出する検出部と、
    検出された前記姿勢変化に基づいて、前記被投影体に対する動き情報を取得する動き情報取得部と、
    前記動き情報に基づいて、前記被投影体に表示された表示情報に対する操作入力を判定し、前記投影部から前記被投影体に投影する表示情報を変更する表示情報処理部と、
    を備える、情報処理端末。
  11. 被投影体に表示情報を投影する投影部を備える端末の、前記被投影体に対する動き情報を取得するステップと、
    前記動き情報に基づいて、前記被投影体に表示された表示情報に対する操作入力を判定し、前記投影部から前記被投影体に投影する表示情報を変更するステップと、
    を含む、情報処理方法。
  12. コンピュータを、
    被投影体に表示情報を投影する投影部を備える端末の、前記被投影体に対する動き情報を取得する動き情報取得部と、
    前記動き情報に基づいて、前記被投影体に表示された表示情報に対する操作入力を判定し、前記投影部から前記被投影体に投影する表示情報を変更する表示情報処理部と、
    を備える、情報処理装置として機能させるためのコンピュータプログラム。
JP2010214043A 2010-09-24 2010-09-24 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム Active JP5728866B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2010214043A JP5728866B2 (ja) 2010-09-24 2010-09-24 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム
US13/232,594 US20120075348A1 (en) 2010-09-24 2011-09-14 Information Processing Apparatus, Information Processing Terminal, Information Processing Method and Computer Program
EP11181376.2A EP2434371B1 (en) 2010-09-24 2011-09-15 Information processing apparatus, information processing terminal, information processing method and computer program
CN201110282131.XA CN102419686B (zh) 2010-09-24 2011-09-16 用于处理图像数据的设备、方法
CN2011203519479U CN202495023U (zh) 2010-09-24 2011-09-16 用于处理图像数据的设备和计算机可读存储介质
US15/708,780 US20180004314A1 (en) 2010-09-24 2017-09-19 Information processing apparatus, information processing terminal, information processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010214043A JP5728866B2 (ja) 2010-09-24 2010-09-24 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2012068495A true JP2012068495A (ja) 2012-04-05
JP5728866B2 JP5728866B2 (ja) 2015-06-03

Family

ID=44970929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010214043A Active JP5728866B2 (ja) 2010-09-24 2010-09-24 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム

Country Status (4)

Country Link
US (2) US20120075348A1 (ja)
EP (1) EP2434371B1 (ja)
JP (1) JP5728866B2 (ja)
CN (2) CN202495023U (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215877A (ja) * 2016-06-01 2017-12-07 キヤノン株式会社 電子機器及びその制御方法
CN111493809A (zh) * 2014-12-17 2020-08-07 索尼公司 信息处理装置和方法、眼镜式终端以及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015170483A1 (ja) * 2014-05-09 2015-11-12 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN104601914A (zh) * 2015-01-12 2015-05-06 联想(北京)有限公司 信息处理方法及电子设备
CN108351736B (zh) * 2015-11-02 2022-01-28 索尼公司 可穿戴显示器、图像显示装置和图像显示系统
US9990078B2 (en) * 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
CN106657951A (zh) * 2016-10-20 2017-05-10 北京小米移动软件有限公司 投影控制方法及装置、移动设备、投影仪
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0549074A (ja) * 1991-08-09 1993-02-26 Fujitsu Ltd リモコン装置
JPH06159998A (ja) * 1992-05-29 1994-06-07 Sega Enterp Ltd 模擬銃
JPH06167687A (ja) * 1992-11-30 1994-06-14 Mitsubishi Electric Corp プロジェクタ
JP2005043570A (ja) * 2003-07-25 2005-02-17 Seiko Epson Corp プロジェクタ
JP2005338249A (ja) * 2004-05-25 2005-12-08 Seiko Epson Corp 表示装置、表示方法及び表示システム
JP2008210348A (ja) * 2007-02-28 2008-09-11 Univ Of Tokyo 画像表示装置
JP2008275896A (ja) * 2007-04-27 2008-11-13 Ricoh Co Ltd 画像投影装置
JP2012027515A (ja) * 2010-07-20 2012-02-09 Hitachi Consumer Electronics Co Ltd 入力方法及び入力装置
JP2013535724A (ja) * 2010-07-16 2013-09-12 クアルコム,インコーポレイテッド 投影されたユーザインターフェースと対話するための方法およびシステム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030038928A1 (en) * 2001-08-27 2003-02-27 Alden Ray M. Remote image projector for hand held and wearable applications
US7301528B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
US7173604B2 (en) * 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
US7486274B2 (en) * 2005-08-18 2009-02-03 Mitsubishi Electric Research Laboratories, Inc. Method for stabilizing and precisely locating pointers generated by handheld direct pointing devices
US20080163103A1 (en) * 2006-12-29 2008-07-03 Nokia Corporation Apparatus and method for identifying edges of documents
JP5217268B2 (ja) 2007-06-22 2013-06-19 株式会社リコー 携帯型電子機器
US7874681B2 (en) * 2007-10-05 2011-01-25 Huebner Kenneth J Interactive projector system and method
US20090309826A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and devices
US8212794B2 (en) * 2008-09-30 2012-07-03 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical finger navigation utilizing quantized movement information
KR101520689B1 (ko) * 2008-10-22 2015-05-21 엘지전자 주식회사 이동 단말기 및 이를 이용한 화면 스크롤 방법
US9323422B2 (en) * 2008-10-27 2016-04-26 Autodesk, Inc. Spatially-aware projection pen display
JP5534574B2 (ja) 2009-03-19 2014-07-02 独立行政法人国立がん研究センター 挿入器具の湾曲操作装置
US9696809B2 (en) * 2009-11-05 2017-07-04 Will John Temple Scrolling and zooming of a portable device display with device motion
US8686975B2 (en) * 2010-07-29 2014-04-01 Dell Products, Lp Interactive projector device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0549074A (ja) * 1991-08-09 1993-02-26 Fujitsu Ltd リモコン装置
JPH06159998A (ja) * 1992-05-29 1994-06-07 Sega Enterp Ltd 模擬銃
JPH06167687A (ja) * 1992-11-30 1994-06-14 Mitsubishi Electric Corp プロジェクタ
JP2005043570A (ja) * 2003-07-25 2005-02-17 Seiko Epson Corp プロジェクタ
JP2005338249A (ja) * 2004-05-25 2005-12-08 Seiko Epson Corp 表示装置、表示方法及び表示システム
JP2008210348A (ja) * 2007-02-28 2008-09-11 Univ Of Tokyo 画像表示装置
JP2008275896A (ja) * 2007-04-27 2008-11-13 Ricoh Co Ltd 画像投影装置
JP2013535724A (ja) * 2010-07-16 2013-09-12 クアルコム,インコーポレイテッド 投影されたユーザインターフェースと対話するための方法およびシステム
JP2012027515A (ja) * 2010-07-20 2012-02-09 Hitachi Consumer Electronics Co Ltd 入力方法及び入力装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6014005881; G. BLASKO et al: '"Exploring Interaction with a Simulated Wrist-Worn Projection Display"' Proceedings of the 2005 Ninth IEEE International Symposium on Wearable Computers (ISWC'05) , 20051018, pp.2-9 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111493809A (zh) * 2014-12-17 2020-08-07 索尼公司 信息处理装置和方法、眼镜式终端以及存储介质
US11635806B2 (en) 2014-12-17 2023-04-25 Sony Corporation Information processing apparatus and information processing method
JP2017215877A (ja) * 2016-06-01 2017-12-07 キヤノン株式会社 電子機器及びその制御方法

Also Published As

Publication number Publication date
CN202495023U (zh) 2012-10-17
US20120075348A1 (en) 2012-03-29
EP2434371A2 (en) 2012-03-28
US20180004314A1 (en) 2018-01-04
JP5728866B2 (ja) 2015-06-03
EP2434371B1 (en) 2019-01-02
EP2434371A3 (en) 2015-03-18
CN102419686B (zh) 2017-05-10
CN102419686A (zh) 2012-04-18

Similar Documents

Publication Publication Date Title
JP5728866B2 (ja) 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム
JP5912014B2 (ja) 3dリモートコントローラ用のguiアプリケーション
JP5689963B2 (ja) 投影されたユーザインターフェースと対話するための方法およびシステム
JP6039801B2 (ja) 透明なヘッドマウントディスプレイ用のユーザインターフェースとの対話
US9898179B2 (en) Method and apparatus for scrolling a screen in a display apparatus
US9544556B2 (en) Projection control apparatus and projection control method
JP2015508211A (ja) カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体
JP2009183003A (ja) メニュー画面を表示する端末機においてメニューナビゲーションを制御する装置及び方法
JP2013097563A (ja) 入力制御装置、入力制御方法、及び入力制御プログラム
JP2009187426A (ja) 記録再生装置
JP6911870B2 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
US11068062B2 (en) Display device and method for cancelling a user selected feature on a graphical user interface according to a change in display device rotation
JP6049885B2 (ja) カーソル位置制御装置、カーソル位置制御方法、プログラム及び情報記憶媒体
JP5229928B1 (ja) 注視位置特定装置、および注視位置特定プログラム
JP7080711B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP6014420B2 (ja) 操作制御装置、操作制御方法、および、操作制御装置用プログラム
KR102308968B1 (ko) 화면을 제어하는 방법, 저장 매체 및 이동 단말
JP2019096182A (ja) 電子装置、表示方法、およびプログラム
WO2014083052A1 (en) Apparatus and method for capturing images
JP6672561B2 (ja) タッチパネル式携帯端末、その表示制御方法及びコンピュータプログラム
JP5998700B2 (ja) 情報機器
KR20140133370A (ko) 카메라를 가지는 전자 장치
JP7210153B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US8659626B2 (en) Projection control
JP2020003919A (ja) 表示制御装置、表示装置、テレビジョン、表示制御方法、及プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150212

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150323

R151 Written notification of patent or utility model registration

Ref document number: 5728866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250