JP2007304667A - ユーザインタフェース装置、ユーザインタフェース方法及びプログラム - Google Patents

ユーザインタフェース装置、ユーザインタフェース方法及びプログラム Download PDF

Info

Publication number
JP2007304667A
JP2007304667A JP2006129704A JP2006129704A JP2007304667A JP 2007304667 A JP2007304667 A JP 2007304667A JP 2006129704 A JP2006129704 A JP 2006129704A JP 2006129704 A JP2006129704 A JP 2006129704A JP 2007304667 A JP2007304667 A JP 2007304667A
Authority
JP
Japan
Prior art keywords
user
virtual space
image
operation device
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006129704A
Other languages
English (en)
Inventor
Takeshi Kutaragi
健 久夛良木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2006129704A priority Critical patent/JP2007304667A/ja
Priority to US11/744,947 priority patent/US8890895B2/en
Publication of JP2007304667A publication Critical patent/JP2007304667A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Abstract

【課題】仮想空間において離間して配置された複数オブジェクトに関する処理をユーザが的確に指示できるようにすること。
【解決手段】複数の画像オブジェクト52が配置された仮想空間50の画像を、該仮想空間50に配置された視点56の位置に従ってリアルタイムに生成し、該画像を順次表示する仮想空間画像表示手段と、ユーザによる第1の操作に従って、前記仮想空間50における前記視点56の位置を変更する視点位置変更手段と、前記ユーザによる第2の操作に従って、前記仮想空間画像表示手段により表示される前記画像に表された前記画像オブジェクト52の中から1又は複数を選択するオブジェクト選択手段と、を含む。
【選択図】図10

Description

本発明はユーザインタフェース装置、ユーザインタフェース方法及びプログラムに関する。
仮想空間に各種のオブジェクト及び視点を配置して、視点から仮想空間を見た様子を示す画像をモニタに表示する、いわゆる3次元コンピュータグラフィックスが知られている。かかる技術によれば、視点やオブジェクトの位置をリアルタイムに移動させるとともに、視点から仮想空間を見た様子を示す画像をリアルタイムに更新することで、仮想現実感をユーザに与えることができる。
従来の3次元コンピュータグラフィックスでは、視点から仮想空間を見た様子を示す画像をモニタに表示するので、仮想空間において離間して配置されたオブジェクトを同時にモニタに表示することができず、そうした離間したオブジェクトに関する処理をユーザが的確に指示するのが困難であるという問題があった。
本発明は上記課題に鑑みてなされたものであって、その目的は、仮想空間において離間して配置された複数オブジェクトに関する処理をユーザが的確に指示することができるユーザインタフェース装置、ユーザインタフェース方法及びプログラムを提供することにある。
上記課題を解決するために、本発明に係るユーザインタフェース装置は、複数のオブジェクトが配置された仮想空間の画像を、該仮想空間に配置された視点の位置に従ってリアルタイムに生成し、該画像を順次表示する仮想空間画像表示手段と、ユーザによる第1の操作に従って、前記仮想空間における前記視点の位置を変更する視点位置変更手段と、前記ユーザによる第2の操作に従って、前記仮想空間画像表示手段により表示される前記画像に表された前記オブジェクトの中から1又は複数を選択するオブジェクト選択手段と、前記選択されたオブジェクトに関する所定の処理を実行する処理実行手段と、を含むことを特徴とする。
また、本発明の一態様では、前記オブジェクト選択手段は、前記ユーザによる前記第2の操作に従って、前記仮想空間画像表示手段により表示される前記画像における位置又は領域を特定するとともに、該特定される位置又は領域に表された1又は複数の前記オブジェクトの一部又は全部を選択する。
この態様では、前記オブジェクト選択手段は、前記特定される位置又は領域に表された前記各オブジェクトの位置と前記視点の位置との距離に従って、それらのうち一部又は全部を選択してよい。
また、前記オブジェクト選択手段は、前記特定される位置又は領域に表された前記各オブジェクトの属性に従って、それらのうち一部又は全部を選択してよい。
また、前記オブジェクト選択手段は、前記特定される位置又は領域に表された前記各オブジェクトの前記画像において占める面積に従って、それらのうち一部又は全部を選択してよい。
また、本発明の一態様では、前記視点位置変更手段は、前記ユーザによる前記第1の操作に応じて変更される操作装置の姿勢に従って、前記仮想空間における前記視点の位置を変更する。
また、本発明の一態様では、前記処理実行手段は、前記選択されたオブジェクトに関する画像を一括表示する処理を実行する。
また、本発明に係るユーザインタフェース方法は、複数のオブジェクトが配置された仮想空間の画像を、該仮想空間に配置された視点の位置に従ってリアルタイムに生成し、該画像を順次表示する仮想空間画像表示ステップと、ユーザによる第1の操作に従って、前記仮想空間における前記視点の位置を変更する視点位置変更ステップと、前記ユーザによる第2の操作に従って、前記仮想空間画像表示ステップで表示される前記画像に表された前記オブジェクトの中から1又は複数を選択するオブジェクト選択ステップと、前記選択されたオブジェクトに関する所定の処理を実行する処理実行ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、複数のオブジェクトが配置された仮想空間の画像を、該仮想空間に配置された視点の位置に従ってリアルタイムに生成し、該画像を順次表示する仮想空間画像表示手段、ユーザによる第1の操作に従って、前記仮想空間における前記視点の位置を変更する視点位置変更手段、前記ユーザによる第2の操作に従って、前記仮想空間画像表示手段により表示される前記画像に表された前記オブジェクトの中から1又は複数を選択するオブジェクト選択手段、及び前記選択されたオブジェクトに関する所定の処理を実行する処理実行手段としてコンピュータを機能させるためのプログラムである。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理システムの全体構成図である。同図に示すように、この情報処理システム10は、インターネット等の通信ネットワーク12に接続された複数の家庭内コンピュータ18a〜18x、複数の無線通信基地局20−1〜20−n及びサーバコンピュータ14を含んで構成されている。
家庭内コンピュータ18a〜18xは、いずれもそれぞれのユーザの家庭内に設置されるコンピュータであり、家庭用テレビ受像機その他の家電機器に接続されており、いわゆるホームサーバとして機能するようになっている。また、家庭内コンピュータ18a〜18xは、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体から読み取ったり、サーバコンピュータ14からダウンロードしたりして、ゲームプログラムを取得し、これを実行することによりユーザにゲームを提供することができる。以下では、家庭内コンピュータ18a〜18xに共通する事項は、単に家庭内コンピュータ18と記す。
家庭内コンピュータ18の操作入力手段としては操作デバイス22が用いられる。操作デバイス22は、可搬型のコンピュータであって、図2にその外観を示すように長方形薄箱状に形成されており、表面中央に液晶の表示パネル40が設けられている。また、表示パネル40の左側には方向キー30が設けられ、右側にはボタン32A〜32Dからなるボタン群32が設けられている。操作デバイス22の一側面には補助ボタン34L,34Rが設けられており、他の側面には操作デバイス22の動作モードを待機モード(省電力動作モード)から通常動作モードに切替え、また通常動作モードから待機モードに切り替えるための電源ボタン42が設けられている。また、操作デバイス22は、その長手方向の中央にジャイロ38が内蔵されており、またその側方に加速度センサ36も内蔵されている。加速度センサ36は、互いに直交する3方向の加速度を検出する3軸加速度センサであり、図3に示すように、操作デバイス22の左右方向(長手方向)であるX方向の、重力や操作デバイス22の移動に起因する加速度と、操作デバイス22の奥行き方向(短手方向)であるY方向の、重力や操作デバイス22の移動に起因する加速度と、操作デバイスの厚さ方向であるZ方向の、重力や操作デバイス22の移動に起因する加速度と、を検出するものである。これら3方向の加速度に従って、操作デバイス22や家庭内コンピュータ18は、操作デバイス22の姿勢を検知することができる。すなわち、操作デバイス22がY軸に対してどれだけ回転したか(符号XU及びXD)、X軸に対してどれだけ回転したか(符号YU及びYD)を検知することができる。また、操作デバイス22が鉛直方向に移動する際の加速度も検知することができる(符号ZU及びZD)。これにより、操作デバイス22や家庭内コンピュータ18は、操作デバイス22が鉛直方向に持ち上げられたり、或いは操作デバイス22が鉛直方向に置かれたりしたことを検知することができる。さらに、操作デバイス22は上述したようにジャイロ38を内蔵しており、これより操作デバイス22の厚さ方向であるZ方向周りの回転の角速度ωを検出することができる。
家庭内コンピュータ18及び操作デバイス22は、BlueTooth(商標)やワイヤレスLAN等の無線通信手段を備えており、操作デバイス22は、加速度センサ36やジャイロ38により検出されるデータ、ボタン群32、補助ボタン34及び方向キー30の入力状態、及びそれらの処理結果を、無線により家庭内コンピュータ18に送信することができる。家庭内コンピュータ18は、操作デバイス22から送信されるデータを受信すると、そのデータに従って各種の情報処理を実行する。情報処理の実行結果はテレビ受像機により表示されたり、その内蔵スピーカにより音声出力されたりする。また、必要に応じて操作デバイス22に送信され、操作デバイス22ではそれを表示パネル40に表示させたり、該操作デバイス22の内蔵スピーカにより音声出力させたりする。
さらに、操作デバイス22は、いずれの家庭内コンピュータ18とも無線通信を行うことができるようになっており、ユーザは自分の操作デバイス22を他のユーザの家庭に持っていくことにより、その家庭に設置された家庭内コンピュータ18と操作デバイス22との通信を行わせたり、或いは該家庭内コンピュータ18及び通信ネットワーク12を経由して、自宅の家庭内コンピュータ18と操作デバイス22との通信を行わせたりすることができる。
次に、無線通信基地局20−1〜20−nは、BlueTooth(商標)やワイヤレスLAN等の無線通信手段を備えており、操作デバイス22と無線によりデータ通信を行い、操作デバイス22が通信ネットワーク12を介してサーバコンピュータ14や自宅の家庭内コンピュータ18と通信するのを中継するようになっている。無線通信基地局20−1〜20−nは、駅等の公共施設に設置されており、ユーザは操作デバイス22を自宅の外に持ち出しても、これら無線通信基地局20−1〜20−n及び通信ネットワーク12を経由して、自宅の家庭内コンピュータ18やサーバコンピュータ14にアクセスできるようになっている。
サーバコンピュータ14は、公知のコンピュータであり、データベース16が接続されている。データベース16は、各家庭内コンピュータ18のユーザの識別情報に関連づけて、該ユーザに宛てて届いた電子メール、該ユーザに配信すべきゲームデータその他のデータを記憶しており、サーバコンピュータ14は、各家庭内コンピュータ18のユーザが操作デバイス22を用いて自分の識別情報を送信してくると、その識別情報に関連づけてデータベース16に記憶されている電子メールその他のデータを返信するようになっている。なお、サーバコンピュータ14は、家庭内コンピュータ18や操作デバイス22に対し、他の様々なデータを配信してよい。
以上の構成により、ユーザは自ら所有する操作デバイス22を用いて、自宅に設置された家庭内コンピュータ18に操作信号を送信し、該家庭内コンピュータ18の動作を制御することができる。家庭内コンピュータ18にはテレビ受像機その他の家電機器が接続されているので、操作デバイス22を操作することにより、それらの家電機器に所望の動作を行わせることもできる。例えば、ユーザは操作デバイス22を用いて、家庭内コンピュータ18にゲームプログラムを実行させ、その実行内容をテレビ受像機に映し出すことができる。また、ゲーム操作を、操作デバイス22を用いて行うことができる。或いは、ユーザは操作デバイス22を用いて、家庭内コンピュータ18又は該家庭内コンピュータ18に接続された図示しない記憶装置に記憶された、デジタルスチルカメラ画像その他の画像をテレビ受像機に表示させ、そのうち一部を、操作デバイス22を用いて選択し、所定の処理、例えば印刷等を行うこともできる。また、家庭内コンピュータ18は通信ネットワーク12に接続されているので、操作デバイス22を用いて、サーバコンピュータ14から電子メールその他のデータを受信して、それをテレビ受像機や表示パネル40に表示させることができる。
また、ユーザが自ら所有する操作デバイス22を携帯して外出した場合、友人等の知人の家に設置された家庭内コンピュータ18に該操作デバイス22を通信接続することができる。この場合、知人宅の家庭内コンピュータ18には、ユーザの操作デバイス22と、その知人の操作デバイス22と、の2つが通信接続されることになり、ユーザ及び知人は、それら2つの操作デバイス22を用いて対戦ゲーム等の複数人が利用可能なアプリケーションプログラムの操作を行うことができる。また、知人宅の家庭内コンピュータ18を中継装置として、通信ネットワーク12を経由して、ユーザの操作デバイス22と自宅の家庭内コンピュータ18やサーバコンピュータ14との間でデータ通信を行うこともできる。
また、ユーザが自分の操作デバイス22を携帯して外出した場合、駅等の公共施設ではそれを無線通信基地局20−1〜20−nと接続させることができる。この場合も、通信ネットワーク12を経由して、ユーザの操作デバイス22と自宅の家庭内コンピュータ18やサーバコンピュータ14との間でデータ通信を行うことができる。
本実施形態においては、操作デバイス22に加速度センサ36及びジャイロ38が取り付けられているので、操作デバイス22の姿勢を変えたり、移動させたりすることで、それら加速度センサ36及びジャイロ38の出力に変化を与えることができる。そして、加速度センサ36及びジャイロ38の出力は、操作信号として、無線通信により家庭内コンピュータ18やサーバコンピュータ14に送信することができる。このため、ユーザは操作デバイス22の姿勢を変えたり、移動させたりすることで、家庭内コンピュータ18やサーバコンピュータ14に動作指示を与えることができる。
また、本実施形態では、加速度センサ36及びジャイロ38の出力を、操作デバイス22や該操作デバイス22のユーザの状態を判断するための情報として用いている。具体的には、加速度センサ36及びジャイロ38の出力は所定時間毎に操作デバイス22内に記憶されており、その記憶内容と事前に用意した加速度センサ36やジャイロ38の出力パターンとに従って、操作デバイス22や該操作デバイス22のユーザの状態を判断している。例えば、加速度センサ36やジャイロ38の出力が不変のまま所定時間経過後に、加速度センサ36によりZ方向の加速度が検出されるパターンが見出されると、ユーザが操作デバイス22を取り上げた(持ち上げた)と判断する。操作デバイス22では、加速度センサ36やジャイロ38の出力が不変のまま所定時間が経過すると、消費電力が小さな待機モード(省電力動作モード)で動作させつつ、加速度センサ36及びジャイロ38の出力に基づいて操作デバイス22やそのユーザの状態を判断している。そして、上記のようにしてユーザが操作デバイス22を取り上げたと判断すると、操作デバイス22の動作モードを待機モードから通常動作モードに戻すとともに、自宅の家庭内コンピュータ18に宛てて、該家庭内コンピュータ18を待機モード(省電力動作モード)での動作を停止させるとともに、通常動作モードでの動作を開始させるよう指示する、動作指示を送信する。これにより、ユーザは、操作デバイス22の電源ボタンを押下するなどの特段の操作をすることなく、家庭内コンピュータ18における通常動作モードでの動作を開始させることができる。
また、操作デバイス22では、加速度センサ36によりZ方向の負の加速度が検出された後、加速度センサ36やジャイロ36の出力が不変のまま所定時間が経過すると、ユーザが操作デバイス22を机上に置いたと判断する。この場合、操作デバイス22は、自宅の家庭内コンピュータ18に宛てて、通常動作モードでの動作を停止させて、待機モードでの動作を開始させるよう指示する、動作指示を送信する。
さらに、加速度センサ36の出力により一定方向に操作デバイス22が上下していると判断されると、ユーザが操作デバイス22を持って歩いたり、走ったりしていると判断する。操作デバイス22では、ユーザが外出中、すなわち家庭内コンピュータ18との通信圏外に操作デバイス22が位置している場合に、このようにユーザが操作デバイス22を持って歩いたり、走ったりしていると判断すると、その旨、すなわちユーザが歩いたり走ったりしている旨を、自宅の家庭内コンピュータ18に送信する。すると、自宅の家庭内コンピュータ18は、その状態に応じたサービスメニュー画面を表示パネル40に表示させるためのデータを返信する。
また、一定方向への加速が所定時間以上続く場合等には、ユーザが車や電車等の移動手段を利用していると判断する。操作デバイス22では、ユーザが外出中、すなわち家庭内コンピュータ18との通信圏外に操作デバイス22が位置している場合に、このように操作デバイス22を所持したユーザが車や電車等の移動手段を利用していると判断すると、その旨、すなわちユーザが移動手段を利用している旨を、自宅の家庭内コンピュータ18に送信する。すると、自宅の家庭内コンピュータ18は、その状態に応じたサービスメニュー画面を表示パネル40に表示させるためのデータを返信する。
本実施形態によれば、操作デバイス22とそのユーザの自宅に設置された家庭内コンピュータ18とが、通信ネットワーク12を介さずに、直接無線通信可能であれば、図4に示すように、家庭内コンピュータ18に接続されたテレビ受像機にテレビ放送の内容を表示させるための「TVを見る」、家庭内コンピュータ18にゲームプログラムを実行させるための「ゲームをする」、家庭内コンピュータ18からサーバコンピュータ18にアクセスして、該サーバコンピュータ18からユーザの電子メールを受信し、それをテレビ受像機又は表示パネル40に表示させるための「メールをチェックする」、家庭内コンピュータ18又は該家庭内コンピュータ18に接続された図示しない記憶装置に記憶された画像をテレビ受像機により表示させるための「画像を見る」の4つのメニュー項目が含まれるサービスメニュー画面が、家庭内コンピュータ18により生成され、それが操作デバイス22に送信される。そして、操作デバイス22の表示パネル40により表示される。
また、操作デバイス22とそのユーザの知人宅に設置された家庭内コンピュータ18とが、通信ネットワーク12を介さずに、直接無線通信可能であれば、図5に示すように、知人宅に設置された家庭内コンピュータ18にゲームプログラムを実行させ、知人と一緒にゲームをするための「友達とゲームをする」、知人宅に設置された家庭内コンピュータ18を中継装置として、サーバコンピュータ18からユーザの電子メールを受信し、それを表示パネル40に表示させるための「メールをチェックする」の2つのメニュー項目が含まれるサービスメニュー画面が、自宅の家庭内コンピュータ18により生成される。そして、それが操作デバイス22に送信され、その表示パネル40により表示される。
また、操作デバイス22が家庭内コンピュータ18のいずれとも直接無線通信可能ではないが、無線通信基地局20−1〜20−nのいずれかと直接無線通信可能である場合、上記のようにしてユーザが操作デバイス22を携帯して歩いたり、走ったりしていると判断されれば、図6に示すように、自宅の家庭内コンピュータ18aから音楽データをダウンロードして、それを再生出力させるための「音楽を聴く」、自宅の家庭内コンピュータ18aから地図データをダウンロードして、それを表示パネル40に表示させるための「地図を見る」の2つのメニュー項目が含まれるサービスメニュー画面が、自宅の家庭内コンピュータ18により生成される。そして、それが操作デバイス22に送信されて、表示パネル40により表示される。
また、同じ場合、すなわち操作デバイス22が家庭内コンピュータ18のいずれとも直接無線通信可能ではないが、無線通信基地局20−1〜20−nのいずれかと直接無線通信可能である場合において、上記のようにしてユーザが移動手段を利用中であると判断されれば、図7に示すように、自宅の家庭内コンピュータ18aから音楽データをダウンロードして、それを再生出力させるための「音楽を聴く」、自宅の家庭内コンピュータ18aから通信ゲームプログラムをダウンロードして、それを操作デバイス22で実行させるための「通信ミニゲームをする」、サーバコンピュータ18からユーザの電子メールを受信し、それを表示パネル40に表示させるための「メールをチェックする」の3つのメニュー項目が含まれるサービスメニュー画面が、自宅の家庭内コンピュータ18により生成される。そして、それが操作デバイス22に送信され、その表示パネル40により表示される。
また、家庭内コンピュータ18a〜18x、無線通信基地局20−1〜20−nのいずれとも操作デバイス22が通信可能でない場合は、操作デバイス22の状態に応じて、図8に示すサービスメニュー画面、又は図9に示すサービスメニュー画面が表示される。すなわち、上記のようにしてユーザが操作デバイス22を携えて歩いたり、走ったりしていると判断される場合には、図8に示すように、操作デバイス22自体に記憶されている音楽データを再生させるための「音楽を聴く」の1つのメニュー項目が含まれるサービスメニュー画面が操作デバイス22により生成される。そして、それが表示パネル40により表示される。また、ユーザが移動手段を利用中であると判断されれば、図9に示すように、操作デバイス22自体に記憶されている音楽データを再生させるための「音楽を聴く」、及び操作デバイス22自体に記憶されているゲームプログラムを実行させるための「ミニゲームをする」の2つのメニュー項目が含まれるサービスメニュー画面が操作デバイス22により生成され、表示パネル40により表示される。
本実施形態によると、操作デバイス22に加速度センサ36及びジャイロ38を設けて、操作デバイス22の動きや姿勢により家庭内コンピュータ18を制御することができる。のみならず、それら加速度センサ36及びジャイロ38の出力に従って、操作デバイス22やそのユーザの状態を判断して、その判断結果に応じた適切なサービスメニュー画面の表示を行うことができ、ユーザの利便性を向上させることができる。
ここで、家庭内コンピュータ18の動作例として、該家庭内コンピュータ18又はそれに接続された記憶装置に記憶された画像をテレビ受像機に表示させる処理について説明する。以下説明する処理は、家庭内コンピュータ18で実行される画像ビューワプログラムに従って実現されるものであり、図4のサービスメニュー画面において「画像を見る」をユーザが選択する操作を操作デバイス22において行った場合に、ユーザの自宅の家庭内コンピュータ18において実行されるものである。
なお、プログラムは例えばCD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体に格納され、そこから家庭内コンピュータ18にインストールされる。或いは、通信ネットワーク12を経由して他のコンピュータから家庭内コンピュータ18にダウンロードされてもよい。
家庭内コンピュータ18を画像ビューワとして動作させる場合、例えば内蔵又は外付けのハードディスクに多数の画像データが保存される。この画像データは、各種の記憶媒体から読み取られたり、通信ネットワーク12上の他の装置からダウンロードされたりするものである。画像データは、様々な内容のものであってよく、ユーザにより撮影されたものであってもよいし、他人により撮影されたものであってもよい。或いは、ペイントソフトウェアにより作成されたものであってもよい。
本実施形態では、これら多数の画像データについて、よりデータサイズの小さなサムネイル画像のデータが事前に作成されており、それらサムネイル画像データがそれぞれテクスチャとしてマッピングされる多数の画像オブジェクトが配置される仮想3次元空間が家庭内コンピュータ18のメモリ上に構築される。図10は、この仮想空間の一例を示している。同図に示すように、仮想3次元空間50には多数の画像オブジェクト52が配置されている。画像オブジェクト52は、矩形のオブジェクトであり、上記のサムネイル画像がテクスチャとしてマッピングされる。
なお、仮想3次元空間50における各画像オブジェクト52の位置座標は、各画像データの属性に従って決定される。すなわち、画像データの内容(使用される色情報、空間周波数の情報、顔認識等の認識結果)や画像データの付属情報(ファイルスタンプ、ファイル名、画像データに関連する他の文書データの内容)に基づいて、各画像データの特徴を示す特徴ベクトルを求めて、この特徴ベクトルに従って該画像データに係る画像オブジェクト52の位置座標を決定すればよい。こうすれば、仮想3次元空間50において、ある画像オブジェクト52の近くに配置された画像オブジェクト52ほど、似た内容の画像がマッピングされるようにでき、ユーザは仮想空間50における各画像オブジェクト52の位置関係を頼りに、所望の画像に係る画像オブジェクト52を探し出すことができる。
また、仮想3次元空間50には視点56も配置されており、この視点56には視線方向54が設定されている。視点56は操作デバイス22による操作に従って、仮想3次元空間50内を任意に移動できるようになっており、また視線方向54も操作デバイス22による操作に従って、任意の方向に設定できるようになっている。各画像オブジェクト52の姿勢は、視点56の方向を向くようリアルタイムに決定されており、視点56が移動すると、それに応じて各画像オブジェクト52の姿勢も変化するようになっている。
具体的には、操作デバイス22を奥側に傾け、図3におけるX軸を中心に一方向に回転させたことが加速度センサ36の出力から判断されると、視点56を視線方向54の方向に移動させる。また、操作デバイス22を手前側に傾け、図3におけるX軸を中心に逆方向に回転させたことが加速度センサ36の出力から判断されると、視点56を視線方向54の逆方億に移動させる。また、操作デバイス22を右側に傾け、図3におけるY軸を中心に一方向に回転させたことが加速度センサ36の出力から判断されると、視点56を右方向に移動させる。さらに、操作デバイス22を左側に傾け、図3におけるY軸を中心に逆方向に回転させたことが加速度センサ36の出力から判断されると、視点56を左方向に移動させる。また、図3におけるZ方向に操作デバイス22が動かされたことが加速度センサ36の出力から判断されると、視点56を上方向に移動させ、Z方向とは逆方向に操作デバイス22が動かされたことが加速度センサ36の出力から判断されると、視点56を下方向に移動させる。さらに、ジャイロ38の出力に従って視線方向54を旋回させる。
家庭内コンピュータ18は、公知の3次元コンピュータグラフィックスの技術を適用して、視点56から視線方向54を見た様子を示す画像(空間画像)をリアルタイムに(所定時間毎に)生成して、それをテレビ受像機により表示している。図11(a)は、空間画像の一例を示している。同図に示すように、空間画像には画像オブジェクト52の他、空間画像の一部領域(小さな四角形の領域)を指示するカーソル58が表されている。カーソル58の空間画像における位置(2次元位置)は、方向キー30の入力に従って更新されるようになっている。すなわち、方向キー30が上方向に操作されると、カーソル58を空間画像において上方に移動させ、下方向に操作されるとカーソル画像58を下方向に移動させ、右方向に操作されるとカーソル画像58を右方向に移動させ、左方向に操作されるとカーソル画像58を左方向に移動させる。
また、操作デバイス22のボタン32Cを押下すると、その時点でのカーソル58により示される空間画像の領域に表示されている画像オブジェクト52を選択する。すなわち、カーソル58により示される空間画像の領域に表示されている画像オブジェクト52(候補オブジェクト)の全部を選択する。なお、リアルタイムに空間画像を生成し、表示する際に、カーソル58により示される空間画像の領域に表示されている画像オブジェクト52を特定し、それら画像オブジェクト52を、周囲に枠を表示したり、或いは色調を変えたりして、事前に他の画像オブジェクト52とは区別して表示するようにすれば好適である。こうすれば、ボタン32Cを押せばどの画像オブジェクト52が選択されるかを、ユーザが事前に理解することができる。操作デバイス22では、こうして選択される画像オブジェクト52の識別情報を順次記憶していく。
なお、ボタン32Cが押下された場合に、カーソル58により示される空間画像の領域に表示されている画像オブジェクト52のうち一部を、所定基準により選択してもよい。例えば、候補オブジェクトである各画像オブジェクト52と視点56との各距離を算出して、その距離が所定値未満のものを選択してもよい。或いは、その距離が小さなものから順に所定個の画像オブジェクト52を選択してもよい。或いは、候補オブジェクトである各画像オブジェクト52の属性(上記の特徴ベクトル)と、ユーザの嗜好を表す特徴ベクトルと、の相関に従って、候補オブジェクトである画像オブジェクト52の中から一部又は全部を選択してもよい。また、カーソル58により示される空間画像の領域(指示領域)における、各候補オブジェクトである画像オブジェクト52の表示面積に基づいて、それらのうち一部又は全部を選択してもよい。例えば、上記指示領域において最も表示面積を占める画像オブジェクト52を選択してもよい。この場合も、カーソル58により示される空間画像の領域に表示されている画像オブジェクト52のうち、所定基準を満たすものを、事前に他とは区別して表示するようにすれば好適である。
また、図11(b)に示すように、選択済みの画像オブジェクト52の仮想3次元空間50における位置と、視点56から前方(視線方向54の方向)に所定距離だけ離れた位置51と、の間に伸びる線状のオブジェクト59を仮想3次元空間50に、新たに画像オブジェクト52が選択されるたびに配置し、この線状のオブジェクト59がテレビ受像機により表示されるようにすれば、ユーザが既に選択した画像オブジェクト52がどの方向にあるかを直感的に理解できるようになり、好適である。
その後、操作デバイス22の補助ボタン34Rが押下されると、家庭内コンピュータ18は、記憶された識別情報により識別される、ユーザに選択された画像オブジェクト52に対応する画像データを取得し、それをテレビ受像機により一覧表示する。図12は、この一覧表示画面の一例を示している。
本実施形態によれば、操作デバイス22を傾けたり、上下方向に動かしたり、水平面内で回転させたりすると、それが加速度センサ36及びジャイロ38の出力に表れる。この出力を表すデータは操作デバイス22から家庭内コンピュータ18に送信され、家庭内コンピュータ18ではそれらデータに従って視点56及び視線方向54を変化させる。また、操作デバイス22の方向キー30を操作すると、その操作内容を示すデータが操作デバイス22から家庭内コンピュータ18に送信され、家庭内コンピュータ18ではそれらデータに従ってカーソル58の空間画像における位置を変化させる。そして、ボタン32Cが押下された場合に、その時点でカーソル58による指示領域内に表示されている画像オブジェクト52の一部又は全部が選択される。こうして選択される画像オブジェクト52の識別情報は家庭内コンピュータ18のメモリに順次記憶され、後に補助ボタン34Rが押下された場合に、テレビ受像機によりそれらの画像が一括して表示される。以上のユーザインタフェースにより、仮想3次元空間50において離れた位置に配置された画像オブジェクト52のうち任意のものを軽快に選択し、それらに係る画像を後に一覧することができるようになり、例えばその一覧画面を見ながら印刷対象を選択したり、一括編集したりといった作業を容易化することができる。
なお、以上の説明では、仮想3次元空間50に画像オブジェクト52を配置し、ユーザの操作に従って画像の閲覧を行えるようにしたが、画像だけでなく、動画やゲーム等の他のコンテンツやサービスの選択についても、本発明は同様に適用可能である。この場合、画像オブジェクト52と同様、コンテンツやサービスの内容を示す画像がテクスチャとしてマッピングされたオブジェクトを仮想3次元空間50に配置するとともに、上記と同様にしてそのうち一部のオブジェクトが選択された場合に、後に一括して表示等の処理対象とすればよい。
ここで、操作デバイス22の構成について説明する。図13は、操作デバイス22の機能的構成を示す図である。同図に示すように、操作デバイス22は、機能的には入力部96,キャリブレーション部82、入力履歴記憶部84,パターン検出部86、制御部88、通信部90、表示部94及びサウンド出力部92を含んでいる。これらの機能は、操作デバイス22のROMに記憶されたプログラムを、コンピュータである操作デバイス22が実行することにより実現されている。
まず、入力部96は、ボタン操作部96a及び状態検出部96bを含んでいる。ボタン操作部96aは、ボタン群32、補助ボタン34、方向キー30が押下されたか否かを所定時間毎に順次取得するものである。状態検出部96は、操作デバイス22の状態を所定時間毎に順次検知するものであり、特に操作デバイス22の所定軸周りの回転の角速度を検出するジャイロ38と、操作デバイス22の加速度を検出する加速度センサ36と、を含んでいる。状態検出部96は、さらにGPSやポヒマス等の測位手段を含んでもよい。また、地磁気センサ(方位センサ)を含んでもよい。なお、これら複数種類の状態の検出結果を相互に利用して、互いにキャリブレーションを施したり、信頼性の高い検出結果を利用して、他の検出結果に対してキャリブレーションを施したりしてよいのはもちろんである。また、状態検出部96に、ユーザの状態、例えばユーザの血圧や脈拍数を検出するセンサを含んでもよい。入力部96の動作は、待機モード及び正常動作モードのいずれでも継続される。
入力履歴記憶部84は、入力部96に入力されるデータ、すなわちボタン群32、補助ボタン34、方向キー30がそれぞれ押下されたか否かを示すデータ、ジャイロ38及び加速度センサ36の出力を示すデータを順に記憶するものである。入力履歴記憶部84の動作は、待機モード及び正常動作モードのいずれでも継続される。
キャリブレーション部82は、この入力履歴記憶部84の記憶内容に従って、操作デバイス22の基準姿勢を決定するものである。例えば、入力履歴記憶部84に記憶されているデータにより、所定時間にわたり操作デバイス22の姿勢が所定の姿勢で維持されていることが分かれば、その姿勢を基準姿勢として決定する。キャリブレーション部82により決定された基準姿勢は制御部88に供給される。
パターン検出部86は、入力履歴記憶部84に記憶されるデータに所定のパターンが表れるか否かを監視するものであり、待機モード及び正常動作モードのいずれでも継続して監視を行う。具体的には、待機モードにおいては、入力履歴記憶部84に、操作デバイス22が所定の姿勢で所定時間以上にわたり静止した状態から少なくともZ方向に該操作デバイス22が動かされたことに相当するパターン(パターン1)のデータが記憶されたか否かを監視する。また、正常動作モードにおいては、上記のようにユーザの特定の行動(歩く、走る、或いは移動手段での移動)に相当するパターン(パターン2)のデータが記憶されたか否かを監視する。また、操作デバイス22が所定の姿勢で所定時間以上にわたり静止したことに相当するパターン(パターン3)のデータが記憶されたか否かを監視する。
制御部88は、パターン検出部86の検出結果、入力部96により取得される各種の入力データ、通信部90により受信されるデータに基づいて、各種の情報処理を行うものである。また、表示部94は制御部88の指示に従って表示パネル40に画像を表示するものである。また、サウンド出力部92は制御部88の指示に従って操作デバイス22に内蔵されるスピーカから音声を出力するものである。
制御部88は、具体的には、操作デバイス22が待機モードにある場合に、上記パターン1のデータが入力履歴記憶部84に記憶されたことがパターン検出部86により検出されると、操作デバイス22の動作モードを待機モードから通常動作モードに変更し、通常動作モードでの動作を開始させる。その後、操作デバイス22と家庭内コンピュータ18との間の通信経路、操作デバイス22で上記パターン2のうちどのユーザの行動に相当するパターンのデータが入力履歴記憶部84に記憶されたことが検知されたか、等に応じて、表示パネル40にサービスメニュー画面を表示する。そして、制御部88は、サービスメニュー画面におけるユーザの選択に応じた処理を実行し、その処理結果を表示部94やサウンド出力部92から出力する。このとき、入力部96から供給されるデータに従って操作デバイス22の姿勢を判断するとともに、その姿勢のキャリブレーション部83により判断された基準姿勢からのずれを演算し、それをユーザの操作データとして用いる。なお、キャリブレーション部82において基準姿勢を決定する代わりに、入力履歴記憶部84の記憶内容の一部又は全部を、通常動作開始モードでの動作開始指示とともに、通信部90を介して家庭内コンピュータ18に送信して、家庭内コンピュータ18の側(後述する制御部74(図14))で受信したデータに従って基準姿勢を決定してもよい。この場合、家庭内コンピュータ18では、操作デバイス22から送信される該操作デバイス22の姿勢と、決定された基準姿勢と、のずれを演算し、それをユーザの操作データとして用いればよい。
一方、操作デバイス22が通常動作モードにある場合に、上記パターン3のデータが入力履歴記憶部84に記憶されたことがパターン検出部86により検出されると、操作デバイスの動作モードを通常動作モードにおける動作を停止させたから、他機モードに移行する。
次に、家庭内コンピュータ18の構成について説明する。家庭内コンピュータ18は上記のように公知のコンピュータシステムであり、図14に示すように、第1通信部70、第2通信部72、制御部74を含んで構成されている。第1通信部70は、通信ネットワーク12に接続され、該通信ネットワーク12を介して、他の家庭内コンピュータ18や無線通信基地局20−1〜20−n、或いはサーバコンピュータ14とデータ通信を行うための通信デバイスである。一方、第2通信部72は、BlueTooth等の近距離無線通信手段であり、操作デバイス22の通信部90との間で直接無線データ通信を行うものである。制御部74は、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体から読み出され、或いは通信ネットワーク12を介してダウンロードされるプログラムを実行するコンピュータである。制御部74は、第2通信部72により操作デバイス22から受信するユーザの操作内容を示すデータに従って、プログラムを実行する。また、必要に応じて第1通信部71により通信ネットワーク12上の他の装置と通信を行う。そして、処理結果をテレビ受像機に出力する。
ここで、操作デバイス22における通常動作モードの開始時の処理を説明する。図15は、操作デバイス22における通常動作モードの開始時の処理を示すフロー図である。同図に示す処理は、ユーザが操作デバイス22の電源ボタン42を操作して、明示的に操作デバイス22の動作モードを待機モードから通常動作モードに切り替えた場合の他、パターン検出部86により上記パターン1のデータが入力履歴記憶部84に記憶されているデータから見つかった場合に実行される。
同図に示すように、この処理では、まず家庭内コンピュータ18に宛てて通常動作モードでの動作を開始するよう指示する信号を送信する(S101)。この信号には操作デバイス22のIDが含まれる。
そして、自宅の家庭内コンピュータ18、すなわち信号に含まれるIDに対応するIDが付与・記憶された家庭内コンピュータ18が、この信号を第2通信部72により受信した場合には、自らの動作モードが待機モードであれば、それを通常動作モードに切り替えるとともに、図9に示すサービスメニュー画面を操作デバイス22に送信する。操作デバイス22では、このサービスメニュー画面を受信して、それを表示パネル40に表示する(S103)。そして、その後、操作デバイス22は、自宅の家庭内コンピュータ18の操作手段として動作する(S104)。すなわち、操作デバイス22に加えられた各種操作の内容を示すデータを、キャリブレーション部82により決定される基準姿勢に従って補正し、補正後のデータを家庭内コンピュータ18に送信する。
また、知人宅の家庭内コンピュータ18、すなわち操作デバイス22から送信される信号に含まれるIDに対応するIDが付与・記憶されていない家庭内コンピュータ18が、この信号を第2通信部72により受信した場合には、自らの動作モードが待機モードであれば、それを通常動作モードに切り替えるとともに、信号に含まれるIDにより特定される、ユーザの自宅の家庭内コンピュータ18に第1通信部70を用いてアクセスし、そこから図5のサービスメニュー画面を取得し、それを操作デバイス22に送信する。操作デバイス22では、このサービスメニュー画面を受信して、それを表示パネル40に表示する(S105)。そして、その後、操作デバイス22は、知人宅の家庭内コンピュータ18の操作手段として動作する(S106)。すなわち、操作デバイス22に加えられた各種操作の内容を示すデータを、キャリブレーション部82により決定される基準姿勢に従って補正し、補正後のデータを知人宅の家庭内コンピュータ18に送信する。
一方、いずれの家庭内コンピュータ18からも応答がなかった場合には、操作デバイス22は無線通信基地局20−1〜20−nのいずれかと通信可能であるか否かを判断する(S107)。そして、そのような通信が可能であれば、無線通信基地局20を介して自宅の家庭内コンピュータ18にアクセスして、該家庭内コンピュータ18にパターン検出部86による検出結果、すなわちどの種類の行動(歩いたり走ったりしているか、移動手段を利用中であるか)をユーザがとっているかを示すデータ(行動種類データ)を送信する(S108)。そして、自宅の家庭内コンピュータ18から返信される、行動種類データに応じたサービスメニュー画面(図6又は7)を受信し、表示パネル40に表示する(S109)。その後、表示パネル40に表示されるサービスメニュー画面に従って操作デバイス22の動作を制御する(S110)。
一方、無線通信基地局20−1〜20−nのいずれとも通信できないと判断されると、パターン検出部86による検出結果、すなわちどの種類の行動をユーザがとっているかを示す行動種類データに応じて、図8又は図9に示すサービスメニュー画面を生成し、それを表示パネル40に表示する(S111)。その後、表示パネル40に表示されるサービスメニュー画面に従って操作デバイス22の動作を制御する(S112)。
最後に、上述した画像ビューワとして家庭内コンピュータ18を機能させる場合における、家庭内コンピュータ18の制御部74の構成を説明する。図16は、画像ビューワプログラムが制御部74において実行される場合に、該制御部74で実現される機能の関係を示している。同図に示すように、この場合、制御部74には、一括表示ボタン入力検知部88a、選択ボタン入力検知部88b、方向キー入力検知部88c、姿勢入力検知部88d、視点位置移動部88e、カーソル移動部88f、空間画像描画部88g、空間データベース88h、オブジェクト選択部88i、選択結果記憶部88j及び一括画像描画部88kが備えられる。
まず、方向キー入力検知部88cは、方向キー80の操作内容を所定時間毎に検知し、その内容をカーソル移動部88fに通知する。カーソル移動部88fは、カーソル58の空間画像における位置を方向キー80の操作内容に従って所定時間毎に更新する。また、姿勢入力検知部8dは、加速度センサ36及びジャイロ38の出力を取得し、それを視点位置移動部88eに通知する。視点位置移動部88eは、加速度センサ36及びジャイロ38の出力に基づいて、視点56の位置及び視線方向54を所定時間毎に更新する。
空間データベース88hは、仮想3次元空間50における各画像オブジェクト52の位置を記憶している。空間画像描画部88gは、それらの位置及び視点位置移動部88eにより更新された視点56の位置及び視線方向54に基づいて、仮想3次元空間50において視点56から視線方向54を見た様子を示す画像を生成する。さらに、この画像における、カーソル移動部88fにより更新された位置に、カーソル58の画像を重畳させ、空間画像を表示用のメモリに描画する。この表示用のメモリの画像は所定時間毎に読み出され、テレビ受像機により表示される。
次に、選択ボタン入力検知部88bは、選択ボタンであるボタン32Cが押下されたか否かを所定時間毎に検知し、押下されればその旨をオブジェクト選択部88iに通知する。オブジェクト選択部88iは、ボタン32Cが押下されたタイミングにおけるカーソル58の位置、視点56の位置及び視線方向54に基づいて、カーソル58により特定される領域(指示領域)に表された画像オブジェクト52の中から一部又は全部を選択する。そして、選択された画像オブジェクト52の識別情報を選択結果記憶部88jに記憶する。
一括表示ボタン入力検知部88aは、一括表示ボタンである補助ボタン34Rが押下されたか否かを所定時間毎に判断し、押下されればその旨を一括画像描画部88kに通知する。一括画像描画部88kは、補助ボタン84Rが押下された場合に、選択結果記憶部88jから識別情報を読みだし、その識別情報により識別される画像オブジェクト52に関する画像データを空間データベース88hから読み出す。そして、それら画像データを所定間隔で配置してなる一覧画面の画像を表示用のメモリに描画する。表示用のメモリの画像は上記のとおり所定時間毎に読み出され、テレビ受像機により表示されるので、補助ボタン84Rが押下された場合には、速やかにテレビ受像機により一覧画面が表示される。
以上説明した実施形態によれば、仮想3次元空間50を操作デバイス22の姿勢や動きにより移動しながら、空間画像の一部を方向キー30で指定して、所望の画像オブジェクト52を選択することができるので、仮想3次元空間50において離間して配置された画像オブジェクト52を的確に選択することができる。
また、操作デバイス22の複数方向の加速度を加速度センサ36により検出して、この検出パターンに応じて、家庭内コンピュータ18を待機モードから通常動作モードに移行させ、或いは通常動作モードから待機モードに移行させるようにしたので、従来のように電源ボタン等の特別のボタンの操作を必要とすることなく、速やかに必要な動作を開始させ、或いは動作を停止させることができる。
また、操作デバイス22の状態検知部96bによる検知パターンに応じて、家庭内コンピュータ18から操作デバイス22に送信するサービスメニュー画面の内容を変えるようにしたので、ユーザは、自らの状況に応じた適切なサービスメニュー画面を利用することができるようになる。なお、上述したように状態検知部96bにおいてユーザの状態を検知するようにした場合には、それに応じた情報、例えばユーザの健康診断の結果をサービスメニュー画面に含めるようにしたり、あるいは、別の画面の内容として操作デバイス22に送信したりするようにすれば好適である。また、状態検知部96bに測位手段が含まれる場合には、家庭内コンピュータ18では、ユーザがどこにいるかを把握することができる。この場合、家庭内コンピュータ18は、ユーザがいる場所に応じて、適切な情報を操作デバイス22に送信するようにすれば好適である。
本発明の実施形態に係る情報処理システムの全体構成図である。 操作デバイスの外観斜視図である。 操作デバイスにより検出されるデータを説明する図である。 ユーザが自宅に居る場合に、該自宅に設置された家庭内コンピュータからユーザが持つ操作デバイスに提供されるサービスメニュー画面を示す図である。 ユーザが友人宅に居る場合に、該友人宅に設置された家庭内コンピュータからユーザが持つ操作デバイスに提供されるサービスメニュー画面を示す図である。 ユーザが外出して歩行中に、自宅に設置された家庭内コンピュータから通信ネットワークを介してユーザが持つ操作デバイスに提供されるサービスメニュー画面を示す図である。 ユーザが外出して非歩行中に、自宅に設置された家庭内コンピュータから通信ネットワークを介してユーザが持つ操作デバイスに提供されるサービスメニュー画面を示す図である。 ユーザが外出して歩行中に、自宅に設置された家庭内コンピュータと通信を行うことなく、操作デバイス自体により提供されるサービスメニュー画面を示す図である。 ユーザが外出して非歩行中に、自宅に設置された家庭内コンピュータと通信を行うことなく、操作デバイス自体により提供されるサービスメニュー画面を示す図である。 画像閲覧プログラムの実行中にテレビ受像機等のモニタに表示される画面の生成方法を説明する図である。 画像閲覧プログラムの実行中にテレビ受像機等のモニタに表示される空間画像の一例を示す図である。 画像閲覧プログラムの実行中にテレビ受像機等のモニタに表示される画像一括表示画面の一例を示す図である。 操作デバイスの機能ブロック図である。 家庭内コンピュータの構成図である。 操作デバイスの通常動作開始時の処理を示すフロー図である。 画像閲覧プログラム実行時における家庭内コンピュータの機能ブロック図である。
符号の説明
10 情報処理システム、12 通信ネットワーク、14 サーバコンピュータ、16 データベース、18a〜18x 家庭内コンピュータ、20−1〜20−n 無線通信基地局、22 操作デバイス(可搬型コンピュータ)、30 方向キー、32 ボタン群、34 補助ボタン、36 加速度センサ、38 ジャイロスコープ、40 表示パネル、42 電源スイッチ、50 仮想3次元空間、52 画像オブジェクト、54 視線方向、56 視点、58 カーソル、70 第1通信部、72 第2通信部、74 制御部、76 テレビ受像機、82 キャリブレーション部、84 入力履歴記憶部、86 パターン検出部、88 制御部、90 通信部、92 サウンド出力部、94 表示部、96 入力部、96a ボタン操作部、96b 状態検出部、88a 一括表示ボタン入力検知部、88b 選択ボタン入力検知部、88c 方向キー入力検知部、88d 姿勢入力検知部、88e 視点位置移動部、88f カーソル移動部、88g 空間画像描画部、88h 空間データベース、88i オブジェクト選択部、88j 選択結果記憶部、88k 一括画像描画部。

Claims (9)

  1. 複数のオブジェクトが配置された仮想空間の画像を、該仮想空間に配置された視点の位置に従ってリアルタイムに生成し、該画像を順次表示する仮想空間画像表示手段と、
    ユーザによる第1の操作に従って、前記仮想空間における前記視点の位置を変更する視点位置変更手段と、
    前記ユーザによる第2の操作に従って、前記仮想空間画像表示手段により表示される前記画像に表された前記オブジェクトの中から1又は複数を選択するオブジェクト選択手段と、
    前記選択されたオブジェクトに関する所定の処理を実行する処理実行手段と、
    を含むことを特徴とするユーザインタフェース装置。
  2. 請求項1に記載のユーザインタフェース装置において、
    前記オブジェクト選択手段は、前記ユーザによる前記第2の操作に従って、前記仮想空間画像表示手段により表示される前記画像における位置又は領域を特定するとともに、該特定される位置又は領域に表された1又は複数の前記オブジェクトの一部又は全部を選択する、
    ことを特徴とするユーザインタフェース装置。
  3. 請求項2に記載のユーザインタフェース装置において、
    前記オブジェクト選択手段は、前記特定される位置又は領域に表された前記各オブジェクトの位置と前記視点の位置との距離に従って、それらのうち一部又は全部を選択する、
    ことを特徴とするユーザインタフェース装置。
  4. 請求項2又は3に記載のユーザインタフェース装置において、
    前記オブジェクト選択手段は、前記特定される位置又は領域に表された前記各オブジェクトの属性に従って、それらのうち一部又は全部を選択する、
    ことを特徴とするユーザインタフェース装置。
  5. 請求項2乃至4のいずれかに記載のユーザインタフェース装置において、
    前記オブジェクト選択手段は、前記特定される位置又は領域に表された前記各オブジェクトの前記画像において占める面積に従って、それらのうち一部又は全部を選択する、
    ことを特徴とするユーザインタフェース装置。
  6. 請求項1乃至5のいずれかに記載のユーザインタフェース装置において、
    前記視点位置変更手段は、前記ユーザによる前記第1の操作に応じて変更される操作装置の姿勢に従って、前記仮想空間における前記視点の位置を変更する、
    ことを特徴とするユーザインタフェース装置。
  7. 請求項1乃至6のいずれかに記載のユーザインタフェース装置において、
    前記処理実行手段は、前記選択されたオブジェクトに関する画像を一括表示する処理を実行する、
    ことを特徴とするユーザインタフェース装置。
  8. 複数のオブジェクトが配置された仮想空間の画像を、該仮想空間に配置された視点の位置に従ってリアルタイムに生成し、該画像を順次表示する仮想空間画像表示ステップと、
    ユーザによる第1の操作に従って、前記仮想空間における前記視点の位置を変更する視点位置変更ステップと、
    前記ユーザによる第2の操作に従って、前記仮想空間画像表示ステップで表示される前記画像に表された前記オブジェクトの中から1又は複数を選択するオブジェクト選択ステップと、
    前記選択されたオブジェクトに関する所定の処理を実行する処理実行ステップと、
    を含むことを特徴とするユーザインタフェース方法。
  9. 複数のオブジェクトが配置された仮想空間の画像を、該仮想空間に配置された視点の位置に従ってリアルタイムに生成し、該画像を順次表示する仮想空間画像表示手段、
    ユーザによる第1の操作に従って、前記仮想空間における前記視点の位置を変更する視点位置変更手段、
    前記ユーザによる第2の操作に従って、前記仮想空間画像表示手段により表示される前記画像に表された前記オブジェクトの中から1又は複数を選択するオブジェクト選択手段、及び
    前記選択されたオブジェクトに関する所定の処理を実行する処理実行手段
    としてコンピュータを機能させるためのプログラム。
JP2006129704A 2006-05-08 2006-05-08 ユーザインタフェース装置、ユーザインタフェース方法及びプログラム Pending JP2007304667A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006129704A JP2007304667A (ja) 2006-05-08 2006-05-08 ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
US11/744,947 US8890895B2 (en) 2006-05-08 2007-05-07 User interface device, user interface method and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006129704A JP2007304667A (ja) 2006-05-08 2006-05-08 ユーザインタフェース装置、ユーザインタフェース方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2007304667A true JP2007304667A (ja) 2007-11-22

Family

ID=38660792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006129704A Pending JP2007304667A (ja) 2006-05-08 2006-05-08 ユーザインタフェース装置、ユーザインタフェース方法及びプログラム

Country Status (2)

Country Link
US (1) US8890895B2 (ja)
JP (1) JP2007304667A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053557A (ja) * 2010-08-31 2012-03-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012068984A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP2013519125A (ja) * 2009-09-25 2013-05-23 トムソン ライセンシング グリッドナビゲーションのための機器および方法
JP2014093034A (ja) * 2012-11-06 2014-05-19 Nintendo Co Ltd 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2017116893A (ja) * 2015-12-26 2017-06-29 株式会社村田製作所 立体型画像表示装置
JP2020042674A (ja) * 2018-09-12 2020-03-19 Zホールディングス株式会社 情報表示プログラム、情報表示装置、情報表示方法および配信装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101669618B1 (ko) * 2010-01-15 2016-10-26 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
US8966587B2 (en) 2010-06-03 2015-02-24 Qualcomm Incorporated Identity management via cloud
JP5978610B2 (ja) * 2011-12-09 2016-08-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
DE102012024215A1 (de) * 2012-12-11 2014-06-12 Volkswagen Aktiengesellschaft Bedienverfahren und Bedienvorrichtung
USD766279S1 (en) * 2013-12-26 2016-09-13 Sony Corporation Display panel or screen with graphical user interface
US9445015B2 (en) * 2014-02-20 2016-09-13 Google Inc. Methods and systems for adjusting sensor viewpoint to a virtual viewpoint
US9646418B1 (en) * 2014-06-10 2017-05-09 Ripple Inc Biasing a rendering location of an augmented reality object
US9619940B1 (en) 2014-06-10 2017-04-11 Ripple Inc Spatial filtering trace location
US10930038B2 (en) 2014-06-10 2021-02-23 Lab Of Misfits Ar, Inc. Dynamic location based digital element
US10026226B1 (en) 2014-06-10 2018-07-17 Ripple Inc Rendering an augmented reality object
US9671896B2 (en) 2014-11-18 2017-06-06 Toshiba Tec Kabushiki Kaisha Interface system, object for operation input, operation input supporting method
DE112017008126B4 (de) * 2017-10-12 2024-03-21 Mitsubishi Heavy Industries, Ltd. Servicemenü-präsentationssystem, betriebsmuster-anzeigesystem, servicemenü-präsentationsverfahren und programm
JP7292024B2 (ja) 2018-10-22 2023-06-16 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、コンピュータプログラム
US11412350B2 (en) 2019-09-19 2022-08-09 Apple Inc. Mobile device navigation system

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608850A (en) * 1994-04-14 1997-03-04 Xerox Corporation Transporting a display object coupled to a viewpoint within or between navigable workspaces
US5689628A (en) * 1994-04-14 1997-11-18 Xerox Corporation Coupling a display object to a viewpoint in a navigable workspace
US5736982A (en) * 1994-08-03 1998-04-07 Nippon Telegraph And Telephone Corporation Virtual space apparatus with avatars and speech
US6018333A (en) * 1994-12-21 2000-01-25 Xerox Corporation Method and apparatus for selection and manipulation of an overlapping graphical element on a display
EP0779574A4 (en) * 1995-06-16 1999-02-17 Sony Corp INFORMATION PROCESSOR AND INFORMATION VIEWING METHOD
US6002403A (en) * 1996-04-30 1999-12-14 Sony Corporation Graphical navigation control for selecting applications on visual walls
US6043818A (en) * 1996-04-30 2000-03-28 Sony Corporation Background image with a continuously rotating and functional 3D icon
US5880733A (en) * 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US6346956B2 (en) * 1996-09-30 2002-02-12 Sony Corporation Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6088032A (en) * 1996-10-04 2000-07-11 Xerox Corporation Computer controlled display system for displaying a three-dimensional document workspace having a means for prefetching linked documents
US5739821A (en) * 1997-01-30 1998-04-14 Primax Electronics Ltd. Method for pointing a window frame or an icon of a window interface
US6081271A (en) * 1997-05-23 2000-06-27 International Business Machines Corporation Determining view point on objects automatically in three-dimensional workspace from other environmental objects in a three-dimensional workspace
US6121969A (en) * 1997-07-29 2000-09-19 The Regents Of The University Of California Visual navigation in perceptual databases
US6362817B1 (en) * 1998-05-18 2002-03-26 In3D Corporation System for creating and viewing 3D environments using symbolic descriptors
US6211876B1 (en) * 1998-06-22 2001-04-03 Mitsubishi Electric Research Laboratories, Inc. Method and system for displaying icons representing information items stored in a database
EP1097584B1 (en) * 1998-07-20 2002-10-02 Canal+ Technologies Navigation system for a multichannel digital television system
JP4032649B2 (ja) * 1998-08-24 2008-01-16 株式会社日立製作所 マルチメディア情報の表示方法
JP3646582B2 (ja) * 1998-09-28 2005-05-11 富士通株式会社 電子情報表示方法、電子情報閲覧装置および電子情報閲覧プログラム記憶媒体
JP3887136B2 (ja) * 2000-01-14 2007-02-28 株式会社日立製作所 仮想3次元的空間におけるオブジェクト表示方法および表示プログラムを記録した媒体
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US7685534B2 (en) * 2000-02-16 2010-03-23 Jlb Ventures Llc Method and apparatus for a three-dimensional web-navigator
US7174512B2 (en) * 2000-12-01 2007-02-06 Thomson Licensing S.A. Portal for a communications system
US6717600B2 (en) * 2000-12-15 2004-04-06 International Business Machines Corporation Proximity selection of selectable item in a graphical user interface
US6948124B2 (en) * 2000-12-20 2005-09-20 Eastman Kodak Company Graphical user interface utilizing three-dimensional scatter plots for visual navigation of pictures in a picture database
EP1363246A4 (en) * 2001-02-23 2006-11-08 Fujitsu Ltd "DISPLAY CONTROL DEVICE, INFORMATION EQUIPMENT EQUIPPED WITH THE DISPLAY CONTROL DEVICE AND VIEWPOINT POSITION CONTROL DEVICE"
US6844887B2 (en) * 2001-07-05 2005-01-18 International Business Machine Corporation Alternate reduced size on-screen pointers for accessing selectable icons in high icon density regions of user interactive display interfaces
US6886138B2 (en) * 2001-07-05 2005-04-26 International Business Machines Corporation Directing users′ attention to specific icons being approached by an on-screen pointer on user interactive display interfaces
US6907579B2 (en) * 2001-10-30 2005-06-14 Hewlett-Packard Development Company, L.P. User interface and method for interacting with a three-dimensional graphical environment
JP3979834B2 (ja) * 2001-12-13 2007-09-19 富士フイルム株式会社 画像データベース装置およびその動作制御方法
JP4115188B2 (ja) * 2002-07-19 2008-07-09 キヤノン株式会社 仮想空間描画表示装置
US20040100484A1 (en) * 2002-11-25 2004-05-27 Barrett Peter T. Three-dimensional television viewing environment
JP4603778B2 (ja) * 2003-06-20 2010-12-22 キヤノン株式会社 画像表示方法及び画像表示装置
US20050097506A1 (en) * 2003-10-31 2005-05-05 Hewlett-Packard Development Company, L.P. Virtual desktops and project-time tracking
JP2006164049A (ja) * 2004-12-09 2006-06-22 Hitachi Ltd Guiプログラム、データ処理装置及びオブジェクトの操作方法
US7386806B2 (en) * 2005-01-05 2008-06-10 Hillcrest Laboratories, Inc. Scaling and layout methods and systems for handling one-to-many objects
US7382374B2 (en) * 2005-05-02 2008-06-03 Bitplane Ag Computerized method and computer system for positioning a pointer
US20070035563A1 (en) * 2005-08-12 2007-02-15 The Board Of Trustees Of Michigan State University Augmented reality spatial interaction and navigational system
WO2007033354A2 (en) * 2005-09-13 2007-03-22 Spacetime3D, Inc. System and method for providing three-dimensional graphical user interface
JP4847203B2 (ja) * 2006-04-27 2011-12-28 キヤノン株式会社 情報処理方法、情報処理装置
US20080214304A1 (en) * 2007-03-02 2008-09-04 Electronic Arts, Inc. User interface for selecting items in a video game

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013519125A (ja) * 2009-09-25 2013-05-23 トムソン ライセンシング グリッドナビゲーションのための機器および方法
US9037972B2 (en) 2009-09-25 2015-05-19 Thomson Licensing Apparatus and method for grid navigation
JP2012053557A (ja) * 2010-08-31 2012-03-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012068984A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP2014093034A (ja) * 2012-11-06 2014-05-19 Nintendo Co Ltd 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2017116893A (ja) * 2015-12-26 2017-06-29 株式会社村田製作所 立体型画像表示装置
JP2020042674A (ja) * 2018-09-12 2020-03-19 Zホールディングス株式会社 情報表示プログラム、情報表示装置、情報表示方法および配信装置

Also Published As

Publication number Publication date
US20070257915A1 (en) 2007-11-08
US8890895B2 (en) 2014-11-18

Similar Documents

Publication Publication Date Title
JP2007304667A (ja) ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
JP2007306070A (ja) 遠隔制御システム及び遠隔制御方法
US11426663B2 (en) Providing multiplayer augmented reality experiences
US11334175B2 (en) Information output system and method
US11703993B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
WO2019205881A1 (zh) 虚拟环境中的信息显示方法、装置、设备及存储介质
JP4247218B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
US20120108305A1 (en) Data generation device, control method for a data generation device, and non-transitory information storage medium
JP6018480B2 (ja) 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP7173024B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20150355814A1 (en) Non-Transitory Storage Medium Encoded With Computer Readable Information Processing Program, Information Processing Apparatus, Method of Controlling Information Processing Apparatus, and Information Processing System, Capable of Controlling Virtual Camera While Grasping Overall Condition of Virtual Camera Arranged in Virtual Space
US20200327860A1 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
TWI817208B (zh) 確定選中目標的方法及裝置、電腦設備、非臨時性電腦可讀存儲介質及電腦程式產品
CN109806583B (zh) 用户界面显示方法、装置、设备及系统
US20120218236A1 (en) Computer-readable storage medium having information processing program stored therein, information processing apparatus, information processing method, and information processing system
US20090048930A1 (en) Wireless transmission and reception of information relating to an item advertised on a sign
CN112717409B (zh) 虚拟车辆控制方法、装置、计算机设备及存储介质
TWI639102B (zh) 一種指標顯示裝置、指標控制裝置、指標控制系統及其相關方法
CN114546188B (zh) 基于互动界面的互动方法、装置、设备及可读存储介质
KR101622361B1 (ko) 게임 서비스를 제공하는 방법 및 게임 서비스를 제공하는 디바이스
WO2024044470A1 (en) Smooth switchover of computer game control
CN117618904A (zh) 虚拟道具的使用方法、装置、设备及介质
CN116764210A (zh) 游戏内容的呈现方法、装置、电子设备及存储介质
CN114797091A (zh) 云游戏分屏展示方法、装置、设备及存储介质
KR20130015914A (ko) 게임 영상 디스플레이 방법