JP2019207574A - 情報処理装置、情報処理システム及びプログラム - Google Patents
情報処理装置、情報処理システム及びプログラム Download PDFInfo
- Publication number
- JP2019207574A JP2019207574A JP2018102771A JP2018102771A JP2019207574A JP 2019207574 A JP2019207574 A JP 2019207574A JP 2018102771 A JP2018102771 A JP 2018102771A JP 2018102771 A JP2018102771 A JP 2018102771A JP 2019207574 A JP2019207574 A JP 2019207574A
- Authority
- JP
- Japan
- Prior art keywords
- image
- aerial image
- movement
- information processing
- case
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
請求項2に記載の発明は、前記組み合わせは複数であり、予め与えられている、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記動きが開始されたときの位置は、前記画像と重ならない位置、重なる位置と、接する位置のうちの複数又は1つである、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記組み合わせに応じた制御の内容は、前記画像の表示に用いられるアプリケーションプログラムに応じて定められる、請求項1に記載の情報処理装置である。
請求項5に記載の発明は、前記組み合わせに応じた制御の内容は、操作の対象であるオブジェクトの属性に応じて定められる、請求項1に記載の情報処理装置である。
請求項6に記載の発明は、前記動きが開始されたときの位置は、検知の対象が予め定めた時間以上、静止とみなす状態にある位置である、請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記動きが開始されたときの位置は、予め定めた検知用の領域のうち、検知の対象の通過が検知された位置である、請求項1に記載の情報処理装置である。
請求項8に記載の発明は、前記動きが開始されたときの両手の位置が前記画像と重なっておらず、かつ、両手の間隔を広げる動きの場合、前記制御手段は、当該画像の最大表示領域を拡大する、請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記動きが開始されたときの両手の位置が前記画像と重なっており、かつ、両手の間隔を広げる動きの場合、前記制御手段は、当該画像のうち両手で挟まれている部分を最大表示領域内で局所的に拡大する、請求項1に記載の情報処理装置である。
請求項10に記載の発明は、前記動きが開始されたときの両手の位置が前記画像と重なっておらず、かつ、両手の間隔を狭める動きの場合、前記制御手段は、操作が当該画像の最大表示領域を縮小する、請求項1に記載の情報処理装置である。
請求項11に記載の発明は、前記動きが開始されたときの両手の位置が前記画像と重なっており、かつ、両手の間隔を狭める動きの場合、前記制御手段は、当該画像のうち両手で挟まれている部分を最大表示領域内で局所的に縮小する、請求項1に記載の情報処理装置である。
請求項12に記載の発明は、前記動きが開始されたときの片手の位置が前記画像と重なっておらず、かつ、片手を一方向に移動させる動き又は回転させる動きの場合、前記制御手段は、当該画像を形成する空間を当該動きの方向に移動させる又は当該画像を回転させる、請求項1に記載の情報処理装置である。
請求項13に記載の発明は、前記動きが開始されたときの片手の位置が前記画像と重なっており、かつ、片手を一方向に移動させる動きの場合、前記制御手段は、片手が通過した部分を削除する、請求項1に記載の情報処理装置である。
請求項14に記載の発明は、前記動きが開始されたときの片手の位置が前記画像と重なっておらず、かつ、指と指の間隔を広げる動きの場合、前記制御手段は、操作が当該画像の最大表示領域を拡大する、請求項1に記載の情報処理装置である。
請求項15に記載の発明は、前記動きが開始されたときの片手の位置が前記画像と重なっており、かつ、指と指の間隔を広げる動きの場合、前記制御手段は、指と指で挟まれている部分を最大表示領域内で局所的に拡大する、請求項1に記載の情報処理装置である。
請求項16に記載の発明は、前記動きが開始されたときの片手の位置が前記画像と重なっておらず、かつ、指と指の間隔を狭める動きの場合、前記制御手段は、操作が当該画像の最大表示領域を縮小する、請求項1に記載の情報処理装置である。
請求項17に記載の発明は、前記動きが開始されたときの片手の位置が前記画像と重なっており、かつ、指と指の間隔を狭める動きの場合、前記制御手段は、指と指で挟まれている部分を最大表示領域内で局所的に縮小する、請求項1に記載の情報処理装置である。
請求項18に記載の発明は、前記制御手段は、複数の前記組み合わせに応じて操作の内容を制御する、請求項1に記載の情報処理装置である。
請求項19に記載の発明は、前記画像が立体像の場合、前記制御手段は、開始の位置の違いにより、外層の像または内部の像を制御する、請求項18に記載の情報処理装置である。
請求項20に記載の発明は、ユーザの体の一部に、操作の内容に応じた刺激を与える、請求項1に記載の情報処理装置である。
請求項21に記載の発明は、空気中に画像を形成する像形成手段と、前記画像に対する検知の対象の動きを検知する検知手段と、前記画像の表示領域に対して前記動きが開始されたときの位置と当該動きの方向との組み合わせに応じて、当該画像に対する操作の内容を制御する制御手段と、を有する情報処理システムである。
請求項22に記載の発明は、コンピュータに、空気中に形成されている画像に対する検知の対象の動きを検知する機能と、前記画像の表示領域に対して前記動きが開始されたときの位置と当該動きの方向との組み合わせに応じて、当該画像に対する操作の内容を制御する機能と、を実行させるプログラムである。
請求項2記載の発明によれば、微細な位置や方向の違いを無視できる。
請求項3記載の発明によれば、操作の予測性を高めることができる。
請求項4記載の発明によれば、同じ身振りをアプリケーション毎に異なる意味で利用できる。
請求項5記載の発明によれば、同じ身振りをオブジェクト毎に異なる意味で利用できる。
請求項6記載の発明によれば、操作に用いる身振りと操作に用いない身振りを区別できる。
請求項7記載の発明によれば、操作に用いる身振りと操作に用いない身振りを区別できる。
請求項8記載の発明によれば、身振りによって最大表示領域を拡大できる。
請求項9記載の発明によれば、身振りによって画像の一部を局所的に拡大できる。
請求項10記載の発明によれば、身振りによって最大表示領域を縮小できる。
請求項11記載の発明によれば、身振りによって画像の一部を局所的に縮小できる。
請求項12記載の発明によれば、身振りによって画像の表示位置を移動又は回転させることができる。
請求項13記載の発明によれば、身振りによって画像の一部を削除できる。
請求項14記載の発明によれば、身振りによって最大表示領域を拡大できる。
請求項15記載の発明によれば、身振りによって画像の一部を局所的に拡大できる。
請求項16記載の発明によれば、身振りによって最大表示領域を縮小できる。
請求項17記載の発明によれば、身振りによって画像の一部を局所的に縮小できる。
請求項18記載の発明によれば、多様な操作を実現できる。
請求項19記載の発明によれば、立体像に特有の操作を実現できる。
請求項20記載の発明によれば、身振りによる操作の受付を実感できる。
請求項21記載の発明によれば、空気中に表示される画像に対する同じ身振りを身振りの開始が検知される位置に応じて複数の意味に分けて受け付けることができる。
請求項22記載の発明によれば、空気中に表示される画像に対する同じ身振りを身振りの開始が検知される位置に応じて複数の意味に分けて受け付けることができる。
<実施の形態1>
<空中ディスプレイの概略構成>
図1は、実施の形態1に係る空中画像形成システム1の概略構成を説明する図である。
本実施の形態において、空中画像10とは空気中に形成される像をいい、例えば物体からの反射光と同等の光の状態を空気中に再現することにより形成される。
空中画像10は空気中に浮かぶように形成されるので、人は、空中画像10を通り抜けることができる。
本実施の形態における空中画像形成システム1は、情報処理システムの一例であり、操作受付装置12は、情報処理装置の一例である。
なお、空中画像形成装置11は、像形成装置の一例である。
図1の場合、空中画像10の外縁(すなわち、最大表示領域)は球形状で規定されているが、外縁を規定する形状は任意である。例えば空中画像10の外縁は、空中画像10として表示される物体(オブジェクト)の外縁によって規定されてもよい。
本実施の形態の場合、物体(オブジェクト)は、それ自体が表示や処理の対象として規定され、外空間との境界を与える外縁によって規定される。
物体は、例えば操作用のボタンの像の外形、人の像の外形、動物の像の外形、製品の像の外形、果物の像の外形などで規定されてもよい。
図1の場合、ユーザ3は、空中画像10に対して手前側(空中画像10を基準としてX方向についてマイナス側)に位置し、右手3Rと左手3Lを用いて、球形状の空中画像10の外周面に触れるような身振りを行っている。右手3Rと左手3Lは、検知の対象の一例である。
空中画像10は、空気中に光学的に形成される像であるので(物理的な投影スクリーンや表示デバイスが存在しないので)、ユーザ3から見て空中画像10の裏面側や背後の風景が透けて見えている。
例えばカメラ13は、空中画像10の鉛直上方(Z軸の正の方向)や鉛直下方(Z軸の負の方向)の位置に配置する。もっとも、複数のカメラ13を、空中画像10を取り囲むように配置してもよい。
なお、カメラ13に代えて、又は、カメラ13と組み合わせて、空間内の物体までの距離を測定する技術や光学的な検知面を横切る物体を検知するセンサ技術を用いてもよい。
距離を測定する技術には、例えば半導体レーザやLED(Light Emitting Diode)から発射された光が物体で反射して戻ってくるまでの時間を画素毎に計測して物体までの距離を測定するTOF(Time Of Flight)方式、時系列に変化する縦縞パターンを投影した物体を撮像した画素に現れる輝度の変化から物体までの距離を測定するSL(Structured Light)時系列パターン投影方式、超音波やミリ波を用いて物体までの距離を測定する方式、レーザ光や赤外光を用いて物体までの距離を測定する方式等をそれぞれ単独で、又は、組み合わせてもよい。組み合わせの対象には、撮像された画像を処理して身振りを認識する技術も含まれる。
図2〜図6を用いて、空中画像10の形成原理を説明する。なお、以下に説明する原理は、いずれも既知である。
図2は、表示デバイス21から出力される光を専用の光学プレート22を透過させることで空中画像10を形成する空中画像形成装置11Aの原理図である。(A)は各部材と空中画像10との位置関係を示し、(B)は光学プレート22の断面構造の一部を示す。
光学プレート22は、表示デバイス21から出力される光を短冊状のガラス22A及び22Bで2回反射して空気中で結像させることで、表示デバイス21に表示されている画像を空気中に再現する。なお、表示デバイス21と光学プレート22の距離と、光学プレート22と空中画像10との距離は同じである。また、表示デバイス21に表示される画像の寸法と空中画像10の寸法は同じである。
空中画像形成装置11Dの場合、表示デバイス25から出力される光は、ビームスプリッタ26によって再帰性反射シート27の方向に反射され、次に再帰性反射シート27で再帰反射され、ビームスプリッタ26を透過して空中で結像される。光が結像する位置に空中画像10が形成される。
空中画像形成装置11Eの場合、赤外パルスレーザ28がパルス状のレーザ光を出力し、XYZスキャナ29がパルス状のレーザ光を空気中で集光する。このとき、焦点近傍の気体が瞬間的にプラズマ化し、発光する。
ここでのパルス周波数は、例えば100Hz以下であり、パルス発光時間は、例えばナノ秒オーダである。
例えばいわゆるホログラムの手法を用いて空中画像を生成してもよい。
また、ユーザの目の前方に配置した透明プリズム(例えばホログラフィック光学素子)によって景色からの光と表示画面からの光とを合成し、ユーザには空中に画像が浮かんでいるように知覚させる手法を用いてもよい。
また、いわゆるヘッドマウントディスプレイを装着したユーザに、あたかもユーザの前方に画像が浮かんでいるように知覚させる手法を用いてもよい。
図7は、実施の形態1に係る操作受付装置12のハードウェア構成の一例を説明する図である。
操作受付装置12は、ファームウェアやアプリケーションプログラムの実行を通じて各種の機能を提供するCPU(Central Processing Unit)31と、ファームウェアやBIOS(Basic Input Output System)を格納する記憶領域であるROM(Read Only Memory)32と、プログラムの実行領域であるRAM(Random Access Memory)33とを有している。CPU31、ROM32及びRAM33はコンピュータを構成する。
また、操作受付装置12は、空中画像10として表示する情報を格納する記憶装置34を有している。記憶装置34は、例えば書き換え可能な不揮発性の記憶媒体を情報の格納に使用する。
また、操作受付装置12は、インタフェース(IF)36を通じて、ユーザの身振りを撮像するカメラ13と操作の内容に応じた刺激を体の一部に与える空中触覚装置14と接続される。
本実施の形態における空中触覚装置14は、例えば複数の超音波振動子を格子状に並べた超音波振動子アレーで構成される。この種の空中触覚装置14は、空中の任意の位置に超音波の焦点を生成することができる。焦点の分布や振動の強さを調整することにより、ユーザによって知覚される触覚は変化する。
ここで、CPU31と各部はバス37を通じて接続されている。
図8に示す機能構成は、CPU31によるプログラムの実行を通じて実現される。
CPU31は、空中画像10(図1参照)に対する身振りが開始した位置を検知する開始位置検知部41と、身振りに用いられる体の部位が動く方向を検知する動き方向検知部42と、身振りが開始した位置と身振りに用いられる体の部位が動く方向とに基づいて操作の内容を決定する操作内容決定部43と、決定された操作の内容に応じて空中画像10(図1参照)の表示を更新する画面更新部44として機能する。
本実施の形態では、空中での身振りを、空中画像10に対する操作として受け付ける。
空中画像10に対する操作は、動きが開始されたときの位置と検知された動きの方向とで特定される。開始位置検知部41と動き方向検知部42は、これらの情報の検知に用いられる。
本実施の形態の場合、開始位置検知部41は、操作に用いる体の部位(例えば手、足)が、予め定めた時間以上、静止とみなす状態にある位置を、動きが開始されたときの位置として検知する。手、指、足などの体の部位は、検知の対象の一例である。検知の対象として用いる体の部位は、開始位置検知部41に予め設定されている。
静止とみなす状態は、完全な静止である必要はない。静止とみなす状態は、画像を処理するプログラムによって規定される。
予め定めた時間以上を要求するのは、体の部位を開始点に移動する動きと操作としての動きを区別するためである。本実施の形態では、例えば2秒の静止を要求する。
図9は、開始位置検知部41が検知する位置を説明する図である。(A)は右手3Rと左手3Lの位置が空中画像10の外側の場合(重ならない場合)を示し、(B)は右手3Rと左手3Lの位置が空中画像10の外縁に接する場合を示し、(C)は右手3Rと左手3Lの位置が空中画像10の内側の場合(重なる場合)を示す。
本実施の形態の場合、操作に用いる体の部位が、空中画像10の外縁に対して予め定めた範囲内に存在する場合を、操作に用いる体の部位が外縁に接する位置にある状態として扱う。範囲は、外縁に対して外側だけでなく、内側も含まれる。外縁に対して外側の方向についての範囲と、外縁に対して内側の方向への範囲は、それぞれ異なる値に設定してもよい。また、範囲の値は、空中画像10の内容に応じて定めてもよい。
図9では、操作に用いる体の部位が両手の場合を例示しているが、操作に用いる体の部位は片手でもよいし、手の指でもよいし、足でもよい。本実施の形態では、ユーザが操作する棒などの物体も、操作に用いる体の部位に準じて扱う。ユーザが操作する棒などの物体も、検知の対象の一例である。物体には手袋や靴を含めてもよい。
操作に用いる手の指の数は、1本でも複数本でもよい。また、特定の指を操作に用いる部位としてもよい。操作に用いる部位を特定することで誤検知を低減できる。
図10及び図11は、操作内容決定部43が操作の内容の特定に使用する規則の一例を示す図表である。
図10は、空中画像10を出力するアプリケーションが描画用ソフトウェアの場合における操作の内容を特定する規則の例を説明する図表である。
図11は、空中画像10を出力するアプリケーションが文書作成用ソフトウェアの場合における操作の内容を特定する規則の例を説明する図表である。
図10及び図11に示す図表は、組み合わせに付した通し番号の列R1、空中画像10を出力するアプリケーションを表す列R2、空中画像10に表示される内容を表す列R3、操作に用いる部位を表す列R4、開始の位置を表すR5、動きの方向を表す列R6、操作の内容を表す列R7で構成される。
図10の場合、描画用のソフトウェアは、3次元コンピュータグラフィック(3DCG)ソフトウェア又は2次元コンピュータグラフィック(2DCG)ソフトウェアである。
空中画像10は、立体像又は平面像である。
組み合わせ1は、空中画像10の外側(接するとみなされない位置)に位置している両手の間隔を狭めるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の最大表示領域を均等に縮小する操作として受け付けられる。
●組み合わせ2
空中画像10は、立体像又は平面像である。
組み合わせ2は、空中画像10の外側(接するとみなされない位置)に位置している両手の間隔を広げるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の最大表示領域を均等に拡大する操作として受け付けられる。
空中画像10は、立体像又は平面像である。
組み合わせ3は、空中画像10の内側(接するとみなされない位置)に位置している両手の間隔を狭めるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10のうち両手で挟まれている部分画像(立体像の場合はユーザ寄りの部分画像)を局所的に縮小する操作として受け付けられる。一方、両手で挟まれていない部分の画像は、領域の縮小に連動するように拡大変形される。
●組み合わせ4
空中画像10は、立体像又は平面像である。
組み合わせ4は、空中画像10の内側(接するとみなされない位置)に位置している両手の間隔を広げるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10のうち両手で挟まれている部分画像(立体像の場合はユーザ寄りの部分画像)を局所的に拡大する操作として受け付けられる。一方、両手で挟まれていない部分の画像は、領域の拡大に連動するように縮小変形される。
●組み合わせ5
空中画像10は、立体像又は平面像である。
組み合わせ5は、空中画像10の外側(接するとみなされない位置)に位置している片手を空中画像10に近づく方向に動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の全体を手の動きの方向に移動させる操作として受け付けられる。
空中画像10は、立体像又は平面像である。
組み合わせ6は、空中画像10の外側(接するとみなされない位置)に位置している片手の複数の指(例えば親指と人差し指)の間隔を狭めるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の最大表示領域を均等に縮小する操作として受け付けられる。
●組み合わせ7
空中画像10は、立体像又は平面像である。
組み合わせ7は、空中画像10の外側(接するとみなされない位置)に位置している片手の複数の指(例えば親指と人差し指)の間隔を広げるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の最大表示領域を均等に拡大する操作として受け付けられる。
空中画像10は、立体像又は平面像である。
組み合わせ8は、空中画像10の内側(接するとみなされない位置)に位置している片手で特定のオブジェクトの上をなぞるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の一部を構成する特定のオブジェクトの属性に変化を加える操作として受け付けられる。
属性には、例えば色、オブジェクトの攻撃力がある。
●組み合わせ9
空中画像10は、立体像又は平面像である。
組み合わせ9は、空中画像10の内側(接するとみなされない位置)に位置している片手の複数の指(例えば親指と人差し指)の間隔を広げるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10のうち指と指で挟まれている部分画像(立体像の場合はユーザ寄りの部分画像)を局所的に拡大する操作として受け付けられる。一方、複数の指で挟まれていない部分の画像は、領域の拡大に連動するように縮小変形される。
空中画像10は、立体像又は平面像である。
組み合わせ10は、空中画像10の内側(接するとみなされない位置)に位置している片手の複数の指(例えば親指と人差し指)の間隔を狭めるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10のうち指と指で挟まれている部分画像(立体像の場合はユーザ寄りの部分画像)を局所的に縮小する操作として受け付けられる。一方、両手で挟まれていない部分の画像は、領域の縮小に連動するように拡大変形される。
●組み合わせ11
この組み合わせの場合、空中画像10は、立体像である。
組み合わせ11は、空中画像10の外縁(接するとみなされる位置)に位置している片手を外縁に沿って移動する場合に対応する。
この場合、ユーザの操作は、空中画像10の全体を手の動きの方向に回転させる操作として受け付けられる。
本実施の形態の場合、組み合わせ1〜11のいずれにも該当しない身振りは、操作として扱われない。
また、図10に示すように、操作が開始した位置と動きの方向を予め定めた区分で管理することにより、微細な位置や方向の違いを無視することが可能になる。
また、操作の組み合わせを事前に定めることで、ユーザも、自身の身振りによって実行される操作の内容の予測性を高めることができる。
●組み合わせ1
空中画像10は、文書である。ここでの文書は、1ページ単位で表示される場合を想定する。
組み合わせ1は、空中画像10の外側(接するとみなされない位置)に位置している両手の間隔を狭めるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の最大表示領域を均等に縮小する操作として受け付けられる。
操作の内容は、描画用のソフトウェアの場合(図10参照)と同じである。
●組み合わせ2
空中画像10は、文書である。
組み合わせ2は、空中画像10の外側(接するとみなされない位置)に位置している両手の間隔を広げるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の最大表示領域を均等に拡大する操作として受け付けられる。
操作の内容は、描画用のソフトウェアの場合(図10参照)と同じである。
空中画像10は、文書である。
組み合わせ3は、空中画像10の内側(接するとみなされない位置)に位置している両手の間隔を狭めるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10のうち両手で挟まれている部分画像(立体像の場合はユーザ寄りの部分画像)を局所的に縮小する操作として受け付けられる。一方、両手で挟まれていない部分の画像は、領域の縮小に連動するように拡大変形される。
操作の内容は、描画用のソフトウェアの場合(図10参照)と同じである。
●組み合わせ4
空中画像10は、文書である。
組み合わせ4は、空中画像10の内側(接するとみなされない位置)に位置している両手の間隔を広げるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10のうち両手で挟まれている部分画像(立体像の場合はユーザ寄りの部分画像)を局所的に拡大する操作として受け付けられる。一方、両手で挟まれていない部分の画像は、領域の拡大に連動するように縮小変形される。
操作の内容は、描画用のソフトウェアの場合(図10参照)と同じである。
空中画像10は、文書である。
組み合わせ5は、空中画像10の外側(接するとみなされない位置)に位置している片手を空中画像10に近づく方向に動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の全体を手の動きの方向に移動させる操作として受け付けられる。
操作の内容は、描画用のソフトウェアの場合(図10参照)と同じである。
●組み合わせ6
空中画像10は、文書である。
組み合わせ6は、空中画像10の外側(接するとみなされない位置)に位置している片手の複数の指(例えば親指と人差し指)の間隔を狭めるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の最大表示領域を均等に縮小する操作として受け付けられる。
操作の内容は、描画用のソフトウェアの場合(図10参照)と同じである。
空中画像10は、文書である。
組み合わせ7は、空中画像10の外側(接するとみなされない位置)に位置している片手の複数の指(例えば親指と人差し指)の間隔を広げるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10の最大表示領域を均等に拡大する操作として受け付けられる。
操作の内容は、描画用のソフトウェアの場合(図10参照)と同じである。
●組み合わせ8
空中画像10は、文書である。
組み合わせ8は、空中画像10の内側(接するとみなされない位置)に位置している片手で空中画像10の上をなぞるように動かす場合に対応する。
この場合、ユーザの操作は、なぞるように動かされた部位のオブジェクトを削除する操作として受け付けられる。
身振りは同じでも、この操作の内容は、描画用のソフトウェアの場合(図10参照)と異なる。
空中画像10は、複数ページの文書である。
組み合わせ9は、空中画像10の内側(接するとみなされない位置)に位置している片手を空中画像10の上をなぞるように動かす場合に対応する。
この場合、ユーザの操作は、なぞった方向に、空中画像10として表示されているページをめくる操作として受け付けられる。
この操作の内容も、描画用のソフトウェアの場合(図10参照)と異なる。
●組み合わせ10
空中画像10は、複数ページの文書である。
組み合わせ10は、空中画像10の内側(接するとみなされない位置)に位置している片手の複数の指(例えば親指と人差し指)の間隔を広げるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10のうち指と指で挟まれている部分画像(立体像の場合はユーザ寄りの部分画像)を局所的に拡大する操作として受け付けられる。一方、複数の指で挟まれていない部分の画像は、領域の拡大に連動するように縮小変形される。
操作の内容は、描画用のソフトウェアの場合(図10参照)と同じである。
●組み合わせ11
空中画像10は、複数ページの文書である。
組み合わせ11は、空中画像10の内側(接するとみなされない位置)に位置している片手の複数の指(例えば親指と人差し指)の間隔を狭めるように動かす場合に対応する。
この場合、ユーザの操作は、空中画像10のうち指と指で挟まれている部分画像(立体像の場合はユーザ寄りの部分画像)を局所的に縮小する操作として受け付けられる。一方、複数の指で挟まれていない部分の画像は、領域の縮小に連動するように拡大変形される。
操作の内容は、描画用のソフトウェアの場合(図10参照)と同じである。
勿論、空中画像10を出力するソフトウェアが異なっても同じ操作として受け付けられる場合もある。
なお、空中画像10を出力するソフトウェアが描画用のソフトウェアの場合にも、空中画像10の内側を片手でなぞるような動きをオブジェクトの削除として受け付けることも可能である。
反対に、空中画像10を出力するソフトウェアが文書作成用のソフトウェアの場合にも、空中画像10の内側を片手でなぞるような動きをなぞった部分のオブジェクトの属性(例えばフォント、色)を変化として受け付けることも可能である。
これらの操作の受付は、なぞる方向で切り替えてもよい。
続いて、操作受付装置12(図1参照)による空中画像10(図1参照)に対する操作の受付処理を説明する。
図12は、実施の形態1に係る操作受付装置12で実行される処理内容を説明するフローチャートの一例である。この処理内容は、図8を用いて説明した機能部を用いて実現される。具体的な処理の進行は、プログラムの実行を通じて制御される。
なお、図12においては、処理を構成する各ステップを記号Sで表記する。
ステップ1で否定結果が得られている間は、ユーザが操作の開始の位置に体の部位を移動させている最中である。
ステップ1で肯定結果が得られると、開始位置検知部41(図8参照)は、空中画像10との関係で動きが開始した位置を検知する(ステップ2)。例えば空中画像10の外側(体の部位が空中画像10と重なっていない)か、空中画像10の内側(体の部位が空中画像10と重なっている)か、空中画像10の外縁に接しているかが検知される。
操作に関する動きが開始した位置と動きの方向が検知されると、操作内容決定部43(図8参照)は、空中画像10を出力しているソフトウェアの種類、空中画像10として表示されている内容等に基づいて、操作の内容を決定する(ステップ4)。
操作の内容が決定されると、操作の内容に応じた処理が実行される(ステップ5)。
例えば操作内容決定部43は、空中触覚装置14を制御し、操作を受け付けたことを示す刺激や操作の内容に応じた刺激を与える。
例えば画面更新部44は、操作の内容に応じた処理を、空中画像10に加える。画面更新部44は、例えば空中画像10が表示される空中の位置を変更する。画面更新部44は、例えば空中画像10の最大表示領域を拡大又は縮小する。画面更新部44は、例えば空中画像10を構成する部分画像(オブジェクトを含む)を局所的に拡大又は縮小する。他に、画面更新部44は、部分画像(オブジェクトを含む)を削除したり、属性を変化させたりする。
以下では、操作に関する動きが開始された位置と動きの方向等の組み合わせによって実行される操作の具体例を説明する。
●具体例1
図13は、身振りによる操作の具体例1を説明する図である。(A)は操作中の手(右手3R及び左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図13の場合、空中画像10として地球の像が表示されている。
図13の場合、ユーザの右手3Rと左手3Lは、空中画像10の外側に位置した状態から両手の間隔を狭める方向に動かされている。
この場合、空中画像10の最大表示領域が均等に縮小されている。勿論、最大表示領域の縮小に応じて表示される地球の像も均等に縮小される。
この具体例は、図10の組み合わせ1に対応する。
図14は、身振りによる操作の具体例2を説明する図である。(A)は操作中の手(右手3R及び左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図14の場合も、空中画像10として地球の像が表示されている。
図14の場合、ユーザの右手3Rと左手3Lは、空中画像10の外側に位置した状態から両手の間隔を広げる方向に動かされている。
この場合、空中画像10の最大表示領域が均等に拡大されている。勿論、最大表示領域の拡大に応じて表示される地球の像も均等に拡大される。
この具体例は、図10の組み合わせ2に対応する。
図15は、身振りによる操作の具体例3を説明する図である。(A)は操作中の手(右手3R及び左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図15の場合も、空中画像10として地球の像が表示されている。
図15の場合、ユーザの右手3Rと左手3Lは、空中画像10の内側に位置した状態から両手の間隔を狭める方向に動かされている。前述したように、空中画像10は、空中に光学的に形成される像であるので、右手3Rと左手3Lを空中画像10に挿入することが可能である。
図15の場合、北アメリカ大陸が右手3Rと左手3Lで挟まれている。
この場合、空中画像10の最大表示領域に変化はないが、北アメリカ大陸の像が局所的に縮小される。なお、北アメリカ大陸の縮小に連動するように周囲の画像は拡大変形される。例えば縮小変形される北アメリカ大陸に近い空間ほど歪が大きくなるように拡大変形される。
この具体例は、図10の組み合わせ3に対応する。
図16は、身振りによる操作の具体例4を説明する図である。(A)は操作中の手(右手3R及び左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図16の場合も、空中画像10として地球の像が表示されている。
図16の場合、ユーザの右手3Rと左手3Lは、空中画像10の内側に位置した状態から両手の間隔を広げる方向に動かされている。
図16の場合、北アメリカ大陸が右手3Rと左手3Lで挟まれている。
この場合、空中画像10の最大表示領域に変化はないが、北アメリカ大陸の像が局所的に拡大される。なお、北アメリカ大陸の拡大に連動するように周囲の画像は縮小変形される。例えば拡大変形される北アメリカ大陸に近い空間ほど歪が大きくなるように縮小変形される。
この具体例は、図10の組み合わせ4に対応する。
図17は、身振りによる操作の具体例5を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図17の場合も、空中画像10として地球の像が表示されている。
図17の場合、ユーザの右手3Rは、空中画像10の外側に位置した状態から空中画像10に近づく方向に動かされている。換言すると、右手3Rは、図17に向かって空中画像10の左側から右方向に移動されている。
この場合、空中画像10の最大表示領域の寸法に変化はないが、右手3Rが移動する方向に空中画像10の位置が移動される。
この具体例は、図10の組み合わせ5に対応する。
図18は、身振りによる操作の具体例6を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図18の場合も、空中画像10として地球の像が表示されている。
図18の場合、ユーザの右手3Rは、空中画像10の内側に位置しており、北アメリカ大陸をなぞるように動かされている。
この場合、空中画像10の最大表示領域の寸法や画像の配置に変化はないが、北アメリカ大陸の表示に用いられる色が変化される。
この具体例は、図10の組み合わせ8に対応する。
なお、空中画像10として表示されているオブジェクトがゲームのキャラクターの場合には、同じ操作によって、攻撃力をアップさせてもよい。攻撃力がアップすると、キャラクターが進化してもよいし、装備が強化されてもよい。
図19は、身振りによる操作の具体例7を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図19の場合も、空中画像10として地球の像が表示されている。
図19の場合、ユーザの右手3Rは、空中画像10の外縁(外周面)に位置しており、外縁に沿うように動かされている。
この場合、空中画像10の最大表示領域の寸法や画像の配置に変化はないが、右手3Rが動いた方向に大陸の位置が回転している。図19の場合、操作の結果、ユーザから見える大陸は、アフリカ大陸とユーラシア大陸に変化している。
この具体例は、図10の組み合わせ11に対応する。
なお、空中画像10として表示されているオブジェクトがゲームのキャラクターの場合には、同じ操作によって、キャラクターの向きが正面から背面に変化してもよい。
図20は、身振りによる操作の具体例8を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図20の場合も、空中画像10として地球の像が表示されている。
図20の場合、ユーザの右手3Rは空中画像10の内側に位置しており、その状態で空中画像10をなぞるように動かしている。
この場合、右手3Rが移動した北アメリカ大陸が削除されている。
この具体例は、図11の組み合わせ8の応用例に対応する。
図21は、身振りによる操作の具体例9を説明する図である。(A)は操作中の手(左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図21の場合も、空中画像10として地球の像が表示されている。
図21の場合、ユーザの左手3Lは空中画像10の外側に位置しており、その状態で親指と人差し指の間隔を狭める方向に動かしている。
この場合、空中画像10の最大表示領域が均等に縮小されている。勿論、最大表示領域の縮小に応じて表示される地球の像も均等に縮小される。
この具体例は、図10の組み合わせ6に対応する。
図22は、身振りによる操作の具体例10を説明する図である。(A)は操作中の手(左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図22の場合も、空中画像10として地球の像が表示されている。
図22の場合、ユーザの左手3Lは空中画像10の外側に位置しており、その状態で親指と人差し指の間隔を広げる方向に動かしている。
この場合、空中画像10の最大表示領域が均等に拡大されている。勿論、最大表示領域の拡大に応じて表示される地球の像も均等に拡大される。
この具体例は、図10の組み合わせ7に対応する。
図23は、身振りによる操作の具体例11を説明する図である。(A)は操作中の手(左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図23の場合も、空中画像10として地球の像が表示されている。
図23の場合、ユーザの左手3Lは空中画像10の内側に位置しており、その状態で親指と人差し指の間隔を狭める方向に動かしている。
図23の場合、北アメリカ大陸が左手3Lの親指と人差し指の間に挟まれている。
この場合、空中画像10の最大表示領域に変化はないが、北アメリカ大陸の像が局所的に縮小される。なお、北アメリカ大陸の縮小に連動するように周囲の画像は拡大変形される。例えば縮小変形される北アメリカ大陸に近い空間ほど歪が大きくなるように拡大変形される。
この具体例は、図10の組み合わせ10に対応する。
図24は、身振りによる操作の具体例12を説明する図である。(A)は操作中の手(左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図24の場合も、空中画像10として地球の像が表示されている。
図24の場合、ユーザの左手3Lは空中画像10の内側に位置しており、その状態で親指と人差し指の間隔を広げる方向に動かしている。
図24の場合、北アメリカ大陸の一部分が左手3Lの親指と人差し指の間に挟まれている。
この場合、空中画像10の最大表示領域に変化はないが、北アメリカ大陸の像が局所的に拡大される。なお、北アメリカ大陸の拡大に連動するように周囲の画像は縮小変形される。例えば拡大変形される北アメリカ大陸に近い空間ほど歪が大きくなるように縮小変形される。
この具体例は、図10の組み合わせ9に対応する。
図25は、身振りによる操作の具体例13を説明する図である。(A)は操作中の手(右手3R及び左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図25の場合、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA」の像が表示されている。ここで斜線は改行を意味する。
図25の場合、ユーザの右手3Rと左手3Lは、空中画像10の外側に位置した状態から両手の間隔を狭める方向に動かされている。
この場合、空中画像10の最大表示領域が均等に縮小されている。勿論、最大表示領域の縮小に応じて表示される文書の像も均等に縮小される。具体的にはフォントのサイズが縮小されている。なお、文書中に挿絵や図表が含まれる場合には、それらも均等に縮小される。
この具体例は、図11の組み合わせ1に対応する。
図26は、身振りによる操作の具体例14を説明する図である。(A)は操作中の手(右手3R及び左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図26の場合も、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA)の像が表示されている。
図26の場合、ユーザの右手3Rと左手3Lは、空中画像10の外側に位置した状態から両手の間隔を広げる方向に動かされている。
この場合、空中画像10の最大表示領域が均等に拡大されている。勿論、最大表示領域の拡大に応じて表示される文書の像も均等に拡大される。具体的にはフォントのサイズが拡大されている。なお、文書中に挿絵や図表が含まれる場合には、それらも均等に拡大される。
この具体例は、図11の組み合わせ2に対応する。
図27は、身振りによる操作の具体例15を説明する図である。(A)は操作中の手(右手3R及び左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図27の場合も、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA)の像が表示されている。
図27の場合、ユーザの右手3Rと左手3Lは、空中画像10の内側に位置した状態から両手の間隔を狭める方向に動かされている。
図27の場合、上から1行目の文字列(AAAAA)のうち真ん中の3文字(AAA)が右手3Rと左手3Lで挟まれている。
この場合、空中画像10の最大表示領域に変化はないが、上から1行目の文字列のうち真ん中の3文字が局所的に縮小される。図27の場合、上から1行目の他の文字や2行目以降の文字列の表示に変化はない。
もっとも、文字列の縮小に連動するように周囲の画像が拡大変形されてもよい。この場合、縮小変形される文字列に近い画像ほど歪が大きくなるように拡大変形してもよい。
この具体例は、図11の組み合わせ3に対応する。
図28は、身振りによる操作の具体例16を説明する図である。(A)は操作中の手(右手3R及び左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図28の場合も、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA)の像が表示されている。
図28の場合、ユーザの右手3Rと左手3Lは、空中画像10の内側に位置した状態から両手の間隔を広げる方向に動かされている。
図28の場合も、上から1行目の文字列(AAAAA)のうち真ん中の3文字(AAA)が右手3Rと左手3Lで挟まれている。
この場合、空中画像10の最大表示領域に変化はないが、上から1行目の文字列のうち真ん中の3文字が局所的に拡大される。図28の場合、上から1行目の他の文字や2行目以降の文字列の表示に変化はない。
もっとも、文字列の拡大に連動するように周囲の画像が縮小変形されてもよい。この場合、拡大変形される文字列に近い画像ほど歪が大きくなるように縮小変形してもよい。
この具体例は、図11の組み合わせ4に対応する。
図29は、身振りによる操作の具体例17を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図29の場合も、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA)の像が表示されている。
図29の場合、ユーザの右手3Rは、空中画像10の外側に位置した状態から空中画像10に近づく方向に動かされている。換言すると、右手3Rは、図29に向かって空中画像10の右側から左方向に移動されている。
この場合、空中画像10の最大表示領域の寸法に変化はないが、右手3Rが移動する方向に空中画像10の位置が移動される。
この具体例は、図11の組み合わせ5に対応する。
図30は、身振りによる操作の具体例18を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図30の場合も、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA)の像が表示されている。
図30の場合、ユーザの右手3Rは、空中画像10の内側に位置しており、1行目の文字列(AAAAA)をなぞるように動かされている。
この場合、空中画像10の最大表示領域の寸法に変化はないが、右手3Rが移動した位置に表示されていた文字列が削除されている。
この具体例は、図11の組み合わせ8に対応する。
図31は、身振りによる操作の具体例19を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図31の場合も、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA)の像が表示されている。
図31の場合、ユーザの右手3Rは空中画像10の内側に位置しており、その状態で親指と人差し指の間隔を狭める方向に動かしている。
図31の場合、上から1行目の文字列(AAAAA)のうち右端側の3文字(AAA)が右手3Rの親指と人差し指の間に挟まれている。
この場合、空中画像10の最大表示領域に変化はないが、上から1行目の右端側の文字列が局所的に縮小される。図31の場合、上から1行目の他の文字や2行目以降の文字列の表示に変化はない。
もっとも、文字列の縮小に連動するように周囲の画像が拡大変形されてもよい。この場合、縮小変形される文字列に近い画像ほど歪が大きくなるように拡大変形してもよい。
この具体例は、図11の組み合わせ11に対応する。
図32は、身振りによる操作の具体例20を説明する図である。(A)は操作中の手(左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図32の場合も、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA)の像が表示されている。
図32の場合、ユーザの左手3Lは空中画像10の外側に位置しており、その状態で親指と人差し指の間隔を狭める方向に動かしている。
この場合、空中画像10の最大表示領域が均等に縮小されている。勿論、最大表示領域の縮小に応じて表示される文書の像も均等に縮小される。具体的にはフォントのサイズが縮小されている。なお、文書中に挿絵や図表が含まれる場合には、それらも均等に縮小される。
この具体例は、図11の組み合わせ6に対応する。
図33は、身振りによる操作の具体例21を説明する図である。(A)は操作中の手(左手3L)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図33の場合も、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA)の像が表示されている。
図33の場合、ユーザの左手3Lは空中画像10の外側に位置しており、その状態で親指と人差し指の間隔を広げる方向に動かしている。
この場合、空中画像10の最大表示領域が均等に拡大されている。勿論、最大表示領域の拡大に応じて表示される文書の像も均等に拡大される。具体的にはフォントのサイズが拡大されている。なお、文書中に挿絵や図表が含まれる場合には、それらも均等に拡大される。
この具体例は、図11の組み合わせ7に対応する。
図34は、身振りによる操作の具体例22を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図34の場合も、空中画像10として文書(AAAAA/AAAAA/AAAAA/AAAAA)の像が表示されている。
図34の場合、ユーザの右手3Rは空中画像10の内側に位置しており、その状態で親指と人差し指の間隔を広げる方向に動かしている。
図34の場合、上から1行目の文字列(AAAAA)のうち右端側の3文字(AAA)が親指と人差し指で挟まれている。
この場合、空中画像10の最大表示領域に変化はないが、上から1行目の文字列のうち右端側の3文字が局所的に拡大される。図34の場合、上から1行目の他の文字や2行目以降の文字列の表示に変化はない。
もっとも、文字列の拡大に連動するように周囲の画像が縮小変形されてもよい。この場合、拡大変形される文字列に近い画像ほど歪が大きくなるように縮小変形してもよい。
この具体例は、図11の組み合わせ10に対応する。
図35は、身振りによる操作の具体例23を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図35の場合、空中画像10として複数のページの像が表示されている。具体的には、左側から右方向に、ページ1、ページ2、ページ3の像が表示されている。
図35の場合、ユーザの右手3Rは空中画像10の内側に位置しており、なぞるように左方向に動かされている。
この場合、空中画像10の最大表示領域に変化はないが、空中画像10に表示されるページの並びが変更されている。具体的には、左側から右方向に、ページ2、ページ3、ページ4の像が表示されている。この操作は、表示されるページを進める、ページめくりに対応する。
この具体例は、図11の組み合わせ9に対応する。
図36は、身振りによる操作の具体例24を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図36の場合、ゲームのキャラクター10A及び10Bを含む空中画像10が表示されている。
具体例23は、具体例1〜12と同様、空中画像10が描画用のソフトウェアから出力される場合である。
図36の場合、ユーザの右手3Rは空中画像10の内側に位置しており、図中右側に位置するキャラクター10Aの上をなぞるように動かされている。
この場合、空中画像10の最大表示領域に変化はないが、キャラクター10Aの色が変化されている。
この具体例は、図10の組み合わせ8に対応する。
図37は、身振りによる操作の具体例25を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図37の場合も、ゲームのキャラクター10A及び10Bを含む空中画像10が表示されている。
図37の場合も、ユーザの右手3Rは空中画像10の内側に位置しており、図中右側に位置するキャラクター10Aの上をなぞるように動かされている。
ただし、具体例24の場合、この操作は、空中画像10内におけるキャラクター10Aの表示位置の移動に用いられている。
図37の場合、キャラクター10Aは、移動方向に位置するキャラクター10Bを攻撃している。攻撃を受けたキャラクター10Bは痛手を受けた表情に変化している。
図38は、身振りによる操作の具体例26を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は空中画像10に対する操作を示し、(C)は2段階の操作を受け付けた後の空中画像10を示す。
図38の場合、剣10Cを装着したゲームのキャラクター10Aを含む空中画像10が表示されている。
図38の例は、複数の操作を組み合わせることで、操作の内容が切り替わる例に対応する。
図38の場合、右手3Rは空中画像10の外側に位置している。この状態で、右手3Rを空中画像10に近づける動きを行う。この動き単独では、空中画像10に対する操作と認識されないので、空中画像10に変化は生じない。
この後、ユーザの右手3Rは、空中画像10の内側に移動され、キャラクター10Aの上をなぞるように動かすと、具体例23(図35参照)や具体例24(図36参照)の場合とは異なり、空中画像10を対象とした移動の操作として受け付けられる。
図39は、身振りによる操作の具体例27を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は空中画像10に対する操作を示し、(C)は2段階の操作を受け付けた後の空中画像10を示す。
図39の場合も、剣10Cを装着したゲームのキャラクター10Aを含む空中画像10が表示されている。
図39の例は、複数の操作を組み合わせることで、操作の内容が切り替わる例に対応する。
図39の場合、右手3Rは剣10Cに接する又は重なるように位置している。この状態で、右手3Rを空中画像10に近づける又は奥に挿入する動きを行う。図39の場合も、空中画像10に対する操作と認識されないので、この段階では、空中画像10に変化は生じない。
この後、ユーザの右手3Rは、空中画像10の内側に移動され、キャラクター10Aの上をなぞるように動かすと、剣10Cの属性を変化させる操作として受け付けられる。
図39の場合には、攻撃力がアップした剣10Cに変更されている。
図39では、キャラクター10Aが装着している備品が剣10Cであったが、盾、服装、靴、帽子等が操作の受付のたびに変化してもよい。
図40は、身振りによる操作の具体例28を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示す。
図40の場合、3次元データ(内部構造のデータ)を有する卵の空中画像10が表示されている。
図40の場合、ユーザの右手3Rは、空中画像10の外側に位置した状態から空中画像10に近づく方向に動かされている。換言すると、右手3Rは、図40に向かって空中画像10の右側から左方向に移動されている。
この場合、空中画像10の最大表示領域の寸法に変化はないが、右手3Rが移動する方向に空中画像10の位置が移動される。
この具体例は、外層の像に対する操作の一例である。
図41は、身振りによる操作の具体例29を説明する図である。(A)は操作中の手(右手3R)と空中画像10の位置の関係を示し、(B)は操作を受け付けた後の空中画像10を示し、(C)は更に操作を受け付けた後の空中画像10を示す。
図41の場合、内部構造を有する卵の空中画像10が表示されている。具体的には、最上層としての殻、中間層としての白身、最下層としての黄身の構造を有している。これら3階層の画像は一度に表示されてもよいし、ユーザの指示した層だけを表示してもよい。
図41の場合、ユーザの右手3Rは、空中画像10に接している又は内側に位置している。
図41では、この状態で、右手3Rが空中画像10をなぞるように動かされる場合の操作の受付による空中画像10の変化を表している。
図41の場合、1度目の身振りによって、空中画像10は白身の表示に変化し、2度目の身振りによって、空中画像10は黄身の表示に変化する。
この具体例は、内部の像に対する操作の一例である。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。上述の実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
Claims (22)
- 空気中に形成されている画像に対する検知の対象の動きを検知する検知手段と、
前記画像の表示領域に対して前記動きが開始されたときの位置と当該動きの方向との組み合わせに応じて、当該画像に対する操作の内容を制御する制御手段と、
を有する情報処理装置。 - 前記組み合わせは複数であり、予め与えられている、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの位置は、前記画像と重ならない位置、重なる位置と、接する位置のうちの複数又は1つである、請求項2に記載の情報処理装置。
- 前記組み合わせに応じた制御の内容は、前記画像の表示に用いられるアプリケーションプログラムに応じて定められる、請求項1に記載の情報処理装置。
- 前記組み合わせに応じた制御の内容は、操作の対象であるオブジェクトの属性に応じて定められる、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの位置は、検知の対象が予め定めた時間以上、静止とみなす状態にある位置である、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの位置は、予め定めた検知用の領域のうち、検知の対象の通過が検知された位置である、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの両手の位置が前記画像と重なっておらず、かつ、両手の間隔を広げる動きの場合、前記制御手段は、当該画像の最大表示領域を拡大する、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの両手の位置が前記画像と重なっており、かつ、両手の間隔を広げる動きの場合、前記制御手段は、当該画像のうち両手で挟まれている部分を最大表示領域内で局所的に拡大する、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの両手の位置が前記画像と重なっておらず、かつ、両手の間隔を狭める動きの場合、前記制御手段は、操作が当該画像の最大表示領域を縮小する、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの両手の位置が前記画像と重なっており、かつ、両手の間隔を狭める動きの場合、前記制御手段は、当該画像のうち両手で挟まれている部分を最大表示領域内で局所的に縮小する、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの片手の位置が前記画像と重なっておらず、かつ、片手を一方向に移動させる動き又は回転させる動きの場合、前記制御手段は、当該画像を形成する空間を当該動きの方向に移動させる又は当該画像を回転させる、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの片手の位置が前記画像と重なっており、かつ、片手を一方向に移動させる動きの場合、前記制御手段は、片手が通過した部分を削除する、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの片手の位置が前記画像と重なっておらず、かつ、指と指の間隔を広げる動きの場合、前記制御手段は、操作が当該画像の最大表示領域を拡大する、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの片手の位置が前記画像と重なっており、かつ、指と指の間隔を広げる動きの場合、前記制御手段は、指と指で挟まれている部分を最大表示領域内で局所的に拡大する、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの片手の位置が前記画像と重なっておらず、かつ、指と指の間隔を狭める動きの場合、前記制御手段は、操作が当該画像の最大表示領域を縮小する、請求項1に記載の情報処理装置。
- 前記動きが開始されたときの片手の位置が前記画像と重なっており、かつ、指と指の間隔を狭める動きの場合、前記制御手段は、指と指で挟まれている部分を最大表示領域内で局所的に縮小する、請求項1に記載の情報処理装置。
- 前記制御手段は、複数の前記組み合わせに応じて操作の内容を制御する、請求項1に記載の情報処理装置。
- 前記画像が立体像の場合、前記制御手段は、開始の位置の違いにより、外層の像または内部の像を制御する、請求項18に記載の情報処理装置。
- ユーザの体の一部に、操作の内容に応じた刺激を与える、請求項1に記載の情報処理装置。
- 空気中に画像を形成する像形成手段と、
前記画像に対する検知の対象の動きを検知する検知手段と、
前記画像の表示領域に対して前記動きが開始されたときの位置と当該動きの方向との組み合わせに応じて、当該画像に対する操作の内容を制御する制御手段と、
を有する情報処理システム。 - コンピュータに、
空気中に形成されている画像に対する検知の対象の動きを検知する機能と、
前記画像の表示領域に対して前記動きが開始されたときの位置と当該動きの方向との組み合わせに応じて、当該画像に対する操作の内容を制御する機能と、
を実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018102771A JP2019207574A (ja) | 2018-05-29 | 2018-05-29 | 情報処理装置、情報処理システム及びプログラム |
CN201811546911.9A CN110543232A (zh) | 2018-05-29 | 2018-12-18 | 信息处理装置、信息处理系统和非暂时性计算机可读介质 |
US16/412,515 US20190369740A1 (en) | 2018-05-29 | 2019-05-15 | Information processing apparatus, information processing system, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018102771A JP2019207574A (ja) | 2018-05-29 | 2018-05-29 | 情報処理装置、情報処理システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019207574A true JP2019207574A (ja) | 2019-12-05 |
Family
ID=68692650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018102771A Pending JP2019207574A (ja) | 2018-05-29 | 2018-05-29 | 情報処理装置、情報処理システム及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190369740A1 (ja) |
JP (1) | JP2019207574A (ja) |
CN (1) | CN110543232A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021103495A (ja) * | 2019-12-25 | 2021-07-15 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
WO2022249947A1 (ja) * | 2021-05-25 | 2022-12-01 | 大日本印刷株式会社 | 空中入力装置、空中入力表示装置及びホログラムシート |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111722769B (zh) * | 2020-07-16 | 2024-03-05 | 腾讯科技(深圳)有限公司 | 交互方法、装置、显示设备和存储介质 |
TWI770949B (zh) * | 2021-04-20 | 2022-07-11 | 達運精密工業股份有限公司 | 顯示裝置、非接觸式按鍵及輸入裝置 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11185058A (ja) * | 1997-11-28 | 1999-07-09 | Internatl Business Mach Corp <Ibm> | オブジェクトの選択方法およびそのシステム |
JP2002366973A (ja) * | 2001-06-07 | 2002-12-20 | Hitachi Software Eng Co Ltd | オブジェクトの生成方法および生成されたオブジェクトの選択制御方法並びにオブジェクトのデータ構造 |
US20110096072A1 (en) * | 2009-10-27 | 2011-04-28 | Samsung Electronics Co., Ltd. | Three-dimensional space interface apparatus and method |
JP2011517357A (ja) * | 2008-03-04 | 2011-06-02 | ジェスチャー テック,インコーポレイテッド | 改良されたジェスチャに基づく画像操作 |
WO2011118096A1 (ja) * | 2010-03-23 | 2011-09-29 | シャープ株式会社 | 情報表示装置及び文書データ編集方法 |
JP2013017640A (ja) * | 2011-07-11 | 2013-01-31 | Kyocera Corp | 表示機器、制御システムおよび制御プログラム |
WO2014016987A1 (ja) * | 2012-07-27 | 2014-01-30 | Necソフト株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
WO2014016992A1 (ja) * | 2012-07-27 | 2014-01-30 | Necソフト株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
JP2014071520A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置、制御方法および制御プログラム |
JP2014068689A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置、制御システムおよび制御プログラム |
JP2015060144A (ja) * | 2013-09-20 | 2015-03-30 | 株式会社Nttドコモ | 地図画像表示装置 |
US20150169070A1 (en) * | 2013-12-17 | 2015-06-18 | Google Inc. | Visual Display of Interactive, Gesture-Controlled, Three-Dimensional (3D) Models for Head-Mountable Displays (HMDs) |
JP2017084003A (ja) * | 2015-10-26 | 2017-05-18 | 船井電機株式会社 | 入力装置 |
US20170329488A1 (en) * | 2016-05-10 | 2017-11-16 | Google Inc. | Two-handed object manipulations in virtual reality |
-
2018
- 2018-05-29 JP JP2018102771A patent/JP2019207574A/ja active Pending
- 2018-12-18 CN CN201811546911.9A patent/CN110543232A/zh active Pending
-
2019
- 2019-05-15 US US16/412,515 patent/US20190369740A1/en not_active Abandoned
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11185058A (ja) * | 1997-11-28 | 1999-07-09 | Internatl Business Mach Corp <Ibm> | オブジェクトの選択方法およびそのシステム |
JP2002366973A (ja) * | 2001-06-07 | 2002-12-20 | Hitachi Software Eng Co Ltd | オブジェクトの生成方法および生成されたオブジェクトの選択制御方法並びにオブジェクトのデータ構造 |
JP2011517357A (ja) * | 2008-03-04 | 2011-06-02 | ジェスチャー テック,インコーポレイテッド | 改良されたジェスチャに基づく画像操作 |
US20110096072A1 (en) * | 2009-10-27 | 2011-04-28 | Samsung Electronics Co., Ltd. | Three-dimensional space interface apparatus and method |
WO2011118096A1 (ja) * | 2010-03-23 | 2011-09-29 | シャープ株式会社 | 情報表示装置及び文書データ編集方法 |
JP2013017640A (ja) * | 2011-07-11 | 2013-01-31 | Kyocera Corp | 表示機器、制御システムおよび制御プログラム |
WO2014016987A1 (ja) * | 2012-07-27 | 2014-01-30 | Necソフト株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
WO2014016992A1 (ja) * | 2012-07-27 | 2014-01-30 | Necソフト株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
JP2014071520A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置、制御方法および制御プログラム |
JP2014068689A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置、制御システムおよび制御プログラム |
JP2015060144A (ja) * | 2013-09-20 | 2015-03-30 | 株式会社Nttドコモ | 地図画像表示装置 |
US20150169070A1 (en) * | 2013-12-17 | 2015-06-18 | Google Inc. | Visual Display of Interactive, Gesture-Controlled, Three-Dimensional (3D) Models for Head-Mountable Displays (HMDs) |
JP2017084003A (ja) * | 2015-10-26 | 2017-05-18 | 船井電機株式会社 | 入力装置 |
US20170329488A1 (en) * | 2016-05-10 | 2017-11-16 | Google Inc. | Two-handed object manipulations in virtual reality |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021103495A (ja) * | 2019-12-25 | 2021-07-15 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7424048B2 (ja) | 2019-12-25 | 2024-01-30 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
WO2022249947A1 (ja) * | 2021-05-25 | 2022-12-01 | 大日本印刷株式会社 | 空中入力装置、空中入力表示装置及びホログラムシート |
Also Published As
Publication number | Publication date |
---|---|
US20190369740A1 (en) | 2019-12-05 |
CN110543232A (zh) | 2019-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11954808B2 (en) | Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment | |
US12086328B2 (en) | User-defined virtual interaction space and manipulation of virtual cameras with vectors | |
US12118134B2 (en) | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments | |
JP2019207574A (ja) | 情報処理装置、情報処理システム及びプログラム | |
US20130086531A1 (en) | Command issuing device, method and computer program product | |
JPWO2018003861A1 (ja) | 表示装置および制御装置 | |
JP5444482B2 (ja) | 情報処理装置、電子機器およびプログラム | |
KR20180053402A (ko) | 시선입력장치, 시선입력방법 및 시선입력 프로그램이 기록되어 있는 기록매체 | |
US11048363B2 (en) | Floating display device and method for a floating display device to indicate touch position | |
US20190235643A1 (en) | Control device, display device, program, and detection method | |
JP6127564B2 (ja) | タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム | |
JP7135324B2 (ja) | 情報処理装置、情報処理システム及びプログラム | |
JP7505113B2 (ja) | ウェアラブル端末装置、プログラムおよび表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220426 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220802 |