JP2012104107A - 画像内のセレクタ記号を制御する表示システム - Google Patents

画像内のセレクタ記号を制御する表示システム Download PDF

Info

Publication number
JP2012104107A
JP2012104107A JP2011236242A JP2011236242A JP2012104107A JP 2012104107 A JP2012104107 A JP 2012104107A JP 2011236242 A JP2011236242 A JP 2011236242A JP 2011236242 A JP2011236242 A JP 2011236242A JP 2012104107 A JP2012104107 A JP 2012104107A
Authority
JP
Japan
Prior art keywords
display screen
dimensional
display
selector symbol
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011236242A
Other languages
English (en)
Other versions
JP6073546B2 (ja
Inventor
Joseph Nutaro
ジョセフ・ヌタロ
Steven Grothe
スティーヴン・グローセ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2012104107A publication Critical patent/JP2012104107A/ja
Application granted granted Critical
Publication of JP6073546B2 publication Critical patent/JP6073546B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • G01C23/005Flight directors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】三次元画像内での容易なオブジェクト選択を可能にする表示システムを提供する。
【解決手段】表示システムは、表示画面の表面への操作者のタッチを検出するように構成され、さらに三次元画像を表示するように構成された表示画面を含む。表示システムはさらに、タッチ画面に動作可能に結合されたプロセッサを含む。プロセッサは、三次元画像内に三次元セレクタ記号54を表示することを表示画面に命令するように構成され、かつ三次元画像内のセレクタ記号を操作者のタッチに対応するように移動させることを表示画面に命令するように構成される。
【選択図】図3

Description

[0001]本技術分野は、一般に表示システムに関し、より具体的には画像内のセレクタ記号を制御する表示システムに関する。
[0002]三次元描写を、専用の眼鏡または他の眼を覆うものを着用する必要なく、リアルな三次元領域に表示できる表示システムが市場に入り始めている。このような表示システムでは、視聴者の側に本物の奥行き感を生じさせる立体視技法を用いる。このような表示システムは、従来の二次元表示システムによって現在は占められている市場空間に大いに浸透することが期待される。
[0003]このような表示システムで期待される1つの応用分野に航空機産業がある。三次元描写をリアルな三次元領域に表示できる表示システムは、パイロットに状況認識の向上と、飛行環境および下方の地上環境を知覚するためのより高い能力とをもたらす可能性がある。このような表示システムを使用して、例えば、飛行中の航空機の周囲および下の地理的環境を表示すること、他の飛行物体の描写を表示すること、および/または航空機の飛行経路の三次元投影を三次元環境によって表示することができる。合成映像システムなどの既存のシステムは、見た目の眺望を生成する通常のグラフィック技法を用いて描画された二次元画像を表示する二次元表示画面を用いて、この情報をパイロットに提供しようとするが、本当の三次元画像を表示できる表示システムは、飛行環境についての情報を取り込むためのパイロットの能力を向上させることが期待される。
[0004]三次元表示システムがちょうど市場に入り始めているのに対し、タッチ画面表示システムはよく知られており、命令されるシステムに制御入力を与えるために、多種多様な産業界において何年にもわたり広く使用されてきた。この広範な普及にもかかわらず、タッチ画面表示システムの航空機産業への浸透は限定的でしかない。しかし、最近これが変化し始めており、タッチ画面表示システムは現在、航空機に搭載される様々なシステムの制御など、様々な航空機関連の用途で極めて頻繁に利用されている。
[0005]三次元画像を提示するように構成された表示システムの中にはまた、タッチ検知技術を採用するものがあり、それによって操作者が、タッチによって三次元画像と直接対話することができる。しかし、このような表示システムはリアルな三次元画像を提示するので、三次元画像内に表示されるアイコンを、表示システムの表示画面の表面の一部分に単に触れることによって正確に選択すること、または記号表示の1つに正確にロックすることが困難になる可能性がある。これは、操作者が指し示そうとしている対象が、三次元画像を見る視点によって異なる位置にあるように見えるためである。操作者は、表示画面の表面から三次元環境に手を入れて対象に触れることができないので、三次元画像を表示するように構成された表示システムと組み合わせて標準的なタッチ画面技術を用いると、操作者が三次元画像と対話しようとする場合に曖昧さが生じることになりうる。
米国特許第7,796,200号 米国特許第7,796,134号 米国特許第7,786,953号 米国特許第7,777,950号 米国特許第4,521,870号 米国特許第4,821,031号 米国特許第5,038,142号 米国特許第5,956,021号 米国特許第6,259,491号 米国特許第6,297,811号 米国特許第6,492,979号
[0006]本明細書では、画像内のセレクタ記号を制御する表示システムの様々な実施形態が開示される。
[0007]一実施形態では、表示システムは、それだけには限らないが、表示画面の表面への操作者のタッチを検出するように構成され、さらに三次元画像を表示するように構成された表示画面を含む。このシステムはさらに、タッチ画面に動作可能に結合されたプロセッサを含む。プロセッサは、三次元画像内に三次元セレクタ記号を表示することを表示画面に命令するように構成され、かつ三次元画像内のセレクタ記号を操作者のタッチに対応するように移動させることを表示画面に命令するように構成される。
[0008]別の実施形態では、表示システムは、それだけには限らないが、表示画面の表面への操作者のタッチを検出するように構成され、さらに三次元画像を表示するように構成された表示画面を含む。表示システムはさらに、タッチ画面に動作可能に結合されたプロセッサを備える。プロセッサは、三次元画像内に三次元セレクタ記号を表示することを表示画面に命令するように構成される。三次元セレクタ記号は、操作者が表示画面の表面に最初に触れた第1の位置に近接する表示画面上に表示された第1の端部と、第1の端部から離れて間隔が置かれた第2の位置で表示画面上に表示された第2の端部とを有する。プロセッサはさらに、第1の端部に対する第2の端部の向きが第1の位置に対応するように三次元セレクタ記号を表示することを表示画面に命令するように構成される。プロセッサはさらに、三次元画像内のセレクタ記号の方位角および傾斜角を、操作者のタッチに対応するように調整することを表示画面に命令するように構成される。
[0009]別の実施形態では、表示システムは、それだけには限らないが、表示画面の表面への操作者のタッチを検出するように構成され、さらに三次元画像を表示するように構成された表示画面を含む。このシステムはさらに、操作者の入力を受け取るように構成された入力ユニットを含む。システムはさらに、タッチ画面および入力ユニットに動作可能に結合されたプロセッサを備え、プロセッサは、三次元画像内に三次元セレクタ記号を表示することを表示画面に命令するように、かつ三次元画像内のセレクタ記号を、操作者のタッチおよび操作者の入力に対応するように移動させることを表示画面に命令するように構成される。
[0010]本発明は以下に、次の図面と併せて説明される。図面では、同じ数字が同じ要素を示す。
[0011]本開示の教示により作製された、画像内のセレクタ記号を制御する表示システムの一実施形態を示す概略図である。 [0012]例示的な一実施形態による図1の表示システム上に描写された三次元画像を示す図である。 [0013]例示的な一実施形態による、操作者が表示画面を使って三次元セレクタ記号の表示を開始するときの図2の三次元画像を示す図である。 [0014]例示的な一実施形態による、三次元セレクタ記号の表示を開始するための別の手順を示す図である。 例示的な一実施形態による、三次元セレクタ記号の表示を開始するための別の手順を示す図である。 例示的な一実施形態による、三次元セレクタ記号の表示を開始するための別の手順を示す図である。 [0015]例示的な一実施形態による、三次元セレクタ記号の表示を開始するためのさらに別の手順を示す図である。 例示的な一実施形態による、三次元セレクタ記号の表示を開始するためのさらに別の手順を示す図である。 例示的な一実施形態による、三次元セレクタ記号の表示を開始するためのさらに別の手順を示す図である。 [0016]例示的な一実施形態による、所望の標的からの三次元セレクタ記号の間隔を示す図である。 [0017]例示的な一実施形態による、三次元セレクタ記号の方位角および傾斜角を制御する技法を示す図である。 例示的な一実施形態による、三次元セレクタ記号の方位角および傾斜角を制御する技法を示す図である。 [0018]例示的な一実施形態による、三次元セレクタ記号の方位角および傾斜角を制御する別の技法を示す図である。 例示的な一実施形態による、三次元セレクタ記号の方位角および傾斜角を制御する別の技法を示す図である。 [0019]例示的な一実施形態による、三次元セレクタ記号の方位角および傾斜角を制御する別の技法を示す図である。 例示的な一実施形態による、三次元セレクタ記号の方位角および傾斜角を制御する別の技法を示す図である。 [0020]例示的な一実施形態による、三次元セレクタ記号の方位角および傾斜角を制御するさらに別の技法を示す図である。 例示的な一実施形態による、三次元セレクタ記号の方位角および傾斜角を制御するさらに別の技法を示す図である。 例示的な一実施形態による、三次元セレクタ記号の方位角および傾斜角を制御するさらに別の技法を示す図である。 [0021]例示的な一実施形態による、三次元セレクタ記号をその方位角もその傾斜角を変えずに移動させる技法を示す図である。 [0022]例示的な一実施形態による、三次元セレクタ記号を使用して標的を選択および追跡する技法を示す図である。 [0023]例示的な一実施形態による、三次元画像内に複数の三次元セレクタ記号を描写することを示す図である。
[0024]以下の詳細な説明は、例示的な性質のものにすぎず、本発明、または本発明の応用および用途を限定するものではない。さらに、前述の背景、または以下の詳細な説明で提示されるいかなる理論にも束縛されるものではない。
[0025]本明細書では、画像内のセレクタ記号を制御するための改善された表示システムが開示される。この表示システムは、立体画像としても知られる三次元画像を描写するように構成された表示画面を含む。本明細書で使用される「三次元」という語は、立体技法または他の技法を用いて描写されたリアルに見える三次元画像を指し、これらの技法は、奥行きがリアルに描写され、かつ画像および/または領域内の様々な構成要素間の空間関係がリアルに見える画像および/または領域を生成する。三次元画像を表示できる表示装置は、米国特許第7,796,200号、第7,796,134号、第7,786,953号、および第7,777,950号に開示されており、これらの開示はここで、その全体が参照により本明細書に組み込まれる。表示画面はさらに、表示画面の表面へのタッチを検出するように構成される。このようなタッチを用いて、表示画面によって制御される、あるいは表示画面と通信可能または操作可能に結合されたプロセッサによって制御される命令システムに入力することができる。タッチ画面表示装置は、当技術分野でよく知られている。表示画面の表面へのタッチを検出できるようにする多数の技術が存在する。タッチ画面表示装置の例は、米国特許第4,521,870号、第4,821,031号、第5,038,142号、第5,956,021号、第6,259,491号、第6,297,811号、および第6,492,979号に開示されており、これらの開示はここで、その全体が参照により本明細書に組み込まれる。本明細書で使用される「タッチ」という語は、タッチ画面表示装置によって検出可能で、かつタッチ画面表示装置によって対話および/または駆動事象として認識される、操作者が取る任意の行動を指す。タッチは、それだけには限らないが、タッチ画面表示装置との実際の物理的接触を含む。操作者は、指、スタイラス、光スティック、レーザ光、またはいくつか他のデバイスを使用して表示装置の表面に触れることができる。このような指または他のデバイスは、本明細書では一括して「タッチ用具」と呼ぶことにする。
[0026]表示システムはさらにプロセッサを含み、このプロセッサは、表示画面と通信可能または操作可能に結合され、その表示画面に命令して三次元画像を表示するように、さらにその三次元画像内に三次元セレクタ記号を表示するように構成される。例えば、三次元画像が、その上を航空機が飛行している風景の画像であり、また滑走路および地上航行補助装置などの様々な構造物および航行補助装置を含む場合、三次元セレクタ記号は、表示画面の表面から風景の中へ、または地平線の上空へ延びるように見えるスポットライトとして表示されることができる。一実施形態では、このスポットライトは、風景の地面に描写される照明された領域と、表示画面の表面から照明された地面の領域まで延びるスポットライトビームの目に見える描写とを含むことができる。別の実施形態では、三次元セレクタ記号は、地面から表示画面まで延びる照明されたビーム部を伴わない、単に地面の照明された領域だけのこともある。さらに別の実施形態では、三次元セレクタ記号は、任意の適切かつ/または所望の形を取ることができ、本明細書によっていかなる特定の実施形態にも限定されない。
[0027]プロセッサはさらに、表示画面の表面で検出されるタッチに基づいて、三次元セレクタ記号を三次元画像中でくまなく移動させるように構成される。例えば、三次元セレクタ記号の方位角および傾斜角は、表示画面の表面上の、または表面全体にわたるタッチ用具の動きに基づいて修正することができる。いくつかの実施形態では、追加の入力デバイスを表示システム中に含むことができる。この追加の入力デバイスは、プロセッサに操作可能に接続され、表示画面と共に操作者によって利用されて三次元セレクタ記号の動きを制御する。タッチ画面を介して、また任意の追加入力デバイスを介して表示システム中に入力することによって、操作者は、三次元画像の周囲および全体にわたって三次元セレクタ記号を旋回、回転、および平行移動させることができる。いくつかの実施形態では、照明された領域が選択可能なもの(例えば、滑走路または他の航空機)の上に位置付けられている場合、照明された領域はその形状を変えて、強調表示されたものが選択可能であることを示すことができる。このように操作者は三次元セレクタ記号を操作して、三次元画像中に表示された様々なもののうち1つまたは複数を選択することができる。
[0028]いくつかの実施形態では、三次元セレクタ記号はタッチ用具から外に延びるように見えることがある。例えば、三次元セレクタ記号は、操作者の指と一直線上にそろえられ、その指から延びるスポットライトまたはレーザのように見えることがある。こうすると、三次元画像中の三次元セレクタ記号を伴った、操作者が選択したい対象を操作者が効果的に指し示し触れることができる。表示システムは、操作者が表示画面上で指を回したときに、三次元セレクタ記号がその方位角およびその傾斜角を変えて、操作者の指と一直線上にそろったままになり、こうして三次元画像の中に入る操作者の指の延長部として機能するように構成することができる。いくつかの実施形態では、表示システムは、操作者が指を表示画面の表面全体にわたってドラッグすることによって、または制御パネルを使用することによって、三次元画像内の三次元セレクタ記号全体を移動できるようにすることが可能である。
[0029]三次元セレクタ記号を使用すると、二次元表示装置で操作者がカーソルを使用して対象またはテキストを選択できるのと同様に、三次元画像内に表示された対象を操作者が選択することができる。照明領域の形状は、それが選択可能対象の上を通過するときに変化することができる。例えば、照明領域は、色、サイズ、形、および/またはこれらの組み合わせを変えて、その対象が選択可能であることを操作者に示すことができる。いくつかの実施形態では、対象自体がサイズ、形、および/または色を、照明領域がその上を通過するときに変化させることができる。いくつかの実施形態では、表示システムは、パイロットの操作で、複数の選択可能対象を同時にパイロットが選択できるようにするために、三次元画像内に複数の三次元セレクタ記号を描写できることがある。
[0030]画像内のセレクタ記号を制御する表示システムの実施形態についてのよりよい理解は、以下の詳細な説明の再検討と併せて、本出願に添付の図を再検討することによって得られるであろう。
[0031]図1は、三次元セレクタ記号を制御する表示システム30を示す概略図である。表示システム30は、表示画面32、プロセッサ34、およびいくつかの実施形態では、付加入力ユニット36を含む。他の実施形態では、付加入力ユニット36は、表示画面32のタッチを検出する能力、したがって操作者入力を検出する能力により必要とされない。表示画面32は、三次元画像を表示するように構成されている、さらに表示画面の表面へのタッチを検出し、検出されたタッチに対応する信号をプロセッサ34に送出するように構成されている、任意の適切な表示画面とすることができる。付加入力ユニット36は、一般にコンピュータシステムが結び付いた任意の従来の入力デバイスとすることができ、コンピュータシステムに入力するために操作者によって使用される。このような入力デバイスには、それだけには限らないが、キーボード、タッチパッド、トラックボール、マウス、ジョイスティック、マイクロフォン、カメラ、および動き検出器が含まれる。付加入力ユニット36は、操作者から入力を受け取り、この操作者入力に対応する電子信号を生成し、その信号をプロセッサ34に送出するように構成される。
[0032]プロセッサ34は、計算する、かつ/またはアルゴリズムを実施する、かつ/またはソフトウェアアプリケーションを実行する、かつ/またはサブルーチンを実行する、かつ/または任意のタイプのコンピュータプログラムをロードし実行するように構成されている任意のタイプのコンピュータ、コンピュータシステム、マイクロプロセッサ、論理デバイスの集まったもの、状態機械、あるいは他のアナログまたはデジタル回路とすることができる。プロセッサ34は、単一のプロセッサ、または協働して動作する複数のプロセッサを含むことができる。いくつかの実施形態では、プロセッサ34は、表示システム30に限って使用するための専用とされることがあるのに対し、他の実施形態では、プロセッサ34は、他のシステムと共用されることがある。さらに他の実施形態では、プロセッサ34は、表示システム30の他の構成要素のいずれかに組み込まれることがある、例えばいくつかの実施形態では、プロセッサ34は、表示画面32または付加入力ユニット36の構成要素とすることができる。
[0033]プロセッサ34は、表示画面32および付加入力ユニット36と動作可能に結合される。このような動作可能な結合は、有線接続および無線接続の両方を含む、任意の適切な伝送手段を使用することによって行うことができる。例えば、各構成要素は同軸ケーブルを介して、または電子信号を搬送するのに有効な他の任意のタイプの有線接続を介して、プロセッサ34と物理的に接続することができる。他の実施形態では、各構成要素は、バスまたは他の類似の通信路を越えてプロセッサ34と結合することができる。適切な無線接続の例には、それだけには限らないが、ブルートゥース登録商標で知られている無線通信プロトコル、Wi−Fi接続、赤外線接続などが含まれる。
[0034]一方のプロセッサ34と、他方の表示画面32および付加入力ユニット36との間の動作可能な結合により、プロセッサ34には各構成要素を行き来する信号、命令、指示、問い合わせの受取りおよび送出のための経路が形成される。表示画面32および付加入力ユニット36は両方とも、それぞれの構成要素によって検出された操作者入力に対応する入力信号をプロセッサ34へ送出するように構成される。例えば、表示画面32の表面でタッチが検出された場合、あるいは操作者がマウスをクリックし、またはジョイスティックを引き寄せた場合に、表示画面32および付加入力ユニット36は、検出された入力に対応する電子信号を生成し、その電子信号をプロセッサ34に送出するように構成される。プロセッサ34は、表示画面32および付加入力ユニット36で生成された電子信号を受け取るように構成され、また表示画面32に表示される三次元画像内の三次元セレクタ記号を制御するために、表示画面32および付加入力ユニット36と相互作用し協働するように構成される(すなわち、プロセッサ34は、適切なコンピュータコード、ソフトウェアおよび/またはアプリケーションをロードされるとともに、これらを実行することができる)。プロセッサ34が表示画面32および/または付加入力ユニット36によって供給される入力信号を受け取ると、プロセッサ34は、表示画面32に三次元セレクタ記号の表示を開始させること、および/または入力信号に対応するように三次元セレクタ記号を三次元画像中でくまなく移動させることを表示画面32に指示する命令を表示画面32に送る。三次元セレクタ記号の表示を初期化すること、三次元セレクタ記号の移動、および他の特徴については、以下でより詳細に論じる。
[0035]図2は、図1の表示システム30の表示画面32で描写された三次元画像38を示す図である。図示のように、三次元画像38は、航空機の下および/または周囲に位置する地形および他の特徴を描写したものである(航空機は示されていない)。三次元画像38の上には、それだけには限らないが、コンパス40、ピッチラダー42、およびフライトパスマーカ44などの従来のアイコンおよび記号表示が重ねられている。これらのアイコンおよび記号表示は、航空機の位置および方位角に関する情報を操作者に提供する。
[0036]三次元画像38にはまた、選択可能標的46も示されている。選択可能標的46を選択したい操作者はまず、三次元セレクタ記号の表示を開始する開始行動を取る。図示の実施形態では、開始行動は表示画面へのタッチである。呼びやすいように、これを本明細書では「開始タッチ」と呼ぶことにする。図2は、開始タッチを行う直前の操作者48を示す。操作者48は、表示画面32上で指50を用いて位置51で開始タッチを行う。いくつかの実施形態では、開始タッチを行う前に、操作者はまず、表示システム30を三次元セレクタ記号が生成される適切なモードに切り替える必要がある。例えば、操作者はまず、スイッチ52に触れて表示システム30を、三次元セレクタ記号を生成するようにイネーブルされるモードに設定する必要がある。本実施形態では、スイッチ52は、表示画面上のアイコンとして示されている。三次元セレクタ記号を駆動するのに他の任意のデバイスを使用することができ、これには、スイッチ、ボタン、レバー、または三次元セレクタ記号の生成をイネーブルするために操縦室内に配置された他の任意のタイプのアクチュエータが含まれることを理解されたい。他の実施形態では、三次元セレクタシステムは、任意の適切な条件または状況に基づいて自動的に始動することができる。さらに別の実施形態では、三次元セレクタ記号は常に表示しておくこともできる。
[0037]図3は、操作者48が表示画面32を使って三次元セレクタ記号54の表示を開始するときの図2の三次元画像を示す。図1〜3を続けて参照すると、指50が位置51でタッチしたときに、表示画面32は、指50と位置51とのタッチを検出し、信号をプロセッサ34に送出する。プロセッサ34は、その信号を受け取り、そのプログラミングの結果として、三次元セレクタ記号54を表示せよという命令を表示画面32に送る。三次元画像38と同様に、三次元セレクタ記号54もまた、リアルな奥行き感を伝える立体描写技法を用いて、本当の三次元のように描写される。三次元セレクタ記号54は、照明領域56およびビーム部58を含む。図示の実施形態では、三次元セレクタ記号54はスポットライトに似ている。他の実施形態では、三次元セレクタ記号54は、他の任意の適切な形および/または構成を取ることができる。照明領域56は、三次元画像38内に描かれた地形に接して見えるように描写される。ビーム部58は、照明領域56から後方へ表示画面32に向かって延びるとともに、表示画面32と接するように見えるベース部が指50の真下にある。他の実施形態では、三次元セレクタ記号54は、三次元画像38内の何かの対象(例えば、地形、地形上の選択可能な対象、飛行物体など)の上に載っているように見える遠部(照明領域56など)と、表示画面32の上に載っているように見える近部と、近部から遠部へと三次元画像の中に延びる本体とを有する。三次元セレクタ記号54は、それが立体的に描写されてリアルに見えるようになる点で、従来のセレクタ記号と異なる。
[0038]表示画面32へのタッチを開始することに応答して三次元セレクタ記号54の最初の向きを決定するのに、様々な手順をプロセッサ34で用いることができる。図3に示された例では、プロセッサ34は、三次元セレクタ記号54が位置51から最も近い選択可能標的まで、この場合には選択可能標的46まで延びるように三次元セレクタ記号54を指向させる構成になっている。こうして、三次元セレクタ記号54は、指50の先端から選択可能標的46まで延びるように見える。すぐに論じるように、三次元セレクタ記号54の最初の描写では、他の手順もまた、プロセッサ34によって用いられることがある。
[0039]図4〜6は、三次元セレクタ記号の表示を開始するための別の手順を示す。図4に示されるように、操作者48は、表示画面32に位置61で触れる。図1〜6を続けて参照すると、このタッチが行われたこと、およびその位置が表示画面32によって検出され、次に表示画面32は、このタッチについての、表示画面32の表面のタッチ位置が含まれる情報を伝える信号をプロセッサ34に送出する。プロセッサ34は、照明領域を表示するように表示画面32に命令する信号を表示画面32に送出することで応答する。
[0040]図5に示されるように、プロセッサ34から命令を受け取った後、表示画面32は照明領域56を、三次元画像38内の、表示画面32の表面の位置61に対応する位置に表示する。この時点で、表示システム30は、三次元セレクタ記号の残りを描写できるようになる前に、操作者48からのさらなる入力を待つ。
[0041]図6に示されるように、操作者48はこのような追加の入力を、表示画面32を横切って右に、わずかに下向きで指50をドラッグすることによって行う。表示画面32の表面を横切るこの指50の動きは、表示画面32によって検出され、プロセッサ34に伝達される。それに応じて、プロセッサ34は表示画面32に、照明領域56から、指50の先端の下、表示画面32の場所直下の表示画面32の部分まで延びるビーム部58を描写する指示を与える。この技法を用いると、操作者は、任意の所望の長さを有する三次元セレクタ記号54を「描く」ことができる。
[0042]図7〜9は、三次元セレクタ記号の表示を開始するためのさらに別の手順を示す。図7に示されるように、操作者48は、指50を用いて位置62で表示画面32に触れる。図1〜9を続けて参照すると、表示画面32は、このタッチを検出し、このタッチに対応する、表示画面32の表面のタッチ位置を含む信号をプロセッサ34に送出する。それに応じて、プロセッサ34は、位置62または指50の先端から三次元画像38の中に表示画面32の表面の位置62の場所と一致するようにして延びる、三次元セレクタ記号を投射する指示を表示画面32に送出する。図示の実施形態では、位置62が表示画面32の右半分のどこかに来る場合には、三次元セレクタ記号は、位置62または指50の先端から三次元画像38の左側に向かって延びることになる。これは図8に示されており、この場合三次元セレクタ記号54は、指50から上向きに左に延び、照明領域56は、三次元画像38の左側の範囲に来ている。
[0043]図9は、この開始手順の別の図を提示する。最初のタッチが表示画面32の左側で表示画面32の下半分に検出された場合、三次元セレクタ記号54Aは、上向きに三次元画像38の右側に向かって延びる。最初のタッチが表示画面32の右側で表示画面32の下半分に検出された場合、三次元セレクタ記号54Bは、上向きに三次元画像38の左側に向かって延びる。最初のタッチが表示画面32の左側で表示画面32の上半分に検出された場合、三次元セレクタ記号54Cは、下向きに三次元画像38の右側に向かって延びる。最初のタッチが表示画面32の右側で表示画面32の上半分に検出された場合、三次元セレクタ記号54Dは、下向きに三次元画像38の左側に向かって延びる。上記は開始手順を網羅的に列記したものではなく、他の開始手順も実現可能であることを理解されたい。いくつかの実施形態では、開始時に三次元セレクタ記号の向きを制御することに加えて、表示システム30はまた、操作者48が三次元セレクタ記号54の長さおよび/または他の特徴を指定および/または修正できるように構成することも可能である。
[0044]図10は、三次元セレクタ記号54の照明領域56と選択可能標的46の間の間隔を示す。三次元画像38が操作者の航空機の周辺地形の立体三次元図であるので、また三次元セレクタ記号54が三次元画像38の中への三次元投射図であるので、照明領域56と選択可能標的46の間の差は、方位角と仰角または傾斜角の成分に分解することができる。傾斜角デルタ64は、照明領域56と選択可能標的46の間の仰角の差を表す。方位デルタ66は、照明領域56と選択可能標的46の間の方位角の差を表す。したがって、照明領域56を選択可能標的46の上に位置付けるために、三次元セレクタ記号54の仰角が傾斜角デルタ64に等しい量だけ下げられ、三次元セレクタ記号54の方位角が方位角デルタ66に等しい量だけ反時計方向に(図10の視点から見て)回される。三次元セレクタ記号54の傾斜角および方位角は、表示画面32を用いた表示システム30への適切なジェスチャ入力の使用によって制御でき、またいくつかの実施形態では、付加入力ユニット36の使用によって制御することができる。
[0045]図11〜12は、三次元セレクタ記号54の方位角および傾斜角を制御する技法を示す。三次元セレクタ記号54は、表示画面32の表面で指50の先端を回す操作者48の動作によって、図10に示された位置から図11に示された位置まで旋回されている。指先に関して使用される「回す」という語は、指先が表示画面32の表面を横切って滑るのではなく、一箇所にとどまって旋回することを意味する。したがって、指50が表示画面32の表面で回転するときには、指50の一部分が、指50の他の部分は表示画面32の表面とタッチしながら、表示画面32の表面から離れることになる。図1〜11を続けて参照すると、タッチ画面32のタッチ検知能力は、指50の一部分と以前に触れられていない表示画面32の部分との間での、指50の他の部分と以前に触れられていた表示画面32の部分との間のタッチが中断したことと結び付いた接触の開始が、表示画面32で検出されるとともに、指50の回す動作としてプロセッサで解釈される信号に変換されるというものである。三次元セレクタ記号54の方位角および傾斜角の変化は、この回す動作に対応する。
[0046]一実施形態では、操作者48が指50の先端を大まかに水平方向に一方の側からもう一方に、指先を大きく上または下に動かさずに回した場合に、三次元セレクタ記号54の方位角が指50の新しい位置に対応するように変化するのに対して、三次元セレクタ記号54の傾斜角は同じままである。逆に、操作者48が指50の先端を垂直に上または下の方向に、指先を大きく横方向に動かさずに回した場合には、三次元セレクタ記号54の傾斜角が指50の新しい位置に対応するように変化しながら、三次元セレクタ記号54の方位角はほぼ一定のままである。指50を、横方向成分と上下成分の両方を有するように回した場合には、三次元セレクタ記号54の方位角と傾斜角の両方が、指50の新しい位置に対応するように変化することになる。このようにして表示システム30は、三次元セレクタ記号54を、それが三次元画像38の中に入る指50の延長部に見えるように描写する。三次元セレクタ記号54の動きを、表示画面32の表面の検出された指50の動きに対応させる他の手順もまた、実現可能である。
[0047]図12は、第2の選択可能標的68の選択を示す。この例では、第2の選択可能標的68は、三次元画像38の地形上に位置するのではなく、飛行中の標的である。図示のように操作者48は、下向きに指50を回しており、その結果、三次元セレクタ記号54の傾斜角の変化が生じることになる。図12に示された実施形態など、いくつかの実施形態では、表示システム30は、ビーム部58の長さが表示画面32の表面と三次元画像38の中に描かれた地形との間の間隔に応じて変化するように構成することができる。このような実施形態では、ビーム部58の長さは、暗い部屋の中で懐中電灯までの近さが異なる別々の対象に懐中電灯のビームが向けられたときに、懐中電灯のビームが長くなったり短くなったりして見えるのと同じように、描写された地形のどの部分の上に照明領域56が位置付けられるかに応じて短くなったり延びたりすることになる。他の実施形態では、ビーム部58は、三次元セレクタ記号が三次元画像38の全体にわたって旋回するときに、長さが一定のままである。
[0048]図13〜14は、三次元セレクタ記号の方位角および傾斜角を制御する別の技法を示す。図1〜14を続けて参照すると、プロセッサ34は、三次元セレクタ記号54が表示されるときにはいつも制御パネル70を表示するように表示画面32に指示する構成とすることができる。制御パネル70は、三次元画像38の全体にわたる三次元セレクタ記号54の旋回を制御するために使用できる制御アイコンを含むことができる。例えば、制御パネル70は、三次元セレクタ記号54の方位角を調整するための第1の方位角調整アイコン72、および第2の方位角調整アイコン74を含むことができ、また三次元セレクタ記号54の傾斜角を調整するための第1の傾斜角調整アイコン76、および第2の傾斜角調整アイコン78を含むことができる。三次元セレクタ記号54の方位角または傾斜角を変えるのに、操作者は、これらの調整アイコンの1つに触れるだけでよい。表示画面32は、そのタッチを検出し、そのタッチを示す信号をプロセッサ34に送出する。次に、プロセッサ34は表示画面32に、三次元セレクタ記号54の方位角および/または傾斜角を、操作者48が触れた調整アイコンに対応するようにして変えることを命令する。
[0049]制御パネル70はさらに、位置調整アイコン80を含むことができる。図示の実施形態では、位置調整アイコン80は、大まかに円形のアイコンである。いくつかの実施形態では、操作者48は、三次元画像38の周りのあちこちに三次元セレクタ記号54を動かすことが、その方位角またはその傾斜角を変えずに、操作者が三次元セレクタ記号54を動かしたいときに、三次元画像38内の方向に対応する位置調整アイコン80の周辺の点に触れることによって可能である。
[0050]図15〜16は、三次元セレクタ記号54の方位角および傾斜角を制御する別の技法を示す。図示のように、図15および図16は付加入力ユニット36を含む。図示の実施形態では、付加入力ユニット36は、上下の動き、横方向の動き、およびこれらの組み合わせを検出するように構成されたジョイスティックである。図1〜16を続けて参照すると、他の実施形態では付加入力ユニット36は、操作者から入力を受け取り、これらの入力をプロセッサ34に送出する電子信号に変換するように構成された任意の入力ユニット(例えばマウス、タッチパッドなど)を含むことができることを理解されたい。
[0051]操作者48は、上述の手順を含め、任意の適切な手順を用いて三次元セレクタ記号54の表示を開始することができる。三次元セレクタ記号54が三次元画像38内に表示されると、次に、図16に示されるように操作者48は、付加入力ユニット36を使用して三次元セレクタ記号54の方位角および傾斜角を変えることができる。
[0052]図17〜19は、三次元セレクタ記号54の方位角および傾斜角を制御するさらに別の技法を示す。図1〜19を続けて参照すると、プロセッサ34が表示画面32に三次元セレクタ記号54を表示する指示を送るとき、プロセッサ34はさらに、表示画面32に複数のタッチ箇所82も表示する指示を送る。図17に示された実施形態など、いくつかの実施形態では、タッチ箇所82は、三次元セレクタ記号54の基部84の周辺に配置することができる。基部84は、タッチ画面32と接するように見える三次元セレクタ記号54の部分である。三次元セレクタ記号54の方位角および/または傾斜角を変えるのに、操作者48は、1つまたは複数のタッチ箇所82に触れるだけでよい。これは、図18および図19に示されている。図18では、操作者48は、指50を動かして1つのタッチ箇所82に触れており、図19では、三次元セレクタ記号54が、照明領域56を選択可能標的46のすぐ上に位置付けるように旋回している。いくつかの実施形態では、それぞれのタッチ箇所82の基部84に対する位置は、三次元セレクタ記号54の方位角または傾斜角(または両方)が調整されるかどうかを決定する。例えば、操作者48が、基部84のすぐ上に位置するタッチ箇所に触れたとすれば、三次元セレクタ記号54の方位角は引き上げられる。操作者48が、基部84のすぐ右側に位置するタッチ箇所に触れたとすれば、三次元セレクタ記号54の方位角は時計回りに調整される(図18および図19の視点から見て)。
[0053]図20は、三次元セレクタ記号54をその方位角もその傾斜角も変えずに移動させる技法を示す。操作者48は、指50を基部84の上に置き、次に、表示画面32の表面を横切って指50を任意の位置までドラッグすることができる。この動作により、三次元セレクタ記号54は、三次元セレクタ記号54の方位角または傾斜角の変化を全く引き起こさずに、操作者48によって示された位置まで移動することになる。
[0054]図21は、三次元セレクタ記号54を使用して選択可能標的46を選択および追跡する技法を示す。図1〜21を続けて参照すると、上述の方法のいずれかを用いることにより操作者48は、三次元セレクタ記号54の表示を開始でき、また三次元セレクタ記号54を旋回させて照明領域56を選択可能標的46の上に位置付けることができる。いくつかの実施形態では、照明領域56が選択可能標的の上を通過したときに、プロセッサ34は、操作者48が選択可能標的46に対して様々な動作を開始できるようにする記号、アイコン、文字、および/または他の適切なグラフィックスを表示するように表示画面32に命令する構成とすることができる。例えば、プロセッサ34は、表示画面32に選択アイコン86および追跡アイコン88を表示させることができる。選択可能標的46を選択するには、操作者48は選択アイコン86に触れればよい。追跡アイコン88を選択するには、操作者48は追跡アイコン88に触れればよい。どちらのイベントでも、そのタッチは表示画面32で検出され、次に表示画面32は、タッチを示す信号をプロセッサ34に送る。次に、プロセッサ34は、操作者48によって行われた選択に対応する追加の文字、グラフィックス、またはこれらの任意の組合せを表示せよという命令を表示画面32に送る。
[0055]図21に示された例では、操作者48は追跡アイコン88を選択している。いくつかの実施形態では、追跡アイコン88を選択することにより、三次元セレクタ記号54を選択可能標的46の上にロックしたままにすることができる。したがって、航空機が飛行し続け、三次元画像38が変化し続けるときに、そのように地形と航空機の間の相対的移動が表示され、三次元セレクタ記号54は、照明領域56の位置を選択可能標的46の上に維持する。操作者48による追跡アイコン88の選択は、それだけには限らないが、追跡アイコン88に触れる、またはそれを軽くたたくなどの任意の適切な従来のやり方で実施することができる。追跡アイコン88の選択を本明細書ではロッキング動作と呼ぶ。他の実施形態では、ロッキング動作は、操作者48による、三次元セレクタ記号54を選択可能標的46の上にロックさせるための他の任意の動作または表示を含みうる。
[0056]図22は、三次元画像38内に複数の三次元セレクタ記号を描写することを示す。図22に示されるように、三次元セレクタ記号54に加えて、三次元セレクタ記号90もまた表示される。図1〜22を続けて参照すると、いくつかの実施形態では、表示システム30は、任意の望ましい数の三次元セレクタ記号を生成するように構成することができる。図22に示されるように、三次元セレクタ記号54は選択可能標的46の上にロックされ、操作者48は、三次元セレクタ記号90の照明領域92を第2の選択可能標的94の上に位置付けている。このようにして、操作者48は、任意の望ましい数の選択可能標的を追跡することができる。
[0057]図1〜22を続けて参照すると、いくつかの実施形態では、プロセッサは、表示画面が三次元セレクタ記号をいくつかの位置で描写しないように構成することができる。三次元表示記号が、選択可能な画像または記号表示がない表示画面上の領域の方を指し示さないようにすることが望ましいことがありうる。例えば、航空機の近くの空中で検出される飛行中の物体がない場合、三次元セレクタ記号を、それが地面から離れることができないように制限することが望ましいことがある。別の例では、航空機の下または近くに地面と水面の両方がある場合、三次元セレクタ記号を、それが地上とだけ接して水面の上を通過しないように制限することが望ましいことがありうる。他の制限もまた望ましいことがある。
[0058]上述の議論の内容では、航空機に表示システム30を使用することになっているが、表示システム30は、航空機で使用することに限定されないことを理解されたい。表示システム30には、航空機産業において広い範囲の用途があり、それだけには限らないが、管制塔管制官、航空管制官、および航空業務に関連する他の要員によって使用される表示システムを含む、航空産業の他の局面で使用することができる。さらに、表示システム30は、航空機産業だけに限定されるのではなく、表示システムを使用する他のどんな産業でも使用することができることを理解されたい。さらに、上記および本開示の全体にわたって説明されている三次元セレクタ記号は、三次元(立体)画像と共に使用することに限定されない。それどころか、上記の三次元セレクタ記号はまた、従来の表示技術を用いながら三次元画像をシミュレーションして見た目の眺望を生成する従来の二次元表示システムにおいて実施できることを理解されたい。例えば、本明細書で説明されている三次元セレクタ記号は、よく知られている透視技法を使用することによって疑似三次元で航空機の周辺および前方の地形を描写する、従来のSynthetic Vision Systemsと共に使用することができる。
[0059]少なくとも1つの例示的実施形態が本発明の上記の詳細な説明で提示されたが、非常に多くの変形形態が存在することを理解されたい。1つまたは複数の例示的実施形態は例にすぎず、いかようにも本発明の範囲、応用性、または構成を限定するものでは決してないことも理解されたい。むしろ、上記の詳細な説明は、本発明の例示的な実施形態を実施するための便利なロードマップを当業者に提供するものである。例示的な実施形態に示された機能、および諸要素の構成には、添付の特許請求の範囲に示された本発明の範囲から逸脱することなく、様々な変更を加えることができることを理解されたい。
30 表示システム
32 表示画面
36 付加入力ユニット
38 三次元画像
40 コンパス
42 ピッチラダー
44 フライトパスマーカ
46 選択可能標的
48 操作者
50 指
51 位置
52 スイッチ
54 三次元セレクタ記号
56 照明領域
58 ビーム部
70 制御パネル
72 第1の方位角調整アイコン
74 第2の方位角調整アイコン
76 第1の傾斜角調整アイコン
78 第2の傾斜角調整アイコン
80 位置調整アイコン
82 複数のタッチ箇所
84 基部
86 選択アイコン
88 追跡アイコン
90 三次元セレクタ記号
92 照明領域
94 第2の選択可能標的

Claims (3)

  1. 表示画面(32)と共に使用するように構成された、画像内のセレクタ記号(54)を制御する表示システム(30)であって、前記表示画面(32)が、前記表示画面(32)の表面への操作者のタッチを検出するように構成され、さらに三次元画像(38)を表示するように構成され、前記表示システム(30)が、
    前記表示画面(32)に動作可能に結合されるように構成されたプロセッサ(34)を備え、前記プロセッサ(34)が、前記三次元画像(38)内に三次元セレクタ記号(54)を表示することを前記表示画面(32)に命令するように、かつ前記三次元画像(38)内の前記セレクタ記号(54)を前記操作者の前記タッチに対応するように移動させることを前記表示画面(32)に命令するように構成される、表示システム。
  2. 画像内のセレクタ記号(54)を制御する表示システム(30)であって、
    表示画面(32)の表面への操作者のタッチを検出するように構成され、さらに三次元画像(38)を表示するように構成された前記表示画面(32)と、
    前記表示画面(32)に動作可能に結合されたプロセッサ(34)とを備え、前記プロセッサ(34)が、
    前記三次元画像(38)内に三次元セレクタ記号(54)を表示することを前記表示画面(32)に命令するように構成され、前記三次元セレクタ記号(54)が、前記操作者が前記表示画面(32)の前記表面に最初に触れた第1の位置(51)に近接する前記表示画面(32)上に表示された第1の端部と、前記第1の端部から離れて間隔が置かれた第2の位置(62)で前記表示画面(32)上に表示された第2の端部とを有し、前記プロセッサ(34)がさらに、
    前記第1の端部に対する前記第2の端部の向きが前記第1の位置(51)に対応するように前記三次元セレクタ記号(54)を表示することを前記表示画面(32)に命令するように構成され、かつ
    前記三次元画像(38)内の前記セレクタ記号(54)の方位角および傾斜角を、前記操作者の前記タッチに対応するように調整することを前記表示画面(32)に命令するように構成される、表示システム。
  3. 画像内のセレクタ記号(54)を制御する表示システム(30)であって、
    表示画面(32)の表面への操作者のタッチを検出するように構成され、さらに三次元画像(38)を表示するように構成された前記表示画面(32)と、
    前記操作者の入力を受け取るように構成された入力ユニット(36)と、
    前記表示画面(32)および前記入力ユニット(36)に動作可能に結合されたプロセッサ(34)とを備え、前記プロセッサ(34)が、
    前記三次元画像(38)内に三次元セレクタ記号(54)を表示することを前記表示画面(32)に命令するように構成され、かつ
    前記三次元画像(38)内の前記セレクタ記号(54)を、前記操作者の前記タッチおよび前記操作者の前記入力に対応するように移動させることを前記表示画面(32)に命令するように構成される、表示システム。
JP2011236242A 2010-10-28 2011-10-27 画像内のセレクタ記号を制御する表示システム Expired - Fee Related JP6073546B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/914,785 2010-10-28
US12/914,785 US9001053B2 (en) 2010-10-28 2010-10-28 Display system for controlling a selector symbol within an image

Publications (2)

Publication Number Publication Date
JP2012104107A true JP2012104107A (ja) 2012-05-31
JP6073546B2 JP6073546B2 (ja) 2017-02-01

Family

ID=44925344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011236242A Expired - Fee Related JP6073546B2 (ja) 2010-10-28 2011-10-27 画像内のセレクタ記号を制御する表示システム

Country Status (5)

Country Link
US (1) US9001053B2 (ja)
EP (1) EP2447822A3 (ja)
JP (1) JP6073546B2 (ja)
KR (1) KR101894907B1 (ja)
CN (1) CN102609177B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021763A (ja) * 2015-07-07 2017-01-26 ワイドバンテージ インコーポレイティド 端末及び端末の動作方法
WO2018042923A1 (ja) * 2016-08-31 2018-03-08 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
JPWO2020105606A1 (ja) * 2018-11-21 2021-09-30 ソニーグループ株式会社 表示制御装置、表示装置、表示制御方法及びプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011112620B3 (de) * 2011-09-08 2013-02-21 Eads Deutschland Gmbh Abgewinkeltes Display zur dreidimensionalen Darstellung eines Szenarios
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario
FR2983176B1 (fr) 2011-11-29 2013-12-27 Airbus Operations Sas Dispositif de dialogue interactif entre un operateur d'un aeronef et un systeme de guidage dudit aeronef.
FR2993975B1 (fr) * 2012-07-27 2016-02-05 Thales Sa Procede d'affichage de la situation geographique d'un aeronef
US20140047393A1 (en) * 2012-08-07 2014-02-13 Samsung Electronics Co., Ltd. Method and portable apparatus with a gui
FR3001066B1 (fr) 2013-01-11 2015-02-27 Airbus Operations Sas Systeme d'assistance au guidage d'actions a realiser par un operateur sur un aeronef.
US9280904B2 (en) * 2013-03-15 2016-03-08 Airbus Operations (S.A.S.) Methods, systems and computer readable media for arming aircraft runway approach guidance modes
WO2014155747A1 (ja) * 2013-03-29 2014-10-02 楽天株式会社 端末装置、端末装置の制御方法、プログラム、及び情報記憶媒体
US9567099B2 (en) * 2013-04-11 2017-02-14 Airbus Operations (S.A.S.) Aircraft flight management devices, systems, computer readable media and related methods
AT514811B1 (de) 2013-10-30 2015-04-15 Ge Jenbacher Gmbh & Co Og Verfahren zum Betreiben einer mit einem elektrischen Generator, insbesondere Synchrongenerator, verbundenen Brennkraftmaschine
BR112017002615A2 (pt) * 2014-09-03 2017-12-05 Quaero Ltd um dispositivo de interface homem-máquina para aeronaves
US9799225B2 (en) * 2015-05-08 2017-10-24 The Boeing Company Method and apparatus for building a taxiing route
US10155596B2 (en) * 2016-06-06 2018-12-18 The Boeing Company Three-dimensional aircraft inspection system for layout of passenger accommodations
JP2018077438A (ja) * 2016-11-11 2018-05-17 株式会社ジャパンディスプレイ 表示装置
US10690555B2 (en) 2017-10-17 2020-06-23 Sikorsky Aircraft Corporation Composite airspeed indicator display for compound aircrafts
USD881206S1 (en) * 2018-02-08 2020-04-14 Sikorsky Aircraft Corporation Flight display screen or portion thereof with graphical user interface including a composite indicator
USD888069S1 (en) * 2018-02-08 2020-06-23 Sikorsky Aircraft Corporation Flight display screen or portion thereof with graphical user interface including a composite indicator

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573661A (ja) * 1991-03-12 1993-03-26 Matsushita Electric Ind Co Ltd 3次元情報会話システム
JPH07225647A (ja) * 1994-02-09 1995-08-22 Mitsubishi Electric Corp 入力装置
US5880733A (en) * 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
JP2010055627A (ja) * 2004-10-12 2010-03-11 Nippon Telegr & Teleph Corp <Ntt> 3次元ポインティング方法、3次元表示制御方法、3次元ポインティング装置、3次元表示制御装置、3次元ポインティングプログラム、及び3次元表示制御プログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4521870A (en) 1981-04-09 1985-06-04 Ampex Corporation Audio/video system having touch responsive function display screen
US4821031A (en) 1988-01-20 1989-04-11 International Computers Limited Image display apparatus
US5038142A (en) 1989-03-14 1991-08-06 International Business Machines Corporation Touch sensing display screen apparatus
US5146212A (en) * 1990-01-04 1992-09-08 Apple Computer, Inc. Manipulatable orientation for a translatable graphic object
JPH0981320A (ja) 1995-09-20 1997-03-28 Matsushita Electric Ind Co Ltd ペン入力式選択入力装置及びその方法
US7472047B2 (en) 1997-05-12 2008-12-30 Immersion Corporation System and method for constraining a graphical hand from penetrating simulated graphical objects
US6259491B1 (en) 1998-02-06 2001-07-10 Motorola, Inc. Double sided laminated liquid crystal display touchscreen and method of making same for use in a wireless communication device
US6297811B1 (en) 1999-06-02 2001-10-02 Elo Touchsystems, Inc. Projective capacitive touchscreen
US6567070B1 (en) * 1999-08-10 2003-05-20 Intel Corporation Selection of objects in a graphical user interface
US6492979B1 (en) 1999-09-07 2002-12-10 Elo Touchsystems, Inc. Dual sensor touchscreen utilizing projective-capacitive and force touch sensors
US6917668B2 (en) * 2000-11-13 2005-07-12 Digitome Corporation Ray tracing kernel calibration
CA2453043A1 (en) 2001-07-06 2003-01-16 Goodrich Avionics Systems, Inc. System and method for producing flight pathway
US20040027394A1 (en) 2002-08-12 2004-02-12 Ford Global Technologies, Inc. Virtual reality method and apparatus with improved navigation
US8434027B2 (en) 2003-12-15 2013-04-30 Quantum Matrix Holdings, Llc System and method for multi-dimensional organization, management, and manipulation of remote data
US7340678B2 (en) 2004-02-12 2008-03-04 Fuji Xerox Co., Ltd. Systems and methods for creating an interactive 3D visualization of indexed media
US20050275915A1 (en) 2004-06-01 2005-12-15 Vesely Michael A Multi-plane horizontal perspective display
US8274534B2 (en) 2005-01-31 2012-09-25 Roland Wescott Montague Methods for combination tools that zoom, pan, rotate, draw, or manipulate during a drag
JP4331134B2 (ja) 2005-03-25 2009-09-16 株式会社東芝 立体画像表示装置
US7707516B2 (en) 2006-05-26 2010-04-27 Google Inc. Embedded navigation interface
WO2009000280A1 (en) * 2007-06-28 2008-12-31 Cherif Atia Algreatly 3d input method and system for the hand-held devices
US20080062173A1 (en) 2006-09-13 2008-03-13 Eric Tashiro Method and apparatus for selecting absolute location on three-dimensional image on navigation display
JP5105920B2 (ja) 2007-03-20 2012-12-26 株式会社東芝 立体画像表示装置
CN100576161C (zh) * 2008-06-06 2009-12-30 中国科学院软件研究所 一种基于笔倾角信息的饼形菜单选择方法
US9310992B2 (en) * 2008-08-22 2016-04-12 Google Inc. Panning in a three dimensional environment on a mobile device
JP5472565B2 (ja) * 2008-09-03 2014-04-16 日本電気株式会社 情報処理装置、ポインタ指定方法、及びプログラム
US8519997B2 (en) * 2008-09-23 2013-08-27 Honeywell International Inc. Apparatus and method for display and functionality of a vehicle display system cursor control device
TWI328714B (en) 2008-10-09 2010-08-11 Au Optronics Corp Switchable two and three dimensional display
JP4793422B2 (ja) * 2008-10-10 2011-10-12 ソニー株式会社 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム
KR20100050103A (ko) * 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
WO2010108499A2 (en) * 2009-03-22 2010-09-30 Algreatly Cherif Atia 3d navigation method and system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573661A (ja) * 1991-03-12 1993-03-26 Matsushita Electric Ind Co Ltd 3次元情報会話システム
JPH07225647A (ja) * 1994-02-09 1995-08-22 Mitsubishi Electric Corp 入力装置
US5880733A (en) * 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
JP2010055627A (ja) * 2004-10-12 2010-03-11 Nippon Telegr & Teleph Corp <Ntt> 3次元ポインティング方法、3次元表示制御方法、3次元ポインティング装置、3次元表示制御装置、3次元ポインティングプログラム、及び3次元表示制御プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021763A (ja) * 2015-07-07 2017-01-26 ワイドバンテージ インコーポレイティド 端末及び端末の動作方法
WO2018042923A1 (ja) * 2016-08-31 2018-03-08 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
US11275498B2 (en) 2016-08-31 2022-03-15 Sony Corporation Information processing system, information processing method, and program
JPWO2020105606A1 (ja) * 2018-11-21 2021-09-30 ソニーグループ株式会社 表示制御装置、表示装置、表示制御方法及びプログラム
US11481025B2 (en) 2018-11-21 2022-10-25 Sony Group Corporation Display control apparatus, display apparatus, and display control method

Also Published As

Publication number Publication date
US9001053B2 (en) 2015-04-07
CN102609177A (zh) 2012-07-25
CN102609177B (zh) 2017-03-15
EP2447822A3 (en) 2017-03-29
KR101894907B1 (ko) 2018-09-04
US20120105318A1 (en) 2012-05-03
KR20120047817A (ko) 2012-05-14
JP6073546B2 (ja) 2017-02-01
EP2447822A2 (en) 2012-05-02

Similar Documents

Publication Publication Date Title
JP6073546B2 (ja) 画像内のセレクタ記号を制御する表示システム
JP6955557B2 (ja) ゲーム画面の表示制御方法、装置、記憶媒体及び電子機器
EP2954397B1 (en) Methods for system engagement via 3d object detection
JP2558984B2 (ja) 3次元情報会話システム
CA2679371C (en) Augmented reality-based system and method providing status and control of unmanned vehicles
US11086403B2 (en) Systems and methods for multi-user shared virtual and augmented reality-based haptics
EP3147630B1 (en) 3d helicopter view at destination
JP5860835B2 (ja) タッチパネルを用いて車両画像表示の制御を行う方法およびその車両画像システム
CN108536374A (zh) 虚拟对象方向控制方法及装置、电子设备、存储介质
JP2011173237A (ja) 移動ロボットを遠隔操作するための方法およびシステム
WO2018214029A1 (zh) 用于操纵可移动装置的方法和设备
EP2214092B1 (en) Display of a three-dimensional virtual space generated by an electronic simulation system
KR101708455B1 (ko) 핸드 플로트 입체 메뉴 시스템
EP3288828B1 (en) Unmanned aerial vehicle system and method for controlling an unmanned aerial vehicle
US10963048B2 (en) Method and a system for visual human-machine interaction
KR101513343B1 (ko) 3차원 가상 환경에서 객체의 움직임을 제어하기 위한 방법
EP3315916A1 (en) Navigation device for selection of basic auto flight modes, navigation system and aircraft provided therewith
US20180275854A1 (en) Information processing apparatus, information processing method, and program
US20210397202A1 (en) Touch control of unmanned aerial vehicles
JP2016167217A (ja) ヘッドマウントディスプレイへ表示するためのユーザインタフェース表示方法、及びプログラム
CN113181625A (zh) 用于触控终端的触摸控制方法及装置
WO2024042407A2 (en) Systems and methods for real time data analysis and controlling devices remotely

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161014

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170105

R150 Certificate of patent or registration of utility model

Ref document number: 6073546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees