JP6730985B2 - 投影される対話型仮想デスクトップ - Google Patents

投影される対話型仮想デスクトップ Download PDF

Info

Publication number
JP6730985B2
JP6730985B2 JP2017521131A JP2017521131A JP6730985B2 JP 6730985 B2 JP6730985 B2 JP 6730985B2 JP 2017521131 A JP2017521131 A JP 2017521131A JP 2017521131 A JP2017521131 A JP 2017521131A JP 6730985 B2 JP6730985 B2 JP 6730985B2
Authority
JP
Japan
Prior art keywords
projected
projection
image
elements
virtual desktop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017521131A
Other languages
English (en)
Other versions
JP2018502313A (ja
Inventor
ブルーナ、ジョナサン、フレデリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2018502313A publication Critical patent/JP2018502313A/ja
Application granted granted Critical
Publication of JP6730985B2 publication Critical patent/JP6730985B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/28Beam projector and related sensors, camera, inclinometer or other active sensing or projecting device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1645Details related to the display arrangement, including those related to the mounting of the display in the housing the display being suitable to be used in combination with an external overhead projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/307Simulation of view from aircraft by helmet-mounted projector or display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、一般に、コンピュータの分野に関し、より具体的には、プロジェクタに関する。
プロジェクタ又は画像プロジェクタは、画像(又は、動画)を、投影画面などの表面(surface)に投影する光学デバイスである。現在、プロジェクタは、手持ち式プロジェクタ(ポケット・プロジェクタ、モバイル・プロジェクタ、ピコ・プロジェクタ、又はミニ・ビーマーとしても知られる)として利用可能である。手持ち式プロジェクタは、スマートフォンに埋め込むことさえ可能である。手持ち式プロジェクタは、携帯電話、携帯情報端末及びデジタルカメラなどの手持ち式デバイスにおける画像プロジェクタの使用に適用される技術である。
無境界の投影される対話型仮想デスクトップを生成するための方法、コンピュータ・システム及びコンピュータ・プログラムを提供する。
一実施形態によると、無境界の投影される対話型仮想デスクトップ(boundlessprojected interactive virtual desktop)を生成するための方法であって、無境界の投影される対話型仮想デスクトップは、デバイスの少なくとも1つのデスクトップと関連付けられた領域の投影部分の調整可能な画像を含む、方法が提供される。方法は、デバイスに組み込まれたモーション・センサから、デバイスと関連する位置、位置の変化、又は向きの変化のうちの少なくとも1つをキャプチャすることを含むことができる。方法は、デバイスのキャプチャされた位置の変化、又はキャプチャされた向きの変化に基づいて、撮影面に対する投影画像を計算することを含むことができる。方法はまた、デバイスに組み込まれたプロジェクタのキャプチャされた位置及び向きに基づいて、デバイス内で実行されている少なくとも1つのアプリケーションにわたって、計算された投影画像を調整することをさらに含むことができ、投影画像は投影面と関連付けられる。方法は、調整される投影画像と関連する領域部分のビューを投影することをさらに含むことができ、投影されるビューは、アプリケーション画像を含む複数の要素を含む対話型仮想デスクトップから成る。方法は、基準に基づいて、投影されるビューを調整することをさらに含むことができる。
別の実施形態によると、無境界の投影される対話型仮想デスクトップを生成するためのコンピュータ・システムであって、無境界の投影される対話型仮想デスクトップは、デバイスの少なくとも1つのデスクトップと関連付けられた領域の投影部分の調整可能な画像を含む、コンピュータ・システムが提供される。コンピュータ・システムは、複数のプロセッサ及びプログラム命令を記憶するストレージを備え、プロセッサがプログラム命令を実行することによりコンピュータ・システムは方法を実施することができる。方法は、デバイスに組み込まれたモーション・センサから、デバイスと関連する位置、位置の変化、又は向きの変化のうちの少なくとも1つをキャプチャすることを含むことができる。方法は、デバイスのキャプチャされた位置の変化の変化、又はキャプチャされた向きの変化に基づいて、投影面に対する投影画像を計算することを含むことができる。方法は、デバイスに組み込まれたプロジェクタのキャプチャされた位置及び向きに基づいて、デバイス内で実行されている少なくとも1つのアプリケーションにわたって、計算された投影画像を調整することをさらに含むことができ、投影画像は投影面と関連付けられる。方法はまた、調整される投影画像と関連する領域部分のビューを投影することを含むこともでき、投影されるビューは、アプリケーション画像を含む複数の要素を含む対話型仮想デスクトップから成る。方法はさらに、基準に基づいて、投影されるビューを調整することを含むことができる。
さらに別の実施形態によると、無境界の投影される対話型仮想デスクトップを生成するためのコンピュータ・プログラムであって、無境界の投影される対話型仮想デスクトップは、コンピューティング・デバイスの少なくとも1つのデスクトップと関連付けられた領域の投影部分の調整可能な画像を含む、コンピュータ・プログラムが提供される。コンピュータ・プログラムは、ストレージ・デバイスに格納され、プロセッサにより実行可能なプログラム命令を含む。
コンピュータ・プログラムはまた、デバイスに組み込まれたモーション・センサから、デバイスと関連する位置の変化、又は向きの変化のうちの少なくとも1つをキャプチャするためのプログラム命令を含むことができる。コンピュータ・プログラムは、デバイスのキャプチャされた位置の変化、又はキャプチャされた向きの変化に基づいて、投影面に対する投影画像を計算するためのプログラム命令を含むことができる。コンピュータ・プログラムは、デバイスに組み込まれたプロジェクタのキャプチャされた位置及び向きに基づいて、デバイス内で実行されている少なくとも1つのアプリケーションにわたって、計算された投影画像を調整するためのプログラム命令をさらに含むことができ、投影画像は投影面と関連付けられる。コンピュータ・プログラムはまた、調整される投影画像と関連する領域部分のビューを投影するためのプログラム命令を含むこともでき、投影されるビューは、アプリケーション画像を含む複数の要素を含む対話型仮想デスクトップから成る。コンピュータ・プログラムは、基準に基づいて、投影されるビューを調整するためのプログラム命令をさらに含むことができる。
ここで、添付図面を参照して、本発明の実施形態が説明される。
一実施形態によるネットワーク化コンピュータ環境を示す。 少なくとも1つの実施形態による、無境界の対話型仮想デスクトップを投影するためのプログラムにより実行されるステップを示す動作フローチャートである。 少なくとも1つの実施形態による、投影されるデスクトップ画像の例示的な図である。 少なくとも1つの実施形態による、投影されるデスクトップ画像を調整するデバイスの移動の例示的な図である。 少なくとも1つの実施形態による、投影されるデスクトップ画像の異なるサブセクションと対話する複数のデバイスの調整の例示的な図である。 少なくとも1つの実施形態による、図1に示されるコンピュータ及びサーバの内部及び外部コンポーネントのブロック図である。
特許請求される構造及び方法の詳細な実施形態が、本明細書で開示されるが、開示される実施形態は、様々な形態で具体化することができる特許請求される構造及び方法を単に例示するに過ぎないことが理解されるであろう。本発明は、多くの異なる形態で具体化することができ、本明細書で説明される例示的な実施形態に限定されると解釈すべきではない。むしろ、これらの例示的な実施形態は、本開示が綿密かつ完全であり、本発明の範囲を当業者に十分に伝えるように提供されている。説明においては、よく知られている特徴及び技術の詳細は、提示される実施形態を不必要に曖昧にしないように省略されることがある。
本発明の実施形態は、一般に、コンピュータの分野に関し、より詳細には、プロジェクタに関する。以下の説明される例示的な実施形態は、とりわけ、無境界の投影される対話型仮想デスクトップを提供するためのシステム、方法及びプログラム製品を提供する。さらに、本実施形態は、デスクトップの境界のない表面(unbounded surface)のデスクトップ画像をある表面に投影することを可能にすることによって、画像処理の技術分野を改善するための機能を有する。さらに、本実施形態は、リソースを節約する可能性を有する。従って、照明全体の調整及びレンズ調整の組み合わせにより、バッテリ電源が節約され、投影サイズを犠牲にして輝度が保持される。
既述のように、プロジェクタは、今や手持ち式プロジェクタ又はピコ・プロジェクタとして利用可能であり、スマートフォンに埋め込むことさえ可能であるが、スマートフォンは、提示材料を処理するための十分なストレージ容量はあるものの、取り付けられる表示画面を収容するための空間がほとんどない。手持ち式プロジェクタは、デジタル画像をいずれかの近くの表示面に投影できる小型化されたハードウェア及びソフトウェアを含む。しかしながら、そうした手持ち式プロジェクタは、幅広いユーザ・インターフェースを使用することができず、投影面への画面のミラーリングを提供できるに過ぎない。さらに、現在の手持ち式プロジェクタは、エネルギー使用量が大きく、従って、バッテリの頻繁な充電を必要とすることがある。
さらにプロジェクタ又は標準的画面の使用に関して頻繁に遭遇する問題がある。こうしたデバイスのユーザは、マルチタスク、コピー又はペースト機能、又は他の対話に苦労することがあり、これらは複数のアプリケーションにわたってコーディネイト(Coordinate;調整などと呼ばれる)されることを必要とし得る。例えば、多数の文書のファイリングなどの複雑な組織化は困難であり、ユーザが、多くのダイアログの間でナビゲートし、小さい画面上のリストを選択することが必要になることがある。従って、とりわけ、デバイスのプロジェクタの位置及び向きに従って、パンし、拡大縮小し、回転させることができる画像投影方法を実施することは有利であり得る。
少なくとも1つの実装によると、本実施形態は、モーション・センサを含むプロジェクタ・デバイスと、デバイス内のモーション・センサを用いて、デバイスのプロジェクタの位置及び向きに従って、無境界の対話型仮想デスクトップ(すなわち、境界のない対話型仮想デスクトップ)として、投影画像をパンし、拡大縮小し、回転させることができるソフトウェアとを含むことができる。従って、境界のない対話型仮想デスクトップは作業空間(workspace)であり、その少なくとも部分はデバイスのメモリ内にのみ存在するが、プロジェクタを通じて、境界のある領域(bounded area)又は境界のある領域の一部を視覚化することができ、そこで、要素を任意の方向に無限に移動させることができる。より具体的には、境界のない仮想デスクトップは、それ自体の少なくとも部分がメモリ内にだけに存在する、すなわちその少なくとも一部がメモリ内に存在する容量を有するデスクトップであり、有形媒体上に又は有形媒体を介して表示又は投影されることも又はされないこともある。例えば、本実施形態の少なくとも1つの実装によると、各要素の位置は、デスクトップの中心位置に対して格納され、デスクトップの部分の表示が、壁又はデスクトップのような表面上に、境界のある画像又は境界のない領域の部分として投影され、描写される。さらに、デスクトップの投影部分は、プロジェクタ・デバイスと関連する移動の検出に基づいて変化し得る。従って、プロジェクタ・デバイスと関連するデスクトップの検出される移動の変化は、プロジェクタ・デバイスと関連するデスクトップのこれまで示されていない部分を示すことによって、対話型デスクトップの投影部分の表面に対応する。例えば、投影デバイスを右に移動させることにより、デスクトップと関連するこれまで投影されている画像又は示されていない画像を示すことができる。一実施形態において、右への移動は、コンピュータ画面又はモバイル機器の画面のデスクトップにリンクされた「スワイプ(swipe)」機能に似たものであり得る。さらに、本明細書の種々の実施形態によると、デスクトップの投影部分は、プロジェクタ・デバイスと関連するデスクトップの投影部分とすることができ、又は、プロジェクタ・デバイスに接続されたコンピューティング・デバイスと関連するデスクトップの投影部分とすることができる。
付加的に、2つ又はそれより多いプロジェクタ・デバイスを互いに併用して、対話型仮想デスクトップの連続する大きな投影部分を描写することができる。例えば、プロジェクタ・デバイスの組み合わせられたデスクトップの描画及び投影部分は、各プロジェクタ・デバイスが単独で動作しているときよりも、デスクトップの各々のより大きい領域を描写することが可能である。
さらに、ユーザは、ジェスチャ、オン・スクリーン・ディスプレイ(on screen display)、デバイス上のボタンを用いて、仮想デスクトップと対話することもできる。例えば、ユーザがモーション・センサを含むプロジェクタ・デバイスを移動させる場合、投影される無境界デスクトップの部分を調整することができる。例えば、右への移動により、投影されるデスクトップの異なる部分を描写することができ、又はこうした移動は、投影されるデスクトップの新しい部分の描写に加えて、移動前のデスクトップの描写部分を含むことができる。さらに、デスクトップは、文書、画像、フォルダ、ビデオ、ウェブ・ブラウザ・タブ、アプリケーション・ウィンドウ又はアプリケーションのような多数の「要素」を表示することが可能である。
少なくとも1つの実装によると、デスクトップ全体を、画面又は壁のような大きないずれかの表示面に表示することができる。さらに、デバイスを投影面から離れるように保持することにより、プロジェクタが照明する領域を増大させることができるが、投影強度が、場合によっては見えない程度まで低下することがある。従って、少なくとも1つの実装によると、無境界の仮想表面は、デバイスに埋め込むことができる小型の比較的低出力のプロジェクタのみを用いて生成することができ、有効強度を犠牲にすることなく、利用可能なバッテリ寿命に基づいて、投影強度を調整することができる。例えば、ユーザは、デバイスを表面にさらに近づけることができ、その際、照明面積は小さくなるが、こうした状況において、より少ない電力消費で同じ程度の明るさが可能になる。さらに、少なくとも1つの実装によると、複数のユーザが同時に要素と対話することが可能になる。また、投影領域の相対的サイズはデバイスの高さによって異なり得るが、要素の位置は、デバイスではなく、投影面に対して保持することができる。
本明細書の種々の実施形態は、投影される画像忠実度を維持するだけでなく、投影面に対する投影される要素の位置を保持することができる。さらに、低出力プロジェクタを利用して、投影画像のリアルタイム調整、モーション・センサに基づく投影画像のリアルタイム調整、投影される仮想デスクトップの異なるサブセクションと対話する複数のデバイスの調整、及び照明全体の調整及びレンズ調整の組み合わせによるバッテリ電力の節約を提供しながら、より大きい拡張現実(augmented reality)のサブセクションを照明することができ、投影サイズを犠牲にして輝度が保持される。さらに、投影デバイス自体によりなされるジェスチャにより、選択、ドラッグ及びドロップ、並びに他の操作を可能にしながら、投影面上の相対的位置を保持することが可能になる。
本発明は、システム、方法、及び/又はコンピュータ・プログラム製品とすることができる。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実施させるためのコンピュータ可読プログラム命令をその上に有するコンピュータ可読ストレージ媒体(単数又は複数)を含むことができる。
コンピュータ可読ストレージ媒体は、命令実行デバイスにより使用される命令を保持及び格納することができる有形デバイスとすることができる。コンピュータ可読ストレージ媒体は、例えば、これらに限定されるものではないが、電子ストレージ・デバイス、磁気ストレージ・デバイス、光学ストレージ・デバイス、電磁ストレージ・デバイス、半導体ストレージ・デバイス、又は上記のいずれかの適切な組み合わせとすることができる。コンピュータ可読ストレージ媒体のより具体的な例の非網羅的なリストとして、以下のもの:即ち、ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラム可能読み出し専用メモリ(EPROM又はフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読み出し専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリ・スティック、フロッピー・ディスク、パンチカード又は命令が記録された溝内の隆起構造のような機械的にエンコードされたデバイス、及び上記のいずれかの適切な組み合わせが挙げられる。本明細書で使用される場合、コンピュータ可読ストレージ媒体は、電波、又は他の自由に伝搬する電磁波、導波管若しくは他の伝送媒体を通じて伝搬する電磁波(例えば、光ファイバ・ケーブルを通る光パルス)、又はワイヤを通って伝搬される電気信号などの、一時的信号自体として解釈されるべきではない。
本明細書で説明されるコンピュータ可読プログラム命令は、コンピュータ可読ストレージ媒体からそれぞれのコンピューティング/処理デバイスに、又は、例えばインターネット、ローカル・エリア・ネットワーク、広域ネットワーク及び/又は無線ネットワークなどのネットワークを介して、外部コンピュータ又は外部ストレージ・デバイスにダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、及び/又はエッジ・サーバを含むことができる。各コンピューティング/処理デバイスにおけるネットワーク・アダプタ・カード又はネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受け取り、コンピュータ可読プログラム命令を転送して、それぞれのコンピューティング/処理デバイス内のコンピュータ可読ストレージ媒体内に格納する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は、Smalltalk、C++などのオブジェクト指向プログラミング言語、又は、「C」プログラミング言語若しくは類似のプログラミング言語などの通常の手続き型プログラミング言語を含む1つ又は複数のプログラミング言語の任意の組み合わせで記述することができる。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で実行される場合もあり、一部がユーザのコンピュータ上で、独立型ソフトウェア・パッケージとして実行される場合もあり、一部がユーザのコンピュータ上で実行され、一部が遠隔コンピュータ上で実行される場合もあり、又は完全に遠隔コンピュータ若しくはサーバ上で実行される場合もある。最後のシナリオにおいては、遠隔コンピュータは、ローカル・エリア・ネットワーク(LAN)若しくは広域ネットワーク(WAN)を含むいずれかのタイプのネットワークを通じてユーザのコンピュータに接続される場合もあり、又は外部コンピュータへの接続がなされる場合もある(例えば、インターネット・サービス・プロバイダを用いたインターネットを通じて)。幾つかの実施形態において、例えば、プログラム可能論理回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はプログラム可能論理アレイ(PLA)を含む電子回路は、コンピュータ可読プログラム命令の状態情報を用いて、電子回路を個人化することによりコンピュータ可読プログラム命令を実行し、本発明の態様を実施することができる。
本発明の態様は、本発明の実施形態による方法、装置(システム)及びコンピュータ・プログラム製品のフローチャート図及び/又はブロック図を参照して説明される。フローチャート図及び/又はブロック図の各ブロック、並びにフローチャート図及び/又はブロック図内のブロックの組み合わせは、コンピュータ可読プログラム命令によって実装できることが理解されるであろう。
これらのコンピュータ可読プログラム命令を、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能データ処理装置のプロセッサに与えてマシンを製造し、それにより、コンピュータ又は他のプログラム可能データ処理装置のプロセッサによって実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロック内で指定された機能/動作を実装するための手段を作り出すようにすることができる。これらのコンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、又は他のデバイスを特定の方式で機能させるように指示することができるコンピュータ可読媒体内に格納し、それにより、そのコンピュータ可読媒体内に格納された命令が、フローチャート及び/又はブロック図の1つ又は複数のブロックにおいて指定された機能/動作を実装する命令を含む製品を製造するようにすることもできる。
コンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上にロードして、一連の動作ステップをコンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上で行わせてコンピュータ実施のプロセスを生成し、それにより、コンピュータ又は他のプログラム可能装置上で実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロックにおいて指定された機能/動作を実行するためのプロセスを提供するようにすることもできる。
図面内のフローチャート及びブロック図は、本発明の種々の実施形態による、システム、方法、及びコンピュータ・プログラム製品の可能な実装の、アーキテクチャ、機能及び動作を示す。この点に関して、フローチャート内の各ブロックは、指定された論理機能を実装するための1つ又は複数の実行可能命令を含む、モジュール、セグメント、又はコードの一部を表すことができる。幾つかの代替的な実装において、ブロック内に示される機能は、図に示される順序とは異なる順序で生じることがある。例えば、連続して示される2つのブロックは、関与する機能に応じて、実際には実質的に同時に実行されることもあり、又はこれらのブロックはときとして逆順で実行されることもある。ブロック図及び/又はフローチャート図の各ブロック、及びブロック図及び/又はフローチャート図内のブロックの組み合わせは、指定された機能又は動作を実行する、又は専用のハードウェアとコンピュータ命令との組み合わせを実行する、専用ハードウェア・ベースのシステムによって実装できることにも留意されたい。
以下の説明される例示的な実施形態は、無境界の投影される対話型仮想デスクトップを提供するための、システム、方法及びプログラム製品を提供する。本発明の実施形態は、全てがマーカーに対して絶対的又は相対的である多数の変数を考慮に入れて、投影を算出することができる。例えば、デバイスの位置は、3次元で算出することができる。従って、表示領域をパンし、投影をズームすることができる。また、デバイスの向きを3次元で算出することができ、あたかもデバイスが平坦であるかのように、表示領域の画像を引き伸ばすこと(stretch)、変形させること(distort)ができる。さらに、表面上のオブジェクトの配置を算出することもできる。従って、主デバイスに内蔵された又はそれに追加されたカメラ又はカメラ・アレイにより、表面上に配置されたオブジェクトを検出することができる。次に、オブジェクトが表面とデバイスとの間に配置されると、デバイスに近づけることにより画像が拡大されないように、画像を補正することができる。さらに、精度をさらに高めるために、デバイスは、テーブルに装着されたカメラ、又は3次元でデバイスの位置及び配置を正確に特定できる他のセンサ(赤外線(IR)デバイスのアレイなど)と併用することができる。
本実施の実施はまた、ユーザとの対話(userinteraction)を可能にすることもできる。例えば、デバイス自体により一連のジェスチャを行って、テーブルトップ上の要素を選択し、これと対話することができる。主な対話の幾つかは、アイテムのピックアップ及びドロップ、デバイスと対話するためのデバイス画面及びジェスチャの使用を含む。特に、ユーザは、デバイスを前方にフリックして、アイテムを置き(それにより、スタックを生成することができる)、デバイスを上方にフリックしてテーブルトップからアイテムをピックアップし、又はデバイスを側方にフリックして、スタックをシャッフルすることができる。デバイスが移動されると、デバイス内のモーション・センサを通じて、この移動を追跡することができる。こうしたモーション・センサは、近傍の表面を検出することができ、又はこうしたモーション・センサは、表面上又は表面付近でデバイスと対話することができる。少なくとも1つの実装によると、投影画像は、表面のその部分に対応する画像の領域を表すように算出し直すことができ、表面に対するデバイスの角度を構成するように、既存の技術を用いて潜在的に斜めにし、引き伸ばすことができる。さらに、ユーザはまた、書籍又は文書など単一の複数ページ要素をピックアップし、次に側方へのフリックを用いて、文書のページをめくることもできる。
本明細書の種々の実施形態は、オブジェクト・ピンニング(object pinning)を可能にすることもできる。従って、仮想オブジェクトを物理オブジェクトにピンニングして、ハイブリッド・スタックを生成することができる。例えば、実テーブルトップ上のコースタの「上に」置かれた仮想要素は、コースタが移動されると、移動することができる。要素は、実際の紙の上に置かれた文書、写真、又はビデオのように、あたかもそれが紙のスタック内にあるかのように、実際の紙と共に移動することができる。従って、カメラの視野内にあるとき又は視野外にあるとき、スタックを移動させることができる。少なくとも1つの実装によると、物理アイテムがカメラの視野外にある場合、デバイスは、物理オブジェクトが新しい位置において最初に観察されたとき、まずその新しい位置を認識し、記録することができる。しかしながら、新しい位置が特定される前にカメラが古い位置を表示する場合には、スタックを一時的に仮想「ゴミ箱」に置いてから、位置の再割り当てを行うことができる。次に、ユーザは、スタック及びゴミ箱のビューにおける物理的位置に関係なく、そのデバイスのゴミ箱及びスタックを調べ、このビューを使用して、文書がテーブルトップの位置から離れたとしても文書をさらに組織化することができる。従って、テーブルトップを保存し、新しい位置に再現することができる。これを容易にするために、ユーザは、ゴミ箱(すなわち、その物理的ピン又は対応物がまだ見つかっていないあらゆるスタック)を利用し、これを新しい位置のテーブル上に置くことができる。
少なくとも1つの実装において、本実施形態は、画面上での対話(on screen interaction)を可能にすることができる。従って、デバイスがテーブル上の要素を指し示すが、要素が「手元に(in hand)」ないか又はまだピックアップされていない場合、指し示される要素、又は特定のアイコンのようなその要素の表示を、デバイス上に表示することができる。次に、ユーザは、画面上で要素と対話することができる。例えば、ユーザは、要素を編集し、読み取り、又はその要素内でナビゲートすることによって、要素と対話することができる。ユーザが要素をピックアップすると、要素は、ユーザがその要素を置くまで、又は他の画面上のナビゲーションを用いて画面から遠ざかるように移動させるまで、画面に「ロックされる」。さらに、デバイス画面上のディスプレイは、要素、スタック、及びスタック内にはない要素を列挙し、要素及びスタックにおける操作を可能にすることによって、要素及びスタックとのさらなる対話が可能になる。さらに、オン・スクリーン・ディスプレイは、デバイスが要素を指し示さないとき、又はデバイス上でボタンが押されたとき、又は特別なジェスチャがなされたときに現れることができる。本実施形態は、ジェスチャ又はオン・スクリーン・ディスプレイを用いて、スタックを、フォルダ、オンライン文書若しくはコンテンツ管理システム若しくはファイル・システム内の集合若しくはセットに変換すること又は付加することを可能にする。例えば、単一のアクションにより、テーブル全体をライブラリ又はフォルダのセットに変換し、コンテンツ管理システム又はファイル・システム内のテーブルトップ組織をミラーリングすることができる。スタックをフォルダに付加することができ、その結果、スタック内の更に別のアイテムがフォルダに自動的に付加され、スタックをフォルダにリンクすることができるので、自動的にフォルダ内のアイテムをスタックに入手することができる。ジェスチャにより、オン・スクリーン・ディスプレイ上での全てのアクションを得ることができ、デバイスは、ジェスチャをアクションに割り当てる、新しいジェスチャをプログラミングするといった、カスタマイズを可能にすることができる。
本実施形態によると、デバイス自体は、手持ち式、ウェアラブル、又は埋め込み型にすることができ、プロジェクタ、モーション・センサ、オン・スクリーン・ディスプレイ、及び専門ソフトウェアを含むことができる。種々の実装において、これらは、物理的に協働する異なるモジュールに分けることができる。さらに、本実施形態は、輝度調整を可能にすることができる。従って、プロジェクタはレンズを含むこともでき、このレンズを用いて、投影の合焦だけでなく、輝度を保持しながら、投影領域を縮小又は拡大することができる。この機構を用いて、輝度を低下させることなく、デバイスからの照明強度全体を低減させることによって、照明領域を減らすことができる。この輝度調整を用いて、デバイスを接近させるとき又はデバイスを遠ざけるとき、バッテリ寿命を保存し又は輝度を一定に維持することができる。
さらに、それぞれ本実施形態を使用している複数のユーザの全てが同時に仮想テーブルトップ上で要素と対話することができる。要素が修正されると、その修正は、近距離無線通信、サーバ若しくはクラウド・サービス、又はデバイス間のネットワーク通信を通じて、通信され得る。従って、複数のデバイスは、無線アンテナ若しくは他の測位センサのいずれかと対話して、互いに対するその位置及び向きを改善することができる。投影領域が近づいて重なり合うと、デバイス上のカメラを使用し、メモリ内のテーブルトップの表示に対する他のデバイスによる投影画像を監視することによって、デバイスの位置及び向きの検出精度を高めることができる。さらに、人間の可視スペクトラムの外の可視トークン又は要素を投影に埋め込み、複数のデバイスがそれらの投影と調整するのを助けることができる。
ここで図1を参照すると、一実施形態による、例示的なネットワーク化コンピュータ環境100が示される。コンピュータ環境100は、プロセッサ104Aと、無境界の投影される対話型仮想デスクトップ・プログラム108Aを実行することが可能なデータ・ストレージ・デバイス106Aとを有するコンピュータ102A、102Bを含むことができる。本実施形態の少なくとも1つの実装によると、コンピュータ102A、102Bはまた、モーション・センサ116及びプロジェクタ112も含むことができる。モーション・センサ116は、デバイスの相対運動をキャプチャするためのいずれかの機構を含むことができる。付加的に、本実施形態の少なくとも1つの実装によると、モーション・センサ116は、ある時点のデバイス102A、102Bの位置、次いで後の時点のデバイス102A、102Bの位置を検出することができる。さらに、代替的な実装によると、表面に対するデバイスの移動を助けることができるモーション・センサ116に加えて、デバイス102A、102Bは、能動的又は受動的な自動焦点検出システム(コントラスト又は位相検波などの)を用いる技術を用いて、デバイスに対する投影面の平面の相対角度を検出することができる。従って、最適な焦点のために複数のポイントをサンプリングし、投影平面における複数のポイントまでの距離を得ることができ、従って、複数のポイントまでの距離の計算及びデバイスのメモリ内の平面の幾何学的形状の再現を可能にすることができる。
ネットワーク化コンピュータ環境100はまた、通信ネットワーク110と、プロセッサ104B及び無境界の投影される対話型仮想デスクトップ・プログラム108Bを実行することが可能なデータ・ストレージ・デバイス106Bを有するサーバ114とを含むこともできる。ネットワーク化コンピュータ環境100は、複数のコンピュータ102A、102B、及びサーバ114を含むことができ、その1つだけが示されている。通信ネットワークは、広域ネットワーク(WAN)、ローカル・エリア・ネットワーク(LAN)、電気通信ネットワーク、無線ネットワーク、公衆交換網、及び/又は衛星ネットワークなどの、種々のタイプの通信ネットワークを含むことができる。図1は、1つの実施の例証のみを提供しており、異なる実施形態を実施できる環境に関するいずれの限定も意味していないことを認識されたい。
図6を参照して説明されるように、クライアント・コンピュータ102A、102B及びサーバ114は、それぞれ内部コンポーネント800及び外部コンポーネント900を含むことができる。クライアント・コンピュータ102A、102Bは、例えば、モバイル機器、電話、携帯情報端末、ネットブック、ラップトップ・コンピュータ、タブレット・コンピュータ、デスクトップ・コンピュータ、サーバ・コンピュータ、又は無境界の投影される対話型仮想デスクトップ・プログラム108Aのようなプログラムを実行することができる任意のタイプのコンピューティング・デバイスとすることができる。
無境界の投影される対話型仮想デスクトップ・プログラム108A、108Bのようなプログラムは、クライアント・コンピュータ102A、102B又はサーバ・コンピュータ114上で実行することができる。既述のように、無境界の投影される対話システムは、無境界の投影される対話型仮想デスクトップ・プログラム108Aのようなソフトウェアを含む、クライアント・コンピュータ102A、102Bなどのモバイル機器に組み込まれたプロジェクタ112及びモーション・センサ116を含むことができる。無境界の投影される対話型仮想デスクトップ・プログラム108A、108Bは、デバイス102A、102B内のモーション・センサ116を使用し、デバイスのプロジェクタの位置及び向きに従って、無境界の仮想デスクトップとして投影画像をパンし、拡大縮小し、回転させることができる。さらに、ユーザは、ジェスチャ、オン・スクリーン・ディスプレイ、デバイス102A、102B上のボタンを用いることにより、投影される仮想デスクトップと対話することができる。例えば、ユーザは、モーション・センサ116を含むプロジェクタ・デバイス102、102Bを移動させることができるので、投影される無境界のデストップの部分を調整することができる。さらに、デスクトップは、文書、画像、フォルダ、ビデオ、ウェブ・ブラウザ・タブ、アプリケーション・ウィンドウ、又はアプリケーションのような多数の「要素」を表示することができる。無境界の投影される対話型仮想デスクトップの方法は、図2に関連してさらに詳細に説明される。
ここで図2を参照すると、少なくとも1つの実施形態による無境界対話型仮想デスクトップを投影するためのプログラムにより実行されるステップを示す動作フローチャート200が示される。202において、プロジェクタ及びモーション・センサが、モバイル機器に組み込まれる。無境界の投影される対話型仮想デスクトップ・プログラム108A、108B(図1)は、クライアント・コンピュータ102A、102B(図1)上で実行されるものとして実装することができる。既述のように、無境界の投影される対話型仮想デスクトップ・システムは、これらに限定されるものではないが、エンド・ユーザのモバイル機器102B(図1)、コンピュータ102A(図1)、スマートフォン、又はモーション・センサ116(図1)を含むタブレットなどのデバイスに組み込まれた、プロジェクタ112(図1)及びモーション・センサ116(図1)を含むことができる。無境界の投影される対話型仮想デスクトップ・システムはまた、デバイス内のモーション・センサ116(図1)を用いて、デバイスのプロジェクタ112(図1)の位置及び向きに従って、無境界の仮想デスクトップとして、投影画像をパンし、拡大縮小し、回転させることができる、無境界の投影される対話型仮想デスクトップ・プログラム108A、108B(図1)のようなソフトウェアを含むこともできる。例えば、ユーザは、モーション・センサ116(図1)を含むプロジェクタ・デバイス102A、102B(図1)を移動させるとき、投影される無境界のデストップの部分を調整することができる。
次に、204において、モーション・センサから、位置、方向、又は向きの変化をキャプチャすることを含むデバイスの位置がキャプチャされる。従って、無境界の投影される対話型仮想デスクトップ・プログラム108A、108B(図1)は、デバイスに組み込まれたモーション・センサに基づいて、デバイスの位置を判断することができる。しかしながら、代替的な実装によると、モーション・センサは、プロジェクタ・デバイスに組み込まれたハードウェアの物理的部品として実装されるモーション・センサとは対照的に、プロジェクタ・デバイスに取り付けられたカメラからキャプチャされた画像を解釈するソフトウェアとして実装することもできる。付加的に、代替的な実装によると、投影面上の赤外線波のポイントを使用することもできる。従って、投影面上に赤外線波のポイントを実装できるので、プロジェクタ・デバイスは、カメラ又は赤外線センサにより、赤外線波のポイントにより示す定点に対して、プロジェクタ・デバイスがどこに位置するかを判断することができる。さらに、モーション・センサは、埋め込まれた加速度計、ジャイロスコープ、測位システム、及び埋め込まれた若しくは外部の電磁若しくは超音波モーション・センサから成るグループから選択することができる。
次に206において、投影面に対するデバイスの位置に基づいて、投影画像が計算される(すなわち、算出される)。1つの実装に関して既述したように、画像の投影は、無境界の投影される対話型仮想デスクトップ・プログラム108A、108B(図1)によって、投影面などの、マーカーに対して絶対的又は相対的である多数の変数を考慮に入れて算出することができる。例えば、変数は、3次元でのデバイスの位置、3次元でのデバイスの向き、及び表面におけるオブジェクトの配置を含むことができる。基本的な3次元の幾何学的形状を用いて、プロジェクタから表面までの円錐又はピラミッドを延長することにより、投影画像の寸法を計算することができる。投影の外寸を算出し、無境界のデスクトップの対応する部分を投影するように、投影画像が調整される。
従って、こうした変数に基づいて、無境界の投影される対話型仮想デスクトップ・プログラム108A、108B(図1)により、表示領域をパンし、投影をズームすることができる。また、あたかもデバイスが平坦であるかのように、表示領域の画像を引き伸ばすこと及び変形させることができる。さらに、表面上に置かれたオブジェクトを検出することができ、次に、オブジェクトが表面とデバイスとの間に配置されるとき、デバイスに近づけることにより画像が拡大されないように、画像を補正することができる。さらに、精度をさらに高めるために、デバイス102A、102B(図1)は、テーブルに装着されたカメラ、又は3次元でデバイスの位置及び配置を正確に特定することができる他のセンサ(赤外線(IR)デバイスのアレイなど)と併用することができる。
次に208において、プロジェクタの位置及び向きに基づいて、境界のない投影画像が、モバイル機器内で実行されている複数のアプリケーションにわたってコーディネイトされる。従って、デスクトップ上の各ウィンドウ又は要素は、中心基準点に関して位置決めされる。本実施形態の1つの実装によると、モバイル機器内で実行されている少なくとも1つのアプリケーションにわたる境界のない投影画像の調整は、キャプチャされたプロジェクタの位置及び向きに基づくことができる。付加的に、画像投影と関連する強度は、投影面までのプロジェクタの距離に基づくことができる。
次に210において、境界のない領域の部分の境界のあるビューが投影される。投影される境界のあるビューは、仮想デスクトップを表すアプリケーション画像を含む複数の要素から成ることができる。少なくとも1つの実装によると、境界のあるビューは、境界のあるビューの計算を調整することによって、投影面に対する境界のある投影内の位置及びサイズを保持することができる。さらに、要素は、文書、画像、フォルダ、ビデオ、ウェブ・ブラウザ・タブ、アプリケーション・ウィンドウ、及びアプリケーション・アイコンを含むグループから選択することができる。
次に212において、基準に基づいて、境界のあるビューが調整される。本実施形態の1つの実装によると、境界のあるビューを調整するために用いることができる基準が、規則のセットを含むことができる。規則は、これらに限定されるものではないが、電力消費、投影面までの距離、動作、画像忠実度、外光又は周囲光、表面に対するデバイスの傾斜若しくは角度、及び少なくとも1つの他のデバイスから受け取った情報のような要素に基づくことができる。主なビューの調整により、デバイスの移動及び投影デバイスのいかなる移動にもかかわらず、投影画像内の要素は、投影面に対して一定の位置、向き及び奥行きに維持される。電力消費及び残りの電力を監視し、画像を、後述するようなルーメン出力及び投影ズームの調整に対応するように調整し、表面に対する要素の位置を維持しながら、表示領域のサイズの増減のためにランプ出力及びズームを調整する。
付加的に、本実施形態は、ユーザ・インターフェース(UI)を提供することができ、それによって、ユーザ・インターフェース(UI)は、1又は複数のユーザが、少なくとも2つの別個のデバイスを使用し、独立して要素に作用することを可能にする。例えば、ユーザ・インターフェース(UI)は、各ユーザがそれぞれ別個のデバイスを使用している間、少なくとも2人のユーザが、独立して要素に作用することを可能にする。また、無境界の投影される対話型仮想デスクトップと関連するユーザ・インターフェース(UI)は、ジェスチャのグループから選択されるジェスチャをサポートすることができる。このグループは、ドラッグ、ピックアップ、ドロップ、ピンニング、及びナビゲート等のようなジェスチャから成ることができる。例えば、ユーザがモーション・センサを含むプロジェクタ・デバイスを移動させるとき、投影される無境界のデスクトップの部分を調整することができる。既述のように、ユーザは、デバイスを前方にフリックして、アイテムを置き(それにより、スタックを生成することができる)、デバイスを上方にフリックして、テーブルトップからアイテムをピックアップし、又はデバイスを側方にフリックして、スタックをシャッフルすることができる。デバイスが移動されると、デバイス内のモーション・センサを通じて、この移動を追跡することができる。少なくとも1つの実装において、基準に基づいて境界のあるビューを調整した後、方法は、既述されるステップ204へのループ・バックを続行して、モーション・センサからデバイスの位置をキャプチャし、ステップ206〜212に関して説明されるプロセスを繰り返す。
図2は、1つの実装の例証を与えるものに過ぎず、異なる実施形態をどのように実装できるかに関していずれの限定も意味するものではないことを認識されたい。設計及び実装要件に基づいて、示される環境への多くの修正をなすことができる。例えば、代替的な実装に関して既述のように、モーション・センサは、モーション・センサは、プロジェクタ・デバイスに組み込まれたハードウェアの物理的部品として実装されるモーション・センサとは対照的に、プロジェクタ・デバイスに取り付けられたカメラからキャプチャされる画像を解釈するソフトウェアとして実装することができる。付加的に、代替的な実装によると、投影面上に赤外線波のポイントを使用することができる。また、既述のように、表面に対するデバイスの移動を助けることができるモーション・センサ116(図1)に加えて、デバイス102A、102B(図1)は、能動的又は受動的な自動焦点検出システム(コントラスト又は位相検波などの)を用いる技術を使用して、デバイスに対する投影面の平面の相対角度を検出することができる。従って、最適な焦点のために複数のポイントをサンプリングすることができ、投影平面における複数のポイントまでの距離を得ることができ、従って、複数のポイントまでの距離の計算及びデバイスのメモリ内の平面の幾何学的形状の再現を可能にすることができる。
ここで図3を参照すると、本実施形態の少なくとも1つの実装による、投影されるデスクトップ画像の例示的な図300が示される。既述のように、ユーザは、モーション・センサ116(図1)、プロジェクタ112(図1)、及びデバイス302内のモーション・センサ116(図1)を使用し、デバイス302のプロジェクタ112(図1)の位置及び向きに従って生成される仮想デスクトップ304全体の境界のあるビュー(すなわち、部分)として、投影画像をパンし、拡大縮小し、回転させることができるソフトウェア108A、108B(図1)を含むプロジェクタ・デバイス302を使用することができる。例えば、本実施形態の少なくとも1つの実装によると、コンピュータ画面の「スナップショット」を、壁又はデスクトップのような表面上に、画像304として投影し、描写することができる。全体として、投影される領域全体が仮想デスクトップ304を形成する。仮想デスクトップ304は、文書、画像、フォルダ、ビデオ、ウェブ・ブラウザ・タブ、アプリケーション・ウィンドウ、又はアプリケーションを含むことができる多数の「要素」306〜312を表示することができる。単に説明のために、投影領域304は、円として示されるが、これは矩形又は正方形などの別の形状として描写することができる。
プロジェクタ・デバイス302を使用するユーザは、ジェスチャ、オン・スクリーン・ディスプレイ、デバイス302上のボタンを使用することにより、投影される仮想デスクトップ304と対話することができる。例えば、ユーザがモーション・センサを含むプロジェクタ・デバイス302を移動させたとき、投影されるデスクトップ304の部分を調整することができる。例えば、右に移動することにより、投影されるデスクトップ304の異なる部分を描写することができ、又は、こうした移動は、投影されるデスクトップ304の新しい部分を描写することに加えて、移動前のデスクトップ304の描写部分を含むことができる。
説明のために、仮想デスクトップ304の外の領域314は、現在投影されていないためにユーザには見えないディスプレイの領域を示すことができる。しかしながら、この領域314は、プロジェクタ・デバイス302内に表示することができ、プロジェクタ・デバイス302を移動することにより、示すことができる。付加的に、プロジェクタ・デバイス302の上部に描写されるドット316は、説明のためにデバイス上のプロジェクタの位置を表す。
ここで図4を参照すると、少なくとも1つの実施形態による投影されるデスクトップ画像を調整するデバイスの移動の例示的な図400が示される。既述のように、ユーザがプロジェクタ・デバイス302を移動させると、投影されるデスクトップ304の部分が調整される。例えば、プロジェクタ・デバイス302を右へ移動すると、投影されるデスクトップ304の異なる部分を描写することができ、又はこうした移動は、投影されるデスクトップ304の新しい部分の描写に加えて、移動前のデスクトップ304の描写部分も含むことができる。従って、プロジェクタ・デバイス302の移動により、文書、画像、フォルダ、ビデオ、ウェブ・ブラウザ・タブ、アプリケーション・ウィンドウ、又はアプリケーションのようなこれまでに表示されている「要素」306〜312の位置が、デスクトップ304の描写部分に対して調整され、新しい「要素」402〜404を表示できるようになる。さらに、図4に描写されるように、プロジェクタ・デバイス302の移動により、投影されるデスクトップ画像が表示されている表面314に対する投影されるデスクトップの描写部分の配置を調整することができる。
さらに、本実施形態は、デバイス302に埋め込むことができる小型で相対的に低出力のプロジェクタのみを用いて、仮想表面314を生成することもでき、有効強度を犠牲にすることなく、利用可能なバッテリ寿命に基づいて投影強度を調整することができる。例えば、ユーザは、デバイスを表面に近づけることができ、その際、照明面積は小さくなるが、こうした状況において、より少ない電力消費で同じ程度の明るさが可能になる。従って、照明全体の調整及びレンズ調整の組み合わせにより、バッテリ電力を節約し、投影サイズを犠牲にして輝度が保持される。
付加的に、少なくとも1つの実装によると、プロジェクタ112(図1)がプロジェクタ112(図1)の全面積を使用すると仮定すると、表面314までのデバイス302内のプロジェクタ112(図1)の距離を二倍にすると、投影画像304の表面積314は四倍になる(各寸法を二倍にすることにより)。プロジェクタ112(図1)からのルーメン出力が一定であると仮定すると、それぞれ距離を二倍にすると、投影画像のルクス(1平方メートル当たりのルーメン)は1/4になる。現在のバッテリ充電の投影寿命、ユーザ設定又は現在の使用により決定されるような、十分に蓄えられた電力が利用可能である限り、本実施形態は、一定のルクスの維持を意図して、プロジェクタ表面314からデバイス302を移動させることに応答して、プロジェクタ112(図1)の光源からのルーメン出力を増大させることができる。例えば、異なる調光比における異なる組成の出力波長の結果もたらされる、プロジェクタ112(図1)を通る可変透過光を無視して、プロジェクタ112(図1)は、表面314までのデバイス302の距離が二倍になると、ルーメン出力を四倍になり得る。
さらに、デバイス302は、投影の表面積314を低減させることにより一定のルクスを維持しながら、また、表面314に対する投影画像304内の要素306〜312のサイズを維持しながら、電力消費を低減させることができ、高度のバッテリ節約時のより高い光条件においてさえ、デスクトップを容易に見ることを可能にする。1つの実施形態において、光源又はランプが発するルーメンが、光源を合焦させて表面314に対する一定の投影サイズを達成するために使用されるレンズ・アレイと共に変化する場合、液晶オンシリコン(liquid crystal on silicon、LCoS)型ピコ・プロジェクタが使用される。節電が必要とされるとき、本実施形態は、投影面のサイズを自動的に小さくすること、又は、光源の調光を調整させながら、光学素子により光源を合焦させ、より小さい投影領域304の上に光源の全ルーメンを合焦させることができる。例えば、デジタル光処理(DLP)又は液晶オンシリコン(LCoS)に動力供給するためにLEDを光源として用いる場合、既存のLED調光技術を用いて、光源への入力電力を調光することができる。ルーメン出力を低下させることにより、投影領域304の低減を調整し、投影画像上に一定のルクスを達成する。通常、これだけで、単により小さい画像が表面に投影される。例えば、投影面314上に示される文書は、各々の投影画像304のサイズの低減時に半分のサイズに見える。本実施形態は、投影される画像を算出し直し、プロジェクタの画像生成要素に対するデスクトップのマッピングを調整し、投影画像のサイズの低減に関連して、より小さい面積のオリジナルの画像を直接有効に投影し、投影されるオブジェクトと表面314との関係全体を保持する。その結果、エンド・ユーザにとっては、バッテリ節約がより重要であると判断されたとき、より小さい画像又は薄暗い画像を見る代わりに、単により小さい投影されるデスクトップ304を見るだけである。
ここで図5を参照すると、少なくとも1つの実施形態による、投影されるデスクトップ画像の異なるサブセクションと対話する複数のデバイスの調整の例示的な図500が示される。少なくとも1つの実装によると、本実施形態は、少なくとも1のユーザが、仮想デスクトップ518の要素と対話するために、異なるプロジェクタ・デバイス502、504を同時に使用すること、例えば、複数のユーザが異なるプロジェクタ・デバイス502、504を用いて仮想デスクトップ518の要素と同時に対話することを可能にする。従って、要素506〜516が修正されると、この修正は、近距離無線通信を通じて、サーバ114(図1)などのサーバ、クラウド・サービスを通じて、又はデバイス502、504間のネットワーク通信110(図1)を通じて、通信され得る。従って、複数のデバイス502、504は、無線アンテナ若しくは他の位置決めセンサのいずれかと対話して、互いに対するその位置及び向きを改善することができる。投影領域が近づいて重なり合うと、デバイス502、504上のカメラを使用し、メモリ内のテーブルトップの表示に対する他のデバイス502、504による投影画像を監視することによって、デバイスの位置及び向きの検出精度を高めることができる。さらに人間の可視スペクトルの外の可視トークン又は要求を投影に埋め込み、複数のデバイス502、504がそれらの投影を調整するのを支援することができる。
投影領域(又は、デバイス502、504の位置、向き、及び投影領域を算出できるプロジェクタ構成)の範囲は、RFID、Bluetoothを含む近距離無線通信上で通信されるか、又はコンピュータ・ネットワークを通じて通信される。代替的に、各々のデバイス502、504は、カメラ又は人間の視野外の検出器を含む、カメラを使用して、他のデバイス502、504の投影画像518を独立して検出することができる。ひとたびいずれかのデバイス502、504により、複数のデバイス502、504からの投影画像518の重複が検出されると、幾つかの電力制御及び調整機構が使用される。デバイス502、504の投影画像が、別のデバイス502、504からの投影と著しい重複を有する場合、単一のデバイス502、504は、そのプロジェクタの光源からの出力を、独立して低減させること又は排除することができる。デバイス502、504は、上に列挙した全ての通信方法を介して、他のデバイス502、504とこの出力の低減を調整し、メッセージを送り、場合によっては確認を可能にすることができる。デバイス502、504は、電力使用量及び残りの電力統計値を送って、投影に関与する他のデバイス502、504が電力低減戦略を確認することを可能にし、又は、コマンドをデバイス502、504に発するサーバ114(図1)などのネットワーク化デバイス502、504に、全てのデータを送ることができる。レーザビームステアリング(LBS)方式のプロジェクタの場合、それらのピクセルに合焦したときに止めることによって、又はそれらの領域の周りに向けることによって、重複する投影領域におけるピクセルをスキップするように、レーザを向けることができる。投影全体に対する一定の周波数又はリフレッシュ速度を維持するために、レーザが重複領域の周りに向けられた場合、レーザを投影の特定のピクセル又は領域の周りに向けることによって、サイクル内の低減した時間に対応する時間だけ止めることができる。液晶オンシリコン(LCoS)又はデジタル光処理(DLP)のようなランプベースの解決法においては、投影領域の重複があった場合、デバイスは、プロジェクタのランプを低減させること又は消すことができる。これらの技術を利用する前に必要とされる重複についての閾値を構成することができ、この閾値は、関与するデバイスの残りの電力及び電力使用量に応じたものにすることができる。
図6は、本発明の例証となる実施形態による、図1に示されるコンピュータの内部コンポーネント及び外部コンポーネントのブロック図600である。図6は、1つの実装の例証のみを与えるものであり、異なる実施形態を実装できる環境に関するいずれの限定も意味しないことを認識されたい。設計及び実施要件に基づいて、示される環境への多くの修正をなすことができる。
データ処理システム800、900は、マシン可読プログラム命令を実行することができに任意の電子デバイスを表す。データ処理システム800、900は、スマートフォンコンピュータ・システム、PDA、又は他の電子デバイスを表すことができる。データ処理システム800、900により表すことができるコンピュータ・システム、環境及び/又は構成の例として、これらに限定されるものではないが、パーソナル・コンピュータ・システム、サーバ・コンピュータ・システム、シン・クライアント、シック・クライアント、手持ち式又はラップトップ・デバイス、マイクロプロセッサ・システム、マイクロプロセッサ・ベースのシステム、ネットワークPC、ミニコンピュータ・システム、及び上記のシステム若しくはデバイスのいずれかを含む分散型クラウド・コンピューティング環境が挙げられる。
ユーザ・クライアント・コンピュータ102A、102B(図1)及びネットワーク・サーバ114(図1)は、図6に示される内部コンポーネント800a、b、c及び外部コンポーネント900a、b、cのそれぞれのセットを含むことができる。内部コンポーネント800のセットの各々は、1つ又は複数のバス826上の、1つ又は複数のプロセッサ820、1つ又は複数のコンピュータ可読RAM822及び1つ又は複数のコンピュータ可読ROM824、並びに、1つ又は複数のオペレーティング・システム828及び1つ又は複数のコンピュータ可読有形ストレージ・デバイス830を含む。クライアント・コンピュータ102A、102B(図1)及びネットワーク・サーバ114(図1)内の1つ又は複数のオペレーティング・システム828及び無境界の投影される対話型仮想デスクトップ・プログラム108A、108B(図1)は、それぞれのRAM822(一般的に、キャッシュ・メモリを含む)の1つ又は複数を介してそれぞれのプロセッサ820の1つ又は複数により実行するために、それぞれのコンピュータ可読有形ストレージ・デバイス830の1つ又は複数に格納される。図6に示される実施形態において、コンピュータ可読有形ストレージ・デバイス830の各々は、内部ハードドライブの磁気ディスク・ストレージ・デバイスである。代替的に、コンピュータ可読有形ストレージ・デバイス830の各々は、ROM824、EPROM、フラッシュ・メモリ、又はコンピュータ・プログラム及びデジタル情報を格納することができる他のいずれかのコンピュータ可読有形ストレージ・デバイスなどの、半導体ストレージ・デバイスである。
内部コンポーネント800a、b、cの各セットはまた、CD−ROM、DVD、メモリ・スティック、磁気テープ、磁気ディスク、光ディスク、又は半導体ストレージ・デバイスのような1つ又は複数の携帯型コンピュータ可読有形ストレージ・デバイス936との間で読み取り及び書き込みを行うためのR/Wドライブ又はインターフェース832も含む。無境界の投影される対話型仮想デスクトップ・プログラム108A、108B(図1)のようなソフトウェア・プログラムは、それぞれの携帯型コンピュータ可読有形ストレージ・デバイス936の1つ又は複数上に格納し、それぞれのR/Wドライブ又はインターフェース832を介して読み取り、かつそれぞれのハードドライブ830にロードすることができる。
内部コンポーネント800a、b、cの各セットはまた、TCP/IPアダプタ・カード、無線Wi−Fiインターフェース・カード、又は3G若しくは4G無線インターフェース・カード、又は他の有線若しくは無線通信リンクのような、ネットワーク・アダプタ又はインターフェース836も含む。クライアント・コンピュータ102A、102B(図1)及びネットワーク・サーバ114(図1)内の無境界の投影される対話型仮想デスクトップ・プログラム108A、108B(図1)は、ネットワーク(例えば、インターネット、ローカル・エリア・ネットワーク、又は他の広域ネットワーク)及びそれぞれのネットワーク・アダプタ又はインターフェース836を介して、外部コンピュータから、クライアント・コンピュータ102A、102B(図1)及びネットワーク・サーバ114(図1)にダウンロードすることができる。ネットワーク・アダプタ又はインターフェース836から、クライアント・コンピュータ102A、102B(図1)及びネットワーク・サーバ114(図1)内の無境界の投影される対話型仮想デスクトップ・プログラム108A、108B(図1)は、それぞれのハードドライブ830にロードされる。ネットワークは、銅線、光ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、及び/又はエッジ・サーバを含むことができる。
外部コンポーネント900a、b、cのセットの各々は、コンピュータ・ディスプレイ・モニタ920、キーボード930及びコンピュータ・マウス934を含むことができる。外部コンポーネント900a、b、cはまた、タッチ・スクリーン、仮想キーボード、タッチ・パッド、ポインティング・デバイス、及び他のヒューマン・インターフェース・デバイスを含むこともできる。内部コンポーネント800a、b、cのセットの各々はまた、コンピュータ・ディスプレイ・モニタ920、キーボード930、及びコンピュータ・マウス934にインターフェース接続するためのデバイス・ドライバ840も含む。デバイス・ドライバ840、R/Wドライブ又はインターフェース832、及びネットワーク・アダプタ又はインターフェース836は、ハードウェア及びソフトウェア(ストレージ・デバイス830及び/又はROM824内に格納される)を含む。
本発明の種々の実施形態の説明は、例証を目的として提示されたものであり、網羅的であること又は開示された実施形態に限定することを意図したものではない。本発明の範囲及び趣旨から逸脱しない多くの修正及び変形が当業者には明らかとなるであろう。本明細書で使用される用語は、本実施形態の原理、実際の用途、又は市場で見出される技術に優る技術的改善を最も良く説明するために、又は、当業者が、本明細書に開示される実施形態を理解できるように、選択された。
100:コンピュータ環境
102A、102B:コンピュータ
104A、104B、820:プロセッサ
108A、108B:無境界の投影される対話型仮想デスクトップ・プログラム
110:通信ネットワーク
112:プロジェクタ
114:サーバ
116:モーション・センサ
302、502、504:プロジェクタ・デバイス
304、518:仮想デスクトップ、投影領域
306〜312、402〜404、506〜516、:要素
314:表面
800:内部コンポーネント
828:オペレーティング・システム
830:コンピュータ可読有形ストレージ・デバイス
900:外部コンポーネント

Claims (10)

  1. 投影面に投影される対話型仮想デスクトップを生成するための方法であって、
    デバイスに組み込まれたモーション・センサから、前記デバイスと関連する位置、位置の変化、又は向きの変化のうちの少なくとも1つをキャプチャすることと、
    前記デバイスの前記キャプチャされた位置の変化、又は前記キャプチャされた向きの変化に基づいて、投影面に対する投影画像を計算することと、
    前記デバイスに組み込まれたプロジェクタの前記キャプチャされた位置及び向きに基づいて、前記デバイス内で実行されている少なくとも1つのアプリケーションにわたって、前記計算された投影画像を、前記投影面と関連付けて調整することと、
    アプリケーション画像を含む複数の要素を含んだ前記調整された投影画像を、前記投影面に投影することと、
    他のデバイスによって前記投影面に投影された他の投影画像と、前記複数の要素を含む投影画像とから形成される対話型仮想デスクトップを共同のワークスペースとして複数のユーザが前記複数の要素と対話することを可能にすることと、
    を含む、方法。
  2. 前記他のデバイスが前記他の投影画像を調整できるように、前記複数の要素を含む投影画像に可視スペクトルではないトークンを埋め込む、請求項1に記載の方法。
  3. 前記複数の要素は、文書、画像、フォルダ、ビデオ、ウェブ・ブラウザ・タブ、アプリケーション・ウィンドウ、及びアプリケーション・アイコンの少なくとも1つから成るグループから選択される、請求項1に記載の方法。
  4. 前記投影面までの前記プロジェクタの距離に基づいて、前記複数の要素を含む投影画像の投影強度を調整することをさらに含む、請求項1に記載の方法。
  5. 前記モーション・センサは、埋め込まれた加速度計、ジャイロスコープ、自動焦点シス
    テムを含む位置決めシステム、及び埋め込まれた又は外部の電磁若しくは超音波モーション・センサの少なくとも1つから成るグループから選択される、請求項1に記載の方法。
  6. 前記複数の要素を含む投影画像に関連する計算の修正を行うことにより、前記複数の要素内の少なくとも1つの要素の位置及びサイズを保存する、請求項1に記載の方法。
  7. 前記対話型仮想デスクトップは、ドラッグ、ピックアップ、ドロップ、ピンニング、及びナビゲートの少なくとも1つから成る群から選択される少なくとも1つのジェスチャをサポートする、請求項1に記載の方法。
  8. 前記複数の要素を含む投影画像は、前記デバイスと関連する検出された動きの変化に基づき、これまで示されていない前記投影画像の部分が表示される、請求項1に記載の方法。
  9. 投影面に投影される対話型仮想デスクトップを生成するためのコンピュータ・システムであって、前記コンピュータ・システムは、
    プロセッサ及びプログラム命令を記憶するストレージを備え、前記プロセッサが前記プログラム命令を実行することにより前記コンピュータ・システムは方法を実施することができ、前記方法は、
    デバイスに組み込まれたモーション・センサから、前記デバイスと関連する位置、位置の変化、又は向きの変化のうちの少なくとも1つをキャプチャすることと、
    前記デバイスの前記キャプチャされた位置の変化、又は前記キャプチャされた向きの変化に基づいて、投影面に対する投影画像を計算することと、
    前記デバイスに組み込まれたプロジェクタの前記キャプチャされた位置及び向きに基づいて、前記デバイス内で実行されている少なくとも1つのアプリケーションにわたって、前記計算された投影画像を、前記投影面と関連付けて調整することと、
    アプリケーション画像を含む複数の要素を含んだ前記調整された投影画像を、前記投影面に投影することと、
    他のデバイスによって前記投影面に投影された他の投影画像と、前記複数の要素を含む投影画像とから形成される対話型仮想デスクトップを共同のワークスペースとして複数のユーザが前記複数の要素と対話することを可能にすることと、
    を含む、コンピュータ・システム。
  10. 投影面に投影される対話型仮想デスクトップを生成するためのコンピュータ・プログラムであって、前記コンピュータ・プログラムは、
    ストレージ・デバイスに格納され、請求項1から請求項8までの方法を実施するためにプロセッサにより実行可能なプログラム命令を含む、コンピュータ・プログラム。
JP2017521131A 2014-10-21 2015-09-23 投影される対話型仮想デスクトップ Active JP6730985B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/519,238 US9710160B2 (en) 2014-10-21 2014-10-21 Boundless projected interactive virtual desktop
US14/519,238 2014-10-21
PCT/IB2015/057333 WO2016063152A1 (en) 2014-10-21 2015-09-23 Projected interactive virtual desktop

Publications (2)

Publication Number Publication Date
JP2018502313A JP2018502313A (ja) 2018-01-25
JP6730985B2 true JP6730985B2 (ja) 2020-07-29

Family

ID=55749096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017521131A Active JP6730985B2 (ja) 2014-10-21 2015-09-23 投影される対話型仮想デスクトップ

Country Status (6)

Country Link
US (3) US9710160B2 (ja)
JP (1) JP6730985B2 (ja)
CN (1) CN106687887B (ja)
DE (1) DE112015004280T5 (ja)
GB (1) GB2546931B (ja)
WO (1) WO2016063152A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9710160B2 (en) * 2014-10-21 2017-07-18 International Business Machines Corporation Boundless projected interactive virtual desktop
DE102014224552A1 (de) * 2014-12-01 2016-06-02 Robert Bosch Gmbh Projektionsvorrichtung und Verfahren zum pixelweisen Projizieren eines Bildes
US20200051533A1 (en) * 2016-10-07 2020-02-13 Korea Electronics Technology Institute System and method for displaying content in association with position of projector
US10640012B2 (en) * 2017-08-29 2020-05-05 Faurecia Automotive Seating, Llc Modular seat
CN107422590B (zh) * 2017-09-12 2020-09-08 中广热点云科技有限公司 自动调节投影面大小的家用投影系统
CN108322719A (zh) * 2018-02-12 2018-07-24 京东方科技集团股份有限公司 抬头显示系统及抬头显示方法、行驶装置
CN110992746B (zh) * 2019-11-06 2021-11-02 北京市博汇科技股份有限公司 一种分组研讨教学方法及系统
CN111754827A (zh) * 2020-05-20 2020-10-09 四川科华天府科技有限公司 一种基于ar互动教学设备的呈现系统
CN114079807A (zh) * 2020-08-11 2022-02-22 深圳市万普拉斯科技有限公司 投影方法、装置、移动设备和存储介质
CN113010133B (zh) * 2021-04-08 2023-04-07 腾讯科技(深圳)有限公司 一种数据显示方法
CN115361534A (zh) * 2022-03-16 2022-11-18 深圳盛显科技有限公司 一种桌面方法投影融合拼接方法和装置

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4250884B2 (ja) 2001-09-05 2009-04-08 パナソニック株式会社 電子黒板システム
US6963348B2 (en) * 2002-05-31 2005-11-08 Nvidia Corporation Method and apparatus for display image adjustment
US7175285B2 (en) * 2003-07-29 2007-02-13 Sharp Laboratories Of America, Inc. Projection system that adjusts for keystoning
US7304619B2 (en) * 2003-12-31 2007-12-04 Symbol Technologies, Inc. Method and apparatus for controllably compensating for distortions in a laser projection display
JP2005292428A (ja) * 2004-03-31 2005-10-20 Sharp Corp 携帯型端末
US7552349B2 (en) * 2005-03-07 2009-06-23 Microsoft Corporation User configurable power conservation through LCD display screen reduction
US7525538B2 (en) 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
US20070055941A1 (en) * 2005-09-08 2007-03-08 Bhakta Dharmesh N Method and apparatus to selectively display portions of a shared desktop in a collaborative environment
WO2007056110A2 (en) * 2005-11-02 2007-05-18 Microvision, Inc. Image projector with selectable display modes
JP5088665B2 (ja) * 2006-04-12 2012-12-05 セイコーエプソン株式会社 画像表示装置
US8038304B2 (en) * 2006-07-03 2011-10-18 Panasonic Corporation Projector system and video projection method
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
JP2008203490A (ja) 2007-02-20 2008-09-04 Seiko Epson Corp プロジェクタ
TWI388918B (zh) 2007-06-21 2013-03-11 Univ Nat Taiwan Multi - resolution digital desktop display system
JP2009133926A (ja) * 2007-11-28 2009-06-18 Kyocera Corp 投影装置
US20090147272A1 (en) 2007-12-05 2009-06-11 Microvision, Inc. Proximity detection for control of an imaging device
US7869204B2 (en) * 2008-09-15 2011-01-11 International Business Machines Corporation Compact size portable computer having a fully integrated virtual keyboard projector and a display projector
EP2178276B1 (en) * 2008-10-20 2014-07-30 LG Electronics Inc. Adaptation of recorded or shown image according to the orientation of a mobile terminal
CN102203659B (zh) * 2008-11-05 2013-12-11 约翰逊控股公司 用于机动车的车辆显示系统或投影显示器及其校准方法
KR101527014B1 (ko) * 2008-12-02 2015-06-09 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
WO2010110391A1 (ja) * 2009-03-26 2010-09-30 京セラ株式会社 携帯電子機器
JP5409785B2 (ja) * 2009-05-27 2014-02-05 京セラ株式会社 携帯電子機器
US8579442B2 (en) * 2009-05-27 2013-11-12 Transpacific Image, Llc Advertisement content selection and presentation
JP2011007948A (ja) 2009-06-24 2011-01-13 Sharp Corp プロジェクタおよびプロジェクタ内蔵携帯機器
WO2011012168A1 (en) * 2009-07-31 2011-02-03 Lemoptix Sa Optical micro-projection system and projection method
JP2011070086A (ja) 2009-09-28 2011-04-07 Seiko Epson Corp プロジェクター、プロジェクションシステム、プロジェクションシステムの制御方法
US8490002B2 (en) * 2010-02-11 2013-07-16 Apple Inc. Projected display shared workspaces
US8506090B2 (en) * 2010-03-22 2013-08-13 Microvision, Inc. Projection system with image orientation correction and corresponding method
US8818027B2 (en) 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
CN102918490B (zh) * 2010-04-01 2014-07-23 思杰系统有限公司 与在平板计算装置的虚拟桌面内显示的远程应用交互
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
US20120140096A1 (en) 2010-12-01 2012-06-07 Sony Ericsson Mobile Communications Ab Timing Solution for Projector Camera Devices and Systems
TWI439785B (zh) 2010-12-15 2014-06-01 Univ Nat Taiwan 多重解析度顯示系統
US20120290943A1 (en) * 2011-05-10 2012-11-15 Nokia Corporation Method and apparatus for distributively managing content between multiple users
WO2013078657A1 (en) 2011-12-01 2013-06-06 Nokia Corporation A gesture recognition method, an apparatus and a computer program for the same
JP2013131990A (ja) * 2011-12-22 2013-07-04 Ricoh Co Ltd 情報処理装置及びプログラム
US20130229396A1 (en) * 2012-03-05 2013-09-05 Kenneth J. Huebner Surface aware, object aware, and image aware handheld projector
US9239624B2 (en) 2012-04-13 2016-01-19 Nokia Technologies Oy Free hand gesture control of automotive user interface
TWI454968B (zh) 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
US20160238833A1 (en) * 2013-10-02 2016-08-18 Nec Corporation Interface apparatus, module, control component, control method, and program storage medium
US9304599B2 (en) * 2014-03-21 2016-04-05 Dell Products L.P. Gesture controlled adaptive projected information handling system input and output devices
US9317129B2 (en) * 2014-03-25 2016-04-19 Dell Products, Lp System and method for using a side camera for a free space gesture inputs
US9559762B2 (en) * 2014-06-30 2017-01-31 Lg Electronics Inc. Method of transceiving feedback information in wireless communication system and apparatus therefor
US9710160B2 (en) 2014-10-21 2017-07-18 International Business Machines Corporation Boundless projected interactive virtual desktop
JP6458564B2 (ja) * 2015-03-10 2019-01-30 セイコーエプソン株式会社 表示装置及び表示装置の制御方法

Also Published As

Publication number Publication date
US20160112688A1 (en) 2016-04-21
CN106687887A (zh) 2017-05-17
US20160110099A1 (en) 2016-04-21
GB2546931A (en) 2017-08-02
GB201707109D0 (en) 2017-06-21
DE112015004280T5 (de) 2017-06-01
CN106687887B (zh) 2020-03-06
US9940018B2 (en) 2018-04-10
US9710160B2 (en) 2017-07-18
GB2546931B (en) 2020-05-27
WO2016063152A1 (en) 2016-04-28
US20180203603A1 (en) 2018-07-19
US10788983B2 (en) 2020-09-29
JP2018502313A (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
JP6730985B2 (ja) 投影される対話型仮想デスクトップ
EP3539280B1 (en) Mobile terminal
US9880619B2 (en) Virtual reality system with a finger-wearable control
US9535516B2 (en) System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US9961337B2 (en) Flexible display device and computer with sensors and control approaches
US10715647B2 (en) Mobile terminal
JP6372487B2 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
US8928579B2 (en) Interacting with an omni-directionally projected display
US20150338998A1 (en) System and methods for providing a three-dimensional touch screen
US9858031B2 (en) Colony desktop hive display: creating an extended desktop display from multiple mobile devices using near-field or other networking
US20170249015A1 (en) Gesture based manipulation of three-dimensional images
JP6349811B2 (ja) 映像信号出力装置、映像信号出力方法、及びプログラム
US9594970B2 (en) Device with camera at or near junction of first panel and second panel
KR101591038B1 (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법
KR20150137908A (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법
KR20160014095A (ko) 홀로그래피 터치 기술 및 프로젝터 터치 기술
KR20160017020A (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법
KR20160014091A (ko) 홀로그래피 터치 기술 및 프로젝터 터치 기술
Sunet Pérez et al. A software framework for the development of projection-based augmented reality systems
KR20160013501A (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법
KR20150136759A (ko) 홀로그래피 터치 기술 및 프로젝터 터치 기술
KR20150142556A (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200703

R150 Certificate of patent or registration of utility model

Ref document number: 6730985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150