JP2020510272A - Navigation system - Google Patents

Navigation system Download PDF

Info

Publication number
JP2020510272A
JP2020510272A JP2020500001A JP2020500001A JP2020510272A JP 2020510272 A JP2020510272 A JP 2020510272A JP 2020500001 A JP2020500001 A JP 2020500001A JP 2020500001 A JP2020500001 A JP 2020500001A JP 2020510272 A JP2020510272 A JP 2020510272A
Authority
JP
Japan
Prior art keywords
touch screen
screen display
image
touch
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020500001A
Other languages
Japanese (ja)
Inventor
ボグナー ボトンド
ボグナー ボトンド
ハーマン ロバート
ハーマン ロバート
クロストン アダム
クロストン アダム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rescan Inc
Original Assignee
Rescan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rescan Inc filed Critical Rescan Inc
Publication of JP2020510272A publication Critical patent/JP2020510272A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Abstract

実環境または仮想環境のどちらの画像も表示するための、タッチスクリーンを使用可能な装置が提供され、この装置は、これらの環境をナビゲートするために画像上にオーバーレイされるグラフィカル・オーバーレイを含むユーザ・インタフェースを有する。この装置は、ユーザがタッチスクリーン上で行ったジェスチャーをコマンドとして解釈することができ、グラフィカル・オーバーレイは、表示された環境内での視点の平行移動及び視点の回転のような意図した操作を実現するためのジェスチャーを行うべき場所についてユーザをガイドする。グラフィカル・オーバーレイは単一のシンボルのみを含むことができ、ディスプレイにおいてこのシンボルによってマークされた領域内に生じるジェスチャーは、シンボルの外側から生じるジェスチャーと区別され、区別されるジェスチャーは、それぞれが平行移動及び回転を制御する。このことは1本指での環境のナビゲーションを可能にする。A touch-screen enabled device is provided for displaying images in either a real or virtual environment, the device including a graphical overlay overlaid on the images to navigate these environments. Has a user interface. The device can interpret gestures made by the user on the touch screen as commands, and the graphical overlay enables intended operations such as viewpoint translation and viewpoint rotation within the displayed environment. Guide the user on where to make the gestures to do. The graphical overlay can contain only a single symbol, and the gestures that occur within the area marked by this symbol on the display are distinguished from the gestures that originate from outside the symbol, and the distinguished gestures are translated respectively. And control the rotation. This allows one-finger navigation of the environment.

Description

関連出願のクロスリファレンス
本願は、米国特許出願第15/919585号、2018年3月13日出願、発明の名称”Navigation System”の継続出願であり、この米国特許出願は米国特許仮出願第62/470405号、2017年3月13日出願、発明の名称”Navigation System”により優先権を主張し、また本願は、米国特許出願第15/388935号、2016年12月22日出願、発明の名称”Head-Mounted Sensor System”の一部継続出願であり、さらに本願は、米国特許出願第15/389059号、2016年12月22日出願、発明の名称”Head-Mounted Mapping Methods”の一部継続出願である。全部の上記特許出願の開示は参照することによって本明細書に含める。
CROSS REFERENCE TO RELATED APPLICATIONS This application is a continuation of US patent application Ser. No. 15 / 919,585, filed Mar. 13, 2018, entitled "Navigation System," which is US Provisional Patent Application Ser. 470405, filed March 13, 2017, claiming priority under the title "Navigation System," and filed with U.S. Patent Application No. 15 / 388,935, filed December 22, 2016, entitled "Navigation System." Head-Mounted Sensor System ", which is a continuation-in-part application, and which is also a continuation-in-part application of U.S. Patent Application No. It is. The disclosures of all of the above patent applications are incorporated herein by reference.

発明の分野
本発明はハンドヘルド(手持ち型)コンピュータ装置の分野であり、より具体的には、実環境及び仮想環境の表現内を表示してナビゲートするための、これらのコンピュータ装置の使用法に関するものである。
FIELD OF THE INVENTION The present invention is in the field of handheld computing devices, and more particularly, to the use of these computing devices to display and navigate within representations of real and virtual environments. Things.

関連技術
仮想環境の2D(二次元)及び3D(三次元)表現はビデオゲームにおいて周知であり、例えば、1つ以上のジョイスティックを用いてナビゲートする場合であり、例えば、1つのジョイスティックを用いて前進、後退、及び左折及び右折することができる。同様な制御は、モバイル(携帯)機器のタッチセンサに適応している。
2. Related Art 2D (two-dimensional) and 3D (three-dimensional) representations of virtual environments are well known in video games, for example, when navigating with one or more joysticks, for example, using one joystick. You can go forward, back, and turn left and right. Similar controls are applied to touch sensors on mobile devices.

米国特許出願第15/389059号明細書US Patent Application No. 15/389059 米国特許出願第15/388935号明細書US Patent Application No. 15 / 388,935

本発明は、タッチスクリーン・ディスプレイ、及びマイクロプロセッサを含む論理回路を具えたコンピュータ装置に指向したものである。好適なコンピュータ装置は、ハンドヘルド装置並びに固定式装置を含む。種々の好適例では、このコンピュータ装置は、通信チャネルを経由して外部装置と通信するように構成されたI/O(Input/Output:入出力装置)、及び/またはナビゲート可能な環境の表現を記憶するように構成された画像記憶装置をさらに具えている。本発明の装置は、任意で、ナビゲート可能な環境の表現を作成するのに十分な情報を生成するように構成された画像源を具えることもできる。   The present invention is directed to a computer device having a touch screen display and a logic circuit including a microprocessor. Suitable computing devices include handheld devices as well as stationary devices. In various embodiments, the computing device includes an input / output (I / O) configured to communicate with an external device via a communication channel, and / or a representation of a navigable environment. Further comprising an image storage device configured to store The apparatus of the present invention may optionally include an image source configured to generate sufficient information to create a representation of a navigable environment.

上記論理回路は、ナビゲート可能な環境の画像をタッチスクリーン・ディスプレイ上に表示するように構成され、この画像は、ナビゲート可能な環境内の位置及びナビゲート可能な環境内の角度を有する視点によって特徴付けられる。種々の好適例では、ナビゲート可能な環境は、バーチャルリアリティ(仮想現実感)環境、ゲーム環境、または実(リアル)環境を含む。上記論理回路は、タッチスクリーン・ディスプレイからタッチ情報を受信し、このタッチ情報をフィルタ処理して接触ジェスチャーを識別するようにさらに構成され、各接触ジェスチャーはディスプレイ上に起点を有する。上記論理回路は、さらに、タッチスクリーン・ディプレイの第1部分内に起点を有する接触ジェスチャーに対して、タッチスクリーン・ディスプレイ上の画像を変化させて当該画像の視点の位置を変更するように構成されている。また、上記論理回路は、タッチスクリーン・ディスプレイの第1部分とオーバーラップ(重複)しないタッチスクリーン・ディスプレイの第2部分内に起点を有する接触ジェスチャーに対して、タッチスクリーン上の画像を変化させて当該画像の視点の角度を変更するように構成されている。   The logic is configured to display an image of a navigable environment on a touch screen display, the image comprising a viewpoint having a position in the navigable environment and an angle in the navigable environment. Is characterized by: In various embodiments, the navigable environment includes a virtual reality environment, a gaming environment, or a real environment. The logic is further configured to receive touch information from a touch screen display and filter the touch information to identify touch gestures, each touch gesture having an origin on the display. The logic circuit is further configured to change an image on the touchscreen display for a touch gesture having an origin in the first portion of the touchscreen display to change a viewpoint position of the image. Have been. The logic circuit changes an image on the touch screen for a contact gesture having a starting point in a second portion of the touch screen display that does not overlap with the first portion of the touch screen display. It is configured to change the angle of the viewpoint of the image.

種々の好適例では、上記論理回路が、ナビゲート可能な環境の画像上に第1シンボルをオーバーレイ(重ね表示)するようにさらに構成され、この第1シンボルはタッチスクリーン・ディスプレイの第1部分と位置合わせされる。これらの好適例の一部では、上記論理回路が、ナビゲート可能な画像上に第2シンボルをオーバーレイするようにさらに構成され、この第2シンボルはタッチスクリーン・ディスプレイの第2部分と位置合わせされる。上記論理回路は、タッチスクリーン・ディスプレイの第1部分内に起点を有してスワイプを含む接触ジェスチャーに対して、第1シンボルを、タッチスクリーン・ディスプレイの第1部分と位置合わせされた位置から、このスワイプによってトレースされる(辿られる)経路に沿って移動させるようにさらに構成することができる。   In various embodiments, the logic is further configured to overlay a first symbol on an image of the navigable environment, the first symbol being associated with the first portion of the touch screen display. Aligned. In some of these embodiments, the logic is further configured to overlay a second symbol on the navigable image, wherein the second symbol is aligned with the second portion of the touch screen display. You. The logic circuit is configured to, for a touch gesture having an origin within the first portion of the touch screen display and including a swipe, move the first symbol from a position aligned with the first portion of the touch screen display. It can be further configured to move along a path traced by the swipe.

上記コンピュータ装置がハンドヘルド型である一部の好適例では、上記コンピュータ装置が配向センサを含み、上記論理回路が、この配向センサから配向情報を受信し、この配向情報に基づいて、ナビゲート可能な環境の画像の表示を、ランドスケープ(景観)モードとポートレート(肖像)モードとの間で切り換え、そしてナビゲート可能な環境の画像上に第1シンボルをオーバーレイするようにさらに構成され、第1シンボルはタッチスクリーン・ディスプレイの第1部分と位置合わせされる。さらに、上記論理回路は、ナビゲート可能な環境の画像の表示がランドスケープモードに切り換えられる際に、ナビゲート可能な環境の画像上に第2シンボルをオーバーレイするようにさらに構成され、この第2シンボルは、タッチスクリーン・ディスプレイの第2部分内にある、タッチスクリーン・ディスプレイの第3部分と位置合わせされる。これらの好適例では、上記論理回路が、ランドスケープモードである間に、タッチ情報をフィルタ処理して、タッチスクリーン・ディスプレイの第3部分内を起点とする接触ジェスチャーを識別し、それに応答して、タッチスクリーン・ディスプレイ上の画像を変化させてこの画像の視点の角度を変更するようにさらに構成されている。   In some embodiments where the computing device is hand-held, the computing device includes an orientation sensor, and the logic circuit receives orientation information from the orientation sensor and is navigable based on the orientation information. Further configured to switch the display of the image of the environment between a landscape mode and a portrait mode, and to overlay the first symbol on the image of the navigable environment; Is aligned with the first portion of the touch screen display. Further, the logic circuit is further configured to overlay a second symbol on the image of the navigable environment when the display of the image of the navigable environment is switched to a landscape mode. Is aligned with a third portion of the touch screen display within a second portion of the touch screen display. In these preferred embodiments, the logic circuit, while in landscape mode, filters the touch information to identify contact gestures originating in the third portion of the touch screen display, and in response, The image processing apparatus is further configured to change an image on the touchscreen display to change an angle of a viewpoint of the image.

種々の好適例では、タッチスクリーン・ディスプレイの第2部分が、タッチスクリーン・ディスプレイにおける第1部分の外側の領域全体を含む。また、一部の好適例では、上記論理回路が、スワイプを含みタッチスクリーン・ディスプレイの第2部分内に起点を有する接触ジェスチャーに対して、スワイプの長さに比例して視点の角度を変化させるようにさらに構成されている。上記論理回路は、タッチスクリーン・ディスプレイの第1部分内に起点を有する接触ジェスチャーに対して、タッチスクリーン・ディスプレイ上のタッチ接触時間の長さに比例して視点の位置を変化させるようにさらに構成することができる。上記論理回路は、タッチスクリーン・ディスプレイの第1部分内に起点を有し曲線状のスワイプを有する接触ジェスチャーに対して、視点の位置をこの曲線に沿って変化させるようにさらに構成することができる。   In various embodiments, the second portion of the touchscreen display includes the entire area of the touchscreen display outside the first portion. Also, in some embodiments, the logic circuit changes a viewpoint angle in proportion to the length of the swipe for a touch gesture that includes a swipe and has an origin in a second portion of the touch screen display. It is further configured as follows. The logic is further configured to change a position of a viewpoint in response to a touch gesture having an origin in a first portion of the touch screen display in proportion to a length of a touch touch time on the touch screen display. can do. The logic circuit may be further configured to change the position of the viewpoint along a curved line for a contact gesture having a starting point in the first portion of the touch screen display and having a curved swipe. .

種々の好適例では、上記論理回路が、ナビゲート可能な環境のミニマップ(小地図)をナビゲート可能な環境の画像上にオーバーレイするようにさらに構成されている。これらの好適例の一部では、上記論理回路が、上記タッチ情報をフィルタ処理して、タップを含む接触ジェスチャーを識別するようにさらに構成され、そしてこのタップを含む接触ジェスチャーに応答して上記ミニマップを提供するようにさらに構成されている。また、上記論理回路がミニマップをオーバーレイするように構成された一部の好適例では、上記論理回路が、上記タッチ情報をフィルタ処理してタップを含む接触ジェスチャーを識別するようにさらに構成され、そしてこのタップを含む接触ジェスチャーに応答して上記画像を保存するようにさらに構成されている。   In various embodiments, the logic is further configured to overlay a mini-map of the navigable environment over an image of the navigable environment. In some of these embodiments, the logic is further configured to filter the touch information to identify a touch gesture that includes a tap, and in response to the touch gesture that includes the tap. Further configured to provide a map. Also, in some preferred embodiments wherein the logic circuit is configured to overlay a mini-map, the logic circuit is further configured to filter the touch information to identify a touch gesture including a tap. The image processing apparatus is further configured to store the image in response to a contact gesture including the tap.

上記コンピュータシステムがハンドヘルド装置を含む追加的な好適例では、このハンドヘルド装置が配向センサを含み、上記論理回路が、この配向センサから配向情報を受信し、この配向情報に基づいて、ナビゲート可能な環境の画像の表示をランドスケープモードとポートレートモードとの間で切り換えるようにさらに構成されている。これらの好適例では、タッチスクリーン・ディスプレイの第1部分をタッチスクリーン・ディスプレイのある領域内に位置決めすることができ、そして、ポートレートモードである際には、タッチスクリーン・ディスプレイの第1部分を、タッチスクリーン・ディスプレイの第1エッジ(縁部)から第1距離だけ間隔をおき、かつタッチスクリーン・ディスプレイの第1エッジよりも長い第2エッジから第2距離だけ間隔をおくように位置決めし、ランドスケープモードである際には、タッチスクリーン・ディスプレイの第1部分を、タッチスクリーン・ディスプレイの第1エッジから第2距離だけ間隔をおき、かつタッチスクリーン・ディスプレイの第2エッジから第1距離だけ間隔をおくように位置決めするように、上記論理回路をさらに構成することができる。   In an additional embodiment, wherein the computer system includes a handheld device, the handheld device includes an orientation sensor, and the logic circuit receives orientation information from the orientation sensor and is navigable based on the orientation information. It is further configured to switch the display of an image of the environment between a landscape mode and a portrait mode. In these embodiments, the first portion of the touchscreen display can be positioned within an area of the touchscreen display, and when in portrait mode, the first portion of the touchscreen display can be positioned. Positioning at a first distance from a first edge of the touchscreen display and at a second distance from a second edge longer than the first edge of the touchscreen display; When in landscape mode, the first portion of the touch screen display is spaced a second distance from the first edge of the touch screen display and a first distance from the second edge of the touch screen display. The above logic circuit should be It can be configured.

本発明は、モバイル(移動型)テレプレゼンス(遠隔同席)ロボット及びコントローラ装置を具えたテレプレゼンス・システムも提供する。このテレプレゼンス・ロボットは、受信したコマンド(命令語)に応答して実環境内で二次元に可動である。このロボットは、カメラ、第1I/O、及び論理回路を含み、第1I/Oは通信チャネル経由で通信するように構成され、論理回路は、カメラからI/Oを通して通信チャネル越しにビデオをストリーム配信するように構成されている。上記コントローラ装置は、第2I/O、タッチスクリーン・ディスプレイ、及び論理回路を含み、第2I/Oは上記通信チャネル経由でテレプレゼンス・ロボットと通信するように構成され、論理回路はマイクロプロセッサを含む。上記論理回路は、タッチスクリーン・ディスプレイ上にストリーミング・ビデオを表示するように構成され、このビデオは実環境内に位置を有する視点によって特徴付けられる。上記論理回路は、タッチスクリーン・ディスプレイからタッチ情報を受信し、このタッチ情報をフィルタ処理して、各々がディスプレイ上に起点を有する接触ジェスチャーを識別し、タッチスクリーン・ディスプレイの第1部分内に起点を有する接触ジェスチャーに対して、テレプレゼンス・ロボットにコマンドを送信して実環境内で移動させて、上記ビデオの視点の位置を変更するように構成されている。   The present invention also provides a telepresence system comprising a mobile (mobile) telepresence robot and a controller device. The telepresence robot is movable two-dimensionally in a real environment in response to a received command (command). The robot includes a camera, a first I / O, and logic, wherein the first I / O is configured to communicate via a communication channel, wherein the logic streams video from the camera through the I / O over the communication channel. It is configured to deliver. The controller device includes a second I / O, a touch screen display, and logic, wherein the second I / O is configured to communicate with the telepresence robot via the communication channel, wherein the logic includes a microprocessor. . The logic is configured to display a streaming video on a touch screen display, the video being characterized by a viewpoint having a location in a real environment. The logic circuit receives touch information from a touch screen display, filters the touch information to identify touch gestures each having an origin on the display, and an origin in a first portion of the touch screen display. A command is transmitted to the telepresence robot in response to the contact gesture having the following to move the telepresence robot in the real environment to change the position of the viewpoint of the video.

本発明の種々の実施形態による、少なくとも1つのコンピュータ装置を含む通信ネットワークを示す図である。FIG. 2 illustrates a communication network including at least one computer device, according to various embodiments of the invention. 図2A、2B及び2Cは、本発明の種々の実施形態による、ユーザ・インタフェースのランドスケープ及びポートレートモードを示す図である。2A, 2B and 2C are diagrams illustrating landscape and portrait modes of a user interface according to various embodiments of the present invention. 本発明の種々の実施形態による、図2Aのユーザ・インタフェースのスクリーンキャプチャを示す図である。FIG. 2B illustrates a screen capture of the user interface of FIG. 2A, according to various embodiments of the invention. 本発明の種々の実施形態による、ポートレートモード及びランドスケープモードにおける好適なナビゲーション・シンボル形態を示す図である。FIG. 4 illustrates preferred navigation symbol forms in portrait mode and landscape mode, according to various embodiments of the invention.

詳細な説明
本発明は、タッチスクリーン式ユーザ・インタフェースを有する装置に指向したものであり、これらのユーザ・インタフェースはタッチスクリーン上に画像を表示することができ、これらの画像は実環境または仮想環境のいずれの2Dまたは3D表現とすることもでき、本発明は、タッチスクリーン上の画像上にオーバーレイされているかのように表示されるグラフィカル・オーバーレイにも指向したものである。この装置は、ユーザがタッチスクリーン上で行った接触ジェスチャーを、環境中をナビゲートするためのコマンドとして解釈することができる。上記グラフィカル・オーバーレイは、意図した操作を実現するための接触ジェスチャーを行うべきタッチスクリーン上の場所についてユーザをガイド(案内)する。操作は、例えば、表示環境内での視点の平行移動、視点の回転、及びその組み合わせを含むことができる。一部の実施形態では、この装置をハンドヘルド装置とすることができるが、この装置は、壁上に取り付けられたディスプレイを含むもののような固定ディスプレイを含む装置とすることもできる。
DETAILED DESCRIPTION The present invention is directed to devices having a touch screen user interface, which are capable of displaying images on a touch screen, the images being displayed in a real or virtual environment. And the present invention is also directed to a graphical overlay that is displayed as if it were overlaid on an image on a touch screen. The device can interpret a contact gesture made by a user on a touch screen as a command to navigate through the environment. The graphical overlay guides the user about the location on the touch screen where the contact gesture to achieve the intended operation should be made. The operations may include, for example, translation of the viewpoint within the display environment, rotation of the viewpoint, and combinations thereof. In some embodiments, the device can be a handheld device, but the device can be a device that includes a fixed display, such as one that includes a display mounted on a wall.

より具体的には、上記グラフィカル・オーバーレイは、円のような単一のシンボルのみを含むことができるのに対し、他の実施形態では、上記オーバーレイが2つのシンボルを含む。単一シンボルの実施形態では、このシンボルによってマークされた(目印を付けられた)ディスプレイの領域内を起点とする接触ジェスチャーが、このシンボル外を起点とする接触ジェスチャーと区別される。2シンボルの実施形態では、一方のシンボル内を起点とする接触ジェスチャーが、他方のシンボル内を起点とする接触ジェスチャーと区別される。いずれの場合にも、これらの区別される接触ジェスチャーが、それぞれ平行移動及び回転を制御する。本発明の装置により、一本の指だけを用いて表示された環境をナビゲートするためのユーザ・インタフェースがユーザに提供される。結果的なユーザ体験は、あたかもコンピュータゲームにおける正式な完全攻略のような気分である。   More specifically, the graphical overlay can include only a single symbol, such as a circle, while in other embodiments, the overlay includes two symbols. In a single symbol embodiment, contact gestures originating within the area of the display marked (marked) by the symbol are distinguished from contact gestures originating outside this symbol. In a two-symbol embodiment, a contact gesture originating in one symbol is distinguished from a contact gesture originating in the other symbol. In each case, these distinctive contact gestures control translation and rotation, respectively. The apparatus of the present invention provides a user with a user interface for navigating the displayed environment using only one finger. The resulting user experience feels like a formal complete take on computer games.

図1に、本発明の種々の実施形態による通信システム100を示し、この通信システムは少なくとも1つのコンピュータ装置110Aを含む。通信システム100は、任意で、追加的なコンピュータ装置110B、110C、等を含む。コンピュータ装置110は、任意で、ネットワーク115経由で通信するように構成されている。ネットワーク115は、インターネット、セルラ・ネットワーク、無線ネットワーク、ローカルエリア・ネットワーク、等、及びその組合せを含むことができる。   FIG. 1 illustrates a communication system 100 according to various embodiments of the invention, the communication system including at least one computing device 110A. Communication system 100 optionally includes additional computing devices 110B, 110C, and so on. Computer device 110 is optionally configured to communicate via network 115. Network 115 may include the Internet, a cellular network, a wireless network, a local area network, etc., and combinations thereof.

コンピュータ装置110Aはタッチスクリーン・ディスプレイ125を含み、タッチスクリーン・ディスプレイ125は、ディスプレイ125の表面上へのユーザの指(例えば、親指または他の指)の接触を検出することができ、好適なコンピュータ装置110Aは、スマートホン及びタブレット、並びにラップトップ・コンピュータのようなタッチスクリーンを有する他の種類のコンピュータシステム、及び壁に取り付けたタッチスクリーン・ディスプレイを有するシステムを含む。本明細書中に用いる接触ジェスチャーとは、指とディスプレイ125との相互作用であり、ディスプレイ125にタッチすること、あるいはディスプレイ125の十分近くに近接することのいずれかにより認識されることを含む。好適な接触ジェスチャーは、タップ(短時間のタッチ)、ダブル(二度の)タップ、第1点にタッチして第2点までスワイプする(接触を維持する)こと、特定点におけるタッチ・アンド・ホールド(長押し)、等を含む。ユーザの指がディスプレイ125上を辿る経路は接触ジェスチャーの一部とすることができる。他の接触ジェスチャーは、アーチ(弓)形、円形、等を含むことができる。本明細書中に用いるドラッグとは、ディスプレイ125上に表示中のオブジェクトがスワイプ中の指と共に移動するスワイプである。本明細書中に用いるスワイプとは、あらゆる種類の連続した動きが、一方向であることも、どんな種類のストローク速度であることも必要とせず、むしろ、ある経路上のあらゆる持続した接触を参照し、従って単一の位置におけるタッチ・アンド・リリース(タッチして離すこと)を除外しないことは明らかである。   The computing device 110A includes a touch screen display 125, which can detect the contact of a user's finger (eg, a thumb or other finger) on the surface of the display 125, with a suitable computer. Device 110A includes smartphones and tablets, and other types of computer systems with touch screens, such as laptop computers, and systems with touch screen displays mounted on walls. As used herein, a contact gesture is the interaction of a finger with the display 125, including touching the display 125 or being recognized by being close enough to the display 125. Suitable contact gestures include tap (short touch), double (twice) tap, touch a first point and swipe to a second point (maintain contact), touch and touch at a particular point Hold (long press), etc. The path followed by the user's finger on the display 125 can be part of a contact gesture. Other contact gestures may include arches, arcs, etc. The drag used in the present specification is a swipe in which an object displayed on the display 125 moves together with a swipe finger. Swipe, as used herein, refers to any type of continuous movement that does not need to be one-way or at any type of stroke speed, but rather refers to any persistent contact on a path Obviously, it does not preclude touch and release at a single location.

コンピュータ装置110Aは、任意で、I/O(入力/出力装置)130をさらに含み、I/O130は、通信チャネル、例えばネットワーク115経由で外部装置と通信するように構成されている。I/O130は、通信ポート、無線通信回路、等を含むことができる。   Computing device 110A optionally further includes an I / O (input / output device) 130, which is configured to communicate with external devices via a communication channel, eg, network 115. The I / O 130 can include a communication port, a wireless communication circuit, and the like.

コンピュータ装置110Aは、任意で、例えば、実環境の写真のような記憶されている画像の収集により、ナビゲート可能な環境の表現を記憶するための画像記憶装置145、RAMまたはフラッシュメモリのような非一時的記憶装置をさらに含む。実環境及び仮想環境は、3Dワイヤフレーム画像、及びワイヤフレーム画像の種々の部分に割り当てられた一組のテクスチャのような、ナビゲート可能な環境を構成するのに十分な記憶されている情報により表現することもできる。このため、ナビゲート可能な環境は、例えば、仮想環境、ゲーム環境、及び/または実環境を含むことができる。画像記憶装置145は、任意で、画像及び/または環境の幾何学的形状を記憶するように具体的に構成されたデータ構造を含む。   The computing device 110A optionally includes an image storage device 145 for storing a representation of the navigable environment, such as a RAM or flash memory, for example, by collecting stored images such as photographs of a real environment. It further includes a non-transitory storage device. The real and virtual environments are based on stored information sufficient to constitute a navigable environment, such as a 3D wireframe image and a set of textures assigned to various portions of the wireframe image. It can also be expressed. Thus, the navigable environment may include, for example, a virtual environment, a game environment, and / or a real environment. Image storage 145 optionally includes a data structure specifically configured to store the geometry of the image and / or environment.

一例として、実環境の画像を、装置110Aを保持するリモート(遠隔)ユーザが用いて、個別のテレプレゼンス・ロボットを実環境の全体にわたって操作することができる。これらの実施形態では、画像記憶装置145は、記憶する画像がテレプレゼンス・ロボットから受信したストリーミング・ビデオを含む必要はないが、画像記憶装置145は、ストリーミング・ビデオをバッファ記憶するために、及び/またはストリーミング・ビデオを後の再生用に記録するために用意することができる。ナビゲート可能な環境の表現は、コンピュータ装置110A上に生成することも、及び/または外部の装置または画像源からネットワーク115経由で受信することもできる。   As an example, images of the real environment can be used by a remote user holding device 110A to operate an individual telepresence robot throughout the real environment. In these embodiments, the image storage 145 does not need to store the streaming video received from the telepresence robot, but the image storage 145 may buffer the streaming video, and And / or the streaming video can be provided for recording for later playback. A representation of the navigable environment may be generated on the computing device 110A and / or received via a network 115 from an external device or image source.

コンピュータ装置110Aは、ユーザ・インタフェース(UI:User Interface)論理回路135及びナビゲーション論理回路140をさらに含む。UI論理回路135は、タッチスクリーン入力をタッチ情報の形でディスプレイ125から連続して受信するのに対し、ナビゲーション論理回路140は、ナビゲート可能な環境を1つ以上のナビゲーション・シンボルと共にディスプレイ125に提供する。これらのナビゲーション・シンボルは、表示されるナビゲート可能な環境の画像上にオーバーレイされて、ディスプレイ125の異なる部分の異なる機能(例えば、特性または機能性)を示すために用いられる。ナビゲーション・シンボルは、本明細書中でさらに説明するように、ボタン、メニューアイテム(項目)、円、アイコン、等を含むことができる。ナビゲーション・シンボルは、その下の画像に対して不透明にも半透明にもすることができる。ナビゲーション論理回路140は、任意で、ディスプレイ125の向き(例えば、ポートレートまたはランドスケープの向き/モード)に応じて異なる数のナビゲーション・シンボルを提示するように構成されている。タッチ情報は、例えばタッチされている画素(ピクセル)の数を含むことができる。     The computer device 110A further includes a user interface (UI) logic 135 and a navigation logic 140. UI logic 135 continuously receives touch screen input in the form of touch information from display 125, while navigation logic 140 provides a navigable environment along with one or more navigation symbols on display 125. provide. These navigation symbols are overlaid on a displayed image of the navigable environment and are used to indicate different functions (eg, characteristics or functionality) of different portions of the display 125. Navigation symbols may include buttons, menu items (items), circles, icons, etc., as described further herein. Navigation symbols can be opaque or translucent to the image below. The navigation logic 140 is optionally configured to present different numbers of navigation symbols depending on the orientation of the display 125 (eg, portrait or landscape orientation / mode). The touch information can include, for example, the number of pixels being touched.

UI論理回路135は、受信したタッチ情報をフィルタ処理して、接触ジェスチャーの発生を判定し、シンボル210、215または他の任意のシンボルの位置に対する接触ジェスチャーの位置を特定するように構成されている。接触ジェスチャーがフィルタによって識別されると、ジェスチャーについての情報がナビゲーション論理回路140に渡される。ディスプレイ125の向きがナビゲーション論理回路140によって切り換えられると、ナビゲーション論理回路140はUI論理回路135を更新し、これによりフィルタを新たな構成に更新することができる。両シンボル210、215を用いる実施形態では、各シンボル210、215がタッチスクリーン・ディスプレイ125の一部分と位置合わせされ、これら2つの部分どうしはオーバーラップしない。本明細書中に用いる「位置合わせされる」とは、シンボル210、215の各々が、ディスプレイ125の一部分内の複数の画素にオーバーレイされ、これにより、これらの画素がシンボル210、215と同じ範囲またはほぼ同じ範囲に広がることを意味する。完全に同じ範囲に広がらない場合、ディスプレイ125におけるシンボル210、215と位置合わせされた部分は、ディスプレイ125上のシンボル210、215自体よりも大きくすることも小さくすることもできる。   The UI logic circuit 135 is configured to filter the received touch information to determine the occurrence of a contact gesture and identify the position of the contact gesture relative to the position of the symbol 210, 215 or any other symbol. . Once the contact gesture is identified by the filter, information about the gesture is passed to the navigation logic 140. When the orientation of the display 125 is switched by the navigation logic 140, the navigation logic 140 updates the UI logic 135, which can update the filter to a new configuration. In an embodiment using both symbols 210, 215, each symbol 210, 215 is aligned with a portion of the touch screen display 125, and the two portions do not overlap. As used herein, “aligned” means that each of the symbols 210, 215 is overlaid on a plurality of pixels within a portion of the display 125 so that these pixels are in the same area as the symbols 210, 215 Or it means to spread over almost the same range. Otherwise, the portion of display 125 that is aligned with symbols 210, 215 may be larger or smaller than the symbols 210, 215 on display 125 themselves.

好適なコンピュータ装置110Aを図2A〜2Cに示し、これらの図は、ランドスケープの向き(図2A)及びポートレートの向き(図2B及び2C)のコンピュータ装置110Aを共に示す。図示する実施形態では、ディスプレイ125が長方形のタッチセンサ式表示領域を有し、この表示領域内にナビゲート可能な環境を示す。明瞭にするために、図2A〜2Cにはこうした画像を示さず、この環境の画像上にオーバーレイされるナビゲーション・シンボル210、215のみを示す。図3に、シンボル210、215がオーバーレイされる環境のスクリーンショット、及びより広大なナビゲート可能な環境のミニマップを示す。   A preferred computing device 110A is shown in FIGS. 2A-2C, which both illustrate the computing device 110A in landscape orientation (FIG. 2A) and portrait orientation (FIGS. 2B and 2C). In the illustrated embodiment, the display 125 has a rectangular touch-sensitive display area, within which a navigable environment is shown. For clarity, such images are not shown in FIGS. 2A-2C, but only the navigation symbols 210, 215 that are overlaid on images of this environment. FIG. 3 shows a screenshot of the environment where the symbols 210, 215 are overlaid, and a minimap of a larger, navigable environment.

種々の実施形態では、コンピュータ装置110Aが配向センサを含み、ナビゲーション論理回路140は、配向センサから配向情報を受信して、コンピュータ装置110Aがどのように保持されているかに基づいて、ディスプレイ125をポートレートモードとランドスケープモードとの間で自動的に切り換える。これらの実施形態では、図示するように、シンボル210、215をナビゲーション論理回路140によって、ランドスケープの向きでは中心の左側及び右側に表示することができるのに対し、ポートレートの向きでは1つのシンボル215のみを中心の下方に提示する。一部の実施形態では、壁に取り付けられたタッチスクリーンのような固定式ディスプレイは、単一のシンボル215または両方のシンボルのいずれをも用いることができ、これらのシンボル間で切り換えることができる。   In various embodiments, computing device 110A includes an orientation sensor, and navigation logic 140 receives orientation information from the orientation sensor and ports display 125 based on how computing device 110A is held. Automatically switch between rate mode and landscape mode. In these embodiments, as illustrated, the symbols 210, 215 can be displayed by the navigation logic 140 on the left and right sides of the center in landscape orientation, while one symbol 215 in portrait orientation. Only present below the center. In some embodiments, a fixed display, such as a wall mounted touch screen, can use either a single symbol 215 or both symbols and can switch between these symbols.

ナビゲーション論理回路140も同様に、任意で、ナビゲート可能な環境の部分的または完全な「ミニマップ」を提供するようにさらに構成され、即ち、ナビゲート可能な環境の表現が図3中の画像の一部分上にオーバーレイされる。一部の実施形態では、このミニマップは、任意で、ディスプレイ125の特定部分上でのダブルタップ、例えば、ディスプレイ125におけるシンボル215によって表される部分上でのダブルタップのような接触ジェスチャーによってアクセスされる。   The navigation logic 140 is also optionally further configured to provide a partial or complete "mini-map" of the navigable environment, i.e., the representation of the navigable environment is the image in FIG. Overlaid on a portion of the. In some embodiments, the mini-map is optionally accessed by a contact gesture such as a double tap on a particular portion of the display 125, for example, a double tap on the portion of the display 125 represented by the symbol 215. Is done.

ナビゲーション論理回路140は、任意で、タッチ・アンド・リリースのような接触ジェスチャーに応答して、表示された環境の画像中のオブジェクトに関する情報を提供するようにさらに構成されている。例えば、ナビゲーション論理回路140は、ディスプレイ125上に現在表示されている画像中に示される選択可能なオブジェクトの一覧表(登録リスト)、各オブジェクトについての何らかの情報、及びディスプレイ125内のこうしたオブジェクトの各々に対応する画素の座標を維持する論理回路を含むことができ、これにより、あるオブジェクトに対応する画素から接触ジェスチャーを受信すると、ナビゲーション論理回路140は、このオブジェクトについての情報を、ディスプレイ125におけるこの選択したオブジェクトに近接した領域内へのオーバーレイに加えることができる。   The navigation logic 140 is further configured to optionally provide information about an object in an image of the displayed environment, in response to a touch gesture such as touch and release. For example, navigation logic 140 may provide a listing of selectable objects (registration list) shown in the image currently displayed on display 125, some information about each object, and each of these objects in display 125. Can be included so that upon receiving a contact gesture from a pixel corresponding to an object, the navigation logic 140 can display information about this object on the display 125. Can be added to the overlay into the area close to the selected object.

他の実施形態では、ナビゲーション論理回路140が、画像分析を用いて、ディスプレイ125上に現在表示されている画像内の人物及び物品のような、実環境のような環境内のオブジェクトを識別するように構成されている。これらの実施形態の一部では、ナビゲーション論理回路140が、タッチされた画素の付近の領域内で画像分析を開始することによって接触ジェスチャーに応答することができ、画像の分析部分中に何物かが明確に識別された場合、ナビゲーション論理回路140は、そのオブジェクトまたは人物について記憶されている情報を表示することができ、あるいは情報を検索して、識別されたあらゆるものに近接したオーバーレイ内の情報として概要を提供することができる。   In another embodiment, navigation logic 140 uses image analysis to identify objects in an environment, such as a real environment, such as people and articles in an image currently displayed on display 125. Is configured. In some of these embodiments, the navigation logic 140 can respond to the contact gesture by initiating image analysis in an area near the touched pixel, and some Is clearly identified, the navigation logic 140 can display the information stored for the object or person, or can retrieve the information and retrieve the information in the overlay in close proximity to anything identified. An overview can be provided as.

ナビゲーション論理回路140は、任意で、接触ジェスチャーに応答して、ディスプレイ125上に現在表示されている画像を保存するようにさらに構成されている。ナビゲーション論理回路140は、任意で、接触ジェスチャーに応答して、ナビゲート可能な環境のうち表示されている部分の向きを変えるようにさらに構成され、例えば、接触ジェスチャーは、ナビゲート可能な環境のうち表示されている部分の向きを変えて、反対側(背面)の後継を示すことができる。   The navigation logic 140 is further configured to optionally store an image currently displayed on the display 125 in response to the touch gesture. The navigation logic 140 is further configured to optionally orient the displayed portion of the navigable environment in response to the touch gesture, for example, the touch gesture comprises By changing the direction of the displayed portion, the successor on the opposite side (back side) can be indicated.

ナビゲーション論理回路140は、視点の角度及び位置を共に制御するように、即ち、ディスプレイ125に提示している環境を環境内で見ている位置を変更すると共に、この位置から光景を見る向きを変更するようにさらに構成されている。「視点の位置」とは、この光景が生じる環境内の位置または点である。「視点の角度」とは、環境の座標系における、視点の位置から環境を観察している向きである。視点の角度及び位置を変更することは、パンニング(カメラを振ること)及びズーミングの効果を有し、ナビゲート可能な環境内で視点の位置にいて振り向くか移動する人物に類似している。   The navigation logic 140 controls both the angle and position of the viewpoint, i.e., changes the position in which the environment presented on the display 125 is viewed in the environment, and changes the direction in which the scene is viewed from this position. It is further configured to: The “viewpoint position” is the position or point in the environment where this scene occurs. The “viewpoint angle” is a direction in which the environment is observed from the position of the viewpoint in the environment coordinate system. Changing the angle and position of the viewpoint has the effects of panning (shaking the camera) and zooming, and is similar to a person turning or moving at the viewpoint in a navigable environment.

上述したように、ナビゲーション論理回路140は、UI論理回路135から接触ジェスチャーを受信し、その一部を、視点の位置を変更するコマンドとして認識し、他の接触ジェスチャーは視点を変更するコマンドとして認識するようにさらに構成されている。一部の実施形態では、両方の種類の接触ジェスチャーが、当該ジェスチャーがディスプレイ125の第1部分上に生じて、終了する前にディスプレイ125の他の部分まで延長される点で共通する。一部の例では、フィルタが、開始された接触ジェスチャーを認識して、この接触ジェスチャーが完了する前にその情報をナビゲーション論理回路140に渡すことができる。従って、ナビゲーション論理回路140は、接触ジェスチャーに応答して、接触ジェスチャーがまだ進行中である間に環境の表示を変化させることができる。   As described above, the navigation logic 140 receives the touch gesture from the UI logic 135 and recognizes a part of the touch gesture as a command to change the position of the viewpoint, and recognizes other touch gestures as commands to change the viewpoint. It is further configured to: In some embodiments, both types of contact gestures are common in that the gesture occurs on a first portion of the display 125 and is extended to other portions of the display 125 before ending. In some examples, the filter may recognize the initiated touch gesture and pass the information to the navigation logic 140 before the touch gesture is completed. Thus, the navigation logic 140 can change the display of the environment in response to the touch gesture while the touch gesture is still in progress.

ディスプレイの第1及び/または第2部分を、任意で、シンボル210、215によって示す。一部の実施形態では、シンボル210の所に生じるタッチを用いて視点の角度を制御するのに対し、シンボル215の所に生じるタッチを用いて視点の位置を制御する。例えば、シンボル210の所にタッチして上へスワイプすることは、視点の角度の上向きの変化を生じさせ、シンボル210の所にタッチして右へスワイプすることは、視点の角度の右向きの変化を生じさせる、等である。シンボル215の所にタッチして上向きにスワイプすることは、ナビゲート可能な環境内の視点の位置の前方への移動を生じさせ、シンボル215の所にタッチして右へスワイプすることは、視点の位置の右への移動を生じさせる、等である。図2Aによって表す実施形態は、コンピュータ装置110Aがハンドヘルド装置であり、両手で保持されて、各親指を用いてシンボル210及び215のそれぞれにタッチする際に特に有用である。一部の実施形態では、シンボル210にタッチすることは、シンボル210を選択して、そこから始まる何らかのスワイプでシンボル210をドラッグすることに役立つ。接触ジェスチャーを終えると、シンボル210はディスプレイ125上のホーム位置に戻される。   First and / or second portions of the display are optionally indicated by symbols 210,215. In some embodiments, the angle of the viewpoint is controlled using a touch occurring at the symbol 210, whereas the position of the viewpoint is controlled using a touch occurring at the symbol 215. For example, touching the symbol 210 and swiping up causes an upward change in the angle of the viewpoint, and touching the symbol 210 and swiping right causes a rightward change in the angle of the viewpoint. And so on. Touching the symbol 215 and swiping upward causes the viewpoint position in the navigable environment to move forward, and touching the symbol 215 and swiping right changes the viewpoint position. Is caused to move to the right, and so on. The embodiment represented by FIG. 2A is particularly useful when the computing device 110A is a handheld device and is held with both hands to touch each of the symbols 210 and 215 with each thumb. In some embodiments, touching the symbol 210 helps to select the symbol 210 and drag the symbol 210 with any swipe starting there. Upon completion of the contact gesture, the symbol 210 is returned to the home position on the display 125.

ディスプレイ125を図2Bにポートレートモードで示す。一部の実施形態では、ポートレートモードである際に、シンボル210、215のうちの一方のみをナビゲーション論理回路140によって提供する。従って、UI論理回路135及びナビゲーション論理回路140の動作は、任意で、コンピュータ装置110Aの向きに依存する。ディスプレイ125の異なる部分の機能は、ディスプレイ125の向きに応じて変更することができる。図示する例では、シンボル215が、ディスプレイ125における視点の位置を走査する部分を表す。ディスプレイ125のこの部分に生じてこの部分から外向きにスワイプされる接触ジェスチャーは、UI論理回路135によって、環境内の視点の位置を変更するコマンドとして解釈される。任意で、ディスプレイ125の他のあらゆる部分に生じてスワイプされるタッチは、視点の角度を変更するコマンドとして解釈される。従って、人は、片手を用いてコンピュータ装置110Aを保持し、その手の親指を用いてシンボル215にタッチすることによって視点位置を変更し、その親指を用いてディスプレイ125上の他所までスワイプして視点の角度を変更することができる。   Display 125 is shown in portrait mode in FIG. 2B. In some embodiments, only one of the symbols 210, 215 is provided by the navigation logic 140 when in the portrait mode. Thus, the operation of UI logic 135 and navigation logic 140 optionally depends on the orientation of computing device 110A. The functions of different parts of the display 125 can be changed according to the orientation of the display 125. In the illustrated example, the symbol 215 represents a portion that scans the position of the viewpoint on the display 125. A contact gesture that occurs on this portion of the display 125 and is swiped outward from this portion is interpreted by the UI logic 135 as a command to change the position of the viewpoint in the environment. Optionally, touches that occur and are swiped on any other part of the display 125 are interpreted as commands to change the viewpoint angle. Thus, the person holds the computing device 110A with one hand, changes the viewpoint position by touching the symbol 215 with his thumb, and swipes to another location on the display 125 with his thumb. You can change the angle of the viewpoint.

図2Cに、ランドスケープモードでディスプレイ125上に発生し得るスワイプ動作の例を示す。シンボル215の外側から生じるスワイプ220を用いて視点の角度を変更し、一部の実施形態では、このスワイプは、シンボル215の外側にあるディスプレイ125のタッチセンス面全体を含み、あるいは、ディスプレイ215におけるシンボル215の外側にある一部分だけとすることができる。スワイプ220の長さまたは強さは、任意で、制御の手段として用いることができ、例えば、視点の角度の変化量をスワイプ220の長さに比例させることができる。   FIG. 2C illustrates an example of a swipe operation that may occur on display 125 in landscape mode. The angle of the viewpoint is changed using a swipe 220 originating from outside the symbol 215, and in some embodiments, the swipe includes the entire touch-sensitive surface of the display 125 outside the symbol 215, or It may be only a portion outside the symbol 215. The length or strength of the swipe 220 can optionally be used as a control means, for example, the amount of change in the viewpoint angle can be proportional to the length of the swipe 220.

図2Cでは、ディスプレイ125におけるシンボル215によって示される部分に生じるスワイプ225を用いて視点の位置を変更する。種々の実施形態では、スワイプを直線または曲線の経路に沿ったものとすることができる。スワイプの経路は、任意で、UI論理回路135によって特定の意味を有するジェスチャーとして解釈される。スワイプするジェスチャーの屈曲の度合いを任意で用いて、表示される環境のために視点の位置を変更する経路の曲率を制御する。例えば、図2C中のシンボル215の所に生じてボックス230によって示される領域まで屈曲するジェスチャーは、前進して次第に(右か左を)向く視点の位置の変化を生じさせる。これとは対照的に、シンボル215の所に生じていずれかのボックス235によって示される領域まで屈曲するジェスチャーは、前進して比較的急に(右か左を)向く位置の変化を生じさせる。さらに大きな曲率を有するジェスチャーは、視点位置のUターンを生じさせることができる。このことは急に後ろ向きになる人を模擬し、視点の角度の180度の回転に類似する。ボックス230及び235は必ずしもディスプレイ125上に見られないが、説明のためにディスプレイ125の領域を表すに過ぎない。このため、ボックス230及び235は、非常に多数の代わりのジェスチャーの終点とすることができる離散した領域または連続体のいずれをも表すことができる。   In FIG. 2C, the position of the viewpoint is changed using a swipe 225 generated at a portion of the display 125 indicated by the symbol 215. In various embodiments, the swipe may be along a straight or curved path. The swipe path is optionally interpreted by the UI logic 135 as a gesture having a particular meaning. The degree of curvature of the swipe gesture is optionally used to control the curvature of the path that changes the viewpoint position for the displayed environment. For example, a gesture that occurs at symbol 215 in FIG. 2C and bends to the area indicated by box 230 will cause a change in the position of the viewpoint that moves forward and gradually (to the right or left). In contrast, a gesture that occurs at the symbol 215 and bends to the area indicated by any of the boxes 235 will move forward and cause a relatively sudden (right or left) change in position. Gestures with even greater curvature can cause a U-turn at the viewpoint position. This simulates a person who suddenly turns backward and is similar to a 180 degree rotation of the viewpoint angle. Boxes 230 and 235 are not necessarily visible on display 125, but merely represent an area of display 125 for purposes of illustration. Thus, boxes 230 and 235 can represent any of a discrete area or continuum that can be the endpoint of numerous alternative gestures.

一部の実施形態では、ディスプレイ125におけるシンボル215によって示される領域から生じる接触ジェスチャーを、そのジェスチャーの終了時にディスプレイ125上に保持することができる。換言すれば、ユーザが、シンボル215からある距離だけスワイプした後に自分の指をディスプレイ125上に残す場合、結果的な視点の位置の変化(速度及び向き)が、指がディスプレイ125から持ち上げられるまで継続する。指が持ち上げられるまで動きが継続する場合、視点位置変化の量は、指がディスプレイ125に接触している時間長に依存する。   In some embodiments, a contact gesture resulting from the area indicated by the symbol 215 on the display 125 may be held on the display 125 at the end of the gesture. In other words, if the user leaves his or her finger on the display 125 after swiping a certain distance from the symbol 215, the resulting change in viewpoint position (speed and orientation) will remain until the finger is lifted from the display 125. continue. If the movement continues until the finger is lifted, the amount of change in the viewpoint position depends on the length of time that the finger is in contact with the display 125.

なお、ディスプレイ125において視点の角度を制御するために用いられる部分は、ポートレートモードではランドスケープモードに比べて、ディスプレイ125におけるより大きな量を含む。具体的には、ディスプレイにおける位置変更用の第1部分の面積に対する、ディスプレイにおける視点変更用の部分の面積の比率は、ポートレートモードではランドスケープモードに比べてより大きくなる。   Note that the portion used for controlling the angle of the viewpoint on the display 125 includes a larger amount in the display 125 in the portrait mode than in the landscape mode. Specifically, the ratio of the area of the portion for changing the viewpoint on the display to the area of the first portion for changing the position on the display is larger in the portrait mode than in the landscape mode.

コンピュータ装置110Aは、任意で、画像源150をさらに含む。画像源150は、例えば、画像記憶装置145に記憶される画像または3Dワイヤフレーム画像及び一組のテクスチャのような、ナビゲート可能な環境を構成するのに十分な情報を生成するように構成されたレンダリング論理回路を含むことができる。コンピュータ装置110Aは、少なくともナビゲーション論理回路140の動作を実行するように構成されたマイクロプロセッサ180をさらに含むが、UI論理回路135、画像源150、I/O130、及びコード化された命令を実現することをマイクロプロセッサに要求する本明細書中の他のあらゆる論理回路のうちの1つ以上もさらに含む。   Computing device 110A optionally further includes an image source 150. Image source 150 is configured to generate sufficient information to form a navigable environment, such as, for example, an image stored in image storage 145 or a 3D wireframe image and a set of textures. Rendering logic may be included. Computing device 110A further includes a microprocessor 180 configured to perform at least the operations of navigation logic 140, but implements UI logic 135, image source 150, I / O 130, and coded instructions. It also includes one or more of any other logic circuits herein that require the microprocessor to do so.

本明細書中に説明する「論理回路」は、ハードウェア、ファームウェア、及び/または非一時的なコンピュータ可読媒体上に記憶されているソフトウェアの実行主体を含む。UI論理回路135及びナビゲーション論理回路140を用いて、バーチャルリアリティ環境をナビゲートすること、ゲーム環境をナビゲートすること、現実世界においてテレプレゼンス・ロボット装置をナビゲートすること、等ができる。なお、ここで行うUI論理回路135とナビゲーション論理回路140との分割は例示であり、これらが提供する機能は、単一の論理回路に統合することも3つ以上の論理回路にわたって分散させることもできる。   A "logic circuit" as described herein includes an entity that executes hardware, firmware, and / or software stored on non-transitory computer readable media. The UI logic 135 and the navigation logic 140 can be used to navigate a virtual reality environment, navigate a game environment, navigate a telepresence robotic device in the real world, and the like. Note that the division of the UI logic circuit 135 and the navigation logic circuit 140 performed here is merely an example, and the functions provided by these may be integrated into a single logic circuit or distributed over three or more logic circuits. it can.

通信システム100は、任意で、ネットワーク115越しにコンピュータ装置110Aと通信するリモート画像源155をさらに含む。一部の実施形態では、画像記憶装置145に記憶されている、ナビゲート可能な環境を構成するのに十分な情報を、少なくとも部分的にリモート画像源155によって生成する。リモート画像源155は、I/O130、画像源150、マイクロプロセッサ180、等の具体例を含むことができる。   Communication system 100 optionally further includes a remote image source 155 that communicates over network 115 with computing device 110A. In some embodiments, information stored in the image storage 145 that is sufficient to configure a navigable environment is generated, at least in part, by the remote image source 155. Remote image source 155 may include specific examples of I / O 130, image source 150, microprocessor 180, and the like.

通信システム100は、任意で、センサシステム165をさらに含み、センサシステム165は現実世界のナビゲート可能な環境を特徴付けるデータを生成するように構成され、このデータから、ナビゲート可能な環境を構成するのに十分な情報をさらに生成することができる。センサシステム165は、1つ以上の光学カメラから、距離を測定すると共に画像を収集することができるより複雑なシステムまでに及ぶことができ、これらのより複雑なシステムは、例えば米国特許出願第15/389059号明細書(特許文献1)及び米国特許出願第15/388935号明細書(特許文献2)に記載されたものである。一部の実施形態では、コンピュータ装置110Aがセンサシステム165を含む。   Communication system 100 optionally further includes a sensor system 165, wherein sensor system 165 is configured to generate data characterizing the navigable environment of the real world, and from this data, configures the navigable environment. More information can be generated. Sensor systems 165 can range from one or more optical cameras to more complex systems that can measure distances and collect images, such as those described in U.S. Pat. / 389059 (Patent Document 1) and U.S. Patent Application No. 15/388935 (Patent Document 2). In some embodiments, computing device 110A includes sensor system 165.

図4に、それぞれポートレートモード及びランドスケープモード用の好適なナビゲーション・シンボル形状を示す。ポートレートモードでは、これらの実施形態では、図示するように、シンボル215がディスプレイ125の垂直中心線に沿って配置され、ディスプレイ125の下端からギャップaだけ間隔をおいている。シンボル215はディスプレイ125の右端からも他のギャップ分の間隔をおいている。ランドスケープモードでは、シンボル215が同様にディスプレイ125の下端及び右端から同じギャップ分の間隔をおいている。さらに図示するように、ポートレートモードにおけるオーバーレイの一部分として存在することができる他のナビゲーション・シンボルは、ディスプレイ125の最寄りの2辺に対するそれぞれのギャップを維持するように同様に再配置する。   FIG. 4 shows preferred navigation symbol shapes for portrait mode and landscape mode, respectively. In portrait mode, in these embodiments, as shown, the symbols 215 are positioned along the vertical centerline of the display 125 and are spaced from the lower end of the display 125 by a gap a. The symbol 215 is spaced from the right end of the display 125 by an amount corresponding to another gap. In the landscape mode, the symbols 215 are similarly spaced from the lower end and the right end of the display 125 by the same gap. As further shown, other navigation symbols that may be present as part of the overlay in portrait mode also rearrange to maintain respective gaps for the two nearest sides of display 125.

本明細書中に説明する実施形態は本発明を例示するものである。本発明のこれらの実施形態は例示を参照して説明しているので、説明した方法及び/または具体的構造の種々の変更及び適応は当業者にとって明らかになる。本発明の教示に頼るこうした変更、適応、または変形のすべて、及びこれらにより本発明の教示を進歩させたもののすべてが、本発明の精神及び範囲内であるものと考えられる。従って、これらの説明および図面は限定的な意味で考慮するべきでない、というのは、本発明は例示した実施形態のみに少しも限定されないことは明らかであるからである。   The embodiments described herein are illustrative of the present invention. Since these embodiments of the invention have been described with reference to examples, various modifications and adaptations of the described methods and / or specific structures will become apparent to those skilled in the art. All such alterations, adaptations, or variations that rely on the teachings of the present invention, and all those that have advanced the teachings of the present invention, are considered to be within the spirit and scope of the present invention. Accordingly, these descriptions and drawings should not be considered in a limiting sense, as it is clear that the invention is not in any way limited to the illustrated embodiments.

本明細書中で参照するコンピュータシステムは、集積回路、マイクロプロセッサ、パーソナル・コンピュータ、サーバー、分散型コンピュータシステム、通信装置、ネットワーク装置、等、及びこれらの種々の組み合わせを具えることができる。コンピュータシステムは、ランダムアクセスメモリ(RAM:random access memory)、ダイナミック・ランダムアクセスメモリ(DRAM:dynamic RAM)、スタティック・ランダムアクセスメモリ(SRAM:static RAM)、磁気媒体、光媒体、ナノ媒体、ハードディスクドライブ、コンパクトディスク、デジタル多用途ディスク(DVD:digital versatile disc)、及び/または、アナログまたはデジタル情報を記憶するように構成されたデータベースのような他の装置を具えることもできる。上述した論理回路の種々の例は、ハードウェア、またはコンピュータ可読媒体上記記憶されているソフトウェア、あるいはその組合せを具えることができる。本明細書中に用いるコンピュータ可読媒体は、紙を明示的に除外する。本明細書中に記載した方法のコンピュータで実現されるステップは、コンピュータ可読媒体上に記憶されている一組の命令を含むことができ、これらの命令は、実行されると、これらのステップを上記コンピュータシステムに実行させる。   The computer systems referred to herein may include integrated circuits, microprocessors, personal computers, servers, distributed computer systems, communication devices, network devices, etc., and various combinations thereof. Computer systems include random access memory (RAM), dynamic random access memory (DRAM), static random access memory (SRAM), magnetic media, optical media, nano media, and hard disk drives. , Compact discs, digital versatile discs (DVDs), and / or other devices such as databases configured to store analog or digital information. Various examples of the above-described logic circuits may comprise hardware, or computer-readable media, software stored above, or a combination thereof. Computer-readable media as used herein explicitly excludes paper. The computer-implemented steps of the methods described herein may include a set of instructions stored on a computer-readable medium, which, when executed, cause the steps to be performed. The above computer system is executed.

Claims (19)

タッチスクリーン・ディスプレイと、
マイクロプロセッサを含む論理回路とを具えたコンピュータ装置であって、該論理回路は、
ナビゲート可能な環境の画像を前記タッチスクリーン・ディスプレイ上に表示し、該画像は、前記ナビゲート可能な環境内の位置及び前記ナビゲート可能な環境内の角度を有する視点によって特徴付けられ、
前記タッチスクリーン・ディスプレイからタッチ情報を受信し、
前記タッチ情報をフィルタ処理して、各々が前記タッチスクリーン・ディスプレイ上に起点を有する接触ジェスチャーを識別し、
前記タッチスクリーン・ディスプレイの第1部分内に起点を有する前記接触ジェスチャーに対して、前記タッチスクリーン・ディスプレイ上の画像を変化させて当該画像の前記視点の位置を変更し、
前記タッチスクリーン・ディスプレイの第2部分内に起点を有する前記接触ジェスチャーに対して、前記タッチスクリーン・ディスプレイ上の画像を変化させて当該画像の前記視点の角度を変更する
ように構成されているコンピュータ装置。
A touch screen display,
A logic device including a microprocessor, the logic circuit comprising:
Displaying an image of the navigable environment on the touch screen display, wherein the image is characterized by a viewpoint having a position in the navigable environment and an angle in the navigable environment;
Receiving touch information from the touch screen display;
Filtering the touch information to identify contact gestures each having an origin on the touch screen display;
For the contact gesture having an origin in a first portion of the touch screen display, changing an image on the touch screen display to change a position of the viewpoint of the image,
A computer configured to change an image on the touchscreen display to change an angle of the viewpoint of the image for the contact gesture having an origin in a second portion of the touchscreen display. apparatus.
前記コンピュータ装置がハンドヘルド装置である、請求項1に記載のコンピュータ装置。   The computer device according to claim 1, wherein the computer device is a handheld device. 前記論理回路が、前記ナビゲート可能な環境の画像上に第1シンボルをオーバーレイするようにさらに構成され、該第1シンボルは前記タッチスクリーン・ディスプレイの前記第1部分と位置合わせされる、請求項1または2に記載のコンピュータ装置。   The logic circuit is further configured to overlay a first symbol on an image of the navigable environment, wherein the first symbol is aligned with the first portion of the touch screen display. 3. The computer device according to 1 or 2. 前記論理回路が、前記ナビゲート可能な環境の画像上に第2シンボルをオーバーレイするようにさらに構成され、該第2シンボルは前記タッチスクリーン・ディスプレイの前記第2部分と位置合わせされる、請求項3に記載のコンピュータ装置。   The logic circuit is further configured to overlay a second symbol on an image of the navigable environment, the second symbol being aligned with the second portion of the touch screen display. 4. The computer device according to claim 3. 前記ハンドヘルド装置が配向センサを含み、
前記論理回路が、
前記配向センサから配向情報を受信し、
前記配向情報に基づいて、前記ナビゲート可能な環境の画像の表示を、ランドスケープモードとポートレートモードとの間で切り換え、
前記ナビゲート可能な環境の画像上に第1シンボルをオーバーレイし、該第1シンボルは前記タッチスクリーン・ディスプレイの前記第1部分と位置合わせされ、
前記ナビゲート可能な環境の画像の表示が前記ランドスケープモードに切り換えられている際に、前記ナビゲート可能な環境の画像上に第2シンボルをオーバーレイし、該第2シンボルは前記タッチスクリーン・ディスプレイの前記第2部分内にある、前記タッチスクリーン・ディスプレイの第3部分と位置合わせされるように、さらに構成され、
前記論理回路が、前記ランドスケープモードである間に、前記タッチ情報をフィルタ処理して、前記タッチスクリーン・ディスプレイの前記第3部分内に生じる接触ジェスチャーを識別し、該接触ジェスチャーを識別したことに応答して、前記タッチスクリーン・ディスプレイ上の前記画像を変化させて、前記画像の前記視点の角度を変更するようにさらに構成されている、請求項2に記載のコンピュータ装置。
The handheld device includes an orientation sensor;
The logic circuit comprises:
Receiving orientation information from the orientation sensor,
Based on the orientation information, display of the image of the navigable environment, switching between landscape mode and portrait mode,
Overlaying a first symbol on the image of the navigable environment, wherein the first symbol is aligned with the first portion of the touch screen display;
When the display of the image of the navigable environment is switched to the landscape mode, a second symbol is overlaid on the image of the navigable environment, and the second symbol is displayed on the touch screen display. Further configured to be aligned with a third portion of the touch screen display within the second portion;
The logic circuit, while in the landscape mode, filters the touch information to identify a touch gesture occurring in the third portion of the touch screen display, and responds to the identification of the touch gesture. The computer device of claim 2, further comprising: changing the image on the touchscreen display to change an angle of the viewpoint of the image.
前記タッチスクリーン・ディスプレイの前記第2部分が、前記タッチスクリーン・ディスプレイにおける前記第1部分の外側の領域全体を含む、請求項1〜5のいずれかに記載のコンピュータ装置。   The computer device of claim 1, wherein the second portion of the touchscreen display includes an entire area of the touchscreen display outside the first portion. 前記論理回路が、スワイプを含み前記タッチスクリーン・ディスプレイの前記第2部分内に起点を有する接触ジェスチャーに対して、前記スワイプの長さに比例して前記視点の角度を変化させるようにさらに構成されている、請求項1〜6のいずれかに記載のコンピュータ装置。   The logic circuit is further configured to change an angle of the viewpoint in proportion to a length of the swipe for a touch gesture including a swipe and having an origin in the second portion of the touch screen display. The computer device according to claim 1, wherein: 前記論理回路が、前記タッチスクリーン・ディスプレイの前記第1部分内に起点を有する接触ジェスチャーに対して、前記タッチスクリーン・ディスプレイ上にタッチして接触している時間長に比例して前記視点の角度を変化させるようにさらに構成されている、請求項1〜7のいずれかに記載のコンピュータ装置。   The angle of the viewpoint in proportion to the length of time that the logic circuit is touching and touching the touch screen display for a contact gesture having an origin in the first portion of the touch screen display. The computer device according to any one of claims 1 to 7, further configured to change: 前記論理回路が、前記タッチスクリーン・ディスプレイの前記第1部分内に起点を有し曲線状のスワイプを有する接触ジェスチャーに対して、前記視点の位置を該曲線に沿って変化させるようにさらに構成されている、請求項1〜8のいずれかに記載のコンピュータ装置。   The logic circuit is further configured to change the position of the viewpoint along the curve for a contact gesture having an origin and having a curved swipe within the first portion of the touch screen display. The computer device according to claim 1, wherein: 前記論理回路が、前記タッチスクリーン・ディスプレイの前記第1部分内に起点を有してスワイプを含む接触ジェスチャーに対して、前記第1シンボルを、前記タッチスクリーン・ディスプレイの前記第1部分と位置合わせされた位置から、前記スワイプによってトレースされる経路に沿って移動させるようにさらに構成されている、請求項3に記載のコンピュータ装置。   The logic circuit aligns the first symbol with the first portion of the touch screen display for a touch gesture including a swipe having an origin within the first portion of the touch screen display. The computer device of claim 3, further configured to move from a set position along a path traced by the swipe. 前記ナビゲート可能な環境が、バーチャルリアリティ環境、ゲーム環境、または実環境を含む、請求項1〜10のいずれかに記載のコンピュータ装置。   The computer device according to claim 1, wherein the navigable environment includes a virtual reality environment, a game environment, or a real environment. 前記論理回路が、前記ナビゲート可能な環境のミニマップを、前記ナビゲート可能な環境の画像上にオーバーレイするようさらに構成されている、請求項1〜11のいずれかに記載のコンピュータ装置。   The computer device of claim 1, wherein the logic is further configured to overlay the navigable environment mini-map on an image of the navigable environment. 前記論理回路が、前記タッチ情報をフィルタ処理して、タップを含む接触ジェスチャーを識別するようにさらに構成され、前記タップを含む接触ジェスチャーに応答して前記ミニマップを提供するようにされに構成されている、請求項12に記載のコンピュータ装置。   The logic circuit is further configured to filter the touch information to identify a touch gesture including a tap, and configured to provide the mini-map in response to the touch gesture including the tap. The computing device of claim 12, wherein 前記論理回路が、前記タッチ情報をフィルタ処理して、タップを含む接触ジェスチャーを識別するようにさらに構成され、前記タップを含む接触ジェスチャーに応答して前記画像を保存するようにさらに構成されている、請求項12に記載のコンピュータ装置。   The logic circuit is further configured to filter the touch information to identify a touch gesture that includes a tap, and is further configured to store the image in response to the touch gesture that includes the tap. The computer device according to claim 12. 通信チャネル経由で外部装置と通信するように構成された入出力装置(I/O)をさらに具えている、請求項1〜14のいずれかに記載のコンピュータ装置。   The computer device according to any of the preceding claims, further comprising an input / output device (I / O) configured to communicate with an external device via a communication channel. 前記ナビゲート可能な環境の表現を記憶するように構成された画像記憶装置をさらに具えている、請求項1〜15のいずれかに記載のコンピュータ装置。   A computer device according to any preceding claim, further comprising an image storage device configured to store a representation of the navigable environment. 前記ナビゲート可能な環境の表現を作成するのに十分な情報を生成するように構成された画像源をさらに具えている、請求項1〜16のいずれかに記載のコンピュータ装置。   17. A computer device according to any preceding claim, further comprising an image source configured to generate sufficient information to create a representation of the navigable environment. 前記ハンドヘルド装置が配向センサを含み、前記タッチスクリーン・ディスプレイの前記第1部分が前記タッチスクリーン・ディスプレイの1つの領域内に位置決めされ、前記論理回路が、
前記配向センサから配向情報を受信し。
前記配向情報に基づいて、前記ナビゲート可能な環境の画像の表示を、ランドスケープモードとポートレートモードとの間で切り換え、
前記ポートレートモードである際に、前記タッチスクリーン・ディスプレイの前記第1部分を、前記タッチスクリーン・ディスプレイの第1エッジから第1距離だけ間隔をおき、かつ前記タッチスクリーン・ディスプレイの前記第1エッジよりも長い第2エッジから第2距離だけ間隔をおくように位置決めし、
前記ランドスケープモードである際に、前記タッチスクリーン・ディスプレイの前記第1部分を、前記タッチスクリーン・ディスプレイの前記第1エッジから前記第2距離だけ間隔をおき、かつ前記タッチスクリーン・ディスプレイの前記第2エッジから前記第1距離だけ間隔をおくように位置決めする、請求項2に記載のコンピュータ装置。
The handheld device includes an orientation sensor, the first portion of the touchscreen display is positioned within an area of the touchscreen display, and the logic circuit comprises:
Receiving orientation information from the orientation sensor.
Based on the orientation information, display of the image of the navigable environment, switching between landscape mode and portrait mode,
When in the portrait mode, the first portion of the touch screen display is spaced a first distance from a first edge of the touch screen display and the first edge of the touch screen display. Position from the longer second edge by a second distance,
When in the landscape mode, the first portion of the touch screen display is spaced from the first edge of the touch screen display by the second distance and the second portion of the touch screen display is The computer device according to claim 2, wherein the computer device is positioned so as to be spaced from the edge by the first distance.
受信したコマンドに応答して実環境内で二次元に可動であるモバイル・テレプレゼンス・ロボットと
コントローラ装置とを具えたテレプレゼンス・システムであって、
前記モバイル・テレプレゼンス・ロボットは、カメラ、第1I/O、及び論理回路を含み、該第1I/Oは通信チャネル経由で通信するように構成され、該論理回路は、カメラから前記第1I/Oを通して前記通信チャネル越しにビデオをストリーム配信するように構成され、
前記コントローラ装置は、
前記通信チャネル経由で前記テレプレゼンス・ロボットと通信するように構成された第2I/Oと、
タッチスクリーン・ディスプレイと、
マイクロプロセッサを含む論理回路とを含み、
該論理回路は、
前記タッチスクリーン・ディスプレイ上に前記ストリーム配信されるビデオを表示し、該ビデオは実環境内に位置を有する視点によって特徴付けられ、
前記タッチスクリーン・ディスプレイからタッチ情報を受信し、
前記タッチ情報をフィルタ処理して、各々が前記タッチスクリーン・ディスプレイ上に起点を有する接触ジェスチャーを識別し、
前記タッチスクリーン・ディスプレイの第1部分内に起点を有する接触ジェスチャーに対して、前記テレプレゼンス・ロボットにコマンドを送信して前記テレプレゼンス・ロボットを前記実環境内で移動させて、前記ビデオの前記視点の位置を変更する
ように構成されている、テレプレゼンス・システム。
A telepresence system comprising a mobile telepresence robot movable two-dimensionally in a real environment in response to a received command and a controller device,
The mobile telepresence robot includes a camera, a first I / O, and a logic circuit, wherein the first I / O is configured to communicate via a communication channel, wherein the logic circuit communicates with the first I / O from a camera. Configured to stream video over the communication channel through O;
The controller device includes:
A second I / O configured to communicate with the telepresence robot via the communication channel;
A touch screen display,
A logic circuit including a microprocessor;
The logic circuit is
Displaying the streamed video on the touch screen display, wherein the video is characterized by a viewpoint having a location in a real environment;
Receiving touch information from the touch screen display;
Filtering the touch information to identify contact gestures each having an origin on the touch screen display;
In response to a contact gesture having an origin in a first portion of the touch screen display, a command is sent to the telepresence robot to move the telepresence robot in the real environment, and A telepresence system configured to change the position of the viewpoint.
JP2020500001A 2017-03-13 2018-03-13 Navigation system Pending JP2020510272A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762470405P 2017-03-13 2017-03-13
US62/470,405 2017-03-13
PCT/US2018/022173 WO2018169951A1 (en) 2017-03-13 2018-03-13 Navigation system

Publications (1)

Publication Number Publication Date
JP2020510272A true JP2020510272A (en) 2020-04-02

Family

ID=63522549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020500001A Pending JP2020510272A (en) 2017-03-13 2018-03-13 Navigation system

Country Status (3)

Country Link
EP (1) EP3596587A4 (en)
JP (1) JP2020510272A (en)
WO (1) WO2018169951A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111760280B (en) * 2020-07-31 2023-08-25 腾讯科技(深圳)有限公司 Interface display method, device, terminal and storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010022386A2 (en) * 2008-08-22 2010-02-25 Google Inc. Navigation in a three dimensional environment on a mobile device
US8996165B2 (en) * 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
GB201011687D0 (en) * 2010-07-12 2010-08-25 Faster Imaging As User interactions
US8854316B2 (en) * 2010-07-16 2014-10-07 Blackberry Limited Portable electronic device with a touch-sensitive display and navigation device and method
US8985461B2 (en) * 2013-06-28 2015-03-24 Hand Held Products, Inc. Mobile device having an improved user interface for reading code symbols
US8903568B1 (en) * 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
US9589354B2 (en) * 2014-06-17 2017-03-07 Chief Architect Inc. Virtual model viewing methods and apparatus

Also Published As

Publication number Publication date
EP3596587A4 (en) 2021-01-27
WO2018169951A1 (en) 2018-09-20
EP3596587A1 (en) 2020-01-22

Similar Documents

Publication Publication Date Title
US9836146B2 (en) Method of controlling virtual object or view point on two dimensional interactive display
US9939914B2 (en) System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
KR100832355B1 (en) 3d pointing method, 3d display control method, 3d pointing device, 3d display control device, 3d pointing program, and 3d display control program
CN107077169B (en) Spatial interaction in augmented reality
US20100321319A1 (en) Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device
US9696882B2 (en) Operation processing method, operation processing device, and control method
US20150074573A1 (en) Information display device, information display method and information display program
KR20140094639A (en) Dynamic scaling of touch sensor
Telkenaroglu et al. Dual-finger 3d interaction techniques for mobile devices
KR20170036786A (en) Mobile device input controller for secondary display
US20130155108A1 (en) Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture
US10649616B2 (en) Volumetric multi-selection interface for selecting multiple objects in 3D space
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
US10521101B2 (en) Scroll mode for touch/pointing control
EP3764200B1 (en) Traversing photo-augmented information through depth using gesture and ui controlled occlusion planes
TW201342135A (en) Full 3D interaction on mobile devices
CN108024127A (en) Image display device, mobile equipment and its operating method
WO2010041557A1 (en) Display device, display method, information recording medium, and program
US10444985B2 (en) Computing device responsive to contact gestures
WO2014178039A1 (en) Scrolling electronic documents with a smartphone
JP2020510272A (en) Navigation system
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images
US20130201095A1 (en) Presentation techniques
US11061557B2 (en) Dynamic single touch point navigation
US10809794B2 (en) 3D navigation mode