KR20050083908A - Body-centric virtual interactive apparatus and method - Google Patents

Body-centric virtual interactive apparatus and method Download PDF

Info

Publication number
KR20050083908A
KR20050083908A KR1020057009061A KR20057009061A KR20050083908A KR 20050083908 A KR20050083908 A KR 20050083908A KR 1020057009061 A KR1020057009061 A KR 1020057009061A KR 20057009061 A KR20057009061 A KR 20057009061A KR 20050083908 A KR20050083908 A KR 20050083908A
Authority
KR
South Korea
Prior art keywords
tactile
display
information interface
individual
virtual image
Prior art date
Application number
KR1020057009061A
Other languages
Korean (ko)
Inventor
마크 탈톤
프라카이루트 탈톤
조지 발리아쓰
Original Assignee
모토로라 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모토로라 인코포레이티드 filed Critical 모토로라 인코포레이티드
Publication of KR20050083908A publication Critical patent/KR20050083908A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits

Abstract

A body part position detector 12 (or detectors) provides information regarding the position of a predetermined body part to a virtual image tactile-entry information interface generator 12. The latter constructs a virtual image of the information interface that is proximal to the body part and that is appropriately scaled and oriented to match a viewer's point of view with respect to the body part. A display 13 then provides the image to the viewer. By providing the image of the information interface in close proximity to the body part, the viewer will experience an appropriate haptic sensation upon interacting with the virtual image.

Description

신체-중심의 가상 상호작용 장치 및 방법{Body-centric virtual interactive apparatus and method}Body-centric virtual interactive apparatus and method

본 발명은 일반적으로 가상 현실 디스플레이들(virtual reality displays)과 사용자 개시 입력(user initiated input)에 관한 것이다.The present invention relates generally to virtual reality displays and user initiated input.

당업계에 있어 가상 현실 디스플레이들은 증강 현실 디스플레이들(augmented reality displays)과 혼합 현실 디스플레이들(mixed reality displays)이 알려져 있다(본원에 있어서, "가상 현실"은 일반적으로 문맥이 특히 다른 것을 나타내지 않는다면 상기 관련된 개념들 중 일부 또는 모두를 언급하는 것으로 이해될 것이다). 일반적으로, 상기 디스플레이들은, 사용자가 관심을 갖고 상호작용하게 되는 원하는 환경을 나타내는 방식으로 사용자에게 시각적 정보(때때로 대응하는 음성 정보로 달성됨)를 제공한다. 상기 디스플레이들은 종종 사용자의 눈에 비교적 가깝게 설치된 디스플레이 장치를 고려하게 된다. 사용자에게 제공된 정보는 전적으로 가상일 수 있거나, 가상과 실세계의 시각적 정보의 혼합으로 구성될 수 있다.Virtual reality displays are known in the art for augmented reality displays and mixed reality displays (herein, "virtual reality" is generally referred to above unless the context indicates particularly different). It will be understood to refer to some or all of the related concepts). In general, the displays provide visual information (sometimes achieved with corresponding voice information) to the user in a manner that indicates the desired environment in which the user is interested and will interact. Such displays often take into account display devices installed relatively close to the eyes of a user. The information provided to the user may be entirely virtual, or may consist of a mixture of virtual and real world visual information.

상기 디스플레이 기술은 현재 시각적으로 호소력 있는(compelling) 및/또는 설득력 있는 가상 현실을 사용자에게 비교적 잘 제공한다. 불행히도, 적어도 일부 애플리케이션들에 대해, 상기 가상 현실들과 설득력 있게 상호 작용하는 사용자의 능력은 상기 디스플레이 기술에 뒤진다. 예를 들어, 소위 원격 현장감(telepresence)을 위한 가상 현실 디스플레이들은 실제로 사용자와 거리를 두고 위치된 다른 개인들과의 대면 회의(face-to-face conference)시 외관상으로 사용자를 배치하는데 사용될 수 있다. 사용자는 다른 개인들과의 가상 표현을 보고 들을 수 있고, 일상적인 담화(verbal discourse)를 실현하기 위해 비교적 설득력 있고 직관적인 방식으로 상기 가상 표현들과 상호 작용할 수 있지만, 기존의 가상 현실 시스템들은 유사한 수준의 촉각적-입력 정보 인터페이스 기회들(tactile-entry information interface opportunities)을 반드시 제공하지 않는다.The display technology presently provides the user with a relatively visually compelling and / or convincing virtual reality. Unfortunately, for at least some applications, the user's ability to convincingly interact with the virtual realitys lags behind the display technology. For example, so-called virtual reality displays for remote telepresence can be used to visually locate a user in a face-to-face conference with other individuals who are actually located at a distance from the user. Users can see and hear virtual representations with other individuals and interact with the virtual representations in a relatively compelling and intuitive way to realize everyday verbal discourse, but existing virtual reality systems are similar. It does not necessarily provide a level of tactile-entry information interface opportunities.

예를 들어, 사용자의 시야 내에서 일반적인 컴퓨터 디스플레이의 가상 뷰를 본질적으로 중지시키는 것은 알려져 있다. 사용자는 예를 들어, 일반적인 실세계 마우스 또는 다른 실세계 커서 제어 장치(예를 들어, 조이스틱들(joysticks), 트랙볼들(trackballs), 및 다른 위치/방향 센서들을 포함함)를 사용하여 이 정보 포털(portal)과 상호 작용한다. 어떤 상황들에는 적합하지만, 상기 시나리오는 종종 아쉬운 점이 많이 남는다. 예를 들어, 어떤 사용자들은 성가시고, 직관적이지 않으며, 및/또는 집중을 흩뜨리는 공간에서 배회하는(특히, 실질적으로 응시 방향에 상관없이 시야 내에 계속 남아있는) 디스플레이 스크린을 고려할 수 있다.For example, it is known to essentially stop a virtual view of a typical computer display within the user's field of view. The user may use this information portal using, for example, a common real world mouse or other real world cursor control device (e.g., including joysticks, trackballs, and other position / direction sensors). ) To interact with. While suitable for some situations, this scenario often leaves much to be desired. For example, some users may consider a display screen that is cumbersome, unintuitive, and / or roaming in a distracting space (in particular, remains substantially in view, regardless of gaze direction).

다른 기존의 접근법들은, 가상 공간에서 사용자가 상호작용할 수 있는 가상 입력-인터페이스 메커니즘의 규정을 포함한다. 예를 들어, 가상 "터치-센서티브(touch-sensitive)" 키패드(keypad)는 사용자 앞의 공간에서 유동하는 것처럼 디스플레이될 수 있다. 적절한 추적 메커니즘들을 통해, 시스템은 사용자가 특정한 키를 "터치"하기 위해 물체(가상 포인터 또는 실세계 손가락 등)를 이동시키는 때를 검출할 수 있다. 그러나, 상기 해결책들이 갖는 한가지 특정한 문제는 상기 접근법을 사용할 때 사용자에 대한 촉각적 피드백의 부족이었다. 예를 들어, 터치-센서티브 표면과의 접촉을 시뮬레이션하는 촉각적 피드백이 없다면, 그 프로세스는 적어도 일부 사용자들에 대해 상당히 덜 직관적이고 및/또는 덜 정확하게 될 수 있다. 어떤 종래의 제안들에서는 명령에 필요한 촉각적 감각을 생성할 수 있는 부가적인 장치들(특수 장갑 등)의 사용을 통해 필요할 때 상기 촉각적 피드백을 제공하는 방식들이 있었다. 그러나, 상기 접근법들은 모든 애플리케이션들에 적합하지 않고, 또한 잠재적으로 상당히 부가적인 비용을 수반한다.Other existing approaches include the definition of a virtual input-interface mechanism that a user can interact in virtual space. For example, a virtual “touch-sensitive” keypad can be displayed as it floats in space in front of the user. With appropriate tracking mechanisms, the system can detect when the user moves an object (such as a virtual pointer or real world finger) to “touch” a particular key. However, one particular problem with the solutions was the lack of tactile feedback to the user when using the approach. For example, without tactile feedback simulating contact with a touch-sensitive surface, the process can be significantly less intuitive and / or less accurate for at least some users. In some conventional proposals there have been ways of providing the tactile feedback when needed through the use of additional devices (such as special gloves) that can produce the tactile sensation required for the command. However, the above approaches are not suitable for all applications and also potentially involve a considerable additional cost.

도 1은 본 발명의 실시예에 따라 구성된 블록도를 포함하는 도면.1 includes a block diagram constructed in accordance with an embodiment of the invention.

도 2는 본 발명의 실시예에 따라 구성된 투-아이 두부 장착형 디스플레이 장치(two-eye head-mounted display device)를 착용한 사용자의 정면도를 포함하는 도면.FIG. 2 includes a front view of a user wearing a two-eye head-mounted display device constructed in accordance with an embodiment of the invention.

도 3은 본 발명의 실시예에 따라 구성된 원-아이 두부 장착형 디스플레이 장치(one-eye head-mounted display device)를 착용한 사용자의 정면도를 포함하는 도면.3 includes a front view of a user wearing a one-eye head-mounted display device constructed in accordance with an embodiment of the invention.

도 4는 본 발명의 실시예에 따라 구성된 흐름도를 포함하는 도면.4 includes a flow chart constructed in accordance with an embodiment of the invention.

도 5는 본 발명의 실시예에 따라 구성된 가상 키패드 촉각적-입력 정보 인터페이스의 투시도를 포함하는 도면.5 includes a perspective view of a virtual keypad tactile-input information interface constructed in accordance with an embodiment of the invention.

도 6은 본 발명의 실시예에 따라 구성된 가상 조이스틱 촉각적-입력 정보 인터페이스의 투시도를 포함하는 도면.6 includes a perspective view of a virtual joystick tactile-input information interface constructed in accordance with an embodiment of the invention.

도 7은 본 발명의 실시예에 따라 구성된 가상 드로잉 영역 촉각적-입력 정보 인터페이스의 투시도를 포함하는 도면.7 includes a perspective view of a virtual drawing area tactile-input information interface constructed in accordance with an embodiment of the invention.

도 8은 본 발명의 실시예에 따라 구성된 가상 스위치 촉각적-입력 정보 인터페이스의 투시도를 포함하는 도면.8 includes a perspective view of a virtual switch tactile-input information interface configured in accordance with an embodiment of the invention.

도 9는 본 발명의 실시예에 따라 구성된 가상 휠 촉각적-입력 정보 인터페이스의 투시도를 포함하는 도면.9 includes a perspective view of a virtual wheel tactile-input information interface constructed in accordance with an embodiment of the invention.

도 10은 본 발명의 또다른 실시예에 따라 구성된 블록도를 포함하는 도면.10 includes a block diagram constructed in accordance with another embodiment of the present invention.

상기 필요성들은 특히 도면들과 관련하여 검토된 이하의 상세한 설명에 기술된 신체-중심의 가상 상호작용 장치 및 방법의 규정을 통해 적어도 부분적으로 합치하게 된다.The above needs are at least partly met through the definition of a body-centric virtual interaction device and method described in the following detailed description, particularly with reference to the drawings.

당업자들은 도면들의 요소들이 간단함과 명료함을 위해 도시되고 있고 반드시 비율에 따라 도시된 것이 아니라는 점을 인식할 것이다. 예를 들어, 도면들에서 일부 요소들의 크기는 본 발명의 다양한 실시예들의 이해를 향상시키는데 도움이 되도록 다른 요소들에 비해 과장될 수 있다. 또한, 상업적으로 가능한 실시예에서 유용하거나 필요한 일반적이지만 잘 이해되는 요소들은 일반적으로 본 발명의 상기 다양한 실시예들에 대한 관점을 방해하지 않도록 기술되지 않을 것이다.Those skilled in the art will appreciate that elements of the figures are shown for simplicity and clarity and are not necessarily drawn to scale. For example, the size of some elements in the figures may be exaggerated relative to other elements to help improve understanding of various embodiments of the present invention. In addition, general but well understood elements that are useful or necessary in commercially possible embodiments will not generally be described so as not to obscure the aspects of the various embodiments of the present invention.

대체로, 상기 다양한 실시예들에 따라, 신체-중심의 가상 상호작용 장치는 신체 부분 위치 검출기, 상기 위치 검출기에 결합되어 미리 결정된 신체 부분에 대해 가깝고 실질적으로 고정된 관계의 촉각적-입력 정보 인터페이스의 출력을 제공하는 가상 이미지 촉각적-입력 정보 인터페이스 발생기, 및 사용자가 미리 결정된 신체 부분과 그것과 가깝고 실질적으로 고정된 관계의 촉각적-입력 정보 인터페이스를 보게 되도록 가상 이미지를 제공하는 디스플레이 중 적어도 하나를 포함한다. In general, according to the various embodiments above, the body-centered virtual interaction device is coupled to a body part position detector, the tactile-input information interface of a near and substantially fixed relationship to a predetermined body part coupled to the position detector. At least one of a virtual image tactile-input information interface generator providing an output and a display providing a virtual image such that the user sees a tactile-input information interface of a predetermined body part and a close and substantially fixed relationship therewith. Include.

신체 부분 위치 검출기는 주어진 애플리케이션에 적절한 하나 이상의 다양한 종류의 마커-기반(marker-based) 및/또는 인식/매칭-기반(recognition/matching-based) 엔진들(engines)을 포함할 수 있다. 실시예에 따라, 미리 결정된 신체 부분 그 자체의 사용자의 뷰는 실제, 가상, 또는 그것들의 조합일 수 있다. 가상 정보 인터페이스는 주어진 설정의 환경들에 어울리게 사용자의 피부, 의복, 또는 그것들의 조합에서 부분적으로 또는 전적으로 오버레이(overlay)될 수 있다.The body part position detector may include one or more various kinds of marker-based and / or recognition / matching-based engines suitable for a given application. According to an embodiment, the user's view of the predetermined body part itself may be real, virtual, or a combination thereof. The virtual information interface can be partially or wholly overlaid on the user's skin, clothing, or a combination thereof to suit the environments of a given setting.

다수의 상기 실시예들에서, 사용자에 아주 근접하게(및 양호하게는 실질적으로 등각인) 정보 인터페이스의 가상 이미지를 제공함으로써, 사용자가 예를 들어 특정한 키를 선택하도록 가상 이미지와 상호작용할 때, 사용자가 사용자 자신의 피부 또는 의복과의 촉각적 접촉에 따라 발생하는 대응하는 촉각적 피드백 수신할 것이다. 상기 접촉은 특히 예를 들어 드로잉 표면의 가상 이미지를 그릴 때 유용한 촉각적 기준 프레임을 제공하는데 도움이 될 수 있다.In many of the above embodiments, the user is provided with a virtual image of the information interface in close proximity (and preferably substantially conformal) to the user, such as when the user interacts with the virtual image to select a particular key, for example. Will receive corresponding tactile feedback that occurs upon tactile contact with the user's own skin or clothing. The contact can be particularly helpful in providing a tactile reference frame that is useful, for example, when drawing a virtual image of the drawing surface.

그렇게 구성되면, 상기 실시예들은 일반적으로 개인 신체 중 적어도 미리 결정된 부분의 현재 위치를 결정하고, 촉각적-입력 정보 인터페이스의 가상 이미지를 형성하며, 개인 신체 중 미리 결정된 부분에 관해 가깝고 실질적으로 고정된 관계의 촉각적-입력 정보 인터페이스의 가상 이미지를 포함하는 디스플레이를 형성하는 것을 제공한다.If so configured, the embodiments generally determine the current location of at least a predetermined portion of the individual body, form a virtual image of the tactile-input information interface, and are closely and substantially fixed relative to the predetermined portion of the individual body. It provides forming a display comprising a virtual image of a tactile-input information interface of a relationship.

이제 도면들, 특히 도 1을 참조하면, 신체 부분 위치 검출기(1)는 미리 결정된 뷰어(viewer)의 뷰 포인트(point of view)에 대해 개인의 미리 결정된 신체 부분의 현재 위치를 검출한다. 미리 결정된 신체 부분은 몸통이나 손가락, 손, 팔, 또는 다리와 같은 부속지지나 그것들의 임의 결합 또는 부분을 포함하지만 이에 한정되지 않는 임의의 신체 부분일 수 있다. 또한, 미리 결정된 신체 부분은 주어진 상황에 적절하게 부분적으로 또는 전적으로 의복을 입을 수 있거나 그렇지 않을 수 있다. 뷰어는 일반적으로 신체 부분 위치 검출기가 검출하는 개인의 신체 부분을 적어도 포함할 것이다. 그러나, 실시예에 따라, 뷰어는 다른 개인을 포함할 수 있고, 및/또는 각각이 신체 부분에 대해 그 자신의 대응하는 뷰 포인트를 갖는 다수의 뷰어들이 있을 수 있다.Referring now to the drawings, and in particular to FIG. 1, the body part position detector 1 detects the current position of an individual's predetermined body part with respect to a point of view of the predetermined viewer. The predetermined body part can be any body part, including but not limited to an appendage, such as a torso or finger, hand, arm, or leg, or any combination or part thereof. In addition, the predetermined body part may or may not be partially or wholly dressed as appropriate for a given situation. The viewer will generally include at least the body part of the individual that the body part position detector detects. However, depending on the embodiment, the viewer may include other individuals, and / or there may be multiple viewers, each with its own corresponding viewpoint to the body part.

개인의 신체 부분의 위치를 검출하기 위해 다수의 알려진 방법들이 있고, 상기 실시예들은 이 점에 있어서는 특히 제한되지 않는다. 대신, 상기 실시예들은 이하를 사용하는 검출 시스템들을 포함하지만 이에 한정되지 않는 하나 이상의 상기 알려져 있는 또는 차후에 개발될 검출 기술들 정도로 구현될 수 있다:There are a number of known methods for detecting the position of an individual's body part, and the embodiments are not particularly limited in this respect. Instead, the embodiments may be implemented to one or more of the above known or later developed detection techniques, including but not limited to detection systems using:

시각적 위치 마커들(Visual position markers);Visual position markers;

자기 위치 마커들(Magnetic position markers);Magnetic position markers;

무선 주파수 위치 마커들(Radio frequency position markers);Radio frequency position markers;

패턴-기반 위치 마커들(Pattern-based position markers);Pattern-based position markers;

형상 인식 엔진들(Shape recognition engines);Shape recognition engines;

제스처 인식 엔진들(Gesture recognition engines); 및Gesture recognition engines; And

패턴 인식 엔진들(Pattern recognition engines).Pattern recognition engines.

상황 및 애플리케이션에 따라, 예를 들어 위치 결정의 증가된 정확도, 위치 달성의 속도, 및/또는 증가된 모니터링 범위를 허용하도록 하나 이상의 상기 검출기(검출기 결합을 용이하게 하도록 동일한 종류의 더 많은 검출기 또는 검출기들의 혼합)를 사용하는 것이 바람직할 수 있다.Depending on the situation and the application, for example, one or more such detectors (more detectors or detectors of the same kind to facilitate detector coupling) to allow for increased accuracy of positioning, speed of position attainment, and / or increased monitoring range. May be preferred).

가상 이미지 촉각적-입력 정보 인터페이스 발생기(12)는 신체 부분 위치 검출기(들)로부터 정보를 수신한다. 상기 발생기는 이하의 기능으로서 적어도 일부의 촉각적-입력 정보 인터페이스의 가상 이미지를 발생한다:The virtual image tactile-input information interface generator 12 receives information from the body part position detector (s). The generator generates a virtual image of at least some tactile-input information interface with the following functions:

- 신체 부분과 정보 인터페이스의 가상 이미지 사이에서 원하는 실질적으로 고정된 미리 결정된 공간과 방향 관계; 및A substantially fixed predetermined space and orientation relationship desired between the body part and the virtual image of the information interface; And

- 미리 결정된 뷰어의 뷰 포인트.-Viewpoint of the predetermined viewer.

그렇게 구성되면, 인터페이스 발생기의 가상 이미지는 촉각적-입력 정보 인터페이스가 사실상 개인에 의해 착용된 것처럼 미리 결정된 신체 부분에 가깝고 본질적으로 부착되어 뷰어에게 나타날 것이다.If so configured, the virtual image of the interface generator will appear to the viewer as close to and essentially attached to the predetermined body part as if the tactile-input information interface was actually worn by the individual.

디스플레이(13)는 발생된 이미지 정보를 수신하고, 결과로서 발생한 이미지들을 뷰어에게 제공한다. 양호한 실시예에서, 디스플레이(13)는 두부 장착형 디스플레이(head-mounted display)를 포함할 것이다. 일시적으로 도 2를 참조하면, 두부 장착형 디스플레이(13)는 뷰어의 양쪽 눈을 위한 시각적 인터페이스(21)를 포함한다. 도시된 특정한 실시예에서, 아이 인터페이스(eye interface;21)는 실질적으로 불투명하다. 그 결과로, 뷰어(22)는 디스플레이(13)가 제공하는 것만을 본다. 그러므로, 상기 디스플레이(13)에서, 촉각적-입력 정보 인터페이스의 가상 이미지 뿐만 아니라 대응하는 신체 부분을 발생하는 것이 필요할 것이다. 일시적으로 도 3을 참조하면, 두부 장착형 디스플레이(13)는 또한 뷰어(22)의 오직 한쪽 눈을 위한 시각적 인터페이스(31)를 포함할 수 있다. 도시된 특정한 실시예에서, 아이 인터페이스(31)는 적어도 부분적으로 투명하다. 그 결과로, 뷰어(22)는 적어도 어느 정도까지는 실세계 뿐만 아니라 디스플레이(13)가 제공하는 가상 세계 이미지들을 볼 수 있다. 그렇게 구성되면, 디스플레이(13)는 단지 촉각적-입력 정보 인터페이스를 그리는 것이 필요할 수 있다. 뷰어의 시각과 지각의 감각은 이 후 원하는 시각적 결과를 생성하도록 정보 인터페이스의 가상 이미지와 신체 부분의 실세계 뷰를 통합할 것이다.The display 13 receives the generated image information and provides the resulting images to the viewer. In a preferred embodiment, the display 13 will comprise a head-mounted display. Referring temporarily to FIG. 2, the head mounted display 13 includes a visual interface 21 for both eyes of the viewer. In the particular embodiment shown, the eye interface 21 is substantially opaque. As a result, viewer 22 sees only what display 13 provides. Therefore, in the display 13 it will be necessary to generate not only a virtual image of the tactile-input information interface but also the corresponding body part. With temporary reference to FIG. 3, the head mounted display 13 may also include a visual interface 31 for only one eye of the viewer 22. In the particular embodiment shown, the eye interface 31 is at least partially transparent. As a result, the viewer 22 can at least to some extent view the real world as well as the virtual world images provided by the display 13. If so configured, the display 13 may only need to draw the tactile-input information interface. The viewer's sense of sight and perception will then integrate the virtual image of the information interface with the real world view of the body part to produce the desired visual result.

상기 디스플레이(13) 예들은 단지 예시적인 것으로 의도되고, 다른 디스플레이 메커니즘들도 물론 호환적으로 사용될 수 있다. 예를 들어, 헬멧-장착형 디스플레이들(helmet-mounted displays)과 다른 헤드기어-장착형 디스플레이들(headgear-mounted displays)은 유사한 방식으로 작용할 것이다. 가상 현실 이미지들을 위해 의도된 투명 및 불투명 디스플레이들 모두를 포함하는 상기 디스플레이들은 당업계에 잘 알려져 있다는 점이 또한 인식될 것이다. 그러므로, 부가적인 상세한 설명들은 간결함과 집중의 보존을 위해 본원에서 제공될 필요가 없다.The display 13 examples are intended to be illustrative only, and other display mechanisms may of course be used interchangeably. For example, helmet-mounted displays and other headgear-mounted displays will work in a similar manner. It will also be appreciated that such displays, including both transparent and opaque displays intended for virtual reality images, are well known in the art. Therefore, additional details need not be provided herein for the sake of brevity and concentration.

이제 도 4를 참조하면, 전술된 플랫폼(flatform)이나 임의의 다른 적합한 플랫폼 또는 시스템을 사용하여, 프로세스는 손이나 손목 영역과 같은 미리 결정된 신체 부분의 현재 위치를 결정한다(41)(물론, 원한다면, 하나 이상이 신체 부분들이 사용자 신체의 다양한 부분들에 위치된 다수의 촉각적-입력 정보 인터페이스들의 사용을 지원하는 방식으로 모니터링될 수 있다). 프로세스는 이 후 대응하는 촉각적-입력 정보 인터페이스 가상 이미지를 형성한다(42). 예를 들어, 정보 인터페이스가 키패드를 포함할 때, 주어진 신체 부분에 대해 가깝고 부착되어 나타나도록 가상 이미지는 특정한 크기, 분명한 공간적 위치, 및 방향을 갖는 상기 키패드를 포함할 것이다. 실시예에 따라, 가상 이미지는 개인 신체의 미리 결정된 부분의 물리적 표면(일반적으로 개인의 피부 및/또는 옷, 다른 의복, 또는 겉옷)에 실질적으로 등각으로, 또는 적어도 실질적으로 그것과 일치하여 나타날 수 있다.Referring now to FIG. 4, using the platform described above or any other suitable platform or system, the process determines 41 the current position of a predetermined body part, such as a hand or wrist region (if desired, of course). One or more body parts may be monitored in a manner that supports the use of multiple tactile-input information interfaces located in various parts of the user's body). The process then forms 42 a corresponding tactile-input information interface virtual image. For example, when the information interface includes a keypad, the virtual image will include the keypad with a particular size, apparent spatial position, and orientation so that it appears close and attached to a given body part. According to an embodiment, the virtual image may appear substantially conformal to, or at least substantially coincident with, the physical surface of the predetermined portion of the individual's body (generally the skin and / or clothing, other clothing, or outerwear of the individual). have.

프로세스가 가상 이미지를 신체 부분에 닿지 않고 가깝게 배치할 때 일부 이점들이 달성될 것이다. 그러나, 다수의 애플리케이션들에 대해, 가상 이미지로 하여금 신체 부분 표면과 일치하여 나타나게 하는 것이 양호할 것이다. 그렇게 구성되면, 사용자가 그것이 전달하는 촉각적-입력 정보 인터페이스로서 가상 이미지와 상호 작용할 때 촉각적 피드백은 본질적으로 사용자에게 이용 가능하다.Some advantages will be achieved when the process places the virtual image close without touching the body part. However, for many applications, it would be desirable to have the virtual image appear consistent with the body part surface. If so configured, tactile feedback is essentially available to the user when the user interacts with the virtual image as the tactile-input information interface it conveys.

프로세스는 이 후 신체 부분과 결합하여 가상 이미지의 디스플레이를 형성한다(43). 이미 언급된 바와 같이, 사용하는 디스플레이(13)의 종류 뿐만 아니라 다른 요소들(운용자가 설립하고자 하는 가상-세계 이머젼(immersion)의 의도된 레벨 등)에 부분적으로 의존하여, 신체 부분은 전적으로 실제, 부분적으로 실제 및 부분적으로 가상, 또는 전적으로 가상일 수 있다. 신체 부분이 전적으로 실-세계인 경우, 디스플레이는 두개의 이미지들을 분명한 하나의 이미지로 결합하도록 사용자의 시각 및 시각 지각을 허용하는 방식으로 가상 이미지를 단지 제공해야 한다. 결과로서 발생한 이미지는 이 후 선택된 뷰어에게 선택된 디스플레이 상에서 제공된다(44).The process then combines with the body part to form a display of the virtual image (43). As already mentioned, depending on the type of display 13 used as well as other factors (such as the intended level of virtual-world immersion the operator wishes to establish, etc.), the body part is entirely real, It may be partially real and partially virtual, or entirely virtual. If the body part is wholly real-world, the display should only present the virtual image in a manner that allows the user's visual and visual perception to combine the two images into one distinct image. The resulting image is then presented 44 to the selected viewer on the selected display.

가상적으로 무한한 수의 정보 인터페이스들은 이런 식으로 성공적으로 그려질 수 있다. 예를 들어, 도 5를 참조하면, 다중-키 키패드(52)가 그려질 수 있다(상기 도면에서, 뷰어의 손의 손바닥(51)에). 물론, 캐패드(52)는 실제로 존재하지 않는다. 그것은 단지 디스플레이(13)를 통해 뷰어에게 나타날 것이다. 뷰어가 이 손을 돌리면, 키패드(52)가 착용되어 있었던 것처럼 또는 그렇지 않으면 뷰어의 부분이었던 것처럼 키패드(52)도 또한 돌 것이다. 유사하게, 뷰어가 손을 눈에 더 가깝게 이동시킴에 따라, 키패드(52)는 손의 증가한 비율을 매칭하도록 크기를 증가시킬 것이다. 또한, 가상 키패드(52)를 신체 부분에 가깝게 배치시킴으로써, 뷰어는 반대 손(도시되지 않음)의 손가락으로 키들 중 하나를 주장하는 것처럼 보이는 적절한 대응하는 촉각적 감각을 경험할 것이다. 예를 들어, 그것에 의해 키를 선택 및 주장하도록 숫자 "1"을 갖는 키 상에 손가락을 놓으면, 사용자는 그 손가락과 손의 손바닥(51) 사이의 접촉으로 인해 진짜 촉각적 감각을 느낄 것이다. 많은 사용자들에 대해, 상기 촉각적 감각은 아마도 그것에 의해 가상 현실 경험을 높이기 위해 상당한 현실 감각을 더할 것이다.A virtually infinite number of information interfaces can be successfully drawn in this way. For example, referring to FIG. 5, a multi-key keypad 52 may be drawn (in the palm 51 of the viewer's hand, in the figure above). Of course, the pad 52 does not actually exist. It will only appear to the viewer via the display 13. When the viewer turns this hand, the keypad 52 will also turn as if the keypad 52 had been worn or otherwise part of the viewer. Similarly, as the viewer moves his hand closer to the eye, the keypad 52 will increase in size to match the increased proportion of the hand. Also, by placing the virtual keypad 52 close to the body part, the viewer will experience the appropriate corresponding tactile sensation that appears to assert one of the keys with the finger of the opposite hand (not shown). For example, placing a finger on a key with the number "1" to select and claim a key by it, the user will feel a real tactile sensation due to the contact between the finger and the palm 51 of the hand. For many users, the tactile sensation will probably add a significant sense of reality to thereby enhance the virtual reality experience.

이미 언급된 바와 같이, 다른 정보 인터페이스들이 또한 가능하다. 도 5은 조이스틱(61) 메커니즘을 그린다. 도 7은 기록 영역(71)을 도시한다. 예를 들어, 후자는 소위 그래피티-기반 필적 인식(grafiti-based handwriting recognition) 또는 다른 형태의 필적 인식 입력을 허용하는데 사용될 수 있다. 필적을 추적하는 것은 적절한 메커니즘들을 사용하여 가상 상황에서 달성되지만, 손바닥(51)(상기 예에서)은 기록(예를 들어 스타일러스(stylus)로)이 발생할 수 있는 진짜 실-세계 표면을 제공한다. 또한, 이런 식으로 신체 부분 상에 기록할 때의 사용자에 의한 촉각적 감각 경험은 적은 공기에서 동일한 동작들을 달성하고자 할 때보다 상당히 보다 호소력 있는 경험을 제공하는 경향이 있을 것이다.As already mentioned, other information interfaces are also possible. 5 depicts a joystick 61 mechanism. 7 shows the recording area 71. For example, the latter can be used to allow so-called graffiti-based handwriting recognition or other forms of handwriting recognition input. Tracking handwriting is accomplished in a virtual situation using appropriate mechanisms, but the palm 51 (in this example) provides a real real-world surface where recording (eg with a stylus) can occur. Also, the tactile sensory experience by the user when recording on the body part in this way will tend to provide a significantly more compelling experience than when trying to achieve the same actions in less air.

도 8은 또다른 정보 인터페이스 예를 도시한다. 여기서, 제1 스위치(81)는 임의의 많은 동작들(예를 들어, 가상 또는 실-세계 환경에서 조명 기구(light fixture) 또는 다른 장치를 제어하는 것 등)을 초래하도록 제공될 수 있고, 제2 슬라이딩 스위치(82)는 다양한 종류의 비례 제어(proportional control)(가상 또는 실-세계 환경에서 조명을 흐릿하게 하는 것 등)를 초래하도록 제공될 수 있다. 그리고 도 9는 모두 휠 인터페이스에 기초한 두개의 다른 인터페이스 예들을 도시한다. 제1 휠 인터페이스(91)는 신체 부분 표면에 수직으로 회전하여 실장되어 일부 대응하는 제어를 초래하도록 회전될 수 있는 휠을 포함한다. 제2 휠 인터페이스(92)는 신체 부분 표면에 본질적으로 평행으로 회전하여 실장되어 일부 대응하는 제어를 초래하도록 또한 회전될 수 있는 휠을 포함한다. 8 shows another information interface example. Here, the first switch 81 can be provided to effect any number of operations (eg, controlling a light fixture or other device in a virtual or real-world environment, etc.), and The two sliding switches 82 may be provided to effect various kinds of proportional control (such as blurring lighting in a virtual or real-world environment). 9 shows two different interface examples, all based on the wheel interface. The first wheel interface 91 includes a wheel that can be rotated to be mounted perpendicular to the body part surface and rotated to result in some corresponding control. The second wheel interface 92 includes a wheel that can also be rotated to be mounted essentially parallel to the body part surface, resulting in some corresponding control.

상기 예들은 단지 예시적인 것이고 잠재적인 인터페이스들과 애플리케이션들의 모든 리스트인 것으로 보여지지 않도록 의도된다. 실제로, 매우 다양한 인터페이스 설계들(단독 또는 결합)은 본원에서 기술된 실시예들과 쉽게 호환 가능하다.The above examples are illustrative only and are not intended to be viewed as a list of all potential interfaces and applications. Indeed, a wide variety of interface designs (alone or in combination) are readily compatible with the embodiments described herein.

이제 도 10을 참조하면, 특정한 실시예의 보다 상세한 예는 신체 부분 위치 검출기(11)를 포함하도록 모션 추적 센서(101)와 모션 추적 서브시스템(102)(당업계에 이해되는 바와 같이 둘 다)을 사용한다. 상기 센서(101)와 대응하는 추적 서브시스템(102)은 매우 적합하고, 실질적으로 연속적으로 기초하여 주어진 팔의 손목 영역과 같이 주어진 신체 부분의 위치를 추적 및 결정할 수 있다. 가상 이미지 발생기(12)는 결과로서 발생한 좌표 데이터를 수신한다. 상기 실시예에서, 가상 이미지 발생기(12)는 원하는 상호작용 장치(상기 예에서, 키패드)의 3차원 그래픽 모델을 지원하는 컴퓨터와 같은 프로그램 가능한 플랫폼을 포함한다. 전술된 바와 같이, 상호작용 장치의 가상 이미지를 규정하는 파라미터들은 흥미있는 신체 부분에 본질적으로 부착되는 것과 같이, 그렇지 않으면 뷰어의 관점으로부터 적절하게 나타나도록 신체 부분에 대해 크기 및 방향 형성되도록 처리된다. 결과적인 가상 이미지(104)는 이 후 환경(106)의 뷰어의 뷰와 결합된다(105)(이것은 주어진 레벨의 가상 이머젼과 디스플레이 메커니즘 그 자체에 적절한 임의의 전술된 방식들로 달성된다). 사용자(22)는 이 후 디스플레이 메커니즘(상기 실시예에서, 안경 디스플레이(13))을 통해 의도된 인터페이스 장치의 이미지를 본다.Referring now to FIG. 10, a more detailed example of a specific embodiment includes motion tracking sensor 101 and motion tracking subsystem 102 (both as understood in the art) to include body part position detector 11. use. The sensor 101 and corresponding tracking subsystem 102 are very suitable and can track and determine the location of a given body part, such as a wrist region of a given arm, on a substantially continuous basis. The virtual image generator 12 receives the resulting coordinate data. In this embodiment, the virtual image generator 12 includes a programmable platform, such as a computer, that supports a three-dimensional graphical model of the desired interaction device (in this example, a keypad). As described above, the parameters defining the virtual image of the interaction device are processed to be sized and oriented with respect to the body part so that it appears otherwise properly from the viewer's point of view, as is essentially attached to the body part of interest. The resulting virtual image 104 is then combined 105 with the viewer's view of the environment 106 (this is accomplished in any of the above described manners appropriate for the given level of virtual immersion and the display mechanism itself). The user 22 then sees an image of the intended interface device via the display mechanism (in the embodiment, the spectacle display 13).

많은 예들에서, 가상 현실 경험의 일반적인 지원 성분들 중 대부분은 이 새로운 결과들을 달성하도록 다소 재이용되기 때문에, 상기 시사들은 부가적인 비용 없이 또는 아주 적은 비용으로 구현될 수 있다. 또한, 상기 실시예들 중 대부분에서, 부가적인 장치의 사용 없이 가상의 촉각적 상호작용과 일치하는 진짜 촉각적 감각의 규정은 중요하고 가치있는 부가적인 이점을 포함한다.In many instances, since most of the general support components of the virtual reality experience are somewhat reused to achieve these new results, the previews can be implemented at no additional cost or at very little cost. In addition, in most of the above embodiments, the definition of genuine tactile sensations consistent with virtual tactile tactile interactions without the use of additional devices includes significant and valuable additional advantages.

당업자는 매우 다양한 변경들, 교대들, 및 조합들이 본 발명의 의도와 범위를 벗어나지 않고 전술된 실시예들에 관해 형성될 수 있고, 상기 변경들, 교대들, 및 조합들은 본 발명에 따른 개념의 범위 내인 것으로 보여진다. 예를 들어, 상기 가르침들은 터치 및/또는 압력 센서(즉, 예를 들어, 사용자의 손가락과 사용자의 인터페이스-타겟된(interface-targeted) 피부 영역 사이의 물리적 접촉을 감지할 수 있는(및/또는 물리적 접촉의 정도를 변경할 수 있는) 센서)의 사용을 통해 확장될 수 있다. 상기 확장은 적절한 설정으로 향상된 해상도 및/또는 폴스 트리거링(false triggering)의 삭제를 유발할 수 있다.Those skilled in the art can make various modifications, alterations, and combinations with respect to the above-described embodiments without departing from the spirit and scope of the present invention, and the alterations, alterations, and combinations of the concept according to the present invention. It is shown to be in range. For example, the teachings can detect (and / or detect) physical contact between a touch and / or pressure sensor (ie, for example, a user's finger and the user's interface-targeted skin area). Through the use of sensors) which can change the degree of physical contact. The extension may cause the enhanced resolution and / or false triggering to be eliminated with appropriate settings.

Claims (23)

개인의 신체 중 적어도 미리 결정된 부분의 현재 위치를 결정하는 단계;Determining a current location of at least a predetermined portion of an individual's body; 촉각적-입력 정보 인터페이스의 가상 이미지를 형성하는 단계; 및Forming a virtual image of the tactile-input information interface; And 상기 개인의 신체 중 상기 미리 결정된 부분에 대해 가깝고 실질적으로 고정된 관계의 상기 촉각적-입력 정보 인터페이스의 상기 가상 이미지를 포함하는 디스플레이를 형성하는 단계를 포함하는 방법.Forming a display comprising the virtual image of the tactile-input information interface in a near and substantially fixed relationship to the predetermined portion of the individual's body. 제 1 항에 있어서, 개인의 신체 중 적어도 미리 결정된 부분의 현재 위치를 결정하는 단계는 상기 개인의 신체 중 적어도 부속지(appendage)의 현재 위치를 결정하는 단계를 포함하는, 방법.The method of claim 1, wherein determining the current location of at least a predetermined portion of the individual's body comprises determining a current location of at least an appendage of the individual's body. 제 1 항에 있어서, 촉각적-입력 정보 인터페이스의 가상 이미지를 형성하는 단계는 키패드, 스위치, 슬라이딩 장치, 조이스틱, 드로잉 영역 및 휠 중 적어도 하나를 포함하는 가상 이미지를 형성하는 단계를 포함하는, 방법.The method of claim 1, wherein forming a virtual image of the tactile-input information interface comprises forming a virtual image comprising at least one of a keypad, a switch, a sliding device, a joystick, a drawing area, and a wheel. . 제 1 항에 있어서, 상기 개인의 신체 중 상기 미리 결정된 부분에 대해 가깝고 실질적으로 고정된 관계의 상기 촉각적 정보 인터페이스의 상기 가상 이미지를 포함하는 디스플레이를 형성하는 단계는, 상기 촉각적 정보 인터페이스 중 적어도 일부가 상기 개인의 신체 중 상기 미리 결정된 부분의 물리적 표면에 적어도 실질적으로 등각인 디스플레이를 형성하는 단계를 포함하는, 방법.The method of claim 1, wherein forming a display comprising the virtual image of the tactile information interface in a near and substantially fixed relationship to the predetermined portion of the body of the individual comprises: at least one of the tactile information interfaces; Forming a display at least partially conformal to the physical surface of the predetermined portion of the body of the individual. 제 1 항에 있어서, 상기 개인의 신체 중 상기 미리 결정된 부분에 대해 가깝고 실질적으로 고정된 관계의 상기 촉각적 정보 인터페이스의 상기 가상 이미지를 포함하는 디스플레이를 형성하는 단계는, 상기 촉각적 정보 인터페이스 중 적어도 일부가 상기 개인의 신체 중 상기 미리 결정된 부분의 물리적 표면과 실질적으로 일치하는 디스플레이를 형성하는 단계를 포함하는, 방법.The method of claim 1, wherein forming a display comprising the virtual image of the tactile information interface in a near and substantially fixed relationship to the predetermined portion of the body of the individual comprises: at least one of the tactile information interfaces; Forming a display wherein a portion substantially matches the physical surface of the predetermined portion of the body of the individual. 제 5 항에 있어서, 상기 촉각적 정보 인터페이스 중 적어도 일부가 상기 개인의 신체 중 상기 미리 결정된 부분의 물리적 표면과 실질적으로 일치하는 디스플레이를 형성하는 단계는, 상기 촉각적 정보 인터페이스 중 적어도 일부가 상기 개인의 신체 중 상기 미리 결정된 부분의 노출된 피부 표면과 실질적으로 일치하는 디스플레이를 형성하는 단계를 포함하는, 방법.6. The method of claim 5, wherein forming a display wherein at least a portion of the tactile information interface substantially coincides with a physical surface of the predetermined portion of the body of the individual, wherein at least a portion of the tactile information interface is the individual Forming a display substantially coincident with the exposed skin surface of the predetermined portion of the body of the patient. 제 1 항에 있어서, 상기 디스플레이를 상기 개인에게 표시하는 단계를 더 포함하는, 방법.The method of claim 1, further comprising presenting the display to the individual. 제 7 항에 있어서, 상기 디스플레이를 상기 개인에게 표시하는 단계는 두부 장착형 디스플레이를 사용하여 상기 디스플레이를 상기 개인에게 표시하는 단계를 포함하는, 방법.8. The method of claim 7, wherein presenting the display to the individual comprises presenting the display to the individual using a head mounted display. 제 7 항에 있어서, 상기 디스플레이를 상기 개인에게 표시하는 단계는 상기 디스플레이가 표시될 것을 나타내는 상기 개인으로부터의 입력을 검출하는 단계를 포함하는, 방법.8. The method of claim 7, wherein presenting the display to the individual comprises detecting an input from the individual indicating that the display is to be displayed. 제 1 항에 있어서, 상기 개인 이외의 적어도 한 사람에게 상기 디스플레이를 표시하는 단계를 더 포함하는, 방법.The method of claim 1, further comprising presenting the display to at least one person other than the individual. - 적어도 하나의 신체 부분 위치 검출기;At least one body part position detector; - 상기 위치 검출기에 동작 가능하게 결합된 입력과 미리 결정된 신체 부분에 대해 가깝고 실질적으로 고정된 관계의 촉각적-입력 정보 인터페이스의 가상 이미지를 제공하는 출력을 갖는 가상 이미지 촉각적-입력 정보 인터페이스 발생기; 및A virtual image tactile-input information interface generator having an input operatively coupled to the position detector and an output providing a virtual image of a tactile-input information interface in a near and substantially fixed relationship to a predetermined body part; And 상기 가상 이미지 촉각적-입력 정보 인터페이스에 동작 가능하게 결합된 디스플레이로서, 뷰어가 미리 결정된 신체 부분과 상기 신체 부분과 가깝고 고정된 관계의 상기 촉각적-입력 정보 인터페이스를 보도록 상기 미리 결정된 신체 부분에 가깝고 실질적으로 고정된 관계의 상기 촉각적-입력 정보 인터페이스의 이미지를 제공하는, 상기 디스플레이를 포함하는 장치.A display operatively coupled to the virtual image tactile-input information interface, wherein the viewer is close to the predetermined body part to view a predetermined body part and the tactile-input information interface in a close and fixed relationship with the body part; And provide the image of the tactile-input information interface in a substantially fixed relationship. 제 11 항에 있어서, 적어도 하나의 신체 부분 위치 검출기는 시각적 위치 마커, 자기 위치 마커, 무선 주파수 위치 마커, 패턴-기반 위치 마커, 제스처 인식 엔진, 형상 인식 엔진, 및 패턴 매칭 엔진 중 적어도 하나를 포함하는, 장치.The apparatus of claim 11, wherein the at least one body part position detector comprises at least one of a visual position marker, a magnetic position marker, a radio frequency position marker, a pattern-based position marker, a gesture recognition engine, a shape recognition engine, and a pattern matching engine. Device. 제 11 항에 있어서, 상기 가상 이미지 촉각적-입력 정보 인터페이스 발생기는 상기 촉각적-입력 정보 인터페이스의 상기 가상 이미지를 발생하기 위한 발생기 수단을 포함하는, 장치.12. The apparatus of claim 11, wherein the virtual image tactile-input information interface generator comprises generator means for generating the virtual image of the tactile-input information interface. 제 13 항에 있어서, 상기 발생기 수단은 또한 상기 미리 결정된 신체 부분의 디지털 표현과 상기 촉각적-입력 정보 인터페이스의 상기 가상 이미지를 결합하는, 장치.The apparatus of claim 13, wherein the generator means also combines the digital representation of the predetermined body part and the virtual image of the tactile-input information interface. 제 11 항에 있어서, 상기 디스플레이는 두부 장착형 디스플레이를 포함하는, 장치.The apparatus of claim 11, wherein the display comprises a head mounted display. 제 15 항에 있어서, 상기 두부 장착형 디스플레이는 적어도 원 아이 인터페이스를 포함하는, 장치.The apparatus of claim 15, wherein the head mounted display comprises at least a one eye interface. 제 16 항에 있어서, 상기 두부 장착형 디스플레이는 적어도 투 아이 인터페이스들을 포함하는, 장치.The apparatus of claim 16, wherein the head mounted display comprises at least two eye interfaces. 제 16 항에 있어서, 상기 적어도 원 아이 인터페이스는 적어도 부분적으로 투명한, 장치.The apparatus of claim 16, wherein the at least one eye interface is at least partially transparent. 제 16 항에 있어서, 상기 적어도 원 아이 인터페이스는 실질적으로 불투명한, 장치.The apparatus of claim 16, wherein the at least one eye interface is substantially opaque. 제 11 항에 있어서, 촉각적-입력 정보 인터페이스의 상기 가상 이미지는 키패드, 스위치, 슬라이딩 장치, 조이스틱, 드로잉 영역, 및 휠 중 적어도 하나를 포함하는, 장치.The apparatus of claim 11, wherein the virtual image of the tactile-input information interface comprises at least one of a keypad, a switch, a sliding device, a joystick, a drawing area, and a wheel. 제 11 항에 있어서, 상기 촉각적-입력 정보 인터페이스의 상기 이미지 중 적어도 일부는 상기 미리 결정된 신체 부분 상에서 실질적으로 노출되도록 상기 디스플레이 상에 나타나는, 장치.The apparatus of claim 11, wherein at least a portion of the image of the tactile-input information interface appears on the display to be substantially exposed on the predetermined body part. 개인의 신체 부분 중 일부에 대해 실질적으로 고정된 미리 결정된 공간 및 방향 관계를 갖는 촉각적-입력 정보 인터페이스의 가상 이미지를 형성하는 장치는:An apparatus for forming a virtual image of a tactile-input information interface having a predetermined spatial and directional relationship substantially fixed to a portion of an individual's body part is: - 미리 결정된 뷰어의 뷰 포인트에 대해 상기 개인의 신체 부분의 현재 위치를 검출하기 위한 위치 검출기 수단;Position detector means for detecting a current position of the body part of the individual with respect to a predetermined view point of the viewer; - 상기 실질적으로 고정된 미리 결정된 공간 및 방향 관계와 상기 미리 결정된 뷰어의 뷰 포인트의 기능으로서 적어도 부분적으로 촉각적-입력 정보 인터페이스의 가상 이미지를 제공하기 위해 상기 위치 검출기 수단에 응답하는 이미지 발생 수단; 및Image generating means responsive to said position detector means for providing a virtual image of said tactile-input information interface at least partially as a function of said substantially fixed predetermined spatial and directional relationship and said predetermined viewer's view point; And - 상기 미리 결정된 뷰어에게 디스플레이를 제공하기 위해 상기 이미지 발생 수단에 응답하는 디스플레이 수단으로서, 상기 미리 결정된 뷰어의 뷰 포인트로부터 상기 촉각적-입력 정보 인터페이스의 상기 가상 이미지와 상기 개인의 신체 부분을 포함하는, 상기 디스플레이를 포함하는, 가상 이미지 형성 장치.Display means responsive to the image generating means for providing a display to the predetermined viewer, comprising the virtual image of the tactile-input information interface and the body part of the individual from a point of view of the predetermined viewer; And a display. 제 22 항에 있어서, 상기 개인의 적어도 하나의 모니터링된 신체 부분과 상기 촉각적-입력 정보 인터페이스의 상기 가상 이미지의 분명한 위치 사이의 공간적 상호 작용을 검출하기 위한 상호 작용 검출 수단을 더 포함하는, 가상 이미지 형성 장치.23. The virtual of claim 22 further comprising interaction detection means for detecting a spatial interaction between at least one monitored body part of the individual and an apparent location of the virtual image of the tactile-input information interface. Image forming apparatus.
KR1020057009061A 2002-11-19 2003-11-06 Body-centric virtual interactive apparatus and method KR20050083908A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/299,289 2002-11-19
US10/299,289 US20040095311A1 (en) 2002-11-19 2002-11-19 Body-centric virtual interactive apparatus and method

Publications (1)

Publication Number Publication Date
KR20050083908A true KR20050083908A (en) 2005-08-26

Family

ID=32297660

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057009061A KR20050083908A (en) 2002-11-19 2003-11-06 Body-centric virtual interactive apparatus and method

Country Status (7)

Country Link
US (1) US20040095311A1 (en)
EP (1) EP1579416A1 (en)
JP (1) JP2006506737A (en)
KR (1) KR20050083908A (en)
CN (1) CN1714388A (en)
AU (1) AU2003287597A1 (en)
WO (1) WO2004047069A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9377858B2 (en) 2009-10-27 2016-06-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
KR20170095199A (en) * 2014-12-19 2017-08-22 인텔 코포레이션 Virtual wearables
US10698535B2 (en) 2015-05-21 2020-06-30 Nec Corporation Interface control system, interface control apparatus, interface control method, and program

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
JP4054585B2 (en) * 2002-02-18 2008-02-27 キヤノン株式会社 Information processing apparatus and method
KR100486739B1 (en) * 2003-06-27 2005-05-03 삼성전자주식회사 Wearable phone and method using the same
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
KR100958491B1 (en) * 2004-07-30 2010-05-17 애플 인크. Mode-based graphical user interfaces for touch sensitive input devices
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
CN1993688B (en) * 2004-08-03 2012-01-18 西尔弗布鲁克研究有限公司 Printing shortening starting time
JP2006154901A (en) * 2004-11-25 2006-06-15 Olympus Corp Spatial hand-writing device
TWI316195B (en) * 2005-12-01 2009-10-21 Ind Tech Res Inst Input means for interactive devices
JP4883774B2 (en) * 2006-08-07 2012-02-22 キヤノン株式会社 Information processing apparatus, control method therefor, and program
JP5119636B2 (en) * 2006-09-27 2013-01-16 ソニー株式会社 Display device and display method
US7835999B2 (en) * 2007-06-27 2010-11-16 Microsoft Corporation Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights
JP4989383B2 (en) * 2007-09-10 2012-08-01 キヤノン株式会社 Information processing apparatus and information processing method
WO2010024029A1 (en) * 2008-08-29 2010-03-04 日本電気株式会社 Command input device, mobile information device, and command input method
US20100225588A1 (en) * 2009-01-21 2010-09-09 Next Holdings Limited Methods And Systems For Optical Detection Of Gestures
US8745494B2 (en) * 2009-05-27 2014-06-03 Zambala Lllp System and method for control of a simulated object that is associated with a physical location in the real world environment
US20100306825A1 (en) * 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
US20110199387A1 (en) * 2009-11-24 2011-08-18 John David Newton Activating Features on an Imaging Device Based on Manipulations
WO2011069152A2 (en) * 2009-12-04 2011-06-09 Next Holdings Limited Imaging methods and systems for position detection
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US8540571B2 (en) * 2010-03-31 2013-09-24 Immersion Corporation System and method for providing haptic stimulus based on position
JP2012043194A (en) * 2010-08-19 2012-03-01 Sony Corp Information processor, information processing method, and program
US10061387B2 (en) * 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
JP5765133B2 (en) * 2011-08-16 2015-08-19 富士通株式会社 Input device, input control method, and input control program
US10030931B1 (en) * 2011-12-14 2018-07-24 Lockheed Martin Corporation Head mounted display-based training tool
TWI436251B (en) * 2012-04-30 2014-05-01 Univ Nat Taiwan Touch type control equipment and method thereof
US20130297460A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
EP2975492A1 (en) 2013-03-11 2016-01-20 NEC Solution Innovators, Ltd. Three-dimensional user interface device and three-dimensional operation processing method
US9189932B2 (en) * 2013-11-06 2015-11-17 Andrew Kerdemelidis Haptic notification apparatus and method
KR102096146B1 (en) 2014-09-02 2020-04-28 애플 인크. Semantic framework for variable haptic output
CN107209561A (en) * 2014-12-18 2017-09-26 脸谱公司 For the method, system and equipment navigated in reality environment
CN104537401B (en) * 2014-12-19 2017-05-17 南京大学 Reality augmentation system and working method based on technologies of radio frequency identification and depth of field sensor
GB2535730B (en) * 2015-02-25 2021-09-08 Bae Systems Plc Interactive system control apparatus and method
US10296359B2 (en) 2015-02-25 2019-05-21 Bae Systems Plc Interactive system control apparatus and method
CN105630162A (en) * 2015-12-21 2016-06-01 魅族科技(中国)有限公司 Method for controlling soft keyboard, and terminal
JP6341343B2 (en) * 2016-02-08 2018-06-13 日本電気株式会社 Information processing system, information processing apparatus, control method, and program
JP6256497B2 (en) * 2016-03-04 2018-01-10 日本電気株式会社 Information processing system, information processing apparatus, control method, and program
US10643390B2 (en) 2016-03-30 2020-05-05 Seiko Epson Corporation Head mounted display, method for controlling head mounted display, and computer program
JP2017182460A (en) * 2016-03-30 2017-10-05 セイコーエプソン株式会社 Head-mounted type display device, method for controlling head-mounted type display device, and computer program
DK179657B1 (en) 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
KR102427212B1 (en) * 2016-07-07 2022-07-29 소니그룹주식회사 Information processing devices, information processing methods and programs
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
JP6820469B2 (en) * 2016-12-14 2021-01-27 キヤノンマーケティングジャパン株式会社 Information processing equipment, information processing system, its control method and program
JP6834620B2 (en) * 2017-03-10 2021-02-24 株式会社デンソーウェーブ Information display system
US10698488B2 (en) * 2017-03-31 2020-06-30 VRgluv LLC Haptic interface devices
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. Tactile feedback for locked device user interfaces
JP7247519B2 (en) * 2018-10-30 2023-03-29 セイコーエプソン株式会社 DISPLAY DEVICE AND CONTROL METHOD OF DISPLAY DEVICE
US11137908B2 (en) * 2019-04-15 2021-10-05 Apple Inc. Keyboard operation with head-mounted device
US20220244788A1 (en) * 2019-05-22 2022-08-04 Maxell, Ltd. Head-mounted display

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
US5491510A (en) * 1993-12-03 1996-02-13 Texas Instruments Incorporated System and method for simultaneously viewing a scene and an obscured object
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
US6278418B1 (en) * 1995-12-29 2001-08-21 Kabushiki Kaisha Sega Enterprises Three-dimensional imaging system, game device, method for same and recording medium
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9377858B2 (en) 2009-10-27 2016-06-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
US9880698B2 (en) 2009-10-27 2018-01-30 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
KR20170095199A (en) * 2014-12-19 2017-08-22 인텔 코포레이션 Virtual wearables
US10698535B2 (en) 2015-05-21 2020-06-30 Nec Corporation Interface control system, interface control apparatus, interface control method, and program

Also Published As

Publication number Publication date
US20040095311A1 (en) 2004-05-20
JP2006506737A (en) 2006-02-23
EP1579416A1 (en) 2005-09-28
CN1714388A (en) 2005-12-28
WO2004047069A1 (en) 2004-06-03
AU2003287597A1 (en) 2004-06-15

Similar Documents

Publication Publication Date Title
KR20050083908A (en) Body-centric virtual interactive apparatus and method
Grubert et al. Effects of hand representations for typing in virtual reality
CN109564472B (en) Method, medium, and system for selecting an interaction method with a virtual object
TW202105133A (en) Virtual user interface using a peripheral device in artificial reality environments
CN114637376A (en) Device, method and graphical user interface for interacting with a three-dimensional environment
US11954245B2 (en) Displaying physical input devices as virtual objects
US10591988B2 (en) Method for displaying user interface of head-mounted display device
EP1779369A2 (en) Audio-visual three-dimensional input/output
US20210004133A1 (en) Remote touch detection enabled by peripheral device
US20100039377A1 (en) System and Method for Controlling a Virtual Reality Environment by an Actor in the Virtual Reality Environment
EP3591503B1 (en) Rendering of mediated reality content
US20240103712A1 (en) Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments
EP4064211A2 (en) Indicating a position of an occluded physical object
US11641460B1 (en) Generating a volumetric representation of a capture region
US20230092874A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20240103716A1 (en) Methods for interacting with user interfaces based on attention
EP4254143A1 (en) Eye tracking based selection of a user interface element based on targeting criteria
US20240036699A1 (en) Devices, Methods, and Graphical User Interfaces for Processing Inputs to a Three-Dimensional Environment
WO2024064231A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
WO2023049111A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
WO2024064229A1 (en) Devices, methods, and graphical user interfaces for tabbed browsing in three-dimensional environments
CN116888562A (en) Mapping a computer-generated touch pad to a content manipulation area
Weber et al. Advanced Hands and Eyes Interaction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application