KR20220066156A - Systems and methods for determining a projection target position of a portable object - Google Patents

Systems and methods for determining a projection target position of a portable object Download PDF

Info

Publication number
KR20220066156A
KR20220066156A KR1020227013546A KR20227013546A KR20220066156A KR 20220066156 A KR20220066156 A KR 20220066156A KR 1020227013546 A KR1020227013546 A KR 1020227013546A KR 20227013546 A KR20227013546 A KR 20227013546A KR 20220066156 A KR20220066156 A KR 20220066156A
Authority
KR
South Korea
Prior art keywords
reference element
user
dimensional plane
factors
interactive experience
Prior art date
Application number
KR1020227013546A
Other languages
Korean (ko)
Inventor
유-젠 린
마이클 비버스
스티븐 버켓
조슈아 데이비드 단지그
카일 피 핸리
험버토 캄
안토니 멜로
Original Assignee
유니버셜 시티 스튜디오스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니버셜 시티 스튜디오스 엘엘씨 filed Critical 유니버셜 시티 스튜디오스 엘엘씨
Publication of KR20220066156A publication Critical patent/KR20220066156A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/27Output arrangements for video game devices characterised by a large display in a public venue, e.g. in a movie theatre, stadium or game arena
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/22Setup operations, e.g. calibration, key configuration or button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

휴대용 물체(handheld object)의 투영 표적 위치(projected target location)는 2차원 평면 상에서 카메라에 의해 검출된 휴대용 물체의 기준 요소 위치에 전환 인자(translation factors), 스케일링 인자(scaling factors) 및 오프셋(offsets)을 적용하여 결정된다. 전환 인자는, 평면상의 교정 위치와 교정 위치에 대응하는 기준 요소의 초기 위치 사이의 차이에 기초하여 결정되고, 기준 요소의 위치를 이동시켜 투영 표적 위치를 생성하는 역할을 한다. 스케일링 인자는 휴대용 물체를 잡고 있는 사용자의 팔의 추정된 길이에 기초하여 결정되고, 기준 요소의 위치를 스케일링하여 투영 표적 위치를 생성하는 역할을 한다. 오프셋은 다항식을 기반으로 결정되고, 투영 표적 위치와 교정 위치 사이의 거리를 확장하는 역할을 한다.The projected target location of a handheld object is based on translation factors, scaling factors and offsets to the reference element location of the handheld object detected by the camera on a two-dimensional plane. is determined by applying The conversion factor is determined based on the difference between the calibration position on the plane and the initial position of the reference element corresponding to the calibration position, and serves to move the position of the reference element to generate the projection target position. The scaling factor is determined based on the estimated length of the user's arm holding the portable object, and serves to scale the position of the reference element to generate the projected target position. The offset is determined based on the polynomial and serves to extend the distance between the projection target position and the calibration position.

Description

휴대용 물체의 투영 표적 위치를 결정하기 위한 시스템 및 방법Systems and methods for determining a projection target position of a portable object

관련 출원에 대한 상호 참조CROSS-REFERENCE TO RELATED APPLICATIONS

본 출원은 "휴대용 물체의 투영 표적 위치를 결정하기 위한 시스템 및 방법(Systems and Methods for Determining Projected Target Location of a Handheld Object)"이라는 명칭으로 2019년 9월 25일에 출원된, 미국 가출원 제 62/905,901호의 이익을 주장하며, 이는 모든 목적을 위해 그 전체가 참조로 포함된다.This application is entitled "Systems and Methods for Determining Projected Target Location of a Handheld Object", filed September 25, 2019, U.S. Provisional Application No. 62/ 905,901, which is incorporated by reference in its entirety for all purposes.

본 개시는 일반적으로 가리키는 데(pointing) 사용되는 휴대용 물체(handheld object)에 관한 것으로, 보다 구체적으로, 휴대용 물체의 투영 표적 위치(projected target location)를 결정하는 것에 관한 것이다.BACKGROUND This disclosure relates generally to handheld objects used for pointing, and more particularly, to determining a projected target location of a handheld object.

이 섹션은 이하에서 설명되고 청구되는 본 개시의 다양한 측면과 관련될 수 있는 기술의 다양한 측면을 독자에게 소개하기 위한 것이다. 이러한 논의는 독자에게 배경 기술 정보를 제공해 독자로 하여금 본 개시의 다양한 측면을 이해하는데 도움을 줄 것으로 생각된다. 따라서, 이 섹션의 서술은 이러한 관점에서 해석되어야 하지 선행 기술을 인정하는 것으로 해석되어서는 안 된다.This section is intended to introduce the reader to various aspects of the technology that may relate to various aspects of the present disclosure described and claimed below. It is believed that this discussion will provide the reader with background information to aid the reader in understanding various aspects of the present disclosure. Accordingly, the statements in this section should be construed in this light and not as an admission of prior art.

휴대용 물체는 표적(target)을 가리키거나 선택하는 데 사용될 수 있다. 예를 들어, 테마파크 환경에서 고객은 휴대용 물체를 사용하여 어트랙션(attraction)의 애니메이트된 피규어(animated figure)를 가리킬 수 있고, 이를 감지하는 것에 대한 응답으로, 시스템은 애니메이트된 피규어로 하여금 사용자 상호작용 경험(예: 꼬리를 흔드는 것)을 출력하게 할 수 있다. 그러나, 사용자의 신체와 관련된 특정 물리적 특징으로 인해 사용자가 표적을 가리키는 시점을 정확하게 판별하는데 어려움이 있을 수 있음이 인식되고 있다.A portable object may be used to point or select a target. For example, in a theme park environment, a customer may use a portable object to point to an animated figure of an attraction, and in response to sensing this, the system causes the animated figure to appear in a user interaction experience. (e.g., wags tail) can be output. However, it is recognized that it may be difficult to accurately determine when the user points to a target due to certain physical characteristics related to the user's body.

본 개시의 전술한 특징 및 다른 특징, 측면 및 이점은 첨부된 도면을 참조하여 후술하는 상세한 설명을 읽었을 때 더 잘 이해될 수 있고, 도면 전체에 걸쳐 동일한 참조부호는 동일한 구성요소를 나타낸다.
도 1은 본 개시의 일 실시예에 따른, 휴대용 물체로 표적을 가리키는 사용자를 도시하는 도면이다.
도 2는 본 개시의 일 실시예에 따른, 테마파크 어트랙션 시스템의 블록도이다.
도 3은 본 개시의 일 실시예에 따른, 휴대용 물체로 교정 위치를 가리키는 사용자를 도시하는 도면이다.
도 4는 본 개시의 실시예에 따른, 도 3의 휴대용 물체의 기준 요소의 후속적으로 검출된 위치에 하나 이상의 전환 인자(translation factors)를 적용하는 예를 도시하는 도면이다.
도 5는 본 개시의 실시예에 따른, 도 3의 휴대용 물체의 기준 요소의 후속적으로 검출된 위치에 스케일링 인자(scaling factors)를 적용하는 예를 도시하는 도면이다.
도 6은 본 개시의 실시예에 따른, 휴대용 물체로 시스템의 다른 표적을 가리키는 사용자를 도시하는 도면이다.
도 7은 본 개시의 실시예에 따른, 다수의 상이한 크기의 기준 요소 영역 및 다수의 균일한 크기의 투영 표적 영역을 도시하는 도면이다.
도 8은 본 개시의 실시예에 따른, 다수의 균일한 크기의 기준 요소 영역 및 다수의 상이한 크기의 투영 표적 영역을 도시하는 도면이다.
도 9는 본 개시의 실시예에 따른, 도 3의 휴대용 물체의 투영 표적 위치를 결정하기 위한 프로세스의 흐름도이다.
도 10은 본 발명의 실시예에 따른, 사용자의 팔 움직임의 아치형 특성과 2차원 평면 사이의 형상 차이에 의한 왜곡을 보상하기 위한 프로세스의 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The foregoing and other features, aspects and advantages of the present disclosure may be better understood upon reading the detailed description set forth below with reference to the accompanying drawings, wherein like reference numerals refer to like elements throughout.
1 is a diagram illustrating a user pointing a target with a portable object, according to an embodiment of the present disclosure.
2 is a block diagram of a theme park attraction system, according to an embodiment of the present disclosure.
3 is a diagram illustrating a user pointing to a calibration location with a portable object, according to an embodiment of the present disclosure.
FIG. 4 is a diagram illustrating an example of applying one or more translation factors to a subsequently detected position of a reference element of the portable object of FIG. 3 , in accordance with an embodiment of the present disclosure;
5 is a diagram illustrating an example of applying scaling factors to a subsequently detected position of a reference element of the portable object of FIG. 3 according to an embodiment of the present disclosure;
6 is a diagram illustrating a user pointing a portable object to another target of the system, in accordance with an embodiment of the present disclosure.
7 is a diagram illustrating a number of different sized reference element regions and a plurality of uniformly sized projection target regions, in accordance with an embodiment of the present disclosure.
8 is a diagram illustrating a number of uniformly sized reference element regions and a number of different sized projection target regions, in accordance with an embodiment of the present disclosure.
9 is a flow diagram of a process for determining a projection target position of the portable object of FIG. 3 , in accordance with an embodiment of the present disclosure;
10 is a flowchart of a process for compensating for distortion due to a shape difference between a two-dimensional plane and an arcuate characteristic of a user's arm movement, according to an embodiment of the present invention.

아래에서는 하나 이상의 특정 실시예를 설명한다. 이러한 실시예의 간략한 설명을 위해, 본 명세서에서는 실제 구현의 모든 특징들이 기술되지 않을 수 있다. 엔지니어링 또는 설계 프로젝트 등과 같이 실제 구현 개발 시에는 시스템 및 사업 관련 제약사항 준수 등 개발자의 특정한 목표(각각의 구현마다 다를 수 있음)를 달성하기 위해 수많은 구현 관련 결정이 이루어져야 한다. 또한, 이러한 개발 노력은 복잡하고 시간 소모적일 수 있지만, 본 개시의 이점을 갖는 당업자에게 있어서는 일상적인 설계, 조립 및 제조 행위일 수 있다는 사실이 중요하다.One or more specific embodiments are described below. For a brief description of such an embodiment, not all features of an actual implementation may be described herein. Developing an actual implementation, such as an engineering or design project, requires a number of implementation-related decisions to be made to achieve the developer's specific goals (which may be different for each implementation), such as complying with system and business-related constraints. It is also important to note that such development efforts can be complex and time consuming, but can be routine design, assembly and manufacturing activities for those skilled in the art having the benefit of this disclosure.

본 개시의 다양한 실시예의 구성요소를 소개할 때, “하나의”, “그” 및 “상기"라는 단어의 사용은 하나 이상의 구성요소가 존재함을 의미한다. “포함하는” 및 “갖는”이라는 용어는 포괄적인 의미를 가지며, 나열된 구성요소 이외의 추가적인 구성요소가 있을 수 있음을 의미한다. 또한, 본 개시의 “일 실시예”에 대한 언급은, 열거된 특징들을 포함하는 추가 실시예의 존재를 배제하는 것으로 해석되어서는 안된다.When introducing components of various embodiments of the present disclosure, the use of the words “a”, “the”, and “the” means that one or more components are present. The term has an inclusive meaning, and means that there may be additional elements other than the listed elements.In addition, the reference to “one embodiment” of the present disclosure indicates the existence of additional embodiments including the listed features. It should not be construed as an exclusion.

본 개시는 일반적으로 가리키는 데(pointing) 사용되는 휴대용 물체(handheld object)에 관한 것으로, 보다 구체적으로, 휴대용 물체의 투영 표적 위치(projected target location)를 결정하는 것에 관한 것이다. 특히, 기준 요소는 휴대용 물체가 가리키는 위치에 대한 표시를 제공할 수 있다. 예를 들어, 테마파크 환경에서, 고객은 휴대용 물체를 사용하여 어트랙션(attraction)의 애니메이트된 물체(animated object)(예: 로봇 또는 달리 애니메이트된 피규어)를 가리킬 수 있고, 기준 요소의 위치를 검출하는 것에 응답하여, 애니메이트된 물체는 사용자 상호작용 경험(예: 꼬리를 흔드는 것)을 출력할 수 있다. 다른 예로, 사용자는 포스터 상의 단어를 가리킬 수 있고, 기준 요소의 위치를 검출하는 것에 응답하여, 근처에 있는 스피커는 해당 단어를 말하는 음성을 출력할 수 있다. 또 다른 예로서, 사용자는 전자 디스플레이 상의 사람의 이미지를 가리킬 수 있고, 기준 요소의 위치를 검출하는 것에 응답하여, 디스플레이는 이미지 내의 사람이 움직이는 것을 보여주는 비디오를 재생할 수 있다.BACKGROUND This disclosure relates generally to handheld objects used for pointing, and more particularly, to determining a projected target location of a handheld object. In particular, the reference element may provide an indication of where the portable object is pointing. For example, in a theme park environment, a customer may use a portable object to point to an animated object (eg, a robot or otherwise animated figure) of an attraction, and to detect the position of a reference element. In response, the animated object may output a user-interactive experience (eg, wag its tail). As another example, the user may point to a word on the poster, and in response to detecting the location of the reference element, a nearby speaker may output a voice speaking the word. As another example, the user may point to an image of a person on the electronic display, and in response to detecting the position of the reference element, the display may play a video showing the person moving in the image.

본 명세서에 개시된 시스템 및 방법은 카메라를 사용하여 카메라의 방향에 수직인 2차원 평면 상의 기준 요소의 위치를 판정하는 것을 포함한다. 카메라는 카메라에 의해 더 쉽게 검출될 수 있는 재료(예: 재귀반사 재료)로 이루어질 수 있는, 휴대용 물체의 기준 요소를 검출할 수 있다. 기준 요소의 위치는, 사용자가 휴대용 물체로 가리킨 표적 위치를 결정하는데 사용될 수 있다. 그러나, 일부 시스템에서, 자신이 휴대용 물체로 가리키는 위치에 대한 사용자의 인식은 카메라의 뷰에 기초하여 결정되는, 사용자가 가리키는 곳의 투영 위치와 일치하지 않을 수 있다. 이는 다양한 요인으로 인한 것일 수 있는데, 예컨대 한쪽 눈이 다른 쪽 눈보다 우세하거나(예: 오른쪽 눈이 우세하거나 왼쪽 눈이 우세함), 머리를 기울이거나, 체중을 이동하거나, 한쪽 또는 다른 쪽으로 몸을 기울이는 것 등이 포함될 수 있다. 이러한 요인의 조합으로 인해, 사용자의 손이 동일한 위치에서 휴대용 물체로 가리키고 있더라도, 자신이 가리키고 있는 위치에 대한 사용자의 인식은 변화될 수 있다. 카메라는 본 실시예에 따라 사용될 수 있는 다양한 광 검출기의 예라는 점에 유의해야 한다. 따라서, 카메라에 대한 언급은 본 개시의 실시예에 의해 사용될 수 있는 다른 광 검출기를 대표한다.The systems and methods disclosed herein include using a camera to determine the position of a reference element on a two-dimensional plane perpendicular to the direction of the camera. The camera may detect a reference element of the portable object, which may be made of a material that can be more easily detected by the camera (eg, a retroreflective material). The position of the reference element may be used to determine the target position at which the user points with the portable object. However, in some systems, the user's perception of where he is pointing with the portable object may not match the projected position of where the user is pointing, which is determined based on the camera's view. This can be due to a variety of factors, for example, one eye predominates over the other (e.g. right eye or left eye predominates), tilting the head, shifting weight, or leaning body to one side or the other. This may include tilting, etc. Due to the combination of these factors, even if the user's hand is pointing at the portable object at the same location, the user's perception of the location at which he is pointing may change. It should be noted that the camera is an example of various light detectors that can be used according to the present embodiment. Thus, reference to a camera is representative of other photodetectors that may be used by embodiments of the present disclosure.

본 명세서에 개시된 시스템 및 방법은 사용자가 휴대용 물체로 가리킬 수 있는, 2차원 평면 상의 교정 지점을 제공하는 것을 포함한다. 2차원 평면에 대한 기준 요소의 위치는 초기 위치로 정해질 수 있고, 초기 위치와 교정 지점의 차이에 기초하여 하나 이상의 전환 인자(translation factors)가 결정될 수 있다. 즉, 교정 지점은 사용자가 자신이 휴대용 물체로 가리키고 있다고 인식하는 위치와 상관관계를 가질 수 있는 반면, 기준 요소의 초기 위치는 카메라의 시점에서 2차원 평면 상의 기준 요소의 위치와 상관관계를 가질 수 있다. 둘 사이의 차이는, 카메라의 관점에서 2차원 평면 상의 후속적으로 검출된 기준 요소 위치를 투영 표적 위치(예: 사용자가 자신이 가리키고 있거나 가리키고자 하는 것으로 인식하는 위치에 대응)로 전환하는 데 사용될 수 있다. 즉, 하나 이상의 전환 인자는, 자신이 휴대용 물체로 가리키고 있는 위치에 대한 사용자의 인식과 기준 요소가 2차원 평면 상 어느 곳에 위치하는지에 대한 카메라의 판정 사이의 차이를 보상할 수 있다.The systems and methods disclosed herein include providing a calibration point on a two-dimensional plane, which a user can point to with a portable object. The position of the reference element with respect to the two-dimensional plane may be determined as an initial position, and one or more translation factors may be determined based on a difference between the initial position and the calibration point. That is, the calibration point may have a correlation with the position at which the user perceives that he or she is pointing with a portable object, whereas the initial position of the reference element may have correlation with the position of the reference element on the two-dimensional plane from the viewpoint of the camera. there is. The difference between the two is that, from the camera's point of view, the subsequently detected reference element position on the two-dimensional plane will be used to translate into a projected target position (e.g., corresponding to a position the user perceives he is pointing to or intends to point to). can That is, the one or more conversion factors may compensate for a difference between the user's perception of the location at which he is pointing with the portable object and the camera's determination of where the reference element is located on the two-dimensional plane.

또한, 사용자는 자신의 팔을 이용하여 휴대용 물체를 움직이고 휴대용 물체로 가리키는데, 사용자의 팔은 상호작용의 모델에서 구(sphere) 또는 구형 세그먼트의 반경으로 작용하고, 사용자의 어깨는 구의 중심으로 취급될 수 있다. 사용자가 휴대용 물체를 움직이거나 다른 표적을 가리킴에 따라 휴대용 물체의 기준 요소의 각각의 위치는 동일한 표적을 가리키고 있음에도 불구하고 사용자마다 다를 수 있다. 이는 사용자마다 팔 길이가 다르기 때문일 수 있다.In addition, the user uses his/her arm to move the portable object and point to the portable object. The user's arm acts as a sphere or radius of a spherical segment in the interaction model, and the user's shoulder is treated as the center of the sphere. can be As the user moves the portable object or points at a different target, the respective positions of the reference elements of the portable object may differ from user to user despite pointing to the same target. This may be because each user has a different arm length.

따라서, 본 명세서에 개시된 시스템 및 방법은 기준 요소의 초기 위치에 기초하여 (예컨대, 지면으로부터) 기준 요소의 높이를 판정하고, 기준 요소의 높이에 기초하여 사용자의 신장을 추정한다. 사용자의 신장으로부터 사용자의 팔 길이가 추정될 수 있는데, 이러한 사용자의 팔 길이는 하나 이상의 스케일링 인자(scaling factors)를 결정하는 데 사용될 수 있다. 하나 이상의 스케일링 인자는, 투영 표적 위치(예: 사용자가 자신이 가리키고 있거나 가리키고자 하는 것으로 인식하는 위치에 대응)를 보다 정확하게 결정하기 위해 카메라의 시점에서 2차원 평면 상의 후속적으로 검출된 기준 요소 위치를 스케일(scale) 또는 배가(multiply)할 수 있다. 이러한 방식으로, 하나 이상의 스케일링 인자는 사용자 팔 길이 간의 차이를 보상할 수 있다.Accordingly, the systems and methods disclosed herein determine the height of a reference element (eg, from the ground) based on the initial position of the reference element, and estimate the height of the user based on the height of the reference element. The user's arm length may be estimated from the user's height, which may be used to determine one or more scaling factors. The one or more scaling factors may be used to determine a subsequently detected reference element position on a two-dimensional plane from the point of view of the camera to more accurately determine a projection target position (eg, corresponding to a position the user perceives he is pointing at or intends to point to). can be scaled or multiplied. In this way, one or more scaling factors may compensate for differences between user arm lengths.

카메라에 의한 후속 기준 요소 위치의 검출 시, 하나 이상의 전환 인자 및 하나 이상의 스케일링 인자를 후속 기준 요소 위치에 적용하여 2차원 평면에 대한 투영 표적 위치를 결정할 수 있다. 본 실시예는 전환 인자, 스케일링 인자, 2차원 평면에 대한 투영 표적 위치 등과 같은 관련 데이터를 제공하기 위해 카메라에 의해 캡처되고 전달되는 데이터를 분석하도록 동작하는 프로세서를 포함할 수 있다.Upon detection of a subsequent reference element position by the camera, one or more conversion factors and one or more scaling factors may be applied to the subsequent reference element position to determine a projection target position relative to a two-dimensional plane. Embodiments may include a processor operative to analyze data captured and communicated by the camera to provide relevant data, such as a conversion factor, a scaling factor, a projected target position relative to a two-dimensional plane, and the like.

부가적으로, 사용자의 팔은 사용자의 어깨를 중심으로 하여 구 또는 구형 세그먼트의 반경으로서 작용하기 때문에 사용자는 휴대용 물체를 아치형 또는 원형 속성으로 움직일 수 있다. 그러나, 평평한 2차원 평면 상의 휴대용 물체의 기준 요소의 위치를 판정하는 카메라는, 공간에서의 휴대용 물체의 아치형 움직임 및 카메라에 의해 검출될 수 있는 평평한 2차원 평면 사이의 형상 차이로 인해 기준 요소의 판정된 위치를 왜곡할 수 있다.Additionally, since the user's arm acts as a radius of a sphere or spherical segment about the user's shoulder, the user can move the portable object in an arcuate or circular nature. However, a camera that determines the position of a reference element of a portable object on a flat two-dimensional plane may not be able to determine the reference element due to the arcuate motion of the portable object in space and a shape difference between a flat two-dimensional plane that can be detected by the camera. position may be distorted.

따라서, 본 명세서에 개시된 시스템 및 방법은 이러한 왜곡을 보상하는, 투영 표적 위치에 적용할 하나 이상의 오프셋(offsets)을 결정할 수 있다. 하나 이상의 오프셋은 사용자의 팔 움직임의 아치형 특성과 평평한 2차원 평면 사이의 형상 차이를 보상하기 위해 투영 표적 위치를 이동시켜 투영 표적 위치와 초기 위치 사이의 거리를 늘리거나 확장할 수 있다. 예를 들어, 하나 이상의 오프셋은 테스트 데이터를 하나 이상의 다항식(예: 3차 다항식)에 피팅(fit)하는 다항 회귀를 사용하여 결정될 수 있다.Accordingly, the systems and methods disclosed herein can determine one or more offsets to apply to the projection target position that compensate for such distortion. The one or more offsets may increase or extend the distance between the projection target position and the initial position by shifting the projection target position to compensate for a shape difference between the arcuate nature of the user's arm movement and a flat two-dimensional plane. For example, the one or more offsets may be determined using polynomial regression that fits the test data to one or more polynomials (eg, cubic polynomials).

일부 실시예에서, (예컨대, 2차원 평면 상에 투영된) 다수의 투영 표적 영역에 대응하는 (예컨대, 기준 요소가 사용자의 팔에 기초한 호(arc)를 따라 위치하는) 다수의 기준 요소 영역이 결정될 수 있다. 각각의 투영 표적 영역은 그러한 투영 표적 영역에 적용 가능한 왜곡을 정확하게 보상할 수 있는 각각의 다항식의 세트에 대응할 수 있다. 이와 같이, 카메라는 기준 요소 영역에서 기준 요소를 검출할 수 있고, 기준 요소 영역에 대응하는 각각의 투영 표적 영역이 결정될 수 있고, 각각의 투영 표적 영역에 대응하는 각각의 다항식 세트가 이러한 왜곡을 보상하기 위해 기준 요소의 위치에 적용될 하나 이상의 오프셋을 결정하는데 사용될 수 있다. 이러한 실시예에서, 다수의 기준 요소 영역이 상이한 크기일 때(예: 기준 요소 영역이 2차원 평면으로부터 멀어질수록 기준 요소 영역의 크기가 감소함) 다수의 투영 표적 영역은 동일한 크기이거나, 다수의 기준 요소 영역이 동일한 크기일 때 다수의 투영 표적 영역은 상이한 크기일 수 있다(예: 투영 표적 영역이 기준 요소로부터 멀어질수록 투영 표적 영역의 크기가 증가함).In some embodiments, there are multiple reference element regions (eg, wherein the reference element is located along an arc based on the user's arm) that correspond to multiple projection target regions (eg, projected onto a two-dimensional plane). can be decided. Each projection target area may correspond to a respective set of polynomials capable of accurately compensating for the distortion applicable to that projection target area. As such, the camera can detect the reference element in the reference element region, each projection target region corresponding to the reference element region can be determined, and each set of polynomials corresponding to each projection target region compensate for this distortion may be used to determine one or more offsets to be applied to the position of the reference element in order to In such an embodiment, when a plurality of reference element regions are of different sizes (eg, the size of the reference element regions decreases as the reference element regions move away from the two-dimensional plane), the plurality of projection target regions are the same size, or The plurality of projection target areas may be of different sizes when the reference element areas are the same size (eg, the projection target area increases in size as the projection target area moves away from the reference element).

도입부로서, 도 1은 본 개시의 일 실시예에 따른, 휴대용 물체(12)로 표적(14)을 가리키는 사용자(10)를 도시하는 도면이다. 표적(14)은 물리적 물체, 그림, 사진, 그래픽 등일 수 있다. 경우에 따라, 표적(14)은 디스플레이에 의해 출력되는 이미지일 수 있다. 표적(14)은 구조물(15) 상에 인쇄되거나, 에칭되거나, 기록되거나, 투영되거나, 부착되거나, 또는 다른 방식으로 표시될 수 있다. 사용자의 인식은 제1 점선(16)으로 표시된다. 즉, 사용자(10)는 자신이 휴대용 물체(12)로 표적(14), 특히 표적 위치(17)를 가리키고 있다고 인식한다. 그러나, 특정한 인적 요소(예: 한쪽 눈이 다른 쪽 눈보다 우세함, 머리를 기울임, 체중의 이동, 한쪽 또는 다른 쪽으로 몸을 기울임 등)로 인해, 사용자의 인식이나 의도에도 불구하고 사용자(10)는 휴대용 물체(12)로 점선(19)으로 표시된 실제 표적 위치(18)를 실제로 가리킨다. As an introduction, FIG. 1 is a diagram illustrating a user 10 pointing a target 14 at a portable object 12 , according to an embodiment of the present disclosure. The target 14 may be a physical object, a drawing, a photograph, a graphic, or the like. Optionally, the target 14 may be an image output by a display. Target 14 may be printed, etched, recorded, projected, affixed, or otherwise marked on structure 15 . The user's recognition is indicated by a first dotted line 16 . That is, the user 10 recognizes that he is pointing the portable object 12 at the target 14 , in particular the target location 17 . However, due to certain human factors (e.g., dominance of one eye over the other, tilting the head, shifting weight, leaning the body to one side or the other, etc.), users (10) despite the user's awareness or intention is actually pointing to the actual target position 18 indicated by the dashed line 19 with the portable object 12 .

휴대용 물체(12)는 막대기, 연필, 장난감 또는 모형 총이나 무기, 지팡이 등과 같이 사용자(10)가 표적(14)을 가리키거나 지칭하는데 사용할 수 있는 임의의 적합한 물체를 나타내거나 포함할 수 있다. 휴대용 물체(12)는, 사용자(10)가 가리키고 있는 곳을 판정하는 것을 용이하게 할 수 있는 기준 요소(20)를 포함할 수 있다. 특히, 카메라(22)는 기준 요소(20)의 위치를 검출할 수 있고, 기준 요소(20)는 카메라(22)로 하여금 기준 요소(20)를 보다 쉽게 검출할 수 있게 하는 재료 또는 장치로 이루어질 수 있다. 예를 들어, 기준 요소(20)는 재귀반사성 재료(예: 재귀반사성 유리 구슬, 마이크로프리즘(microprisms), 또는 직물 또는 플라스틱 기판 상에 밀봉된 캡슐화된 렌즈), 금속 테이프 등으로 이루어질 수 있다. 다른 예에서, 기준 요소(20)는 카메라(22)로 하여금 기준 요소(20)를 식별할 수 있게 하는 식별자(예: 고유한 그래픽 디자인, 바코드, QR(Quick Response) 코드 등)를 포함할 수 있다. 도시된 바와 같이, 기준 요소(20)는 사용자의 손(28)이 휴대용 물체(12)를 잡고 있는 휴대용 물체(12)의 단부(26)의 반대편 단부(24)에 위치할 수 있다. 이러한 배치는, 사용자가 휴대용 물체(12)로 가리키고 있는 방향을 판정하는 것을 용이하게 할 수 있지만, 기준 요소(20)는 휴대용 물체(12)의 임의의 부분 상에 배치되거나 심지어 사용자(10)에 배치될 수도 있다.Portable object 12 may represent or include any suitable object that user 10 may use to point or refer to target 14 , such as a stick, pencil, toy, or model gun or weapon, cane, or the like. The portable object 12 may include a reference element 20 that may facilitate determining where the user 10 is pointing. In particular, the camera 22 is capable of detecting the position of the reference element 20 , the reference element 20 being made of a material or device that allows the camera 22 to more readily detect the reference element 20 . can For example, the reference element 20 may be made of a retroreflective material (eg, retroreflective glass beads, microprisms, or an encapsulated lens sealed on a textile or plastic substrate), metal tape, or the like. In another example, the fiducial element 20 may include an identifier (eg, a unique graphic design, barcode, Quick Response (QR) code, etc.) that enables the camera 22 to identify the fiducial element 20 . there is. As shown, the reference element 20 may be positioned at an end 24 opposite the end 26 of the portable object 12 at which the user's hand 28 is holding the portable object 12 . While this arrangement may facilitate determining the direction the user is pointing at the portable object 12 , the reference element 20 may be placed on any part of the portable object 12 or even at the user 10 . may be placed.

카메라(22)는 2차원 평면(32)에 대한 기준 요소(20)의 위치(30)를 검출할 수 있다. 위치(30)는, 하나 이상의 전환 인자를 적용하여 사용자(10)가 자신이 가리키고 있거나 가리키고자 했던 것으로 인식하는 표적 위치(17)를 결정하는 데 사용될 수 있다. 도시된 바와 같이, 2차원 평면(32)은 구조물(15)과 동일한 평면을 공유할 수 있지만, 일부 실시예에서 2차원 평면(32)과 구조물(15)은 동일한 평면을 공유하지 않을 수 있다. 예를 들어, 2차원 평면(32)과 구조물(15)은 서로 평행할 수 있다. 더욱이, 카메라(22)로 하여금 기준 요소(20)의 위치(30)를 검출할 수 있게 하기 위해, 구조물(15)은 반투명 또는 투명하게 만들어지거나, 카메라(22)로 하여금 기준 요소의 위치(30)를 검출할 수 있게 하는 임의의 다른 적절한 속성을 포함할 수 있다. The camera 22 can detect the position 30 of the reference element 20 with respect to the two-dimensional plane 32 . The location 30 may be used to apply one or more conversion factors to determine the target location 17 that the user 10 perceives to be pointing to or intended to point to. As shown, the two-dimensional plane 32 may share the same plane as the structure 15 , but in some embodiments the two-dimensional plane 32 and the structure 15 may not share the same plane. For example, the two-dimensional plane 32 and the structure 15 may be parallel to each other. Moreover, in order to enable the camera 22 to detect the position 30 of the reference element 20 , the structure 15 is made translucent or transparent, or allows the camera 22 to detect the position 30 of the reference element 20 . ) may include any other suitable attribute that makes it detectable.

특히, 하나 이상의 전환 인자가 기준 요소(20)의 위치(30)에 적용되어, 자신이 휴대용 물체(12)로 가리키고 있는 위치에 대한 사용자의 인식과 기준 요소(20)가 2차원 평면(32) 상 어느 곳에 위치하는지에 대한 카메라의 판정 사이의 차이를 보상할 수 있다. 하나 이상의 전환 인자는, 사용자(10)가 휴대용 물체(12)로 교정 지점을 가리키고 카메라(22)가 2차원 평면(32) 상의 기준 요소(20)의 이러한 초기 위치를 검출하는 교정 프로세스 동안 결정될 수 있다. 하나 이상의 전환 인자는, 초기 위치가 이동하여 (예컨대, 2차원 평면(32)에 대해) 교정 지점을 초래하는 하나 이상의 거리를 나타낼 수 있다. 추가적으로, 하나 이상의 전환 인자는, 한쪽 눈이 다른 쪽 눈보다 우세함(예: 오른쪽 눈이 우세하거나 왼쪽 눈이 우세함), 머리의 기울임, 체중의 이동, 한쪽 또는 다른 쪽으로 몸의 기울임 등을 완화하거나 보상할 수 있다. In particular, one or more conversion factors are applied to the position 30 of the reference element 20 so that the user's perception of the position at which he is pointing with the portable object 12 and the reference element 20 are in a two-dimensional plane 32 . It can compensate for the difference between the camera's determination of where the image is located. One or more conversion factors may be determined during the calibration process in which the user 10 points a calibration point to the portable object 12 and the camera 22 detects this initial position of the reference element 20 on the two-dimensional plane 32 . there is. The one or more conversion factors may indicate one or more distances at which the initial position moves (eg, with respect to the two-dimensional plane 32 ) resulting in a calibration point. Additionally, the one or more conversion factors may alleviate predominance of one eye over the other (eg, predominance of right eye or predominance of left eye), tilt of the head, shift of weight, tilt of body to one side or the other. or you can compensate.

더욱이, 하나 이상의 스케일링 인자는 사용자 팔 길이 간의 차이를 설명하거나 보상하기 위해 기준 요소(20)의 위치(30)에 적용될 수 있다. 즉, 사용자는 자신의 어깨를 구의 중심으로 하여 구 또는 구형 세그먼트의 반경으로 작용할 수 있는 자신의 팔을 사용하여 휴대용 물체(12)를 움직이거나 휴대용 물체(12)로 가리킨다. 사용자가 휴대용 물체(12)를 움직이거나 다른 표적을 가리킴에 따라 휴대용 물체(12)의 기준 요소(20)의 각각의 위치는 동일한 표적을 가리키고 있음에도 불구하고 사용자 간의 상이한 팔 길이로 인해 사용자마다 다를 수 있다. Moreover, one or more scaling factors may be applied to the position 30 of the reference element 20 to account for or compensate for differences between user arm lengths. That is, the user moves or points to the portable object 12 using his/her arm, which may act as a radius of a sphere or spherical segment, with his shoulder as the center of the sphere. As the user moves the portable object 12 or points at a different target, the respective positions of the reference elements 20 of the portable object 12 may differ from user to user due to different arm lengths between the users despite pointing at the same target. there is.

따라서, 기준 요소(20)의 초기 위치에 기초하여 (예컨대, 지면으로부터) 기준 요소(20)의 높이가 판정될 수 있고, 기준 요소(20)의 높이에 기초하여 사용자의 신장이 추정될 수 있다. 사용자의 신장으로부터 사용자의 팔 길이가 추정될 수 있으며, 이는 하나 이상의 스케일링 인자를 결정하는데 사용될 수 있다. 하나 이상의 스케일링 인자는 2차원 평면(32) 상의 카메라(22)에 의해 검출된 기준 요소(20)의 위치(30)를 스케일(scale)하거나 배가(multiply)할 수 있다.Accordingly, the height of the reference element 20 may be determined (eg, from the ground) based on the initial position of the reference element 20 , and the height of the user may be estimated based on the height of the reference element 20 . . The user's arm length may be estimated from the user's height, which may be used to determine one or more scaling factors. The one or more scaling factors may scale or multiply the position 30 of the reference element 20 detected by the camera 22 on the two-dimensional plane 32 .

추가적으로, 하나 이상의 오프셋이 기준 요소(20)의 위치(30)에 적용되어 휴대용 물체(12)의 투영 표적 위치를 생성하여 사용자의 팔의 아치형 또는 원형 운동으로 인한 왜곡을 보상할 수 있다. 즉, 왜곡은 아치형 움직임과 평평한 2차원 평면(32) 상의 기준 요소(20)의 위치(30)에 대한 카메라의 검출 사이의 형상 차이에 의해 발생할 수 있다. 하나 이상의 오프셋은 사용자의 팔 움직임의 아치형 특성과 평평한 2차원 평면 사이의 형상 차이를 보상하기 위해 투영 표적 위치를 이동시켜 투영 표적 위치와 초기 위치 사이의 거리를 늘리거나 확장할 수 있다. 예를 들어, 하나 이상의 오프셋은 테스트 데이터를 3차 다항식과 같은 다항식에 피팅(fit)하는 다항 회귀를 사용하여 결정될 수 있다.Additionally, one or more offsets may be applied to the position 30 of the reference element 20 to create a projected target position of the portable object 12 to compensate for distortion due to arcuate or circular motion of the user's arm. That is, the distortion may be caused by the shape difference between the arcuate movement and the detection of the camera with respect to the position 30 of the reference element 20 on the flat two-dimensional plane 32 . The one or more offsets may increase or extend the distance between the projection target position and the initial position by shifting the projection target position to compensate for a shape difference between the arcuate nature of the user's arm movement and a flat two-dimensional plane. For example, one or more offsets may be determined using polynomial regression that fits the test data to a polynomial, such as a cubic polynomial.

이러한 방식으로, 휴대용 물체(12)의 투영 표적 위치가 생성될 수 있고, 이는 사용자(10)가 자신이 휴대용 물체(12)로 가리키고 있다고 인식하는 표적 위치(17)와 밀접하게 일치할 수 있다. 유리하게는, 특정 다른 시스템과 달리, 하나의 교정 지점만이 전환 인자, 스케일링 인자 및 오프셋을 결정하고 휴대용 물체(12)의 투영 표적 위치를 정확하게 결정하는데 사용된다. 반면에 다른 애플리케이션(예: 프레젠테이션에 사용되는 포인팅 장치)에서는, 교정이 실제 수행 전에(예: 준비 단계 동안) 발생할 수 있고 청중이나 고객에게 보이지 않기 때문에 교정 시간을 줄이는 것은 중요하지 않을 수 있다. 그러나, 본 발명의 경우(예: 테마파크의 어트랙션에서), 보정이 수행되고 있음을 숨기거나 사용자(10)가 이를 알아차리지 못하도록 함으로써 몰입형 사용자 경험을 생성하는 것이 중요할 수 있다. 이와 같이, 교정 프로세스를 단일 지점으로 줄이는 것(예: 휴대용 물체(12)로 단일 교정 지점을 가리키는 것)은 사용자 경험을 향상시키거나 증대시킬 수 있다.In this way, a projected target position of the portable object 12 may be created, which may closely coincide with the target position 17 that the user 10 perceives as pointing at the portable object 12 . Advantageously, unlike certain other systems, only one calibration point is used to determine the conversion factor, scaling factor and offset and to accurately determine the projection target position of the portable object 12 . On the other hand, in other applications (eg pointing devices used for presentations), reducing the calibration time may not be important because the calibration may occur before actual performance (eg during the preparation phase) and will not be visible to the audience or customer. However, in the case of the present invention (eg, at an attraction in a theme park), it can be important to create an immersive user experience by hiding that a calibration is being performed or preventing the user 10 from noticing it. As such, reducing the calibration process to a single point (eg, pointing a single calibration point with a portable object 12) may enhance or augment the user experience.

이를 염두에 두며, 도 2는 본 발명의 실시예에 따른 테마파크 어트랙션 시스템(40)의 블록도이다. 테마파크 어트랙션 시스템(40)은 사용자(10)로 하여금 휴대용 물체(12)로 다양한 표적(14)을 가리키게 할 수 있고, 사용자(10)가 휴대용 물체(12)로 표적(14)을 가리켰다는 판정에 기초하여 사용자 상호작용 경험을 출력할 수 있다. 예를 들어, 어트랙션 시스템(40)은 어린이들에게 인기있는 캐릭터가 있는 설정, 텔레비전 또는 영화 테마 설정, 촬영 갤러리, 표적 모음 등을 포함할 수 있다.With this in mind, FIG. 2 is a block diagram of a theme park attraction system 40 according to an embodiment of the present invention. The theme park attraction system 40 may cause the user 10 to point the portable object 12 to various targets 14 , and to determine that the user 10 has pointed the portable object 12 at the target 14 . Based on the user interaction experience may be output. For example, the attraction system 40 may include a setting with characters popular with children, a television or movie themed setting, a shooting gallery, a collection of targets, and the like.

테마파크 어트랙션 시스템(40)은 사용자(10)가 쥐고 조작하는, 기준 요소(20)를 갖는 휴대용 물체(12)를 포함할 수 있다. 테마파크 어트랙션 시스템(40)은 또한 사용자 상호작용 시스템(42)을 포함할 수 있는데, 사용자 상호작용 시스템(42)은 2차원 평면(32) 상의 기준 요소의 위치를 검출하는 카메라(22)를 포함한다. 테마파크 어트랙션 시스템(40)은 휴대용 물체(12)의 투영 표적 위치를 결정하는 투영 위치 결정 시스템(44)을 더 포함할 수 있다. 특히, 투영 표적 위치는, 사용자(10)가 자신이 가리키고 있거나 가리키고자 하는 것으로 인식하는 2차원 평면(32) 상의 위치를 나타낼 수 있다. 실제로, 투영 표적 위치가 표적 위치(17)에 가까울수록 투영 표적 위치는 더 정확하다.The theme park attraction system 40 may include a portable object 12 having a reference element 20 that is gripped and manipulated by the user 10 . The theme park attraction system 40 may also include a user interaction system 42 , which includes a camera 22 that detects the position of a reference element on a two-dimensional plane 32 . . The theme park attraction system 40 may further include a projection positioning system 44 for determining a projection target position of the portable object 12 . In particular, the projected target location may represent a location on the two-dimensional plane 32 that the user 10 perceives to be pointing to or intended to point to. In practice, the closer the projection target position to the target position 17 the more accurate the projection target position.

투영 위치 결정 시스템(44)은 하나 이상의 프로세서(단일 프로세서(48)로 도시됨) 및 하나 이상의 메모리 또는 저장 장치(단일 메모리 장치(50)로 도시됨)를 갖는 제어기(46)를 포함할 수 있다. 프로세서(48)는 휴대용 물체(12)의 투영 표적 위치를 결정하는 것을 용이하게 하는, 메모리 장치(50)에 저장된 소프트웨어 프로그램 및/또는 명령을 실행할 수 있다. 더욱이, 프로세서(48)는 다수의 마이크로프로세서, 하나 이상의 "범용" 마이크로프로세서, 하나 이상의 특수 목적 마이크로프로세서, 및/또는 하나 이상의 주문형 집적 회로(ASICS: application specific integrated circuits)를 포함할 수 있다. 예를 들어, 프로세서(48)는 하나 이상의 축소 명령 집합 (RISC: reduced instruction set) 프로세서를 포함할 수 있다. 메모리 장치(50)는 제어 소프트웨어, 룩업 테이블, 구성 데이터 등과 같은 정보를 저장할 수 있다. 메모리 장치(50)는 휘발성 메모리(예: 랜덤 액세스 메모리(RAM)), 비휘발성 메모리(예: 읽기 전용 메모리(ROM)), 플래시 메모리, 하나 이상의 하드 드라이브, 및/또는 임의의 기타 적절한 광학, 자기 또는 솔리드 스테이트 저장 매체와 같은 유형의(tangible) 비일시적 기계 판독 가능 매체를 포함할 수 있다. 메모리 장치(50)는 다양한 정보를 저장할 수 있고, 휴대용 물체(12)의 투영 표적 위치를 용이하게 하는 명령과 같은 다양한 목적을 위해 사용될 수 있다.The projection positioning system 44 may include a controller 46 having one or more processors (shown as a single processor 48 ) and one or more memory or storage devices (shown as a single memory device 50 ). . The processor 48 may execute software programs and/or instructions stored in the memory device 50 that facilitate determining the projection target position of the portable object 12 . Moreover, processor 48 may include multiple microprocessors, one or more “general purpose” microprocessors, one or more special purpose microprocessors, and/or one or more application specific integrated circuits (ASICS). For example, processor 48 may include one or more reduced instruction set (RISC) processors. The memory device 50 may store information such as control software, lookup tables, configuration data, and the like. Memory device 50 may include volatile memory (eg, random access memory (RAM)), non-volatile memory (eg, read-only memory (ROM)), flash memory, one or more hard drives, and/or any other suitable optical; tangible, non-transitory machine readable media such as magnetic or solid state storage media. Memory device 50 may store a variety of information and may be used for a variety of purposes, such as instructions to facilitate projection target positioning of portable object 12 .

투영 위치 결정 시스템(44)은 또한 2차원 평면(32) 상의 기준 요소(20)의 위치를 판정하는 기준 요소 위치 검출 로직(52)을 포함할 수 있다. 특히, 투영 위치 결정 시스템(44)은, 예컨대 유선 통신을 통해 또는 무선 통신 프로토콜 또는 기술(예: 라디오, 블루투스, WiFi, 적외선, 이더넷, 스레드(Thread), 지그비(ZigBee), Z-Wave, KNX, 모바일, 및/또는 마이크로파)을 사용하는 통신 네트워크를 통해, 임의의 적절한 수단에 의해 사용자 상호작용 시스템(42)에 통신 가능하게 결합될 수 있다. 기준 요소 위치 검출 로직(52)은 따라서 2차원 평면(32) 상의 기준 요소(20)를 보여주는 캡처된 이미지(예: 화상)를 카메라(22)로부터 수신할 수 있다. 기준 요소 위치 검출 로직(52)은, 예를 들어 2차원 좌표(예: x 및 y) 시스템으로 표현되는 2차원 평면(32) 상의 기준 요소(20)의 위치를 판정할 수 있다.The projection positioning system 44 may also include reference element position detection logic 52 to determine the position of the reference element 20 on the two-dimensional plane 32 . In particular, the projection positioning system 44 may be configured, for example, via wired communication or via a wireless communication protocol or technology (eg, radio, Bluetooth, WiFi, infrared, Ethernet, Thread, ZigBee, Z-Wave, KNX). , mobile, and/or microwave) may be communicatively coupled to the user interaction system 42 by any suitable means. The reference element position detection logic 52 may thus receive from the camera 22 a captured image (eg, an image) showing the reference element 20 on the two-dimensional plane 32 . The reference element position detection logic 52 may determine the position of the reference element 20 on a two-dimensional plane 32 represented, for example, in a two-dimensional coordinate (eg, x and y) system.

투영 위치 결정 시스템(44)은 기준 요소 위치 검출 로직(52)에 의해 판정된 바와 같은 기준 요소(20)의 위치를 2차원 평면(32)에 대한 투영 표적 위치로 변환하는 변환 로직(54)(transformation logic)을 더 포함할 수 있다. 변환 로직(54)은, 자신이 휴대용 물체(12)로 가리키고 있는 위치에 대한 사용자의 인식과 기준 요소(20)가 2차원 평면(32) 상 어느 곳에 위치하는지에 대한 카메라의 판정 사이의 차이를 보상하는 하나 이상의 전환 인자를 결정하는 전환 로직(56)을 포함한다. Projection positioning system 44 provides transformation logic 54 ( transformation logic) may be further included. Transformation logic 54 calculates the difference between the user's perception of where it is pointing with portable object 12 and the camera's determination of where on the two-dimensional plane 32 the reference element 20 is located. and transition logic 56 for determining one or more conversion factors to compensate.

특히, 전환 로직(56)은 단일 지점 교정 프로세스를 수행함으로써 하나 이상의 전환 인자를 결정할 수 있다. 이 프로세스는 2차원 평면(32) 상의 교정 위치를 수신하는 단계, (예컨대, 사용자(10)가 휴대용 물체(12)로 교정 위치를 가리키는 시점에 대응하는) 2차원 평면(32) 상의 기준 요소(20)의 위치를 수신하는 단계, 및 교정 위치와 기준 요소(20)의 위치 사이의 위치 차이에 기초하여 하나 이상의 전환 인자를 결정하는 단계를 포함한다.In particular, the conversion logic 56 may determine one or more conversion factors by performing a single point calibration process. The process includes receiving a calibration location on the two-dimensional plane 32 , a reference element on the two-dimensional plane 32 (eg, corresponding to the point in time when the user 10 points the calibration location to the portable object 12 ) receiving the position of 20 ), and determining one or more conversion factors based on a position difference between the calibration position and the position of the reference element 20 .

도 3은 본 개시의 일 실시예에 따른, 휴대용 물체(12)로 교정 위치(80)를 가리키는 사용자(10)를 도시하는 도면이다. 교정 위치(80)는 물리적인 물체, 그림, 사진, 그래픽 등에 해당할 수 있다. 경우에 따라, 교정 위치(80)는 디스플레이에 의해 출력되는 이미지에 해당할 수 있다. 사용자(10)는 임의의 적절한 형식으로 제공된(예: 구조물(15) 상에 기록, 에칭, 인쇄, 부착 또는 표시됨) 지시에 의해 유도될 수 있다. 교정 위치(80)는, 사용자의 신장을 검출하는 제어된 방식을 가능하게 하도록 사용자로 하여금 자신의 팔을 비슷하게 위치시키게 하는 한편, 도 2의 투영 위치 결정 시스템(44)으로 하여금, 자신이 휴대용 물체(12)로 가리키고 있는 위치에 대한 사용자의 인식과 사용자(10)가 휴대용 물체(12)로 실제로 가리키고 있는 위치 사이의 차이를 결정하게 하도록 제공될 수 있다. 예를 들어, 교정 위치(80)는, 사용자(10)로 하여금 자신의 팔(82)을 지면(84)에 대해 가능한 평행에 가깝도록, 지면에 평행한 평면에 대해 특정 각도로 등으로 연장하도록 위치할 수 있다. 일부 실시예에서, 교정 위치(80)는 사용자의 신장에 맞춤화될 수 있다. 즉, 일부 실시예에서 교정 위치(80)는 휠체어, 개인용 전기차, 유모차 등과 같은 차량에 앉아 있는 사용자를 위해 구조물(15) 상에서 더 낮게 위치할 수 있다. 다른 예로서, 교정 위치(80)는 어린이에 비해 성인에 대해 구조물(15) 상에서 더 높게 위치할 수 있고, 교정 위치(80)는 여성 사용자에 비해 남성 사용자에 대해 구조물(15) 상에서 더 높게 위치할 수 있는 식이다.3 is a diagram illustrating a user 10 pointing to a calibration location 80 with a portable object 12 , in accordance with one embodiment of the present disclosure. The calibration location 80 may correspond to a physical object, a picture, a photograph, a graphic, or the like. In some cases, the calibration position 80 may correspond to an image output by the display. User 10 may be guided by instructions provided in any suitable format (eg, written, etched, printed, affixed, or marked on structure 15 ). Calibration position 80 allows the user to similarly position his or her arm to enable a controlled manner of detecting the user's height, while allowing the projection positioning system 44 of FIG. (12) can be provided to determine the difference between the user's perception of the location at which he is pointing and the location at which the user 10 is actually pointing with the portable object (12). For example, the corrective position 80 may cause the user 10 to extend his or her arm 82 as close as possible parallel to the ground 84, at a particular angle to a plane parallel to the ground, etc. can be located In some embodiments, the corrective position 80 may be customized to a user's height. That is, in some embodiments the corrective position 80 may be located lower on the structure 15 for a user sitting in a vehicle such as a wheelchair, personal electric vehicle, stroller, or the like. As another example, the corrective position 80 may be located higher on the structure 15 for an adult relative to a child, and the corrective position 80 is located higher on the structure 15 for a male user as compared to a female user. that's what you can do

이와 같이, 교정 위치(80)는 미리 결정되고 투영 위치 결정 시스템(44)은 이러한 교정 위치(80)를 알고 있다. 유도되었을 때, 사용자(10)는 자신의 팔(82)을 뻗어 휴대용 물체(12)로 교정 위치(80)를 가리킬 수 있다. 그러나, 한쪽 눈이 다른 쪽 눈보다 우세함, 머리의 기울임, 체중의 이동, 한쪽 또는 다른 쪽으로 몸을 기울임, 휴대용 물체(12)를 잡고 있는 손에 대한 사용자의 선택(예: 오른손 대 왼손), (예컨대, 동작 범위에 영향을 미치는) 신체적 제약, 장애물(예: 배낭 또는 아이 안기)로 인해 사용자의 움직임이 변경될 수 있는지 여부 등과 같은 신체에 의해 야기되는 왜곡 효과로 인해, 점선(85)으로 표시된 바와 같은 휴대용 물체(12)로 교정 위치(80)를 가리키고 있다는 사용자의 인식 또는 휴대용 물체(12)로 교정 위치(80)를 가리키고자 하는 사용자의 의도에도 불구하고, 점선(88)으로 표시된 바와 같이 사용자(10)는 실제로 휴대용 물체(12)로 실제 교정 위치(86)와 같은 다른 위치를 가리킬 수 있다.As such, the calibration location 80 is predetermined and the projection positioning system 44 knows this calibration location 80 . When guided, the user 10 can extend his or her arm 82 and point the handheld object 12 to the calibration position 80 . However, one eye predominates over the other, tilts the head, shifts weight, leans to one side or the other, the user's choice of hand holding the portable object 12 (eg right versus left hand); Due to distortion effects caused by the body, such as physical constraints (e.g. affecting range of motion), whether obstacles (e.g. backpacks or holding a child) may alter the user's movements, the Notwithstanding the user's perception that the handheld object 12 is pointing to the calibration location 80 as indicated or the user's intention to point the calibration location 80 with the handheld object 12, the Likewise, the user 10 can actually point the portable object 12 to another location, such as the actual calibration location 86 .

카메라(22)는 2차원 평면(32) 상에서 기준 요소(20)의 위치(90)를 검출하고, 위치(90)의 표시를 투영 위치 결정 시스템(44)에 전송한다. 그 다음, 인간 상호작용의 모델의 일부일 수 있는 전환 로직(56)은, 기준 요소(20)의 위치(90)와 2차원(예: x 및 y) 좌표로 표현될 수 있는 미리 결정된 교정 위치(80) 사이의 위치 차이를 결정할 수 있다. 전환 로직(56)은 이러한 차이를 이용하여 기준 요소(20)의 후속적으로 검출된 위치에 적용될 수 있는 하나 이상의 전환 인자를 생성하여, 기준 요소(20)의 후속적으로 검출된 위치를 이동시키고 사용자(10)가 휴대용 물체(12)로 가리키고자 한 위치에 대응하는 휴대용 물체(12)의 후속 투영 표적 위치를 결정할 수 있다. 전환 인자는 변환 행렬의 형태로 제공될 수 있으며, 변환 행렬은 아래에 표시된 바와 같이 기준 요소(20)의 투영 표적 위치를 생성하기 위해 기준 요소(20)의 후속적으로 검출된 위치에 적용될 수 있다. The camera 22 detects the position 90 of the reference element 20 on the two-dimensional plane 32 , and transmits an indication of the position 90 to the projection positioning system 44 . The conversion logic 56 , which may be part of the model of human interaction , then generates a position 90 of the reference element 20 and a predetermined calibration position, which may be expressed in two-dimensional (eg x and y) coordinates ( 80) can be determined. The transition logic 56 uses this difference to generate one or more transition factors that can be applied to the subsequently detected position of the reference element 20 to move the subsequently detected position of the reference element 20 and A subsequent projection target position of the portable object 12 may be determined that corresponds to a position that the user 10 wishes to point to with the portable object 12 . The transformation factor may be provided in the form of a transformation matrix, which may be applied to subsequently detected positions of the reference element 20 to produce a projected target position of the reference element 20 as indicated below. .

Figure pct00001
Figure pct00001

여기서, x = 2차원 평면(32) 상의 기준 요소(20)의 위치(90)의 수평 성분, where x = the horizontal component of the position 90 of the reference element 20 on the two-dimensional plane 32 ,

y = 2차원 평면(32) 상의 기준 요소(20)의 위치(90)의 수직 성분, y = the vertical component of the position 90 of the reference element 20 on the two-dimensional plane 32 ,

X = 2차원 평면(32) 상의 교정 위치(80)와 기준 요소(20) 사이의 수평 차이, X = the horizontal difference between the calibration position 80 and the reference element 20 on the two-dimensional plane 32 ,

Y = 2차원 평면(32) 상의 교정 위치(80)와 기준 요소(20) 사이의 수직 차이, Y = the vertical difference between the calibration position 80 and the reference element 20 on the two-dimensional plane 32 ,

x' = 2차원 평면(32) 상의 휴대용 물체(12)의 투영 표적 위치의 수평 성분, 및x' = the horizontal component of the projection target position of the portable object 12 on the two-dimensional plane 32 , and

y' = 2차원 평면(32) 상의 휴대용 물체(12)의 투영 표적 위치의 수직 성분.y' = the vertical component of the projection target position of the portable object 12 on the two-dimensional plane 32 .

예를 들어, 도 4는 본 개시의 실시예에 따른, 기준 요소(20)의 후속적으로 검출된 위치(120)에 하나 이상의 전환 인자를 적용하는 예를 도시한 도면이다. 도시된 바와 같이, 교정 동안, 기준 요소(20)의 위치(90)는 교정 위치(80)에서 2단위(예: 센티미터) 오른쪽에 있고 교정 위치(80)에서 1단위(예: 센티미터) 위쪽에 있다. 이에 따라, 전환 인자는 수평 방향으로 +2를 포함하고 수직 방향으로 +1을 포함할 수 있다. 따라서, 변환 행렬에서 X는 +2로, Y는 +1로 설정될 수 있다. 전환 로직(56)은 변환 행렬을 기준 요소(20)의 후속적으로 검출된 위치(120)(예: [4, 2])에 적용하여, 후속적으로 검출된 위치(120)를 오른쪽으로 2단위 및 위쪽으로 1단위만큼 이동시켜, 교정 위치(80)의 오른쪽으로 6단위 및 위쪽으로 3단위(예: [6, 3])에 있는 투영 표적 위치(122)를 생성할 수 있다. 따라서, 전환 로직(56)은, 자신이 휴대용 물체(12)로 가리키고 있는 위치에 대한 사용자의 인식과 기준 요소(20)가 2차원 평면(32) 상 어느 곳에 위치하는지에 대한 카메라의 판정 사이의 차이를 보상할 수 있다.For example, FIG. 4 is a diagram illustrating an example of applying one or more conversion factors to a subsequently detected position 120 of a reference element 20 , in accordance with an embodiment of the present disclosure. As shown, during calibration, the position 90 of the reference element 20 is 2 units (eg centimeters) to the right of the calibration position 80 and 1 unit (eg centimeters) above the calibration position 80 . there is. Accordingly, the conversion factor may include +2 in the horizontal direction and +1 in the vertical direction. Accordingly, in the transformation matrix, X may be set to +2 and Y may be set to +1. The transformation logic 56 applies the transformation matrix to the subsequently detected positions 120 of the reference element 20 (eg, [4, 2]), shifting the subsequently detected positions 120 to the right by 2 A unit and shifted one unit upward can create a projection target position 122 that is 6 units to the right of the calibration position 80 and 3 units upward (eg, [6, 3]). Thus, the transition logic 56 is responsible for the difference between the user's perception of the location at which it is pointing with the portable object 12 and the camera's determination of where the reference element 20 is located on the two-dimensional plane 32 . difference can be compensated.

다시 도 2로 돌아가서, 변환 로직(54)은 또한 사용자의 팔 길이 간의 차이를 보상하는 하나 이상의 스케일링 인자를 결정하는 스케일링 로직(58)을 포함할 수 있다. 즉, 도 3에 도시된 바와 같이, 사용자(10)는 자신의 어깨를 구의 중심(94)으로 하여 구 또는 구형 세그먼트(92)의 반경으로 작용할 수 있는 자신의 팔(82)을 사용하여 휴대용 물체(12)를 움직이거나 휴대용 물체(12)로 가리킨다. 사용자(10)가 휴대용 물체(12)를 움직여 다른 표적을 가리킴에 따라 휴대용 물체(12)의 기준 요소(20)의 각각의 위치는 동일한 표적을 가리키고 있음에도 불구하고 사용자(10) 간의 상이한 팔 길이로 인해 사용자(10)마다 다를 수 있다. 2, the transformation logic 54 may also include scaling logic 58 that determines one or more scaling factors that compensate for differences between the user's arm lengths. That is, as shown in FIG. 3 , the user 10 uses his or her arm 82 to act as a radius of a sphere or spherical segment 92 with his shoulder as the center 94 of the sphere to carry the portable object. Move (12) or point to a portable object (12). As the user 10 moves the portable object 12 to point at a different target, the respective positions of the reference elements 20 of the portable object 12 are at different arm lengths between the users 10 despite pointing at the same target. Due to this, it may be different for each user 10 .

특히, 스케일링 로직(58)은 교정 프로세스 동안 카메라(22)에 의해 검출된 기준 요소(20)의 위치(90)에 기초하여 하나 이상의 스케일링 인자를 결정할 수 있다. 지면(84)으로부터 카메라(22)의 높이(96)는 미리 결정되고 스케일링 로직(58)은 이러한 카메라(22)의 높이(96)를 알고 있다. 따라서, 스케일링 로직(58)은 기준 요소(20)의 위치(90) 및 미리 결정된 높이(96)에 기초하여 지면(84)으로부터 기준 요소(20)의 높이(98)를 판정할 수 있다. 기준 요소(20)의 높이(98)에 기초하여, 스케일링 로직(58)의 사용자 신장 추정 로직(60)은 사용자의 신장(100)을 판정할 수 있다. 특히, 사용자(10)가 휴대용 물체(12)로 교정 위치(80)를 가리킬 때의 기준 요소(20)의 높이(90) 및 그러한 사용자(10)의 신장에 대한 테스트 또는 샘플 데이터가 수집될 수 있다. 기준 요소(20)의 위치(90)의 높이(102)는 사용자(10)의 신장과 상관될 수 있고, 스케일링 로직(58)은 이러한 미리 결정된 상관관계 및 기준 요소(20)의 높이(98)에 기초하여 사용자의 신장(100)을 추정할 수 있다. 상관관계를 식별하기 위한 모델은 신장과 닿을 수 있는 거리 간의 표준 상관관계(예: 인구의 다양한 신체 유형에 대한 신장 및 팔 길이 사이의 비율)의 테이블로 채워질 수 있다. In particular, the scaling logic 58 may determine one or more scaling factors based on the position 90 of the reference element 20 detected by the camera 22 during the calibration process. The height 96 of the camera 22 from the ground 84 is predetermined and the scaling logic 58 knows the height 96 of this camera 22 . Accordingly, the scaling logic 58 may determine the height 98 of the reference element 20 from the ground 84 based on the predetermined height 96 and the position 90 of the reference element 20 . Based on the height 98 of the reference element 20 , the user height estimation logic 60 of the scaling logic 58 may determine the height 100 of the user. In particular, test or sample data may be collected for the height 90 of the reference element 20 and the height of such user 10 when the user 10 points the calibration position 80 with the portable object 12 . there is. The height 102 of the position 90 of the reference element 20 may be correlated with the height of the user 10 , and the scaling logic 58 uses this predetermined correlation and the height 98 of the reference element 20 . Based on the , the height 100 of the user may be estimated. Models for identifying correlations can be populated with tables of standard correlations between height and reach (eg, the ratio between height and arm length for various body types in the population).

그 다음, 스케일링 로직(58)의 사용자 팔 길이 추정 로직(62)은 사용자의 신장(100)에 기초하여 사용자의 팔 길이(104)를 추정할 수 있다. 이러한 추정은 팔 길이(104)와 사용자의 신장(100) 사이의 미리 결정된 상관관계(예: 경험적 데이터에 기초한 알고리즘 또는 테이블)에 기초하여 이루어질 수 있다. 이러한 미리 결정된 상관관계는 테스트 또는 샘플 데이터, 신체 비율과 연관된 과학적 데이터, 및/또는 임의의 다른 적절한 자료에 기초하여 결정될 수 있다.The user arm length estimation logic 62 of the scaling logic 58 may then estimate the user's arm length 104 based on the user's height 100 . This estimate may be made based on a predetermined correlation (eg, an algorithm or table based on empirical data) between the arm length 104 and the height 100 of the user. This predetermined correlation may be determined based on test or sample data, scientific data relating to body proportions, and/or any other suitable data.

스케일링 로직(58)은 사용자의 팔 길이(104)에 기초하여 하나 이상의 스케일링 인자를 결정할 수 있다. 예를 들어, 초기 위치(예: 교정 위치(80))에서 벗어나 가리킬 때, 카메라(22)는, 더 긴 팔 길이를 갖는 사용자(10)와 비교하여 더 짧은 팔 길이(104)를 갖는 사용자(10)의 경우에, 기준 요소(20)의 위치가 초기 위치와 더 가깝다고 검출할 수 있다. 이와 같이, 스케일링 로직(58)은 더 짧은 팔 길이(104)를 갖는 사용자(10)와 비교하여 더 긴 팔 길이(104)를 갖는 사용자(10)에 대해 더 큰 스케일링 인자를 결정할 수 있다. 스케일링 로직(58)은 하나 이상의 스케일링 인자를 기준 요소(20)의 후속적으로 검출된 위치에 적용하여 해당 위치를 스케일(scale)(예: 축소 또는 확장)하여 기준 요소(20)의 투영 표적 위치를 생성할 수 있다. 스케일링 인자는 수평 및 수직 성분을 포함하고, 변환 행렬의 형태로 제공되고, 아래에 표시된 바와 같이, 상기 수학식 1의 전환 인자를 포함하는 변환 행렬에 삽입될 수 있다. The scaling logic 58 may determine one or more scaling factors based on the user's arm length 104 . For example, when pointing away from the initial position (eg, the calibration position 80 ), the camera 22 may detect a user with a shorter arm length 104 as compared to a user 10 with a longer arm length ( In case 10), it can be detected that the position of the reference element 20 is closer to the initial position. As such, the scaling logic 58 may determine a larger scaling factor for the user 10 having the longer arm length 104 compared to the user 10 having the shorter arm length 104 . The scaling logic 58 applies one or more scaling factors to the subsequently detected position of the reference element 20 to scale (eg, reduce or expand) the position to the projected target position of the reference element 20 . can create The scaling factor includes horizontal and vertical components, is provided in the form of a transformation matrix, and may be inserted into a transformation matrix including the transformation factor of Equation 1, as indicated below.

Figure pct00002
Figure pct00002

여기서, k1 = 사용자의 팔 길이(104)에 기초하여 생성된 수평 스케일링 인자, 및 where k 1 = a horizontal scaling factor generated based on the user's arm length 104, and

k2 = 사용자의 팔 길이(104)에 기초하여 생성된 수직 스케일링 인자.k 2 = a vertical scaling factor generated based on the user's arm length 104 .

스케일링 인자 k 1 k 2 의 값은, 사용자(10)가 휴대용 물체(12)로 다양한 표적을 가리키는 것 및 이러한 사용자(10)의 팔 길이(104)로부터 수집된 테스트 또는 샘플 데이터를 상관시키는 것에 기초하여 결정될 수 있다. 예를 들어, 스케일링 로직(58)은 카메라(22)로부터 수신된 이미지 데이터(예: 화상의 제1 또는 교정 이미지)에 기초하여 지면(84)으로부터 기준 요소(20)의 높이(98)가 1.25미터라고 판정할 수 있다. 사용자 신장 추정 로직(60)은 기준 요소(20)의 높이(98)에 기초하여 사용자의 신장(100)이 약 1.8 미터라고 판정할 수 있다. 사용자 팔 길이 추정 로직(62)은 사용자의 신장(100)에 기초하여 사용자의 팔 길이(104)가 0.6미터라고 판정할 수 있다. 그 다음, 스케일링 로직(58)은 사용자의 팔 길이(104)에 기초하여 수평 스케일링 인자 k 1 은 1.5이고 수직 스케일링 인자 k 2 는 1.75라고 결정할 수 있다. 따라서, 스케일링 로직(58)은 k 1 = 1.5 및 k 2 = 1.75인 수학식 2의 변환 행렬을 생성하고, 투영 위치 결정 시스템(44)은 기준 요소(20)의 후속적으로 검출된 위치에 변환 행렬을 적용하여, 사용자 팔 길이(104) 간의 차이를 보상하는, 사용자(10)가 휴대용 물체(12)로 가리키고자 한 위치의 투영 표적 위치를 생성할 수 있다.The values of the scaling factors k 1 and k 2 depend on the user 10 pointing at various targets with the portable object 12 and correlating test or sample data collected from the arm length 104 of the user 10 . can be determined based on For example, the scaling logic 58 may determine that the height 98 of the reference element 20 from the ground 84 is 1.25 based on image data received from the camera 22 (eg, a first or calibration image of the image). meter can be determined. The user height estimation logic 60 may determine that the user's height 100 is about 1.8 meters based on the height 98 of the reference element 20 . User arm length estimation logic 62 may determine that the user's arm length 104 is 0.6 meters based on the user's height 100 . The scaling logic 58 may then determine based on the user's arm length 104 that the horizontal scaling factor k 1 is 1.5 and the vertical scaling factor k 2 is 1.75. Accordingly, the scaling logic 58 generates the transformation matrix of equation (2) with k 1 =1.5 and k 2 =1.75, and the projection positioning system 44 transforms the subsequently detected position of the reference element 20 into The matrix may be applied to create a projected target position of the position that the user 10 wishes to point to the portable object 12 , which compensates for differences between the user arm lengths 104 .

예를 들어, 도 5는 본 개시의 실시예에 따른, 기준 요소(20)의 후속적으로 검출된 위치(120)에 스케일링 인자를 적용한 예를 도시한 도면이다. 도시된 바와 같이, 기준 요소(20)의 후속적으로 검출된 위치(120)는 교정 위치(80)로부터 4단위(예: 센티미터)만큼 오른쪽에 위치하고 교정 위치(80)로부터 4단위(예: 센티미터)만큼 위쪽에 위치한다(예: [4, 4]). 수평 스케일링 인자 k 1 = 1.5 및 수직 스케일링 인자 k 2 = 1.75를 갖는 수학식 2의 변환 행렬을 후속적으로 검출된 위치(120)에 적용하면, 후속적으로 검출된 위치(120)를 수평으로 1.5만큼 스케일링하여 교정 위치(80)로부터 6단위만큼 오른쪽에 위치한 투영 표적 위치(130)를 생성하고, 후속적으로 검출된 위치(120)를 수직으로 1.7만큼 스케일링하여 7단위(예: 센티미터)만큼 위쪽에 위치한 투영 표적 위치(130)를 생성한다(예: [6,7]). 따라서, 스케일링 로직(58)은 사용자의 팔 길이(104)의 차이를 보상할 수 있다.For example, FIG. 5 is a diagram illustrating an example of applying a scaling factor to a subsequently detected position 120 of the reference element 20 according to an embodiment of the present disclosure. As shown, the subsequently detected position 120 of the reference element 20 is located 4 units (eg centimeters) to the right from the calibration position 80 and 4 units (eg centimeters) from the calibration position 80 . ) as much as above (eg [4, 4]). If the transformation matrix of Equation 2 having a horizontal scaling factor k 1 =1.5 and a vertical scaling factor k 2 =1.75 is applied to the subsequently detected positions 120, the subsequently detected positions 120 are horizontally 1.5 creates a projected target position 130 located 6 units to the right of the calibration position 80 by scaling by Create a projection target position 130 located at (eg [6,7]). Accordingly, the scaling logic 58 may compensate for differences in the user's arm length 104 .

다시 도 2로 돌아가서, 투영 위치 결정 시스템(44)은 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32) 사이의 형상 차이를 보상하는 호 왜곡 보상 로직(64)을 포함할 수 있다. 예를 들어, 도 6은 휴대용 물체(12)로 상이한 표적을 가리키는 사용자(10)를 도시하는 도면이다. 도시된 바와 같이, 사용자의 팔(82)의 제1 위치(140)와 사용자의 팔(82)의 제2 위치(142)가 이루는 각도 θ는 사용자의 팔(82)의 제3 위치(144)와 사용자의 팔(82)의 제4 위치 (146)가 이루는 각도와 동일하다. 그러나, 2차원 평면(32) 상에서 카메라(22)에 의해 관측되고 캡처된 바와 같이, 사용자의 팔(82)의 제1 위치(140)에 대응하는 제1 기준 요소 위치(148)와 사용자의 팔(82)의 제2 위치(142)에 대응하는 제2 기준 요소 위치(150) 사이의 거리 h 0 는 사용자의 팔(82)의 제3 위치(144)에 대응하는 제3 기준 요소 위치(152)와 사용자의 팔(82)의 제4 위치(146)에 대응하는 제4 기준 요소 위치(154) 사이의 거리 h 1 와 상이하다(예컨대, 더 크다). 2 , the projection positioning system 44 may include arc distortion compensation logic 64 that compensates for shape differences between the arcuate characteristic 92 of the user's arm movement and the flat two-dimensional plane 32 . there is. For example, FIG. 6 is a diagram illustrating a user 10 pointing a different target with a portable object 12 . As shown, the angle θ between the first position 140 of the user's arm 82 and the second position 142 of the user's arm 82 is the third position 144 of the user's arm 82 . and the fourth position 146 of the user's arm 82 is equal to the angle formed. However, the first reference element position 148 corresponding to the first position 140 of the user's arm 82 and the user's arm as observed and captured by the camera 22 on the two-dimensional plane 32 . The distance h 0 between the second reference element location 150 corresponding to the second location 142 of 82 is the third reference element location 152 corresponding to the third location 144 of the user's arm 82 . ) and the distance h 1 between the fourth reference element position 154 corresponding to the fourth position 146 of the user's arm 82 , is different (eg, greater than).

이에 따라, 호 왜곡 보상 로직(64)은 이 왜곡을 보상하는 투영 표적 위치에 적용할 하나 이상의 오프셋을 결정할 수 있다. 하나 이상의 오프셋은 투영 표적 위치와 초기 위치(예: 교정 위치(80)) 사이의 거리를 늘리거나 확장하도록 투영 표적 위치를 이동시켜 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32) 사이의 형상 차이를 보상할 수 있다. 예를 들어, 하나 이상의 오프셋은, 사용자(10)가 휴대용 물체(12)로(예: 호(92)를 따르는 기준 요소(20)로) 다양한 표적을 가리키는 것으로부터의 테스트 또는 샘플 데이터를 방정식에 피팅(fit)하는 회귀 분석을 사용하여 결정될 수 있다. 임의의 적합한 차수 또는 유형의 방정식이 사용될 수 있지만, 일부 실시예에서, 호 왜곡 보상 로직(64)은 테스트 데이터를 다항식(예: 3차 다항식)에 피팅할 수 있다. 예를 들어, 제1의 3차 다항식(아래의 수학식 3 및 수학식 4)은 수평 방향에서 이러한 왜곡을 보상하는 투영 표적 위치에 적용할 수평 오프셋을 결정하는데 사용될 수 있고, 제2의 3차 다항식(아래의 수학식 5 및 수학식 6)은 수직 방향의 왜곡을 보상하는 투영 표적 위치에 적용할 수직 오프셋을 결정하는데 사용할 수 있다.Accordingly, arc distortion compensation logic 64 may determine one or more offsets to apply to the projection target position to compensate for this distortion. The one or more offsets move the projection target position to increase or extend the distance between the projection target position and the initial position (eg, the correction position 80 ), so that the arcuate nature of the user's arm movement 92 and a flat two-dimensional plane 32 ) can compensate for the shape difference between For example, the one or more offsets may include test or sample data from a user 10 pointing various targets to a portable object 12 (eg, to a reference element 20 along an arc 92 ) into the equation. It can be determined using a regression analysis to fit. Although any suitable order or type of equation may be used, in some embodiments, the arc distortion compensation logic 64 may fit the test data to a polynomial (eg, a cubic polynomial). For example, a first cubic polynomial (Equations 3 and 4 below) can be used to determine a horizontal offset to apply to a projected target position that compensates for this distortion in the horizontal direction, and a second third order polynomial A polynomial (Equations 5 and 6 below) can be used to determine a vertical offset to be applied to the projection target position that compensates for distortion in the vertical direction.

Figure pct00003
Figure pct00003

(추가 또는 대안적으로, 하기와 같이 나타낼 수 있음:(Additionally or alternatively, it may be represented as:

Figure pct00004
Figure pct00004

Figure pct00005
Figure pct00005

(추가 또는 대안적으로, 하기와 같이 나타낼 수 있음:(Additionally or alternatively, it may be represented as:

Figure pct00006
Figure pct00006

여기서, xoffset = 투영 표적 위치에 적용될 수평 오프셋,where x offset = horizontal offset to be applied to the projection target position,

yoffset = 투영 표적 위치에 적용될 수직 오프셋,y offset = vertical offset to be applied to the projection target position,

x = 투영 표적 위치의 수평 성분,x = horizontal component of the projection target position,

y = 투영 표적 위치의 수직 성분, 및y = the vertical component of the projection target position, and

ai, bi, ci, a, b, c, d, e, f, g, h, k 및 l = 회귀 분석을 사용하여 결정되는 상수로서, 각 상수는 수학식별로 상이할 수 있음(예: 수학식 4의 상수 a는 수학식 6의 상수 a와 다를 수 있음).a i , b i , c i , a, b, c, d, e, f, g, h, k and l = constants determined using regression analysis, where each constant can be different for each expression ( Example: The constant a in Equation 4 may be different from the constant a in Equation 6).

투영 표적 위치의 수평 성분은 (예컨대, 교정 위치(80) 및/또는 사용자(10)가 휴대용 물체(12)로 카메라(22)를 직접적으로 가리키는 시점에 대응하는) 초기 위치로부터 떨어진 수평 거리로서 측정될 수 있는 반면, 투영 표적 위치의 수직 성분은 초기 위치로부터 떨어진 수직 거리로서 측정될 수 있다. 전술한 바와 같이, 다항의 수학식 3 내지 수학식 6 중 임의의 것에 대해 상수 ai, bi, ci, a, b, c, d, e, f, g, h, k 및 l은, 다항 회귀 분석을 사용하여 테스트 또는 샘플 데이터를 다항식으로 피팅(fitting)함으로써 결정될 수 있다(그리고, 이러한 상수는 수학식별로 상이할 수 있음). 이와 같이, 하나 이상의 오프셋은, 사용자(10)가 휴대용 물체(12)를 움직이고 휴대용 물체(12)로 가리킴에 따라 각각의 투영 표적 위치에 대해 결정될 수 있다.The horizontal component of the projection target position is measured as the horizontal distance away from the initial position (eg, corresponding to the calibration position 80 and/or the point at which the user 10 points the camera 22 directly at the portable object 12 ). Whereas the vertical component of the projection target position can be measured as the vertical distance away from the initial position. As noted above, the constants a i , b i , c i , a, b, c, d, e, f, g, h, k and l for any of Equations 3 to 6 of the polynomial are: It can be determined by fitting test or sample data to a polynomial using polynomial regression analysis (and such constants may differ from equation to equation). As such, one or more offsets may be determined for each projection target position as the user 10 moves and points at the portable object 12 .

그러나, 사용자(10)가 휴대용 물체(12)를 움직이고 휴대용 물체(12)로 가리킴에 따라 각각의 투영 표적 위치에 대해 수평 및 수직 오프셋을 결정하기 위해 수학식 3 내지 수학식 6 중 임의의 것을 적용하는 것은 시간 소모적일 수 있고 과도한 컴퓨팅 자원(예: 처리, 메모리, 저장 또는 네트워킹 자원)을 사용하는 것일 수 있다. 이에 따라, 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32) 사이의 형상 차이를 보다 효율적으로 보상하기 위해, 일부 실시예에서, 호 왜곡 보상 로직(64)은 기준 요소(20)가 위치될 수 있는 호(92)를 다수의 기준 요소 영역으로 분할할 수 있고, 각각의 기준 요소 영역은 (예컨대, 2차원 평면 상에 투영된) 각각의 투영 표적 영역에 대응할 수 있다. 각각의 투영 표적 영역은 그 투영 표적 영역에 적용 가능한 왜곡을 정확하게 보상할 수 있는 각각의 다항식의 세트에 대응할 수 있다. 이와 같이, 카메라(22)는 기준 요소 영역에서 기준 요소(20)를 검출할 수 있고, 호 왜곡 보상 로직(64)은 기준 요소 영역에 대응하는 각각의 투영 표적 영역을 결정할 수 있으며, 호 왜곡 보상 로직(64)은 각각의 투영 표적 영역에 대응하는 각각의 다항식의 세트를 기준 요소의 위치에 적용하여, 이러한 왜곡을 보상하기 위해 기준 요소의 위치에 적용될 하나 이상의 오프셋을 결정할 수 있다. 이러한 실시예에서, 다수의 기준 요소 영역이 상이한 크기일 때(예: 기준 요소 영역이 2차원 평면(32)으로부터 멀어질수록 기준 요소 영역의 크기가 감소함) 다수의 투영 표적 영역은 동일한 크기이거나, 다수의 기준 요소 영역이 동일한 크기일 때 다수의 투영 표적 영역은 상이한 크기일 수 있다(예: 투영 표적 영역이 기준 요소(20)로부터 멀어질수록 투영 표적 영역의 크기가 증가함).However, apply any of Equations 3 to 6 to determine the horizontal and vertical offsets for each projection target position as the user 10 moves and points at the portable object 12 . Doing so can be time consuming and use excessive computing resources (eg, processing, memory, storage, or networking resources). Accordingly, to more efficiently compensate for shape differences between the arcuate characteristic 92 of the user's arm movement and the flat two-dimensional plane 32 , in some embodiments, the arc distortion compensation logic 64 may ) may be divided into multiple reference element regions, each reference element region may correspond to a respective projection target region (eg, projected onto a two-dimensional plane). Each projection target area may correspond to a respective set of polynomials capable of accurately compensating for the distortion applicable to that projection target area. As such, the camera 22 may detect the reference element 20 in the reference element region, and the arc distortion compensation logic 64 may determine each projection target region corresponding to the reference element region, and arc distortion compensation Logic 64 may apply each set of polynomials corresponding to each projection target area to the location of the reference element to determine one or more offsets to be applied to the location of the reference element to compensate for such distortion. In such an embodiment, when multiple reference element regions are of different sizes (eg, the size of the reference element regions decreases as the reference element regions move away from the two-dimensional plane 32 ), the multiple projection target regions are the same size or , the plurality of projection target areas may be of different sizes when the plurality of reference element areas are the same size (eg, the size of the projection target area increases as the projection target area moves away from the reference element 20 ).

도 7은 본 개시의 실시예에 따른, 다수의 상이한 크기의 기준 요소 영역(170) 및 다수의 균일한 크기의 투영 표적 영역(172)을 도시하는 도면이다. 도시된 바와 같이, 2차원 평면(32)에 가장 가까운 제1 기준 요소 영역(174)의 크기가 가장 크고, 그 다음으로 2차원 평면(32)에 가까운 제2 기준 요소 영역(176)의 크기가 그 다음으로 크고(제1 기준 요소 영역(174)보다는 작음), 그 다음으로 2차원 평면(32)에 가까운 제3 기준 요소 영역(178)의 크기가 그 다음으로 크며(제2 기준 요소 영역(176)보다는 작음), 그 다음으로 2차원 평면(32)에 가까운 제4 기준 요소 영역(180)의 크기가 그 다음으로 크다(제3 기준 요소 영역(178)보다는 작음). 도 7에는 4개의 기준 요소 영역(170)이 도시되어 있지만, 임의의 적절한 수의 기준 요소 영역(170)이 임의의 적절한 크기로 고찰되며, 이 때, 기준 요소 영역(170)이 2차원 평면(32)으로부터 멀어질수록 기준 요소 영역(170)의 크기는 감소한다. 또한, 각각의 투영 표적 영역(172)은 다른 투영 표적 영역(172)과 동일한 크기이고, 각각의 기준 요소 영역(170)에 대응하며, 기준 요소(20)의 위치에 적용될 각각의 오프셋(예: 수평 및 수직 오프셋)을 생성하는 각각의 다항식의 세트에 대응한다. 특히, 각각의 투영 표적 영역(172)에 대응하는 각각의 다항식의 세트는, 수학식 3 내지 수학식 6 중 임의의 것에 제공된 바와 같이, 상수 ai, bi, ci, a, b, c, d, e, f, g, h, k 및 l에 대해 상이한 값의 세트를 가질 수 있다(그리고 이러한 상수는 수학식별로 상이할 수 있음). 기준 요소 영역(170)이 2차원 평면(32)으로부터 멀어질수록 기준 요소 영역(170)의 크기를 감소시키는 반면 투영 표적 영역(172)의 동일한 크기를 유지하는 것은, 호 왜곡 보상 로직(64)으로 하여금 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32) 사이의 형상 차이를 효율적이고 자원 절약적인 방식으로 보상하게 할 수 있다. 7 is a diagram illustrating a number of different sized reference element regions 170 and a number of uniformly sized projection target regions 172 , in accordance with an embodiment of the present disclosure. As shown, the size of the first reference element region 174 closest to the two-dimensional plane 32 is largest, followed by the size of the second reference element region 176 closest to the two-dimensional plane 32 . The next largest (smaller than the first reference element region 174), and then the third closest reference element region 178 close to the two-dimensional plane 32, is the next largest (second reference element region 174) 176 ), and the fourth reference element region 180 , which is next closest to the two-dimensional plane 32 , is next in size (smaller than the third reference element region 178 ). Although four reference element regions 170 are shown in FIG. 7 , any suitable number of reference element regions 170 are contemplated in any suitable size, wherein reference element region 170 is a two-dimensional plane ( 32), the size of the reference element region 170 decreases. Further, each projection target area 172 is the same size as the other projection target areas 172 , and corresponds to each reference element area 170 , and each offset to be applied to the position of the reference element 20 (eg: each corresponding to a set of polynomials generating horizontal and vertical offsets). In particular, each set of polynomials corresponding to each projection target area 172 is, as provided in any of Equations 3-6, the constants a i , b i , c i , a, b, c , d, e, f, g, h, k, and l may have different sets of values (and these constants may be different from each other). The arc distortion compensation logic 64 reduces the size of the reference element region 170 as it moves away from the two-dimensional plane 32 while maintaining the same size of the projection target region 172 . to compensate for the shape difference between the arcuate characteristic 92 of the user's arm movement and the flat two-dimensional plane 32 in an efficient and resource-saving manner.

도 8은 본 개시의 실시예에 따른, 다수의 균일한 크기의 기준 요소 영역(190) 및 다수의 상이한 크기의 투영 표적 영역(192)을 도시하는 도면이다. 도시된 바와 같이, 각각의 기준 요소 영역(190)은 동일한 크기이다. 그러나, 기준 요소(20)에 가장 가까운 제1 투영 표적 영역(194)의 크기가 가장 작고, 그 다음으로 기준 요소(20)에 가까운 제2 투영 표적 영역(196)의 크기가 그 다음으로 작고(제1 투영 표적 영역(194)보다는 큼), 그 다음으로 기준 요소(20)에 가까운 제3 투영 표적 영역(198)의 크기가 그 다음으로 작으며(제2 투영 표적 영역(196)보다는 큼), 그 다음으로 기준 요소(20)에 가까운 제4 투영 표적 영역(200)의 크기가 그 다음으로 작다(제3 투영 표적 영역(198)보다는 큼). 도 8에는 4개의 투영 표적 영역(192)이 도시되어 있지만, 임의의 적절한 수의 투영 표적 영역(192)이 임의의 적절한 크기로 고찰되며, 이 때, 투영 표적 영역(192)이 기준 요소(20)로부터 멀어질수록 투영 표적 영역(192)의 크기는 증가한다. 각각의 투영 표적 영역(192)은 각각의 기준 요소 영역(190)에 대응하고, 기준 요소(20)의 위치에 적용될 각각의 오프셋(예: 수평 및 수직 오프셋)을 생성하는 각각의 다항식의 세트에 대응한다. 특히, 각각의 투영 표적 영역(192)에 대응하는 각각의 다항식의 세트는, 수학식 3 내지 수학식 6 중 임의의 것에 제공된 바와 같이, 상수 ai, bi, ci, a, b, c, d, e, f, g, h, k 및 l에 대해 상이한 값의 세트를 가질 수 있다(그리고 이러한 상수는 수학식별로 상이할 수 있음). 투영 표적 영역(192)이 기준 요소(20)로부터 멀어질수록 투영 표적 영역(192)의 크기를 증가시키는 반면 기준 요소 영역(190)의 동일한 크기를 유지하는 것은, 호 왜곡 보상 로직(64)으로 하여금 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32) 사이의 형상 차이를 효율적이고 자원 절약적인 방식으로 보상하게 할 수 있다. 8 is a diagram illustrating a number of uniformly sized reference element regions 190 and a number of different sized projection target regions 192 , in accordance with an embodiment of the present disclosure. As shown, each reference element region 190 is the same size. However, the size of the first projection target area 194 closest to the reference element 20 is the smallest, and the size of the second projection target area 196 closest to the reference element 20 is next smaller ( Larger than the first projection target area 194 ), then the third projection target area 198 close to the reference element 20 is the next smaller in size (greater than the second projection target area 196 ) , then the fourth projection target area 200 close to the reference element 20 has the next smallest size (greater than the third projection target area 198 ). Although four projection target areas 192 are shown in FIG. 8 , any suitable number of projection target areas 192 are contemplated in any suitable size, wherein the projection target area 192 is the reference element 20 . ), the size of the projection target area 192 increases. Each projection target area 192 corresponds to a respective reference element area 190 , in a respective set of polynomials that produce respective offsets (eg, horizontal and vertical offsets) to be applied to the position of the reference element 20 . respond In particular, each set of polynomials corresponding to each projection target area 192 is, as provided in any of Equations 3-6, the constants a i , b i , c i , a, b, c , d, e, f, g, h, k, and l may have different sets of values (and these constants may be different from each other). Increasing the size of the projection target area 192 as the projection target area 192 moves away from the reference element 20 while maintaining the same size of the reference element area 190 is performed by arc distortion compensation logic 64 . compensating for shape differences between the arcuate nature 92 of the user's arm movement and the flat two-dimensional plane 32 in an efficient and resource-saving manner.

단순화를 위해, 도 6 내지 도 8은 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32) 사이의 형상 차이에 의해 야기되는 왜곡을 수직(예: y) 방향에서만 도시한다. 그러나, 본 명세서에 개시된 시스템 및 방법은 임의의 적절한 방향에서의 왜곡을 보상하는 것을 고찰하는데, 이에는 수평 방향의 왜곡을 보상하기 위해 수평 오프셋을 제공하는 수학식 3 및 수학식 4에 의해 입증되는 바와 같은 수평(예: x) 방향, 및 수직 방향의 왜곡을 보상하기 위해 수직 오프셋을 제공하는 수학식 5 및 수학식 6에 의해 입증되는 바와 같은 수직(예: y) 방향이 포함된다.For simplicity, FIGS. 6-8 show the distortion caused by the shape difference between the arcuate nature 92 of the user's arm movement and the flat two-dimensional plane 32 only in the vertical (eg, y) direction. However, the systems and methods disclosed herein contemplate compensating for distortion in any suitable direction, which is demonstrated by equations 3 and 4 providing a horizontal offset to compensate for distortion in the horizontal direction. The horizontal (eg x) direction as shown, and the vertical (eg y) direction as evidenced by equations (5) and (6) providing a vertical offset to compensate for distortion in the vertical direction are included.

다시 도 2로 돌아가서, 투영 표적 위치가 구조물 상(15)에 인쇄되거나, 에칭되거나, 기록되거나, 부착되거나, 달리 디스플레이되는 표적(14)에 대응한다고 투영 위치 결정 시스템(44)이 판정하는 경우, 사용자 상호작용 시스템(42)의 출력 장치(66)는 사용자 상호작용 경험을 출력할 수 있다. 출력 장치(66)는, 전자 디스플레이, 스피커, 가상 현실 장치, 증강 현실 장치, 액추에이터, 및/또는 애니메이트된 장치(animated device)(예: 로봇 피규어)와 같이, 원하는 사용자 상호작용형 경험을 출력할 수 있는 임의의 적절한 장치일 수 있다. 표적(14)은 출력 장치(66)의 일부이거나 이에 고정 또는 부착되거나 이를 포함할 수 있거나, 표적(14)은 출력 장치(66)와 분리될 수 있다. 예를 들어, 테마파크의 환경에서 표적(14) 및 출력 장치(66)는 둘 다 어트랙션의 애니메이트된 물체(animated object)일 수 있고, 투영 표적 위치가 애니메이트된 물체에 대응한다는 판정에 응답하여 애니메이트된 물체는 사용자 상호작용 경험(예: 꼬리를 흔드는 것)을 출력할 수 있다. 다른 예로, 표적(14)은 포스터에 인쇄된 단어일 수 있고 출력 장치(66)는 근처의 스피커일 수 있으며, 투영 표적 위치가 포스터에 인쇄된 단어에 대응한다고 판정하는 것에 응답하여, 근처의 스피커는 해당 단어를 말하는 음성을 출력할 수 있다. 또 다른 예로서, 표적(14)은 전자 디스플레이 상의 사람의 이미지일 수 있고 출력 장치(66)는 전자 디스플레이일 수 있으며, 투영 표적 위치가 사람의 이미지에 대응한다는 판정에 응답하여, 전자 디스플레이는 독특한 동작을 수행하는 이미지의 사람을 보여주는 비디오를 재생할 수 있다.2 , when the projection positioning system 44 determines that the projection target position corresponds to a target 14 printed, etched, recorded, affixed, or otherwise displayed on the structure 15 , The output device 66 of the user interaction system 42 may output a user interaction experience. The output device 66 may output a desired user interactive experience, such as an electronic display, speaker, virtual reality device, augmented reality device, actuator, and/or animated device (eg, a robot figure). It may be any suitable device capable of being The target 14 may be part of, fixed to, attached to, or include an output device 66 , or the target 14 may be separate from the output device 66 . For example, in the environment of a theme park, target 14 and output device 66 can both be animated objects of an attraction, which are animated in response to determining that the projected target position corresponds to the animated object. Objects may output user interaction experiences (eg, wag their tails). As another example, target 14 may be a word printed on a poster and output device 66 may be a nearby speaker, responsive to determining that the projected target location corresponds to a word printed on the poster, a nearby speaker may output a voice speaking the corresponding word. As another example, target 14 may be an image of a person on an electronic display and output device 66 may be an electronic display, and in response to determining that the projected target location corresponds to an image of a person, the electronic display may display a unique You can play a video showing the person in the image performing the action.

이를 염두에 두고, 도 9는 본 개시의 실시예에 따른, 휴대용 물체(12)의 투영 표적 위치를 결정하기 위한 프로세스(210)의 흐름도이다. 프로세스(210)는 투영 위치 결정 시스템(44)의 임의의 구성요소와 같은, 휴대용 물체(12)의 투영 표적 위치를 결정할 수 있는 임의의 적절한 장치에 의해 수행될 수 있는데, 이러한 투영 위치 결정 시스템(44)의 임의의 구성요소에는 제어기(46), 프로세서(48), 기준 요소 위치 검출 로직(52), 변환 로직(54), 전환 로직(56), 스케일링 로직(58), 사용자 신장 추정 로직(60), 및/또는 사용자 팔 길이 로직(62)이 포함된다. 특정 순서의 단계를 이용하여 프로세스(210)를 서술하지만, 서술된 단계는 서술된 순서와 다른 순서로 수행될 수 있고 서술된 특정 단계는 생략되거나 아예 수행되지 않을 수 있음이 본 개시에서 고찰된다. 일부 실시예에서, 프로세스(210)는, 프로세서(48)와 같은 프로세서를 사용하여 메모리 장치(50)와 같은 유형의(tangible) 비일시적 컴퓨터 판독 가능 매체에 저장된 명령을 실행함으로써 구현될 수 있다.With this in mind, FIG. 9 is a flow diagram of a process 210 for determining a projection target position of a portable object 12, according to an embodiment of the present disclosure. Process 210 may be performed by any suitable device capable of determining a projection target position of portable object 12, such as any component of projection positioning system 44, such Optional components of 44 include controller 46 , processor 48 , reference element position detection logic 52 , transformation logic 54 , transition logic 56 , scaling logic 58 , user height estimation logic ( 60 ), and/or user arm length logic 62 . Although process 210 is described using a specific order of steps, it is contemplated in this disclosure that the steps described may be performed in an order other than the order described and specific steps described may be omitted or not performed at all. In some embodiments, process 210 may be implemented by using a processor, such as processor 48 , to execute instructions stored in a tangible, non-transitory computer-readable medium, such as memory device 50 .

도시된 바와 같이, 프로세스 블록(212)에서, 프로세서(48)는 휴대용 물체(12)를 교정하기 위한 표시를 수신한다. 표시는, 휴대용 물체(12)의 기준 요소(20)의 존재를 포함하는, 카메라(22)에 의해 캡처된 이미지(예: 화상의 제1 또는 교정 이미지)의 형태일 수 있다. 일부 실시예에서, 사용자(10)가 기준 요소(20)를 갖는 휴대용 물체(12)와 함께 카메라(22)의 관측 영역에 진입했다는 것을 표시할 수 있는 모션 센서 또는 다른 적절한 센서가 표시를 제공할 수 있다.As shown, at process block 212 , processor 48 receives an indication to calibrate portable object 12 . The indication may be in the form of an image captured by the camera 22 (eg, a first or calibration image of a picture), including the presence of the reference element 20 of the portable object 12 . In some embodiments, a motion sensor or other suitable sensor capable of indicating that the user 10 has entered the viewing area of the camera 22 with the portable object 12 having the reference element 20 may provide an indication. can

프로세스 블록(214)에서, 프로세서(48)는 교정 위치(80)를 수신한다. 특히, 교정 위치(80)가 구조물(15) 상에 고정되거나 프로세서(48)에 의해 구조물(15) 상에 디스플레이될 수 있기 때문에, 교정 위치(80)는 미리 결정되고 프로세서(48)는 이러한 교정 위치(80)를 알고 있을 수 있다. At process block 214 , the processor 48 receives a calibration location 80 . In particular, since the calibration location 80 may be fixed on the structure 15 or displayed on the structure 15 by the processor 48 , the calibration location 80 is predetermined and the processor 48 determines such calibration. The location 80 may be known.

프로세스 블록(216)에서, 프로세서(48)는 휴대용 물체(12)의 기준 요소(20)의 위치를 수신한다. 예를 들어, 카메라(22)는 기준 요소(20)의 이미지(예: 카메라(22)에 의해 캡처된 화상의 제2 또는 후속 이미지)를 제공할 수 있다. 그 다음, 프로세서(48)는 2차원 평면(32) 상의 기준 요소(20)의 위치를 판정하도록 기준 요소 위치 검출 로직(52)에 지시할 수 있다.At process block 216 , the processor 48 receives the position of the reference element 20 of the portable object 12 . For example, camera 22 may provide an image of reference element 20 (eg, a second or subsequent image of an image captured by camera 22 ). The processor 48 may then instruct the reference element position detection logic 52 to determine the position of the reference element 20 on the two-dimensional plane 32 .

프로세스 블록(218)에서, 프로세서(48)는 기준 요소(20)의 위치와 교정 위치(80)에 기초하여 하나 이상의 전환 인자를 결정하도록 전환 로직(56)에 지시한다. 하나 이상의 전환 인자는, 자신이 휴대용 물체(12)로 가리키고 있는 위치에 대한 사용자의 인식과 기준 요소(20)가 2차원 평면(32) 상 어느 곳에 위치하는지에 대한 카메라의 판정 사이의 차이를 보상할 수 있다. 특히, 전환 로직(56)은 단일 지점 교정 프로세스를 수행함으로써 하나 이상의 전환 인자를 결정할 수 있다. 이 프로세스는 2차원 평면(32) 상의 교정 위치를 수신하는 단계, (예컨대, 사용자(10)가 휴대용 물체(12)로 교정 위치를 가리키는 시점에 대응하는) 2차원 평면(32) 상의 기준 요소(20)의 위치를 수신하는 단계, 및 교정 위치와 기준 요소(20)의 위치 사이의 위치 차이에 기초하여 하나 이상의 전환 인자를 결정하는 단계를 포함한다.At process block 218 , the processor 48 instructs the transition logic 56 to determine one or more conversion factors based on the position of the reference element 20 and the calibration position 80 . The one or more conversion factors compensate for the difference between the user's perception of the location at which it is pointing with the portable object 12 and the camera's determination of where the reference element 20 is located on the two-dimensional plane 32 . can do. In particular, the conversion logic 56 may determine one or more conversion factors by performing a single point calibration process. The process includes receiving a calibration location on the two-dimensional plane 32 , a reference element on the two-dimensional plane 32 (eg, corresponding to the point in time when the user 10 points the calibration location to the portable object 12 ) receiving the position of 20 ), and determining one or more conversion factors based on a position difference between the calibration position and the position of the reference element 20 .

전환 로직(56)은 이러한 차이를 이용하여 기준 요소(20)의 후속적으로 검출된 위치에 적용될 수 있는 하나 이상의 전환 인자를 생성하여, 기준 요소(20)의 후속적으로 검출된 위치를 이동시키고 사용자(10)가 휴대용 물체(12)로 가리키고자 한 위치에 대응하는 휴대용 물체(12)의 후속 투영 표적 위치를 결정할 수 있다. 전환 인자는 변환 행렬의 형태로 제공될 수 있으며, 변환 행렬은 수학식 1에서 표시된 바와 같이 기준 요소(20)의 투영 표적 위치를 생성하기 위해 기준 요소(20)의 후속적으로 검출된 위치에 적용될 수 있다. The transition logic 56 uses this difference to generate one or more transition factors that can be applied to the subsequently detected position of the reference element 20 to move the subsequently detected position of the reference element 20 and A subsequent projection target position of the portable object 12 may be determined that corresponds to a position that the user 10 wishes to point to with the portable object 12 . The transformation factor may be provided in the form of a transformation matrix, which transformation matrix is to be applied to the subsequently detected position of the reference element 20 to generate the projected target position of the reference element 20 as indicated in equation (1). can

프로세스 블록(220)에서, 프로세서(48)는 기준 요소(20)의 위치에 기초하여 사용자(10)의 신장(100)을 판정하도록 사용자 신장 추정 로직(60)에 지시한다. 프로세스 블록(222)에서, 프로세서(48)는 사용자(10)의 신장(100)에 기초하여 사용자(10)의 팔 길이(104)를 판정하도록 사용자 팔 길이 추정 로직(62)에 지시한다.At process block 220 , processor 48 instructs user height estimation logic 60 to determine height 100 of user 10 based on the location of reference element 20 . At process block 222 , processor 48 instructs user arm length estimation logic 62 to determine arm length 104 of user 10 based on height 100 of user 10 .

프로세스 블록(224)에서, 프로세서(48)는 사용자(10)의 팔 길이(104)에 기초하여 하나 이상의 스케일링 인자를 결정하도록 스케일링 로직(58)에 지시한다. 스케일링 로직(58)은 위에 표시된 수학식 2의 변환 행렬에서 스케일링 인자를 제공할 수 있다. 스케일링 인자는 초기 위치(예: 교정 위치(80))에 대해 기준 요소(20)의 위치를 스케일링(예: 배가(multiply))함으로써 사용자 팔 길이(104)의 차이를 보상할 수 있다.At process block 224 , the processor 48 instructs the scaling logic 58 to determine one or more scaling factors based on the arm length 104 of the user 10 . Scaling logic 58 may provide a scaling factor in the transformation matrix of Equation 2 shown above. The scaling factor may compensate for differences in the user's arm length 104 by scaling (eg, multiplying) the position of the reference element 20 with respect to an initial position (eg, the calibration position 80 ).

프로세스 블록(226)에서, 프로세서(48)는 기준 요소(20)의 위치, 하나 이상의 전환 인자, 및 하나 이상의 스케일링 인자에 기초하여 휴대용 물체(12)의 투영 표적 위치를 결정하도록 변환 로직(54)에 지시한다. 특히, 변환 로직(54)은 하나 이상의 전환 인자 및 하나 이상의 스케일링 인자를 포함하는 수학식 2의 변환 행렬을 기준 요소(20)의 위치에 적용하여 투영 표적 위치를 생성할 수 있다. 즉, 투영 표적 위치는 사용자(10)가 자신이 가리키고 있거나 가리키고자 하는 것으로 인식하는 위치에 대응할 수 있다.At process block 226 , the processor 48 generates transformation logic 54 to determine a projection target position of the portable object 12 based on the position of the reference element 20 , one or more transformation factors, and one or more scaling factors. instruct to In particular, the transformation logic 54 may apply a transformation matrix of Equation (2), including one or more transformation factors and one or more scaling factors, to the position of the reference element 20 to generate the projected target position. That is, the projected target position may correspond to a position that the user 10 recognizes as pointing to or intending to point to.

판정 블록(228)에서, 프로세서(48)는 투영 표적 위치가 사용자 상호작용 요소와 상관관계를 갖는지 여부를 판정한다. 사용자 상호작용 요소는 사용자 상호작용 경험을 수행하기 위한 트리거 역할을 하는 임의의 적절한 표적일 수 있다. 예를 들어, 사용자 상호작용 요소는, 사용자(10)가 휴대용 물체(12)로 가리킬 때 사용자 상호작용 경험이 수행되게 할 것으로 사용자(10)가 예상할 수 있는 임의의 관심 특징을 포함할 수 있다.At decision block 228 , the processor 48 determines whether the projected target position correlates with a user interaction element. The user interaction element may be any suitable target that serves as a trigger for performing a user interaction experience. For example, the user interaction element may include any characteristic of interest that the user 10 may expect to result in a user interactive experience being performed when the user 10 points to the portable object 12 . .

투영 표적 위치가 사용자 상호작용 요소와 상관관계를 갖는다고 프로세서(48)가 판정하면, 프로세스 블록(230)에서 프로세서(48)는 적절한 출력 장치(66)를 사용하여 각각의 사용자 상호작용 경험을 수행하도록 사용자 상호작용 시스템(42)에 지시한다. 예를 들어, 출력 장치(66)는 어트랙션의 애니메이트된 물체일 수 있고, 사용자 상호작용 시스템(42)은 애니메이트된 물체로 하여금 짖는 소리내기, 야옹 소리내기, 말하기, 움직이기, 눈 깜박이기 등을 하게 할 수 있다. 다른 예로서, 출력 장치(66)는 스피커일 수 있고, 사용자 상호작용 시스템(42)은 스피커로 하여금 소리, 음성, 음악 등을 출력하게 할 수 있다. 또 다른 예로서, 출력 장치(66)는 전자 디스플레이일 수 있고, 사용자 상호작용 시스템(42)은 전자 디스플레이로 하여금 이미지 디스플레이, 비디오 재생 등을 하게 할 수 있다.If the processor 48 determines that the projected target position is correlated with the user-interactive element, then at process block 230 the processor 48 performs a respective user-interactive experience using the appropriate output device 66 . instruct the user interaction system 42 to do so. For example, the output device 66 may be an animated object of an attraction, and the user interaction system 42 may cause the animated object to bark, meow, speak, move, blink, etc. can do it As another example, the output device 66 may be a speaker, and the user interaction system 42 may cause the speaker to output sound, voice, music, and the like. As another example, the output device 66 may be an electronic display, and the user interaction system 42 may cause the electronic display to display images, play videos, and the like.

투영 표적 위치가 사용자 상호작용 요소와 상관관계를 갖지 않는다고 프로세서(48)가 판정하면, 판정 블록(232)에서 프로세서(48)는 기준 요소(20)의 다음 위치가 수신되었는지 여부를 판정한다. 기준 요소(20)의 다음 위치가 수신되었다고 판정하면, 프로세서(48)는 프로세스 블록(226)을 반복하고, 기준 요소(20)의 다음 위치와 프로세스 블록(218, 224)으로부터 이미 결정된 전환 인자 및 스케일링 인자에 기초하여 휴대용 물체(12)의 투영 표적 위치를 결정한다.If the processor 48 determines that the projection target position does not correlate with the user-interactive element, then at decision block 232 the processor 48 determines whether a next position of the reference element 20 has been received. Upon determining that the next position of the reference element 20 has been received, the processor 48 repeats the process block 226, the next position of the reference element 20 and the transition factors already determined from the process blocks 218, 224; Determine the projection target position of the portable object 12 based on the scaling factor.

기준 요소(20)의 다음 위치가 수신되지 않았다고 프로세서(48)가 판정하면, 프로세서(48)는 (예컨대, 다음 사용자(10)로부터) 휴대용 물체(12)를 교정하기 위한 다음 표시를 수신하기 위해 프로세스 블록(212)을 반복한다. 이러한 방식으로, 프로세스(210)는, 자신이 휴대용 물체(12)로 가리키고 있는 위치에 대한 사용자의 인식과 기준 요소(20)가 2차원 평면(32) 상 어느 곳에 위치하는지에 대한 카메라의 판정 사이의 차이뿐만 아니라 사용자 팔 길이(104)의 차이도 보상하는 단일 지점 교정을 이용하여 (예컨대, 투영 위치 결정 시스템(44)을 교정하기 위해 사용자(10)로 하여금 휴대용 물체(12)로 둘 이상의 지점을 가리킬 것을 요구함 없이) 휴대용 물체(12)의 투영 표적 위치를 결정할 수 있다. If the processor 48 determines that a next position of the reference element 20 has not been received, then the processor 48 (eg, from the next user 10 ) is configured to receive a next indication to calibrate the portable object 12 . Repeat process block 212 . In this way, the process 210 is between the user's perception of the location at which it is pointing with the portable object 12 and the camera's determination of where on the two-dimensional plane 32 the reference element 20 is located. Using a single point calibration that compensates not only for differences in user arm length 104 , but also for differences in user arm length 104 (e.g., allows user 10 to calibrate projection positioning system 44 to more than one point with portable object 12 ). to determine the projection target position of the portable object 12 ).

더욱이, 투영 위치 결정 시스템(44)은 또한, 도 6에 도시된 바와 같이, 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32) 사이의 형상 차이에 의해 야기된 왜곡을 보상할 수 있다. 도 10은 본 개시의 실시예에 따른, 이러한 왜곡을 보상하기 위한 프로세스(240)의 흐름도이다. 프로세스(240)는, 제어기(46), 프로세서(48), 및/또는 호 왜곡 보상 로직(64)을 포함하는 투영 위치 결정 시스템(44)의 임의의 구성요소와 같은, 이러한 왜곡을 보상할 수 있는 임의의 적절한 장치에 의해 수행될 수 있다. 특정 순서의 단계를 이용하여 프로세스(240)를 서술하지만, 서술된 단계는 서술된 순서와 다른 순서로 수행될 수 있고 서술된 특정 단계는 생략되거나 아예 수행되지 않을 수 있음이 본 개시에서 고찰된다. 일부 실시예에서, 프로세스(240)는, 프로세서(48)와 같은 프로세서를 사용하여 메모리 장치(50)와 같은 유형의(tangible) 비일시적 컴퓨터 판독 가능 매체에 저장된 명령을 실행함으로써 구현될 수 있다.Moreover, the projection positioning system 44 can also compensate for distortion caused by the shape difference between the arcuate characteristic 92 of the user's arm movement and the flat two-dimensional plane 32 , as shown in FIG. 6 . can 10 is a flow diagram of a process 240 for compensating for such distortion, in accordance with an embodiment of the present disclosure. Process 240 may compensate for such distortion, such as controller 46 , processor 48 , and/or any component of projection positioning system 44 including arc distortion compensation logic 64 . It can be carried out by any suitable device. Although process 240 is described using a specific order of steps, it is contemplated in this disclosure that the steps described may be performed in an order other than the order described and specific steps described may be omitted or not performed at all. In some embodiments, process 240 may be implemented by using a processor, such as processor 48 , to execute instructions stored in a tangible, non-transitory computer-readable medium, such as memory device 50 .

도시된 바와 같이, 프로세스 블록(242)에서, 프로세서(48)는 휴대용 물체(12)의 기준 요소(20)의 위치를 수신한다. 일부 실시예에서, 프로세서(48)는 휴대용 물체(12)의 투영 표적 위치를 수신할 수 있다.As shown, at process block 242 , the processor 48 receives the position of the reference element 20 of the portable object 12 . In some embodiments, the processor 48 may receive a projected target position of the portable object 12 .

프로세스 블록(244)에서, 프로세서(48)는 기준 요소(20)의 위치 및 제1 다항식에 기초하여 수평 오프셋을 결정한다. 특히, 프로세서(48)는 휴대용 물체(12)의 투영 표적 위치를 수신하거나, 도 9의 프로세스(210)를 사용하여 투영 표적 위치를 결정할 수 있다. 그 다음, 프로세서(48)는 수평 오프셋을 결정하기 위해 휴대용 물체(12)의 투영 표적 위치에 다항의 수학식 3 또는 수학식 4를 적용하도록 호 왜곡 보상 로직(64)에 지시할 수 있다.At process block 244 , processor 48 determines a horizontal offset based on the position of reference element 20 and the first polynomial. In particular, the processor 48 may receive the projection target position of the portable object 12 , or may determine the projection target position using the process 210 of FIG. 9 . Processor 48 may then instruct arc distortion compensation logic 64 to apply polynomial Equation 3 or Equation 4 to the projected target position of portable object 12 to determine a horizontal offset.

프로세스 블록(246)에서, 프로세서(48)는 기준 요소(20)의 위치 및 제2 다항식에 기초하여 수직 오프셋을 결정한다. 특히, 프로세서(48)는 수직 오프셋을 결정하기 위해 휴대용 물체(12)의 투영 표적 위치에 다항의 수학식 5 또는 수학식 6을 적용하도록 호 왜곡 보상 로직(64)에 지시할 수 있다.At process block 246 , the processor 48 determines a vertical offset based on the position of the reference element 20 and the second polynomial. In particular, the processor 48 may instruct the arc distortion compensation logic 64 to apply the polynomial equation (5) or equation (6) to the projected target position of the portable object 12 to determine the vertical offset.

프로세스 블록(248)에서, 프로세서(48)는 기준 요소(20)의 위치, 수평 오프셋, 및 수직 오프셋에 기초하여 휴대용 물체(12)의 투영 표적 위치를 결정한다. 특히, 프로세서(48)는, 투영 표적 위치를 생성하기 위해 투영 표적 위치의 수평 성분(예: x 좌표)에 수평 오프셋을 적용(예: 추가)하고, 투영 표적 위치의 수직 성분(예: y 좌표)에 수직 오프셋을 적용(예: 추가)하도록 호 왜곡 보상 로직(64)에 지시할 수 있다. At process block 248 , the processor 48 determines a projection target position of the portable object 12 based on the position of the reference element 20 , the horizontal offset, and the vertical offset. In particular, the processor 48 applies (eg, adds) a horizontal offset to a horizontal component (eg, an x-coordinate) of the projection target position to produce a projection target position, and a vertical component (eg, a y-coordinate) of the projection target position. ) to apply (eg, add) a vertical offset to the arc distortion compensation logic 64 .

일부 실시예에서, 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32) 사이의 형상 차이를 보다 효율적으로 보상하기 위해, 호 왜곡 보상 로직(64)은 기준 요소(20)가 위치될 수 있는 호(92)를 다수의 기준 요소 영역으로 분할할 수 있고, 각각의 기준 요소 영역은 (예컨대, 2차원 평면 상에 투영된) 각각의 투영 표적 영역에 대응할 수 있다. 각각의 투영 표적 영역은 그 투영 표적 영역에 적용 가능한 왜곡을 정확하게 보상할 수 있는 각각의 다항식의 세트에 대응할 수 있다. 이와 같이, 카메라(22)는 기준 요소 영역에서 기준 요소(20)를 검출할 수 있고, 호 왜곡 보상 로직(64)은 기준 요소 영역에 대응하는 각각의 투영 표적 영역을 결정할 수 있으며, 호 왜곡 보상 로직(64)은 각각의 투영 표적 영역에 대응하는 각각의 다항식의 세트를 기준 요소의 위치에 적용하여, 이러한 왜곡을 보상하기 위해 기준 요소의 위치에 적용될 하나 이상의 오프셋을 결정할 수 있다. 이러한 실시예에서, 도 7에 도시된 바와 같이, 다수의 기준 요소 영역이 상이한 크기일 때(예: 기준 요소 영역이 2차원 평면(32)으로부터 멀어질수록 기준 요소 영역의 크기가 감소함) 다수의 투영 표적 영역은 동일한 크기이거나, 도 8에 도시된 바와 같이, 다수의 기준 요소 영역이 동일한 크기일 때 다수의 투영 표적 영역은 상이한 크기일 수 있다(예: 투영 표적 영역이 기준 요소(20)로부터 멀어질수록 투영 표적 영역의 크기가 증가함).In some embodiments, to more efficiently compensate for shape differences between the arcuate characteristic 92 of the user's arm movement and the flat two-dimensional plane 32 , the arc distortion compensation logic 64 determines where the reference element 20 is positioned. The arc 92 may be divided into multiple reference element regions, each reference element region corresponding to a respective projection target region (eg, projected onto a two-dimensional plane). Each projection target area may correspond to a respective set of polynomials capable of accurately compensating for the distortion applicable to that projection target area. As such, the camera 22 may detect the reference element 20 in the reference element region, and the arc distortion compensation logic 64 may determine each projection target region corresponding to the reference element region, and arc distortion compensation Logic 64 may apply each set of polynomials corresponding to each projection target area to the location of the reference element to determine one or more offsets to be applied to the location of the reference element to compensate for such distortion. In this embodiment, as shown in FIG. 7 , when a plurality of reference element regions are of different sizes (eg, the size of the reference element regions decreases as the reference element regions move away from the two-dimensional plane 32 ). The projection target areas of may be of the same size, or, as shown in FIG. 8 , the plurality of projection target areas may be of different sizes when the plurality of reference element areas are of the same size (eg, the projection target areas of the reference element 20 ) The size of the projected target area increases with distance from it).

이러한 방식으로, 프로세스(240)는 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32)을 보상할 수 있다. 또한, 자신이 휴대용 물체(12)로 가리키고 있는 위치에 대한 사용자의 인식과 기준 요소(20)가 2차원 평면(32) 상 어느 곳에 위치하는지에 대한 카메라의 판정 사이의 차이, 사용자 팔 길이(104)의 차이, 및 사용자의 팔 움직임의 아치형 특성(92)과 평평한 2차원 평면(32) 사이의 형상 차이를 보상하기 위해, 도 10의 프로세스(240)는 도 9의 프로세스(210)의 이전, 이후, 또는 그 일부로서 수행될 수 있다.In this way, process 240 can compensate for the arcuate nature 92 and flat two-dimensional plane 32 of the user's arm movement. Also, the difference between the user's perception of the location at which he is pointing with the portable object 12 and the camera's determination of where the reference element 20 is located on the two-dimensional plane 32, the user's arm length 104 ), and to compensate for the difference in shape between the arcuate characteristic 92 and the flat two-dimensional plane 32 of the user's arm movement, the process 240 of FIG. Thereafter, or as part of it.

본 개시에서 서술한 실시예들에 대한 다양한 수정 및 대안적 형태가 허용되지만, 본원에서는 특정 실시예들을 도면에 예시적으로 도시하였고 본 명세서에서 상세하게 기술하였다. 이는 본 개시내용을 특정 형태로 제한하기 위한 것이 아님을 분명히 할 필요가 있다. 본 개시내용은 첨부되는 청구항들에 의해 정의된 본 개시내용의 사상 및 범위에 포함되는 모든 수정, 균등물 및 대안물을 포괄한다.While various modifications and alternative forms of the embodiments described in this disclosure are permitted, specific embodiments have been illustrated by way of example in the drawings and have been described in detail herein. It needs to be clear that this is not intended to limit the present disclosure to a particular form. This disclosure is intended to cover all modifications, equivalents and alternatives falling within the spirit and scope of the disclosure as defined by the appended claims.

본 명세서에서 설명하고 청구하는 기술은 현재 기술 분야를 명백하게 개선하는 물질적 대상과 실제적 성격의 구체적 예들을 참조하고 이들에 적용되며, 따라서 단지 추상적이거나 무형적이거나 순수 이론적인 것이 아니다. 또한, 본 명세서의 마지막 부분에 첨부된 청구항이 “[기능]을 [수행]하기 위한 수단...” 또는 “[기능]을 [수행]하기 위한 단계..."로 지정되는 하나 이상의 구성요소를 포함하는 경우, 그러한 구성요소는 35 U.S.C. § 112(f)에 따라 해석되어야 한다. 이와는 다른 방식으로 지정된 구성요소들을 포함하는 청구항의 경우, 해당 구성요소는 35 U.S.C. § 112(f)에 따라 해석되어서는 안 된다.The technology described and claimed herein refers to and applies to specific examples of practical nature and material objects that clearly improve the present technical field, and thus is not merely abstract, intangible, or purely theoretical. Also, one or more elements in which the claims appended to the last part of this specification are designated as "means for [performing] [function]..." or "steps for [performing] [function]..." If it contains an element, that element must be construed in accordance with 35 U.S.C. it shouldn't be

Claims (23)

테마파크 어트랙션(attraction) 시스템으로서,
사용자 상호작용 시스템과,
상기 사용자 상호작용 시스템에 통신 가능하게 결합된 투영 위치(projected location) 결정 시스템을 포함하되,
상기 사용자 상호작용 시스템은,
2차원 평면 상의 휴대용 물체(handheld object)의 기준 요소의 화상(imagery)을 캡처하도록 구성된 카메라, 및
사용자 상호작용형 경험을 출력하도록 구성된 출력 장치를 포함하고,
상기 투영 위치 결정 시스템은,
상기 화상에 캡처된 상기 2차원 평면 상의 상기 기준 요소의 초기 위치와 교정 위치 사이의 위치 차이를 나타내는 하나 이상의 전환 인자(translation factors)를 결정하도록 구성된 전환 로직(translation logic),
상기 화상에 기초하여 사용자의 팔 길이와 상관관계를 갖는 하나 이상의 스케일링 인자(scaling factors)를 결정하도록 구성된 스케일링 로직(scaling logic), 및
프로세서 및 메모리를 갖는 제어기를 포함하되, 상기 메모리는 기계 판독 가능 명령어를 저장하고, 상기 기계 판독 가능 명령어는 상기 프로세서로 하여금,
상기 화상에 캡처된 상기 2차원 평면 상의 상기 기준 요소의 위치를 판정하고,
상기 기준 요소의 상기 위치, 상기 하나 이상의 전환 인자, 및 상기 하나 이상의 스케일링 인자에 기초하여 상기 휴대용 물체의 투영 표적 위치를 결정하며,
상기 투영 표적 위치가 표적 위치에 대응한다는 판정에 응답하여 상기 사용자 상호작용형 경험을 출력하도록 상기 출력 장치에 지시하게 하도록 구성되는,
테마파크 어트랙션 시스템.
A theme park attraction system comprising:
a user interaction system;
a projected location determination system communicatively coupled to the user interaction system;
The user interaction system,
a camera configured to capture an imagery of a reference element of a handheld object on a two-dimensional plane, and
an output device configured to output a user interactive experience;
The projection positioning system comprises:
translation logic configured to determine one or more translation factors indicative of a difference in position between an initial position and a calibration position of the reference element on the two-dimensional plane captured in the image;
scaling logic configured to determine one or more scaling factors that correlate with the user's arm length based on the image, and
A controller comprising: a processor and a controller having a memory, the memory storing machine readable instructions, the machine readable instructions causing the processor to:
determining the position of the reference element on the two-dimensional plane captured in the image;
determine a projection target position of the portable object based on the position of the reference element, the one or more conversion factors, and the one or more scaling factors;
and instruct the output device to output the user-interactive experience in response to determining that the projected target location corresponds to a target location;
Theme park attraction system.
제1항에 있어서,
상기 전환 로직은 상기 화상의 제1 이미지에 기초하여 상기 하나 이상의 전환 인자 및 상기 하나 이상의 스케일링 인자를 결정하도록 구성되는,
테마파크 어트랙션 시스템.
According to claim 1,
the conversion logic is configured to determine the one or more conversion factors and the one or more scaling factors based on a first image of the picture;
Theme park attraction system.
제2항에 있어서,
상기 기계 판독 가능 명령어는, 상기 프로세서로 하여금 상기 화상의 제2 이미지에 기초하여 상기 기준 요소의 상기 위치를 판정하게 하도록 구성되는,
테마파크 어트랙션 시스템.
3. The method of claim 2,
wherein the machine readable instructions are configured to cause the processor to determine the position of the reference element based on a second image of the image.
Theme park attraction system.
제1항에 있어서,
상기 하나 이상의 전환 인자는, 3차원 공간에서 상기 휴대용 물체가 가리키고 있는 위치에 대한 사용자 인식과 상기 2차원 평면 내의 상기 기준 요소의 대응하는 위치 사이의 차이를 보상하도록 구성되는,
테마파크 어트랙션 시스템.
According to claim 1,
wherein the one or more conversion factors are configured to compensate for a difference between a user's perception of a position at which the portable object is pointing in three-dimensional space and a corresponding position of the reference element in the two-dimensional plane;
Theme park attraction system.
제1항에 있어서,
상기 하나 이상의 스케일링 인자는 사용자 팔 길이의 차이를 보상하도록 구성되는,
테마파크 어트랙션 시스템.
According to claim 1,
wherein the one or more scaling factors are configured to compensate for differences in user arm length;
Theme park attraction system.
제1항에 있어서,
상기 스케일링 로직은 상기 2차원 평면 상의 상기 기준 요소의 상기 위치에 기초하여 상기 하나 이상의 스케일링 인자를 결정하도록 구성되는,
테마파크 어트랙션 시스템.
According to claim 1,
the scaling logic is configured to determine the one or more scaling factors based on the position of the reference element on the two-dimensional plane;
Theme park attraction system.
공개되지 않음not disclosed 제1항에 있어서,
상기 스케일링 로직은, 상기 2차원 평면 상의 상기 기준 요소의 상기 위치에 기초하여 사용자 신장(height)을 판정하고,
상기 사용자 신장에 기초하여 상기 사용자 팔 길이를 판정하도록 구성되는,
테마파크 어트랙션 시스템.
According to claim 1,
the scaling logic determines a user height based on the position of the reference element on the two-dimensional plane;
configured to determine the user arm length based on the user height;
Theme park attraction system.
제1항에 있어서,
상기 투영 표적 위치 및 하나 이상의 다항식에 기초하여 하나 이상의 오프셋(offsets)을 결정하고,
상기 하나 이상의 오프셋을 상기 투영 표적 위치에 적용하도록 구성된
호(arc) 왜곡 보상 로직을 포함하되,
상기 기계 판독 가능 명령어는, 상기 프로세서로 하여금, 상기 투영 표적 위치에 상기 하나 이상의 오프셋을 적용한 후 상기 투영 표적 위치가 상기 2차원 평면 상의 표적 위치에 대응한다는 판정에 응답하여, 상기 사용자 상호작용형 경험을 출력하도록 상기 출력 장치에 지시하게 하도록 구성되는,
테마파크 어트랙션 시스템.
According to claim 1,
determine one or more offsets based on the projection target position and one or more polynomials;
configured to apply the one or more offsets to the projection target location.
arc distortion compensation logic;
The machine-readable instructions cause the processor to: in response to determining that the projection target position corresponds to a target position on the two-dimensional plane after applying the one or more offsets to the projection target position, the user-interactive experience configured to instruct the output device to output
Theme park attraction system.
제9항에 있어서,
상기 하나 이상의 오프셋은 사용자의 팔 움직임의 아치형 특성과 상기 2차원 평면 사이의 형상 차이를 보상하도록 구성되는,
테마파크 어트랙션 시스템.
10. The method of claim 9,
wherein the one or more offsets are configured to compensate for a shape difference between an arcuate characteristic of a user's arm movement and the two-dimensional plane;
Theme park attraction system.
제9항에 있어서,
하나 이상의 다항식은 차수가 3차인,
테마파크 어트랙션 시스템.
10. The method of claim 9,
One or more polynomials are of degree 3,
Theme park attraction system.
상호작용형 경험을 위한 표적 추적 시스템으로서, 상기 표적 추적 시스템은,
2차원 평면 상에 표시된 교정 위치와 상기 2차원 평면 상의 상기 교정 위치를 가리킬 때 제1 이미지의 휴대용 물체(handheld object)의 기준 요소의 초기 위치 사이의 위치 차이를 나타내는 하나 이상의 전환 인자(translation factors)를 결정하도록 구성된 전환 로직(translation logic),
상기 제1 이미지에 기초하여 사용자 팔 길이와 상관관계를 갖는 하나 이상의 스케일링 인자(scaling factors)를 결정하도록 구성된 스케일링 로직(scaling logic), 및
프로세서 및 기계 판독 가능 명령어를 저장하는 메모리를 갖는 제어기를 포함하되, 상기 기계 판독 가능 명령어는 상기 프로세서로 하여금,
상기 2차원 평면 상에서 제2 이미지의 상기 기준 요소의 위치를 판정하고,
상기 기준 요소의 상기 위치, 상기 하나 이상의 전환 인자, 및 상기 하나 이상의 스케일링 인자에 기초하여 상기 휴대용 물체의 투영 표적 위치를 결정하며,
상기 투영 표적 위치가 표적 위치에 대응한다는 판정에 응답하여 사용자 상호작용형 경험을 출력하게 하도록 구성되는,
상호작용형 경험을 위한 표적 추적 시스템.
A target tracking system for an interactive experience, the target tracking system comprising:
one or more translation factors indicative of a positional difference between a calibration position displayed on a two-dimensional plane and an initial position of a reference element of a handheld object of a first image when pointing to the calibration location on the two-dimensional plane translation logic configured to determine
scaling logic configured to determine one or more scaling factors that correlate with a user arm length based on the first image, and
A controller comprising a processor and a memory storing machine readable instructions, the machine readable instructions causing the processor to:
determining the position of the reference element of a second image on the two-dimensional plane;
determine a projection target position of the portable object based on the position of the reference element, the one or more conversion factors, and the one or more scaling factors;
and output a user-interactive experience in response to determining that the projected target location corresponds to the target location;
Target tracking system for an interactive experience.
제12항에 있어서,
상기 기계 판독 가능 명령어는, 상기 프로세서로 하여금, 상기 하나 이상의 전환 인자 및 상기 하나 이상의 스케일링 인자를 포함하는 변환 행렬을 결정하게 하도록 구성되는,
상호작용형 경험을 위한 표적 추적 시스템.
13. The method of claim 12,
wherein the machine readable instructions are configured to cause the processor to determine a transformation matrix comprising the one or more transformation factors and the one or more scaling factors;
Target tracking system for an interactive experience.
제13항에 있어서,
상기 기계 판독 가능 명령어는, 상기 프로세서로 하여금, 상기 기준 요소의 상기 위치에 상기 변환 행렬을 적용함으로써 상기 휴대용 물체의 상기 투영 표적 위치를 결정하게 하도록 구성되는,
상호작용형 경험을 위한 표적 추적 시스템.
14. The method of claim 13,
The machine readable instructions are configured to cause the processor to determine the projection target position of the portable object by applying the transformation matrix to the position of the reference element.
Target tracking system for an interactive experience.
제12항에 있어서,
상기 하나 이상의 전환 인자는 수평 성분을 포함하고, 상기 기계 판독 가능 명령어는 상기 프로세서로 하여금 상기 교정 위치와 상기 기준 요소의 상기 초기 위치 사이의 수평 차이에 기초하여 상기 수평 성분을 결정하게 하도록 구성되는,
상호작용형 경험을 위한 표적 추적 시스템.
13. The method of claim 12,
wherein the one or more conversion factors include a horizontal component, and the machine readable instructions are configured to cause the processor to determine the horizontal component based on a horizontal difference between the calibration position and the initial position of the reference element.
Target tracking system for an interactive experience.
제15항에 있어서,
상기 하나 이상의 전환 인자는 수직 성분을 포함하고, 상기 기계 판독 가능 명령어는 상기 프로세서로 하여금 상기 교정 위치와 상기 기준 요소의 상기 초기 위치 사이의 수직 차이에 기초하여 상기 수직 성분을 결정하게 하도록 구성되는,
상호작용형 경험을 위한 표적 추적 시스템.
16. The method of claim 15,
wherein the one or more conversion factors include a vertical component, and the machine readable instructions are configured to cause the processor to determine the vertical component based on a vertical difference between the calibration position and the initial position of the reference element.
Target tracking system for an interactive experience.
제12항에 있어서,
상기 하나 이상의 스케일링 인자는 수평 성분을 포함하고, 상기 기계 판독 가능 명령어는 상기 프로세서로 하여금 상기 사용자 팔 길이에 기초하여 상기 수평 성분을 결정하게 하도록 구성되는,
상호작용형 경험을 위한 표적 추적 시스템.
13. The method of claim 12,
wherein the one or more scaling factors include a horizontal component, and the machine readable instructions are configured to cause the processor to determine the horizontal component based on the user arm length.
Target tracking system for an interactive experience.
제17항에 있어서,
상기 하나 이상의 스케일링 인자는 수직 성분을 포함하고, 상기 기계 판독 가능 명령어는 상기 프로세서로 하여금 상기 사용자 팔 길이에 기초하여 상기 수직 성분을 결정하게 하도록 구성되는,
상호작용형 경험을 위한 표적 추적 시스템.
18. The method of claim 17,
wherein the one or more scaling factors include a vertical component, and the machine readable instructions are configured to cause the processor to determine the vertical component based on the user arm length.
Target tracking system for an interactive experience.
상호작용형 경험을 제공하는 방법으로서,
2차원 평면 상의 교정 위치를 수신하는 단계,
화상(imagery)에 캡처된 상기 2차원 평면 상의 휴대용 물체(handheld object)의 기준 요소의 초기 위치를 수신하는 단계,
상기 교정 위치 및 상기 기준 요소의 상기 초기 위치에 기초하여 하나 이상의 전환 인자(translation factors)를 결정하는 단계,
상기 기준 요소의 상기 초기 위치에 기초하여 하나 이상의 스케일링 인자(scaling factors)를 결정하는 단계,
상기 화상에서 캡처된 상기 2차원 평면 상의 상기 기준 요소의 위치를 판정하는 단계,
상기 기준 요소의 상기 위치, 상기 하나 이상의 전환 인자, 및 상기 하나 이상의 스케일링 인자에 기초하여 상기 휴대용 물체의 투영 표적 위치(projected target location)를 결정하는 단계, 및
상기 투영 표적 위치가 표적 위치에 대응한다는 판정에 응답하여 사용자 상호작용형 경험을 출력하는 단계를 포함하는,
상호작용형 경험을 제공하는 방법.
A method of providing an interactive experience, comprising:
receiving a calibration position on a two-dimensional plane;
receiving an initial position of a reference element of a handheld object on the two-dimensional plane captured in imagery;
determining one or more translation factors based on the calibration position and the initial position of the reference element;
determining one or more scaling factors based on the initial position of the reference element;
determining the position of the reference element on the two-dimensional plane captured in the image;
determining a projected target location of the portable object based on the location of the reference element, the one or more conversion factors, and the one or more scaling factors; and
outputting a user-interactive experience in response to determining that the projected target location corresponds to the target location;
How to provide an interactive experience.
제19항에 있어서,
상기 하나 이상의 전환 인자를 결정하는 단계는 상기 2차원 평면 상의 상기 기준 요소의 상기 초기 위치와 상기 교정 위치 사이의 차이에 기초하는,
상호작용형 경험을 제공하는 방법.
20. The method of claim 19,
wherein determining the one or more conversion factors is based on a difference between the calibration position and the initial position of the reference element on the two-dimensional plane;
How to provide an interactive experience.
제19항에 있어서,
상기 기준 요소의 상기 초기 위치에 기초하여 사용자 신장(height)을 판정하는 단계를 포함하는,
상호작용형 경험을 제공하는 방법.
20. The method of claim 19,
determining a user height based on the initial position of the reference element;
How to provide an interactive experience.
제21항에 있어서,
상기 사용자 신장에 기초하여 사용자 팔 길이를 판정하는 단계를 포함하는,
상호작용형 경험을 제공하는 방법.
22. The method of claim 21,
determining a user arm length based on the user height;
How to provide an interactive experience.
제22항에 있어서,
상기 하나 이상의 스케일링 인자를 결정하는 단계는 상기 사용자 신장에 기초하는,
상호작용형 경험을 제공하는 방법.
23. The method of claim 22,
wherein determining the one or more scaling factors is based on the user height;
How to provide an interactive experience.
KR1020227013546A 2019-09-25 2020-09-21 Systems and methods for determining a projection target position of a portable object KR20220066156A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962905901P 2019-09-25 2019-09-25
US62/905,901 2019-09-25
US16/749,865 US11100790B2 (en) 2019-09-25 2020-01-22 Systems and methods for determining projected target location of a handheld object
US16/749,865 2020-01-22
PCT/US2020/051843 WO2021061572A1 (en) 2019-09-25 2020-09-21 Systems and methods for determining projected target location of a handheld object

Publications (1)

Publication Number Publication Date
KR20220066156A true KR20220066156A (en) 2022-05-23

Family

ID=74881094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227013546A KR20220066156A (en) 2019-09-25 2020-09-21 Systems and methods for determining a projection target position of a portable object

Country Status (7)

Country Link
US (3) US11100790B2 (en)
EP (1) EP4034271A1 (en)
JP (1) JP2022550739A (en)
KR (1) KR20220066156A (en)
CN (1) CN114466685A (en)
CA (1) CA3150640A1 (en)
WO (1) WO2021061572A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102225342B1 (en) * 2019-02-13 2021-03-09 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for supporting object control
US11100790B2 (en) * 2019-09-25 2021-08-24 Universal City Studios Llc Systems and methods for determining projected target location of a handheld object
US20230278488A1 (en) * 2022-03-02 2023-09-07 Jill Lenore Morgan Device and Method for Locating a Parked Vehicle

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6761637B2 (en) * 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7854655B2 (en) * 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US20100199228A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
CA2798148A1 (en) 2010-05-04 2011-11-10 Timocco Ltd. System and method for tracking and mapping an object to a target
US10134267B2 (en) 2013-02-22 2018-11-20 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path
CN103247031B (en) 2013-04-19 2016-03-09 华为技术有限公司 A kind of method of distorted image correction, terminal and system
KR101332741B1 (en) 2013-04-23 2013-11-25 (주) 에핀 Arcade gun interaction system
KR20220136517A (en) 2013-06-27 2022-10-07 아이사이트 모빌 테크놀로지 엘티디 Systems and methods of direct pointing detection for interaction with a digital device
US9463379B1 (en) 2013-12-17 2016-10-11 Thinkwell Group Ride vehicle mounted interactive game system
US10269257B1 (en) 2015-08-11 2019-04-23 Gopro, Inc. Systems and methods for vehicle guidance
US11100790B2 (en) * 2019-09-25 2021-08-24 Universal City Studios Llc Systems and methods for determining projected target location of a handheld object

Also Published As

Publication number Publication date
US11663906B2 (en) 2023-05-30
US20220327916A1 (en) 2022-10-13
US11100790B2 (en) 2021-08-24
EP4034271A1 (en) 2022-08-03
CA3150640A1 (en) 2021-04-01
JP2022550739A (en) 2022-12-05
WO2021061572A1 (en) 2021-04-01
US20210090429A1 (en) 2021-03-25
US11436916B2 (en) 2022-09-06
CN114466685A (en) 2022-05-10
US20210327259A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
KR20220066156A (en) Systems and methods for determining a projection target position of a portable object
US10339714B2 (en) Markerless image analysis for augmented reality
CN112527102B (en) Head-mounted all-in-one machine system and 6DoF tracking method and device thereof
ES2680825T3 (en) Eye look tracking based on correlation of adaptive homography
Nakazawa et al. Point of gaze estimation through corneal surface reflection in an active illumination environment
US8957856B2 (en) Systems, methods, and apparatuses for spatial input associated with a display
KR20200055010A (en) Head mounted display tracking system
US20130229396A1 (en) Surface aware, object aware, and image aware handheld projector
US10326894B1 (en) Self stabilizing projector
KR20230028532A (en) Creation of ground truth datasets for virtual reality experiences
US20150015732A1 (en) Apparatus, system and method for projecting images onto predefined portions of objects
US10838515B1 (en) Tracking using controller cameras
CN105184268B (en) Gesture identification equipment, gesture identification method and virtual reality system
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
CN107066095B (en) Information processing method and electronic equipment
JP2016197192A (en) Projection system and video projection method
US10222878B2 (en) Information handling system virtual laser pointer
Kim et al. Real‐Time Human Shadow Removal in a Front Projection System
US10403002B2 (en) Method and system for transforming between physical images and virtual images
Gacem et al. Finding objects faster in dense environments using a projection augmented robotic arm
CN111951326B (en) Target object skeleton key point positioning method and device based on multiple camera devices
US20240169582A1 (en) Scenario triggering and interaction based on target positioning and identification
WO2015156068A1 (en) Image processing device and image processing method
Ercan A 3D Topological tracking system for augmented reality
Siriborvornratanakul et al. ipProjector: Designs and Techniques for Geometry‐Based Interactive Applications Using a Portable Projector