KR102419507B1 - Space touch system and method for providing drive-through service - Google Patents

Space touch system and method for providing drive-through service Download PDF

Info

Publication number
KR102419507B1
KR102419507B1 KR1020210019938A KR20210019938A KR102419507B1 KR 102419507 B1 KR102419507 B1 KR 102419507B1 KR 1020210019938 A KR1020210019938 A KR 1020210019938A KR 20210019938 A KR20210019938 A KR 20210019938A KR 102419507 B1 KR102419507 B1 KR 102419507B1
Authority
KR
South Korea
Prior art keywords
camera
control unit
user
drive
display
Prior art date
Application number
KR1020210019938A
Other languages
Korean (ko)
Inventor
최종현
Original Assignee
주식회사 베오텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 베오텍 filed Critical 주식회사 베오텍
Priority to KR1020210019938A priority Critical patent/KR102419507B1/en
Application granted granted Critical
Publication of KR102419507B1 publication Critical patent/KR102419507B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Accounting & Taxation (AREA)
  • Multimedia (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to an embodiment of the present invention, a drive-through space touch system relates to a drive-through space touch system provided to stores so that users can shop through drive-through using a means of transportation. The drive-through space touch system includes: a display which outputs predetermined content; a camera which obtains a user image of a user including depth information; and a control unit which controls the display based on a location of a preset user control unit included in the user image so that the content output through the display is changed, wherein the camera may be advanced relative to the display. Accordingly, space touch can be implemented conveniently by the user even at various stopping positions of the means of transportation.

Description

드라이브 스루 공간터치 시스템 및 방법{SPACE TOUCH SYSTEM AND METHOD FOR PROVIDING DRIVE-THROUGH SERVICE}SPACE TOUCH SYSTEM AND METHOD FOR PROVIDING DRIVE-THROUGH SERVICE

본 발명은 드라이브 스루 공간터치 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 사용자가 이동수단을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 매장에 제공되는 드라이브 스루 공간터치 시스템 및 방법에 관한 것이다.The present invention relates to a drive-through space touch system and method, and more particularly, to a drive-through space touch system and method provided in a store so that a user can shop through a drive-through using a moving means. it's about

최근, 키보드를 사용하지 않고, 화면(스크린)에 나타난 문자나 특정 위치에 사람의 손 또는 물체가 닿으면, 그 위치를 파악하여 저장된 소프트웨어에 의해 특정 처리를 할 수 있도록 화면에서 직접 입력을 받을 수 있게 한 터치 스크린이 널리 사용되고 있다.Recently, without using a keyboard, when a person's hand or an object touches a character or a specific location on the screen (screen), the location can be recognized and input can be received directly from the screen so that specific processing can be performed by the stored software. Touch screens are widely used.

터치 스크린은 문자나 그림 정보를 미리 표시하여 사용자가 선택할 기능을 용이하게 파악할 수 있어 지하철, 백화점, 은행 등의 장소에서 안내용 기기, 각종 점포에서 판매용 단말기 및 일반 업무용 기기 등에 적용되어 다양하게 활용되고 있다.The touch screen displays text or picture information in advance so that the user can easily understand which function to select. have.

종래의 터치 스크린은 일반 모니터의 화면에 터치 패널을 덧붙여서 손끝이나 기타 물체가 소정 영역에 접촉할 때 해당 영역의 특성이 변화하는 것으로 사용자 입력을 인지하였다.A conventional touch screen recognizes a user input by adding a touch panel to the screen of a general monitor so that when a fingertip or other object comes into contact with a predetermined area, the characteristic of the corresponding area changes.

또한, 종래의 터치 스크린은 전체 화면을 2차원 격자 형태로 구분하여 접촉된 위치를 해석하였으며, 이는 정전용량, 초음파, 적외선, 저항막, 음파인식 등을 적용한 터치 패널이 물체의 접촉에 대해 특성이 변화하는 원리를 이용한다.In addition, the conventional touch screen divides the entire screen in a two-dimensional grid form and analyzes the touched position, which means that the touch panel applied with capacitance, ultrasonic, infrared, resistive film, and sound wave recognition has different characteristics for the contact of an object. Use the changing principle.

이러한 종래의 터치 스크린은 사용자가 직접 스크린을 터치해야 한다는 점에서 위생 문제가 있을 수 있으며, 또한 Drive-Thru 주문의 경우 스크린에 손이 닿지 않는 경우 차량에서 내려야 하는 불편이 있다. 또한, 사용자가 터치해야 함에 따라 터치 스크린의 크기의 제약이 있었다.Such a conventional touch screen may have a hygiene problem in that the user has to directly touch the screen, and in the case of a Drive-Thru order, there is an inconvenience of having to get off the vehicle if the screen cannot be touched. In addition, there is a limitation in the size of the touch screen as the user has to touch it.

한편, 본 출원인은 등록특허 제10-2140927호(2020.07.29. 등록)에서 공간 터치 제어방법을 개시한 바 있다.On the other hand, the present applicant has disclosed a spatial touch control method in Patent Registration No. 10-2140927 (registered on July 29, 2020).

그러나, 드리이브 스루에서 사용자의 이동수단의 정차 위치가 다양함에 따라, 이동수단의 정차 위치에 따른 사용자의 공간터치 편리성을 극대화하는 공간터치 기술이 필요하다.However, as the stopping positions of the user's moving means vary in the drive-through, a spatial touch technology that maximizes the user's spatial touch convenience according to the stopping position of the moving means is required.

본 발명은 상기와 같은 문제를 해결하기 위한 것으로서, 이동수단의 다양한 정차 위치에서도 사용자자 편리하게 공간터치를 구현할 수 있는 드라이브 스루 공간터치 시스템 및 방법을 제공하고자 함이다.An object of the present invention is to provide a drive-through space touch system and method that enables a user to conveniently implement a space touch even at various stopping positions of a moving means in order to solve the above problems.

본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-described problems, and the problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. .

본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템은 사용자가 이동수단을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 매장에 제공되는 드라이브 스루 공간터치 시스템에 관한 것으로서, 소정의 콘텐츠를 출력하는 디스플레이; 깊이 정보를 포함하는 사용자에 대한 사용자 영상을 획득하는 카메라; 상기 디스플레이를 통해 출력되는 콘텐츠가 달라지도록, 상기 사용자 영상에 포함된 기 설정된 사용자의 제어부위의 위치를 기초로 상기 디스플레이를 제어하는 제어부;를 포함하며, 상기 카메라는 상기 디스플레이를 기준으로 전진될 수 있다.A drive-through space touch system according to an embodiment of the present invention relates to a drive-through space touch system that is provided to a store so that a user can shop through a drive-through using a moving means. a display that outputs; a camera for acquiring a user image of a user including depth information; a control unit for controlling the display based on a position on the control unit of a preset user included in the user image so that the content output through the display is different; including, wherein the camera can be advanced based on the display have.

본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템에 의하면, 이동수단의 다양한 정차 위치에서도 사용자자 편리하게 공간터치를 구현할 수 있는 장점이 있다.According to the drive-through space touch system according to an embodiment of the present invention, there is an advantage that a user can conveniently implement a space touch even at various stopping positions of the moving means.

본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템을 설명하기 위한 개략도.
도 2는 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템을 설명하기 위한 개략 사시도.
도 3 및 도 4는 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템의 카메라의 전진 동작을 설명하기 위한 개략도.
도 5는 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템에서 이동수단의 속도와 관계된 기능을 설명하기 위한 그래프.
도 6은 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템을 이용하여 쇼핑하는 사용자를 설명하기 위한 개략 그래프.
도 7은 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템의 카메라의 전후진 동작을 설명하기 위한 개략도.
도 8은 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템의 개략 구성 블록도.
1 is a schematic diagram for explaining a drive-through space touch system according to an embodiment of the present invention.
Figure 2 is a schematic perspective view for explaining a drive-through space touch system according to an embodiment of the present invention.
3 and 4 are schematic diagrams for explaining a forward operation of the camera of the drive-through space touch system according to an embodiment of the present invention.
5 is a graph for explaining a function related to the speed of a moving means in the drive-through space touch system according to an embodiment of the present invention.
6 is a schematic graph for explaining a user shopping using a drive-through space touch system according to an embodiment of the present invention.
7 is a schematic diagram for explaining a forward/backward operation of a camera of a drive-through space touch system according to an embodiment of the present invention;
8 is a schematic configuration block diagram of a drive-through space touch system according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다. Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. However, the spirit of the present invention is not limited to the presented embodiment, and those skilled in the art who understand the spirit of the present invention may add, change, delete, etc. other elements within the scope of the same spirit, through addition, change, deletion, etc. Other embodiments included within the scope of the invention may be easily suggested, but this will also be included within the scope of the invention.

본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템은 사용자가 이동수단을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 매장에 제공되는 드라이브 스루 공간터치 시스템에 관한 것으로서, 소정의 콘텐츠를 출력하는 디스플레이; 깊이 정보를 포함하는 사용자에 대한 사용자 영상을 획득하는 카메라; 상기 디스플레이를 통해 출력되는 콘텐츠가 달라지도록, 상기 사용자 영상에 포함된 기 설정된 사용자의 제어부위의 위치를 기초로 상기 디스플레이를 제어하는 제어부;를 포함하며, 상기 카메라는 상기 디스플레이를 기준으로 전진될 수 있다.A drive-through space touch system according to an embodiment of the present invention relates to a drive-through space touch system that is provided to a store so that a user can shop through a drive-through using a moving means. a display that outputs; a camera for acquiring a user image of a user including depth information; a control unit for controlling the display based on a position on the control unit of a preset user included in the user image so that the content output through the display is different; including, wherein the camera can be advanced based on the display have.

또, 상기 제어부는 기 설정된 초기 위치로부터 상기 사용자 영상에 포함된 이동객체의 이격거리를 기초로 상기 카메라의 전진을 제어할 수 있다.In addition, the controller may control the advance of the camera based on a separation distance of the moving object included in the user image from a preset initial position.

또, 상기 제어부는 상기 카메라의 전진량과 비례하여 상기 디스플레이에서 출력되는 콘텐츠의 확대량을 제어할 수 있다.In addition, the controller may control an enlargement amount of the content output from the display in proportion to the advance amount of the camera.

또, 상기 제어부는 상기 기 설정된 초기 위치로부터 상기 사용자 영상에 포함된 상기 이동객체 중 상기 제어부위의 이격거리를 기초로 상기 카메라의 전진을 제어할 수 있다.In addition, the control unit may control the advance of the camera based on a separation distance on the control unit among the moving objects included in the user image from the preset initial position.

또, 상기 제어부는 상기 이동수단의 위치변화량이 기 설정된 위치변화량 이하인 경우, 상기 기 설정된 초기 위치로부터 상기 이동객체의 이격거리를 기초로 상기 카메라의 전진을 제어할 수 있다.Also, when the amount of change in the position of the moving means is equal to or less than a preset amount of change in position, the controller may control the advance of the camera based on the separation distance of the moving object from the preset initial position.

또, 상기 제어부는 현 시점으로부터 가장 최근의 쇼핑을 완료한 상기 카메라의 위치에 기초하여 상기 기 설정된 초기 위치를 설정할 수 있다.Also, the controller may set the preset initial position based on the position of the camera that has completed the most recent shopping from the current time point.

또, 상기 제어부는 현 시점으로부터 가장 최근의 쇼핑을 완료한 시점부터 경과 시간을 산출하고, 상기 경과 시간이 기 설정된 시간 미만인 경우 현 시점으로부터 가장 최근의 쇼핑을 완료한 상기 카메라의 위치를 상기 기 설정된 초기 위치로 설정하고, 상기 경과 시간이 상기 기 설정된 시간 이상인 경우 기 설정된 세팅 위치로 상기 카메라를 이동시킨 후 상기 기 설정된 세팅 위치를 상기 기 설정된 초기 위치로 설정할 수 있다.In addition, the control unit calculates an elapsed time from the time when the most recent shopping is completed from the current time point, and when the elapsed time is less than a preset time, sets the position of the camera that has completed the most recent shopping from the current time point to the preset time It is set to an initial position, and when the elapsed time is equal to or longer than the preset time, the camera may be moved to a preset setting position and then the preset setting position may be set as the preset initial position.

또, 상기 제어부는 쇼핑을 완료한 시점과 차회의 쇼핑을 시작하는 시점간의 시간을 기초로 상기 기 설정된 시간을 설정할 수 있다.Also, the controller may set the preset time based on a time between a time when shopping is completed and a time when the next shopping is started.

본 발명의 다른 일 실시예에 따른 드라이브 스루 공간터치 방법은 상기 드라이브 스루 공간터치 시스템을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 하는 방법일 수 있다.The drive-through space touch method according to another embodiment of the present invention may be a method of enabling shopping through a drive-through using the drive-through space touch system.

각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.Elements having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals.

도 1은 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템을 설명하기 위한 개략도이다.1 is a schematic diagram for explaining a drive-through space touch system according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템을 설명하기 위한 개략 사시도이다.2 is a schematic perspective view illustrating a drive-through space touch system according to an embodiment of the present invention.

도 3 및 도 4는 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템의 카메라의 전진 동작을 설명하기 위한 개략도이다.3 and 4 are schematic diagrams for explaining a forward operation of the camera of the drive-through space touch system according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템에서 이동수단의 속도와 관계된 기능을 설명하기 위한 그래프이다.5 is a graph for explaining a function related to the speed of a moving means in the drive-through space touch system according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템을 이용하여 쇼핑하는 사용자를 설명하기 위한 개략 그래프이다.6 is a schematic graph illustrating a user shopping using a drive-through spatial touch system according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템의 카메라의 전후진 동작을 설명하기 위한 개략도이다.7 is a schematic diagram for explaining a forward/backward operation of a camera of a drive-through spatial touch system according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템의 개략 구성 블록도이다.8 is a schematic block diagram of a drive-through space touch system according to an embodiment of the present invention.

첨부된 도면은 본 발명의 기술적 사상을 보다 명확하게 표현하기 위하여, 본 발명의 기술적 사상과 관련성이 떨어지거나 당업자로부터 용이하게 도출될 수 있는 부분은 간략화 하거나 생략하였다.In the accompanying drawings, in order to more clearly express the technical spirit of the present invention, parts that are not related to the technical spirit of the present invention or that can be easily derived from those skilled in the art have been simplified or omitted.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated, and one or more other features However, it is to be understood that the existence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded in advance.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.Some of the operations or functions described as being performed by the terminal or device in this specification may be instead performed by a server connected to the terminal or device. Similarly, some of the operations or functions described as being performed by the server may also be performed in a terminal or device connected to the corresponding server.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1 및 도 2에 도시한 바와 같이, 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템(10, 이하, "시스템")은 사용자가 이동수단(C)을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 매장에 제공되는 공간터치 시스템일 수 있다.1 and 2, the drive-through space touch system 10 (hereinafter, "system") according to an embodiment of the present invention allows a user to drive-through using a moving means (C). ) may be a space touch system provided to the store so that shopping is possible.

일례로, 사용자는 이동수단(C)을 통해 매장에 진입하여 상기 시스템(10)을 통해 음식, 물품, 서비스 등을 주문할 수 있고, 이 후 이동수단(C)을 통해 수령지로 이동하여 자신이 주문한 음식, 물품, 서비스 등을 제공받을 수 있다.As an example, the user enters the store through the transportation means (C) and can order food, goods, services, etc. through the system 10, and then moves to the reception area through the transportation means (C) to receive the order. Food, goods, and services may be provided.

상기 이동수단(C)은 차량, 오토바이, 휠체어, 자전거 등일 수 있으나, 설명의 편의를 위해 차량으로 가정하고 설명하겠다.The moving means (C) may be a vehicle, a motorcycle, a wheelchair, a bicycle, etc., but for convenience of explanation, it will be assumed and described as a vehicle.

이를 구현하기 위해, 상기 시스템(10)은 프레임(100), 소정의 콘텐츠를 출력하는 디스플레이(200) 및 깊이 정보를 포함하는 사용자에 대한 사용자 영상을 획득하는 카메라(300)를 포함할 수 있다.To implement this, the system 10 may include a frame 100 , a display 200 for outputting predetermined content, and a camera 300 for acquiring a user image of a user including depth information.

일례로, 상기 프레임(100)은 상기 디스플레이(200) 및/또는 상기 카메라(300)를 지지하는 구성일 수 있으며, 아래에서 설명될 상기 디스플레이(200) 및/또는 상기 카메라(300)의 전진 및/또는 후진을 구현하는 기어 및/또는 벨트 등의 기계적 구성들이 설치될 수 있다.As an example, the frame 100 may be configured to support the display 200 and/or the camera 300 , and advance and /or mechanical components such as gears and/or belts that implement reversing may be installed.

한편, 상기 디스플레이(200) 및/또는 상기 카메라(300)의 전진 및/또는 후진을 구현하는 기계적 구성은 공지된 다양한 매커니즘을 통해 구현될 수 있으며, 본 발명의 핵심적 기술적 사상이 아니라는 점에서 자세한 설명은 생략한다.On the other hand, the mechanical configuration for implementing the forward and/or backward of the display 200 and/or the camera 300 may be implemented through a variety of known mechanisms, and detailed description in that it is not a core technical idea of the present invention. is omitted.

한편, 상기 디스플레이(200)는 소정의 콘텐츠를 출력할 수 있다.Meanwhile, the display 200 may output predetermined content.

일례로, 콘텐츠는 사용자가 음식, 물품, 서비스 등을 주문할 수 있도록 상기 디스플레이(200) 상에서 표시되는 이미지, 글자, 기호 등을 의미할 수 있다.For example, the content may mean an image, text, symbol, etc. displayed on the display 200 so that the user can order food, goods, services, and the like.

일례로, 상기 디스플레이(200)는 상기 프레임(100)에 지지될 수 있으며, 상기 프레임(100) 상에서 전진 및/또는 후진될 수 있다.For example, the display 200 may be supported on the frame 100 , and may move forward and/or backward on the frame 100 .

한편, 상기 카메라(300)는 사용자에 대한 상기 사용자 영상을 획득하는 구성으로서 깊이 정보를 포함하는 상기 사용자 영상을 획득할 수 있다.Meanwhile, the camera 300 may acquire the user image including depth information as a configuration for acquiring the user image of the user.

여기서, 상기 카메라(300)는 삼각측량 방식의 3차원 레이저 스캐너, 구조 광선패턴을 이용한 깊이 카메라, 적외선(IR: Infra-Red)의 반사 시간 차이를 이용한 TOF(Time-Of-flight)3) 방식의 카메라 등을 포함할 수 있으나, 이에 한정되지 않는다.Here, the camera 300 is a three-dimensional laser scanner of the triangulation method, a depth camera using a structured light pattern, and a TOF (Time-Of-flight) 3) method using a difference in reflection time of infrared (IR: Infra-Red). may include, but is not limited to, a camera of

즉, 상기 카메라(300)는 상기 사용자 영상을 획득하는 장치로서 상기 사용자 영상을 획득할 수 있는 장치라면 당업자의 입장에서 다양하게 변경 가능하다. That is, the camera 300 is a device for acquiring the user image, and as long as it is a device capable of acquiring the user image, it can be variously changed from the standpoint of a person skilled in the art.

일례로, 상기 카메라(300)는 상기 프레임(100)에 지지될 수 있으며, 상기 프레임(100) 상에서 전진 및/또는 후진될 수도 있다.For example, the camera 300 may be supported on the frame 100 , and may move forward and/or backward on the frame 100 .

한편, 상기 카메라(300)는 상기 디스플레이(200) 상에 설치될 수도 있으며, 상기 디스플레이(200) 상에서 전진 및/또는 후진될 수도 있다.Meanwhile, the camera 300 may be installed on the display 200 , and may move forward and/or backward on the display 200 .

여기서, 일례로, 상기 시스템(10)은 상기 디스플레이(200)를 통해 출력되는 콘텐츠가 달라지도록, 상기 사용자 영상에 포함된 기 설정된 사용자의 제어부위(P)의 위치를 기초로 상기 디스플레이(200)를 제어하는 제어부(400)를 더 포함할 수 있다.Here, as an example, the system 10 controls the display 200 on the basis of the position of the preset user's control unit P included in the user image so that the content output through the display 200 varies. It may further include a control unit 400 for controlling the.

이를 보다 자세히 설명하자면, 상기 제어부(400)는 상기 사용자 영상에서 상기 제어부위(P)의 위치 및 위치 이동을 기초로 상기 디스플레이(200)를 제어하여 상기 디스플레이(200)에서 출력되는 콘텐츠의 변경을 구현하는 구성일 수 있다.To explain this in more detail, the control unit 400 controls the display 200 based on the position and position movement of the control unit P in the user image to change the content output from the display 200 . It may be a configuration to implement.

일례로, 도 2에 도시한 바와 같이, 상기 디스플레이(200)는 주문하기 아이콘(I)을 표시할 수 있으며, 상기 제어부(400)는 상기 제어부위(P)의 위치와 대응되는 위치에 커서(A)를 표시할 수 있다.For example, as shown in FIG. 2 , the display 200 may display an order icon (I), and the control unit 400 places a cursor ( A) can be indicated.

만약, 상기 제어부위(P)가 사용자를 기준으로 왼쪽으로 이동되는 경우, 상기 제어부(400)는 상기 제어부위(P)의 위치 이동과 대응되도록 커서(A)를 왼쪽으로 이동시킬 수 있고, 상기 제어부위(P)가 사용자를 기준으로 위로 이동되는 경우, 상기 제어부(400)는 상기 제어부위(P)의 위치 이동과 대응되도록 커서(A)를 위로 이동시킬 수 있다.If the control unit P is moved to the left with respect to the user, the control unit 400 may move the cursor A to the left to correspond to the position movement of the control unit P, and the When the control unit P is moved upward relative to the user, the control unit 400 may move the cursor A upward to correspond to the position movement of the control unit P.

일례로, 상기 제어부위(P)는 사용자의 손 및/또는 손가락일 수 있으나, 여기에 한정되는 것은 아니다.As an example, the control unit (P) may be a user's hand and/or finger, but is not limited thereto.

다만, 설명의 편의를 위해 상기 제어부위(P)는 사용자의 손가락으로 가정하고 설명하겠다.However, for convenience of explanation, it is assumed that the control unit P is the user's finger.

상기 제어부(400)는 상기 사용자 영상에서 사용자의 손가락에 대한 위치 및 위치 이동을 산출할 수 있으며, 이에 대응하는 콘텐츠의 변경을 구현할 수 있다.The control unit 400 may calculate the position and movement of the user's finger in the user image, and may implement a change of content corresponding thereto.

이러한, 상기 제어부위(P)의 위치 및 위치 이동과 대응되도록 상기 제어부(400)가 콘텐츠를 변경하는 것은 이미 공지된 기술이라는 점에서 자세한 설명은 생략하겠다.A detailed description will be omitted since it is a known technique for the control unit 400 to change the content to correspond to the position and movement of the position P on the control unit P.

이하에서는, 도 2 내지 도 4을 참조하여, 상기 시스템(10)의 핵심적 기술적 사상에 대해 자세히 설명하겠다.Hereinafter, the core technical idea of the system 10 will be described in detail with reference to FIGS. 2 to 4 .

드라이브 스루를 통해 음식, 물품, 서비스 등을 주문하는 사용자는 상기 이동수단(C)을 상기 카메라(300)가 위치하는 정위치에 정차할 수도 있으나, 경우에 따라서는 상기 카메라(300)에 너무 가깝게 정차하거나 또는 너무 멀리 떨어져 정차할 수도 있다.A user who orders food, goods, services, etc. through a drive-through may stop the moving means (C) at the exact position where the camera 300 is located, but in some cases, it is too close to the camera 300 It may stop or stop too far away.

이 경우, 사용자는 공간터치를 위해 상기 이동수단(C)을 다시 이동시켜 상기 카메라(300)가 위치하는 정위치에 상기 이동수단(C)을 다시 정차시켜야 하는 불편함이 있다.In this case, there is an inconvenience in that the user has to move the moving means (C) again for a spatial touch to stop the moving means (C) again at the exact position where the camera 300 is located.

상기 시스템(10)은 이러한 사용자의 불편함을 해소하기 위한 것으로서, 일례로, 상기 카메라(300)는 상기 디스플레이(200)를 기준으로 전진 및/또는 후진될 수 있다.The system 10 is intended to solve the user's inconvenience. For example, the camera 300 may move forward and/or backward with respect to the display 200 .

즉, 상기 카메라(300)는 소정의 위치에 고정되는 구성이 아닌, 상기 이동수단(C) 및/또는 상기 제어부위(P)의 위치에 따라 상기 디스플레이(200) 및/또는 상기 프레임(100)을 기준으로 상대적으로 전진 및/또는 후진되어 위치 이동될 수 있다.That is, the camera 300 is not configured to be fixed at a predetermined position, but the display 200 and/or the frame 100 according to the position of the moving means (C) and/or the control unit (P). The position may be moved relatively forward and/or backward relative to .

여기서, 일례로, 상기 제어부(400)는 기 설정된 초기 위치로부터 상기 사용자 영상에 포함된 이동객체의 이격거리를 기초로 상기 카메라(300)의 전진 및/또는 후진을 제어할 수 있다.Here, as an example, the controller 400 may control the forward and/or backward of the camera 300 based on the separation distance of the moving object included in the user image from a preset initial position.

여기서, 일례로, 상기 이동객체는 상기 사용자 영상에 포함된 이동되는 대상으로서, 상기 이동수단(C)을 의미할 수도 있고 상기 제어부위(P)를 의미할 수도 있다.Here, as an example, the moving object is a moving object included in the user image, and may mean the moving means (C) or the control unit (P).

또한, 일례로, 상기 기 설정된 초기 위치는 상기 사용자 영상을 획득하는 상기 카메라(300)의 위치를 의미할 수 있다.Also, as an example, the preset initial position may mean a position of the camera 300 that acquires the user image.

따라서, 상기 제어부(400)는 상기 사용자 영상에 포함된 깊이 정보를 통해 상기 이동객체가 상기 카메라(300)로부터 얼마나 떨어져 있는지를 산출할 수 있고, 상기 이동객체가 상기 카메라(300)로부터 떨어진 거리에 따라 상기 카메라(300)의 전진 및/또는 후진을 제어할 수 있다.Accordingly, the controller 400 can calculate how far the moving object is from the camera 300 through the depth information included in the user image, and the distance the moving object is away from the camera 300 . Accordingly, the forward and/or backward of the camera 300 may be controlled.

예를 들어, 도 3 및 도 4에 도시한 바와 같이, 상기 제어부(400)는 상기 기 설정된 초기 위치(X)로부터 떨어진 거리를 기초로하여 상기 사용자 영상 상의 영역을 구분할 수 있다.For example, as shown in FIGS. 3 and 4 , the controller 400 may classify a region on the user image based on a distance away from the preset initial position X. As shown in FIG.

일례로, 상기 제어부(400)는 상기 사용자 영상에 대해 상기 제어부위(P)가 공간터치가 가능한 가능영역, 상기 가능영역 내의 기 설정된 영역인 임계영역(S1) 및 상기 임계영역(S1) 외의 영역인 이탈영역으로 구분할 수 있다.For example, the control unit 400 may include a critical region S1 that is a preset region within the possible region and a region other than the critical region S1 within the possible region where the spatial touch is possible on the control unit P for the user image. It can be divided into an escape region.

일례로, 상기 가능영역은 상기 카메라(300)가 촬영할 수 있는 촬영가능 영역을 의미할 수 있으며, 상기 카메라(300)에 의해 획득되는 상기 사용자 영상의 전체 영역을 의미할 수 있다.For example, the available area may mean a recordable area that the camera 300 can capture, and may mean the entire area of the user image acquired by the camera 300 .

도 3 및 도 4에서 상기 가능영역은 실선 사이의 영역을 의미할 수 있다.3 and 4 , the possible area may mean an area between solid lines.

한편, 일례로, 상기 임계영역(S1)은 상기 가능영역 내의 기 설정된 영역으로서, 상기 제어부위(P)가 좌우 방향으로 위치 이동됨에 따라 상기 제어부(400)의 제어에 의해 상기 디스플레이(200) 상의 커서(A)가 상기 디스플레이(200)의 상에서 좌우 방향으로 이동될 수 있는 영역을 의미할 수 있다.On the other hand, as an example, the critical region S1 is a preset region within the possible region, and as the position of the control unit P is moved in the left and right direction, it is displayed on the display 200 under the control of the control unit 400 . The cursor A may refer to an area in which the cursor A can move in the left and right directions on the display 200 .

환언하자면, 상기 임계영역(S1)은 상기 제어부위(P)가 상기 카메라(300)로부터 관리자가 의도된 거리만큼 떨어져 있어, 상기 제어부(400)가 상기 제어부위(P)의 위치 이동을 정확하게 산출하여 상기 디스플레이(200)의 제어를 사용자의 의도에 맞게 정확하게 구현할 수 있는 영역을 의미할 수 있다.In other words, in the critical region S1, the control unit P is away from the camera 300 by the distance intended by the manager, so that the control unit 400 accurately calculates the position movement of the control unit P Thus, it may mean an area in which control of the display 200 can be accurately implemented according to a user's intention.

상기 임계영역(S1)은 관리자에 의해 미리 정해질 수도 있고, 상기 디스플레이(200)의 크기, 상기 카메라(300)의 성능, 화질, 조도, 안개, 비 등과 같은 기상 상태에 기초하여 상기 제어부(400)에 의해 실시간으로 연상되어 정의될 수 있다.The critical region S1 may be predetermined by an administrator, and the controller 400 may be based on the size of the display 200 , the performance of the camera 300 , image quality, illuminance, fog, or rain, etc. ) can be defined in association with real-time.

도 3 및 도 4에서 상기 임계영역(S1)은 상기 카메라(300)로부터 가장 가까운 파선과 두 번째로 가까운 파선 사이의 영역을 의미할 수 있다.3 and 4 , the critical region S1 may mean a region between the nearest broken line and the second closest broken line from the camera 300 .

한편, 상기 이탈영역은 상기 임계영역(S1)을 벗어난 영역으로서, 상기 카메라(300)의 전진 및/또는 후진이 필요한 영역을 의미할 수 있다.On the other hand, the departure region is a region outside the critical region S1 , and may mean an region in which forward and/or backward movement of the camera 300 is required.

여기서, 상기 이탈영역은 상기 카메라(300)의 전진 및/또는 후진을 통해 상기 이동객체를 상기 임계영역(S1) 내에 위치하도록 할 수 있는 영역인 제1 이탈영역(S2)과, 상기 카메라(300)의 전진 및/또는 후진을 구현하여도 상기 이동객체가 상기 기 설정된 초기 위치로부터 너무 멀리 떨어져 있거나, 너무 가까이 위치하여 상기 이동객체를 상기 임계영역(S1) 내에 위치하도록 할 수 없는 영역인 제2 이탈영역(S3)으로 구분될 수 있다.Here, the departure region includes a first departure region S2 that is an region capable of positioning the moving object within the critical region S1 through forward and/or backward of the camera 300 , and the camera 300 . ), a second region in which the moving object cannot be positioned within the critical region S1 because the moving object is too far away from or too close to the preset initial position even if the forward and/or backward is implemented. It may be divided into a departure region S3.

상기 제1 이탈영역(S2) 및 상기 제2 이탈영역(S3)은 관리자에 의해 미리 정해질 수도 있고, 상기 디스플레이(200)의 크기, 상기 카메라(300)의 성능, 화질, 안개, 비 등과 같은 기상 상태에 기초하여 상기 제어부(400)에 의해 실시간으로 연상되어 정의될 수 있다.The first departure region S2 and the second departure region S3 may be predetermined by an administrator, and the size of the display 200, the performance of the camera 300, image quality, fog, rain, etc. Based on the weather condition, it may be defined in association with the controller 400 in real time.

도 3 및 도 4에서, 상기 제1 이탈영역(S2)은 상기 카메라(300)로부터 두 번째로 가까운 파선과 세 번째로 가까운 파선 사이의 영역을 의미할 수 있다.3 and 4 , the first departure region S2 may mean a region between the second closest broken line and the third closest broken line from the camera 300 .

상기 제2 이탈영역(S3)은 상기 임계영역(S1) 및 상기 제1 이탈영역(S2) 외의 영역을 의미할 수 있다.The second departure region S3 may mean a region other than the critical region S1 and the first departure region S2 .

한편, 도 3 및 도 4에서는 상기 기 설정된 초기 위치(X)를 기준으로 상기 임계영역(S1)보다 먼 영역에만 상기 제1 이탈영역(S2)이 존재하는 것으로 도시하였으나, 여기에 한정되는 것은 아니며, 상기 임계영역(S1)보다 가까운 영역에도 상기 제1 이탈영역(S2)이 존재할 수도 있다.Meanwhile, in FIGS. 3 and 4 , it is illustrated that the first departure region S2 exists only in a region farther than the critical region S1 based on the preset initial position X, but the present invention is not limited thereto. , the first departure region S2 may also exist in a region closer to the critical region S1 .

여기서, 일례로, 도 3에 도시한 바와 같이, 상기 제어부(400)는 상기 사용자 영상에 포함된 상기 이동객체의 위치(P)가 상기 임계영역(S1) 내에 위치하는 것으로 산출한 경우, 상기 카메라(300)를 전진 및/또는 후진시키지 않을 수 있다.Here, for example, as shown in FIG. 3 , when the controller 400 calculates that the position P of the moving object included in the user image is located within the critical region S1, the camera 300 may not be advanced and/or reversed.

반면, 도 4에 도시한 바와 같이, 상기 제어부(400)는 상기 사용자 영상에 포함된 상기 이동객체의 위치(P)가 상기 제1 이탈영역(S2) 내에 위치하는 것으로 산출한 경우, 상기 이동객체가 상기 임계영역(S1) 상에 위치되도록 상기 카메라(300)를 전진시킬 수 있다.On the other hand, as shown in FIG. 4 , when the control unit 400 calculates that the position P of the moving object included in the user image is located within the first departure area S2, the moving object The camera 300 may be advanced to be positioned on the critical region S1.

물론, 도면에는 도시하지 않았으나, 상기 제어부(400)는 상기 사용자 영상에 포함된 상기 이동객체의 위치(P)가 상기 기 설정된 초기 위치(X)를 기준으로 상기 임계영역(S1)보다 가까운 영역에 존재하는 상기 제1 이탈영역(S2) 상에 위치하는 것으로 산출한 경우, 상기 이동객체가 상기 임계영역(S1) 상에 위치되도록 상기 카메라(300)를 후진시킬 수도 있다.Of course, although not shown in the drawing, the control unit 400 is located in a region where the position P of the moving object included in the user image is closer than the critical region S1 based on the preset initial position X. If it is calculated that the moving object is located on the existing first departure region S2 , the camera 300 may be moved backward so that the moving object is located on the critical region S1 .

한편, 일례로, 상기 이동수단(C)의 위치변화량이 기 설정된 위치변화량 이하인 경우, 상기 기 설정된 초기 위치로부터 상기 이동객체의 이격거리를 기초로 상기 카메라(300)의 전진 및/또는 후진을 제어할 수 있다.On the other hand, as an example, when the amount of change in the position of the moving means (C) is less than or equal to a preset amount of change in position, the forward and/or backward of the camera 300 is controlled based on the separation distance of the moving object from the preset initial position. can do.

이를 보다 자세히 설명하자면, 도 5는 상기 가능영역 내에서 이동되는 상기 이동수단(C)의 시간에 따른 위치변화량의 일례를 도시한 것으로서, 상기 이동수단(C)은 속도를 줄이며 상기 가능영역 내로 진입하여 정차될 있고, 이후 속도를 늘이며 상기 가능영역으로부터 이탈될 수 있다.To explain this in more detail, FIG. 5 shows an example of the amount of position change according to time of the moving means (C) moved within the possible area, and the moving means (C) reduces the speed and enters the possible area. to stop, and then increase the speed and deviate from the possible area.

여기서, 상기 제어부(400)는 상기 이동수단(C) (시간에 따른)위치변화량이 상기 기 설정된 (시간에 따른)위치변화량 이하인 경우(t1에서 t2 사이의 시점)에 한하여, 상기 사용자 영상에 포함된 상기 이동객체의 위치를 기초로 상기 카메라(300)의 전진 및/또는 후진을 제어할 수 있다.Here, the control unit 400 is included in the user image only when the amount of change in position of the moving means C (with time) is equal to or less than the preset amount of change of position (with time) (time between t1 and t2). Forward and/or backward of the camera 300 may be controlled based on the position of the moving object.

즉, 상기 제어부(400)는 상기 이동수단(C)의 위치변화량이 상기 기 설정된 위치변화량 초과인 경우(0에서 t1까지 및 t2 이후의 시점)에는 상기 사용자 영상에 포함된 상기 이동객체의 위치 및 위치변화를 무시하며(즉, 상기 이동객체의 이격거리를 무시하여 상기 카메라(300)의 전진 및/또는 후진을 제어하지 않으며), 오로지 상기 이동수단(C)의 위치변화량이 상기 기 설정된 위치변화량 이하인 경우(t1에서 t2 사이의 시점)에만 상기 이동객체의 위치 및/또는 위치변화를 고려하여 상기 카메라(300)의 전진 및/또는 후진을 제어할 수 있다.That is, when the amount of change in the position of the moving means (C) exceeds the preset amount of change in position (from 0 to t1 and after t2), the control unit 400 controls the position of the moving object included in the user image and Ignoring the position change (that is, not controlling the forward and/or backward movement of the camera 300 by ignoring the separation distance of the moving object), only the position change amount of the moving means (C) is the preset position change amount Forward and/or backward of the camera 300 may be controlled in consideration of the position and/or position change of the moving object only in the following cases (a time point between t1 and t2).

한편, 일례로, 상기 제어부(400)는 상기 카메라(300)의 전진량 및/또는 후진량과 비례하여 상기 디스플레이(200)를 상기 기 설정된 초기 위치로부터 전진 및/또는 후진하는 거리를 제어할 수 있다.On the other hand, as an example, the control unit 400 may control the distance at which the display 200 is moved forward and/or backward from the preset initial position in proportion to the forward and/or backward amount of the camera 300 . have.

이를 보다 자세히 설명하자면, 상기 제어부(400)는 상기 카메라(300)의 전진 및/또는 후진을 구현할 뿐만 아니라 상기 디스플레이(200)도 전진 및/또는 후진을 구현할 수 있으며, 상기 카메라(300)의 전진되는 거리 및/또는 후진되는 거리에 비례하여 상기 디스플레이(200)의 전진되는 거리 및/또는 후진되는 거리를 제어할 수 있다.To explain this in more detail, the control unit 400 may implement forward and/or backward movement of the camera 300 as well as the display 200 may implement forward and/or backward movement of the camera 300 . The moving distance and/or the moving distance of the display 200 may be controlled in proportion to the moving distance and/or the moving distance.

한편, 일례로, 상기 제어부(400)는 상기 카메라(300)의 전진량 및/또는 후진량과 비례하여 상기 디스플레이(200)에서 출력되는 콘텐츠의 확대량 및/또는 축소량을 제어할 수도 있다.Meanwhile, as an example, the control unit 400 may control the enlargement and/or reduction of the content output from the display 200 in proportion to the forward and/or backward amount of the camera 300 .

이를 보다 자세히 설명하자면, 도 2에 도시한 바와 같이, 도 2(a)에서 도 2(b)로 상기 카메라(300)의 전진이 구현된 경우, 상기 제어부(400)는 상기 카메라(300)의 전진뿐만 아니라 상기 디스플레이(200)를 제어하여 상기 디스플레이(200)에서 출력되는 아이콘, 커서(A) 등을 포함하는 콘텐츠를 상기 카메라(300)의 전진량과 비례하여 확대시킬 수 있다.To explain this in more detail, as shown in FIG. 2 , when the forward movement of the camera 300 is implemented from FIG. 2A to FIG. 2B , the control unit 400 controls the camera 300 . By controlling the display 200 as well as moving forward, the content including the icon, the cursor A, etc. output from the display 200 may be enlarged in proportion to the advance amount of the camera 300 .

따라서, 상기 디스플레이(200)를 전진시키지 않더라도 사용자는 용이하게 콘텐츠를 식별할 수 있다.Accordingly, the user can easily identify the content even without advancing the display 200 .

한편, 상기 제어부(400)는 상기 기 설정된 초기 위치로부터 상기 사용자 영상에 포함된 상기 이동객체 중 상기 제어부위(P)의 이격거리를 기초로 상기 카메라(300)의 전진 및/또는 후진을 제어할 수 있다.On the other hand, the control unit 400 controls the forward and/or backward of the camera 300 based on the separation distance of the control unit P among the moving objects included in the user image from the preset initial position. can

즉, 상기 제어부(400)는 상기 사용자 영상에 포함된 상기 이동객체 중 상기 제어부위(P)의 위치를 기초로하여 상기 카메라(300)의 전진 및/또는 후진을 제어할 수 있다.That is, the controller 400 may control the forward and/or backward of the camera 300 based on the position of the controller P among the moving objects included in the user image.

여기서, 상기 제어부위(P)는 앞서 설명한 바와 같이, 사용자의 신체 중 일수 일수 있으며, 손 및/또는 손가락일 수 있다.Here, as described above, the control unit P may be the number of days in the user's body, and may be a hand and/or a finger.

이하에서는, 도 6 및 도 7을 참조로 하여, 상기 기 설정된 초기 위치에 대해 설명하겠다.Hereinafter, the preset initial position will be described with reference to FIGS. 6 and 7 .

일례로, 상기 제어부(400)는 상기 기 설정된 초기 위치로부터 상기 사용자 영상에 포함된 상기 이동객체의 이격거리에 따라 상기 카메라(300)의 전진 및/또는 후진을 제어할 수 있다.For example, the controller 400 may control the forward and/or backward of the camera 300 according to a separation distance of the moving object included in the user image from the preset initial position.

여기서, 상기 기 설정된 초기 위치는 상기 카메라(300)의 위치를 의미할 수 있다.Here, the preset initial position may mean a position of the camera 300 .

여기서, 도 6은 사용자가 공간터치를 통해 쇼핑을 하는 상태를 시간 순으로 간략히 표현한 것으로서, y축의 1의 값을 가지는 부분이 사용자가 공간터치를 통해 쇼핑을 하는 상태를 의미하고, y축의 1의 값을 가지지 않는 부분이 사용자가 공간터치를 하지 않는, 즉 본 시스템(10)을 통해 쇼핑을 하지 않는 상태를 의미할 수 있다.Here, FIG. 6 is a simplified chronological representation of the state of the user shopping through the spatial touch, wherein a portion having a value of 1 on the y-axis means a state in which the user is shopping through a spatial touch, and a value of 1 on the y-axis. A portion having no value may mean a state in which the user does not touch the space, that is, does not shop through the system 10 .

도 6을 참조하여 시간 순으로 설명하자면, 제1 사용자는 t1 시점부터 상기 본 시스템(10)을 통해 공간터치를 이용하여 쇼핑을 시작하며, t2 시점에 쇼핑을 완료(주문 완료)한 것으로 정의할 수 있다.Referring to FIG. 6 , to describe in chronological order, the first user starts shopping using a spatial touch through the system 10 from time t1, and it is defined as completing shopping (order completion) at time t2. can

여기서, t2 시점부터 t3 시점까지는 상기 제1 사용자가 상기 이동수단(C)을 통해 상기 카메라(300)로부터 이탈되며, 상기 제1 사용자의 뒤에 있는 제2 사용자가 상기 이동수단(C)을 통해 상기 카메라(300)로 진입한 것으로 정의할 수 있다.Here, from time t2 to time t3, the first user is separated from the camera 300 through the moving means (C), and a second user behind the first user is moved through the moving means (C). It can be defined as entering the camera 300 .

여기서, 상기 제2 사용자는 t3 시점부터 상기 본 시스템(10)을 통해 공간터치를 이용하여 쇼핑을 시작하며, t4 시점에 쇼핑을 완료한 것으로 정의할 수 있다.Here, it can be defined that the second user starts shopping by using a spatial touch through the system 10 from time t3 and completes shopping at time t4.

마찬가지로, 상기 제2 사용자의 뒤에 있는 제3 사용자는 t5 시점부터 본 시스템(10)을 통해 공간터치를 이용하여 쇼핑을 시작하며, t6 시점에 쇼핑을 완료한 것으로 정의할 수 있으며, 상기 제3 사용자의 뒤에 있는 제4 사용자는 t7 시점부터 본 시스템(10)을 통해 공간터치를 이용하여 쇼핑을 시작하며, t8 시점에 쇼핑을 완료한 것으로 정의할 수 있고, 상기 제4 사용자의 뒤에 있는 제5 사용자는 t9 시점부터 본 시스템(10)을 통해 공간터치를 이용하여 쇼핑을 시작하며, t10 시점에 쇼핑을 완료한 것으로 정의할 수 있다. Similarly, it can be defined that a third user behind the second user starts shopping using a spatial touch through the system 10 from time t5, and completes shopping at time t6, and the third user It can be defined that the fourth user behind the user starts shopping by using the spatial touch through the system 10 from time t7, and completes shopping at time t8, and the fifth user behind the fourth user can be defined as starting shopping using spatial touch through the system 10 from time t9, and completing shopping at time t10.

이렇게 상기 제1 사용자 내지 상기 제5 사용자는 순차적으로 본 시스템(10)을 통해 쇼핑을 할 수 있다.In this way, the first to fifth users can sequentially shop through the system 10 .

이러한 사실관계를 바탕으로, 상기 제어부(400)는 현 시점으로부터 가장 최근의 쇼핑을 완료한 상기 카메라(300)의 위치에 기초하여 상기 기 설정된 초기 위치를 설정할 수 있다.Based on these facts, the controller 400 may set the preset initial position based on the position of the camera 300 that has completed the most recent shopping from the current time point.

도 6 및 도 7을 참조하여, 이를 보다 자세히 설명하자면, 도 6 및 7(a)에 도시한 바와 같이, 상기 제1 사용자가 쇼핑을 시작할 때(t1 시점)의 상기 카메라(300)의 위치가 Z(상기 기 설정된 초기 위치)에 있고, 상기 제어부(400)가 상기 제1 사용자의 상기 이동객체의 위치를 산출하여 상기 카메라(300)를 C1으로 전진시킨 후, 상기 제1 사용자가 쇼핑을 완료(t2)하였다고 가정한다.6 and 7, to explain this in more detail, as shown in FIGS. 6 and 7 (a), the position of the camera 300 when the first user starts shopping (time t1) is Z (the preset initial position), the control unit 400 calculates the position of the moving object of the first user and advances the camera 300 to C1, and then the first user completes shopping (t2) is assumed.

여기서, 현 시점은 상기 제2 사용자가 쇼핑을 시작하는 시점(t3)이라고 가정하는 경우, 상기 제어부(400)는 현 시점인 t3 시점으로부터 가장 최근의 쇼핑을 완료한 시점인 t2 시점에서 상기 카메라(300)가 위치한 C1을 상기 기 설정된 초기 위치로 정의할 수 있다.Here, if it is assumed that the current time is a time point t3 when the second user starts shopping, the controller 400 controls the camera ( 300) may be defined as the preset initial position.

여기서, 상기 제2 사용자의 상기 이동객체가 상기 기 설정된 초기 위치인 C1으로부터 가까워 상기 임계영역(S1)보다 가까이 위치하는 경우, 도 7(b)에 도시한 바와 같이, 상기 제어부(400)는 상기 카메라(300)를 C1으로부터 C2 위치로 후진시켜 상기 제2 사용자의 상기 이동객체가 상기 임계영역(S1) 내에 위치하도록 할 수 있다.Here, when the moving object of the second user is located closer to the threshold region S1 as it is closer to the preset initial position C1, as shown in FIG. 7(b), the controller 400 controls the The camera 300 may be moved backward from the position C1 to the position C2 so that the moving object of the second user is located within the critical region S1.

여기서, 시간이 흘러 현 시점이 t5인 경우, 상기 제어부(400)는 t4 시점에서 상기 카메라(300)가 위치한 C2를 상기 기 설정된 초기 위치로 정의할 수 있으며, 상기 제3 자용자의 상기 이동객체가 C2로부터 상기 임계영역(S1) 내에 위치하는 경우, 도 7(c)에 도시한 바와 같이, 상기 카메라(300)의 전진 및/또는 후진을 구현하지 않을 수 있다.Here, when time elapses and the current time point is t5, the controller 400 may define C2 where the camera 300 is located as the preset initial location at time t4, and the moving object of the third user When located within the critical region S1 from C2, as shown in FIG. 7(c) , forward and/or backward of the camera 300 may not be implemented.

여기서, 일례로, 상기 제어부(400)는 현 시점으로부터 가장 최근의 쇼핑을 완료한 시점부터 경과 시간을 산출할 수 있다.Here, as an example, the controller 400 may calculate the elapsed time from the time when the most recent shopping is completed from the current time.

상기 경과 시간은 쇼핑을 완료한 시점부터 이 후의 쇼핑이 시작되는 시점까지의 시간을 의미할 수 있다.The elapsed time may mean a time from when shopping is completed to when subsequent shopping starts.

즉, 상기 경과 시간은 본 시스템(10)을 통해 사용자가 공간터치를 하지 않는, 쇼핑을 하지 않는 시간을 의미할 수 있다.That is, the elapsed time may mean a time during which the user does not touch the space through the present system 10 and does not do shopping.

예를 들어, 경과 시간은 t2 부터 t3 까지, t4 부터 t5 까지, t6 부터 t7 까지, t8 부터 t9 까지, t10 이후의 시간을 의미할 수 있다.For example, the elapsed time may mean from t2 to t3, from t4 to t5, from t6 to t7, from t8 to t9, and after t10.

여기서, 일례로, 상기 제어부(400)는 현 시점으로부터 상기 경과 시간이 기 설정된 시간 미만인 경우 현 시점으로부터 가장 최근의 쇼핑을 완료한 상기 카메라(300)의 위치를 상기 기 설정된 초기 위치로 설정하고, 상기 경과 시간이 상기 기 설정된 시간 이상인 경우 기 설정된 세팅 위치로 상기 카메라(300)를 이동시킨 후 상기 기 설정된 세팅 위치를 상기 기 설정된 초기 위치로 설정할 수 있다.Here, as an example, when the elapsed time from the current time is less than a preset time, the controller 400 sets the position of the camera 300 that has completed the most recent shopping from the current time to the preset initial position, When the elapsed time is equal to or longer than the preset time, the camera 300 may be moved to a preset setting position and then the preset setting position may be set as the preset initial position.

이를 보다 자세히 설명하자면, t2 부터 t3 까지, t4 부터 t5 까지의 상기 경과 시간이 상기 기 설정된 시간 미만이라고 가정하는 경우, 상기 제어부(400)는 t3 시점(현 시점)에서는 t2 시점에서의 상기 카메라(300) 위치인 C1을 상기 기 설정된 초기 위치로 정의할 수 있으며, 상기 제어부(400)는 t5 시점(현 시점)에서는 t4 시점에서의 상기 카메라(300) 위치인 C2를 상기 기 설정된 초기 위치로 정의할 수 있다.To explain this in more detail, if it is assumed that the elapsed time from t2 to t3 and from t4 to t5 is less than the preset time, the controller 400 controls the camera at time t2 at time t3 (current time). 300) position C1 may be defined as the preset initial position, and the controller 400 defines the camera 300 position C2 at time t4 as the preset initial position at time t5 (current time). can do.

한편, t6 부터 t7 까지의 상기 경과 시간이 상기 기 설정된 시간 이상이라고 가정하는 경우, 상기 제어부(400)는 t6 시점부터 상기 기 설정된 시간이 지난 시점(t6 시점과 t7 사이의 시점)에서, 도 7(d)에 도시한 바와 같이 C2에 위치한 카메라(300)를 상기 기 설정된 세팅 위치인 Z로 위치 이동시킬 수 있으며, Z 위치를 상기 기 설정된 초기 위치로 설정할 수 정의할 수 있다.On the other hand, if it is assumed that the elapsed time from t6 to t7 is equal to or greater than the preset time, the control unit 400 at a time point (between time t6 and t7) when the preset time elapses from time t6, FIG. As shown in (d), the camera 300 located at C2 can be moved to the preset setting position Z, and the Z position can be set and defined as the preset initial position.

이 후, t7 시점(현 시점)에서 상기 제4 사용자가 공간 터치를 시작 하려고 하는 경우, 상기 제어부(400)는 Z에 위치하는 상기 카메라(300)의 위치(상기 기 설정된 초기 위치)를 기초로 하여 상기 제4 사용자의 상기 이동객체의 이격거리에 따라 상기 카메라(300)의 전진 및/또는 후진을 제어할 수 있다.Thereafter, when the fourth user tries to start a spatial touch at time t7 (current time), the control unit 400 based on the position of the camera 300 located at Z (the preset initial position) Thus, the forward and/or backward of the camera 300 may be controlled according to the separation distance of the moving object of the fourth user.

상기 기 설정된 세팅 위치는 관리자에 의해 설정될 수 있으며, 예들 들어, 상기 카메라(300)가 전진하지 않은 위치 또는 상기 카메라(300)가 전진할 수 있는 전체 길이 중 중간 위치 등으로 미리 설정될 수 있다.The preset setting position may be set by an administrator, and for example, it may be preset to a position where the camera 300 does not advance or an intermediate position among the entire length to which the camera 300 can advance. .

한편, 상기 제어부(400)는 쇼핑을 완료한 시점과 차회의 쇼핑을 시작하는 시점간의 시간을 기초로 상기 기 설정된 시간을 설정할 수 있다.Meanwhile, the controller 400 may set the preset time based on a time between a time when shopping is completed and a time when the next shopping starts.

즉, 상기 제어부(400)는 복수의 상기 경과 시간을 기초로 하여 상기 기 설정된 시간을 실시간으로 설정할 수 있다.That is, the controller 400 may set the preset time in real time based on the plurality of elapsed times.

예를 들어, t2 부터 t3 까지의 상기 경과 시간이 20초, t4 부터 t5 까지의 상기 경과 시간이 30초, t6 부터 t7 까지의 상기 경과 시간이 5분일 경우, 상기 제어부(400)는 상기 기 설정된 시간을 t4 부터 t5 까지의 상기 경과 시간과 t6 부터 t7 까지의 상기 경과 시간 사이인 1분으로 설정할 수 있다.For example, when the elapsed time from t2 to t3 is 20 seconds, the elapsed time from t4 to t5 is 30 seconds, and the elapsed time from t6 to t7 is 5 minutes, the control unit 400 may The time may be set to 1 minute between the elapsed time from t4 to t5 and the elapsed time from t6 to t7.

한편, 도 8에 도시한 바와 같이, 상기 시스템(10)은 상기 제어부(400), 상기 디스플레이(200), 상기 카메라(300) 외에도, 앞서 설명한 기술적 사상을 구현하는데 필요한 데이터/정보 등을 외부장치와 송수신 하는 통신부(500)를 더 포함할 수 있으며, 나아가 앞서 설명한 기술적 사상을 구현하는데 필요한 데이터/정보 등을 저장하는 메모리부(600)를 더 포함할 수도 있다.On the other hand, as shown in FIG. 8 , in addition to the control unit 400 , the display 200 , and the camera 300 , the system 10 transmits data/information necessary for implementing the above-described technical idea to an external device. It may further include a communication unit 500 for transmitting and receiving with and may further include a memory unit 600 for storing data/information necessary to implement the above-described technical idea.

그 결과, 앞서 설명한 바와 같이, 본 발명의 일 실시예에 따른 드라이브 스루 공간터치 시스템(10)은 상기 이동수단(C)의 다양한 정차 위치에서도 사용자자 편리하게 공간터치를 구현할 수 있는 장점이 있다.As a result, as described above, the drive-through space touch system 10 according to an embodiment of the present invention has the advantage that the user can conveniently implement the space touch even at various stopping positions of the moving means C.

한편, 본 발명의 다른 일 실시예에 따른 드라이브 스루 공간터치 방법은 상기 드라이브 스루 공간터치 시스템(10)을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 하는 방법일 수 있다.Meanwhile, the drive-through space touch method according to another embodiment of the present invention may be a method of enabling shopping through drive-through using the drive-through space touch system 10 .

상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.In the above, the configuration and features of the present invention have been described based on the embodiments according to the present invention, but the present invention is not limited thereto, and it is understood that various changes or modifications can be made within the spirit and scope of the present invention. It is intended that such changes or modifications will be apparent to those skilled in the art, and therefore fall within the scope of the appended claims.

100: 프레임
200: 디스플레이
300: 카메라
C: 이동수단
P: 제어부위
100: frame
200: display
300: camera
C: means of transportation
P: control panel

Claims (9)

사용자가 이동수단을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 매장에 제공되는 드라이브 스루 공간터치 시스템에 있어서,
소정의 콘텐츠를 출력하는 디스플레이;
깊이 정보를 포함하는 사용자에 대한 사용자 영상을 획득하는 카메라;
상기 디스플레이를 통해 출력되는 콘텐츠가 달라지도록, 상기 사용자 영상에 포함된 기 설정된 사용자의 제어부위의 위치를 기초로 상기 디스플레이를 제어하는 제어부;를 포함하며,
상기 카메라는,
상기 디스플레이를 기준으로 전진되며,
상기 제어부는,
기 설정된 초기 위치로부터 상기 사용자 영상에 포함된 이동객체의 이격거리를 기초로 상기 카메라의 전진을 제어하고,
상기 제어부는,
상기 카메라의 전진량과 비례하여 상기 디스플레이에서 출력되는 콘텐츠의 확대량을 제어하는,
드라이브 스루 공간터치 시스템.
In the drive-through space touch system provided in a store so that a user can shop through a drive-through using a transportation means,
a display for outputting predetermined content;
a camera for acquiring a user image of a user including depth information;
A control unit for controlling the display based on a position on the control unit of a preset user included in the user image so that the content output through the display is different;
The camera is
Advances based on the display,
The control unit is
Controlling the advance of the camera based on the separation distance of the moving object included in the user image from the preset initial position,
The control unit is
Controlling the amount of magnification of the content output from the display in proportion to the advance amount of the camera,
Drive-thru space touch system.
삭제delete 삭제delete 제1항에 있어서,
상기 제어부는,
상기 기 설정된 초기 위치로부터 상기 사용자 영상에 포함된 상기 이동객체 중 상기 제어부위의 이격거리를 기초로 상기 카메라의 전진을 제어하는,
드라이브 스루 공간터치 시스템.
According to claim 1,
The control unit is
Controlling the advance of the camera based on the separation distance on the control unit among the moving objects included in the user image from the preset initial position,
Drive-thru space touch system.
사용자가 이동수단을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 매장에 제공되는 드라이브 스루 공간터치 시스템에 있어서,
소정의 콘텐츠를 출력하는 디스플레이;
깊이 정보를 포함하는 사용자에 대한 사용자 영상을 획득하는 카메라;
상기 디스플레이를 통해 출력되는 콘텐츠가 달라지도록, 상기 사용자 영상에 포함된 기 설정된 사용자의 제어부위의 위치를 기초로 상기 디스플레이를 제어하는 제어부;를 포함하며,
상기 카메라는,
상기 디스플레이를 기준으로 전진되며,
상기 제어부는,
기 설정된 초기 위치로부터 상기 사용자 영상에 포함된 이동객체의 이격거리를 기초로 상기 카메라의 전진을 제어하며,
상기 제어부는,
상기 이동수단의 위치변화량이 기 설정된 위치변화량 이하인 경우,
상기 기 설정된 초기 위치로부터 상기 이동객체의 이격거리를 기초로 상기 카메라의 전진을 제어하고,
상기 이동수단의 위치변화량이 기 설정된 위치변화량 초과인 경우,
상기 이동객체의 이격거리를 무시하여 상기 카메라의 전진을 제어하지 않는,
드라이브 스루 공간터치 시스템.
In the drive-through space touch system provided in a store so that a user can shop through a drive-through using a transportation means,
a display for outputting predetermined content;
a camera for acquiring a user image of a user including depth information;
A control unit for controlling the display based on a position on the control unit of a preset user included in the user image so that the content output through the display is different;
The camera is
Advances based on the display,
The control unit is
Controlling the advance of the camera based on the separation distance of the moving object included in the user image from a preset initial position,
The control unit is
When the amount of change in position of the moving means is less than or equal to the preset amount of change in position,
Controlling the advance of the camera based on the separation distance of the moving object from the preset initial position,
When the amount of change in position of the moving means exceeds a preset amount of change in position,
It does not control the advance of the camera by ignoring the separation distance of the moving object,
Drive-thru space touch system.
삭제delete 사용자가 이동수단을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 매장에 제공되는 드라이브 스루 공간터치 시스템에 있어서,
소정의 콘텐츠를 출력하는 디스플레이;
깊이 정보를 포함하는 사용자에 대한 사용자 영상을 획득하는 카메라;
상기 디스플레이를 통해 출력되는 콘텐츠가 달라지도록, 상기 사용자 영상에 포함된 기 설정된 사용자의 제어부위의 위치를 기초로 상기 디스플레이를 제어하는 제어부;를 포함하며,
상기 카메라는,
상기 디스플레이를 기준으로 전진되며,
상기 제어부는,
기 설정된 초기 위치로부터 상기 사용자 영상에 포함된 이동객체의 이격거리를 기초로 상기 카메라의 전진을 제어하며,
상기 제어부는,
현 시점으로부터 가장 최근의 쇼핑을 완료한 상기 카메라의 위치에 기초하여 상기 기 설정된 초기 위치를 설정하고,
상기 제어부는,
현 시점으로부터 가장 최근의 쇼핑을 완료한 시점부터 경과 시간을 산출하고,
상기 경과 시간이 기 설정된 시간 미만인 경우 현 시점으로부터 가장 최근의 쇼핑을 완료한 상기 카메라의 위치를 상기 기 설정된 초기 위치로 설정하고,
상기 경과 시간이 상기 기 설정된 시간 이상인 경우 기 설정된 세팅 위치로 상기 카메라를 이동시킨 후 상기 기 설정된 세팅 위치를 상기 기 설정된 초기 위치로 설정하는,
드라이브 스루 공간터치 시스템.
In the drive-through space touch system provided in a store so that a user can shop through a drive-through using a transportation means,
a display for outputting predetermined content;
a camera for acquiring a user image of a user including depth information;
A control unit for controlling the display based on a position on the control unit of a preset user included in the user image so that the content output through the display is different;
The camera is
Advances based on the display,
The control unit is
Controlling the advance of the camera based on the separation distance of the moving object included in the user image from a preset initial position,
The control unit is
setting the preset initial position based on the position of the camera that has completed the most recent shopping from the current time,
The control unit is
Calculate the elapsed time from the time of completing the most recent shopping from the current time,
When the elapsed time is less than a preset time, the position of the camera that has completed the most recent shopping from the current time is set as the preset initial position,
When the elapsed time is equal to or longer than the preset time, moving the camera to a preset setting position and then setting the preset setting position to the preset initial position,
Drive-thru space touch system.
제7항에 있어서,
상기 제어부는,
쇼핑을 완료한 시점과 차회의 쇼핑을 시작하는 시점간의 시간을 기초로 상기 기 설정된 시간을 설정하는,
드라이브 스루 공간터치 시스템.
8. The method of claim 7,
The control unit is
Setting the preset time based on the time between the time when shopping is completed and the time when the next shopping starts,
Drive-thru space touch system.
제1항, 제4항, 제5항, 제7항 내지 제8항 중 어느 한 항에 따른 드라이브 스루 공간터치 시스템을 이용하여 드라이브 스루(drive-through)를 통해 쇼핑이 가능하도록 하는 드라이브 스루 공간터치 방법.
Drive-through space using the drive-through space touch system according to any one of claims 1, 4, 5, 7 to 8 to enable shopping through drive-through touch method.
KR1020210019938A 2021-02-15 2021-02-15 Space touch system and method for providing drive-through service KR102419507B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210019938A KR102419507B1 (en) 2021-02-15 2021-02-15 Space touch system and method for providing drive-through service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210019938A KR102419507B1 (en) 2021-02-15 2021-02-15 Space touch system and method for providing drive-through service

Publications (1)

Publication Number Publication Date
KR102419507B1 true KR102419507B1 (en) 2022-07-12

Family

ID=82419753

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210019938A KR102419507B1 (en) 2021-02-15 2021-02-15 Space touch system and method for providing drive-through service

Country Status (1)

Country Link
KR (1) KR102419507B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012177992A (en) * 2011-02-25 2012-09-13 Fujitsu Frontech Ltd Information code reader and information code read method
JP5994019B2 (en) * 2013-03-22 2016-09-21 株式会社スクウェア・エニックス Video game processing apparatus, video game processing method, and video game processing program
JP2020025170A (en) * 2018-08-06 2020-02-13 シャープ株式会社 Information processing unit, detection method, control program, and recording medium
KR20200055532A (en) * 2018-11-13 2020-05-21 효성티앤에스 주식회사 A virtual keyboard module applied to a drive-thru ATM and the ATM equipped with the same
KR102140927B1 (en) * 2020-02-11 2020-08-04 주식회사 베오텍 Method and for space touch

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012177992A (en) * 2011-02-25 2012-09-13 Fujitsu Frontech Ltd Information code reader and information code read method
JP5994019B2 (en) * 2013-03-22 2016-09-21 株式会社スクウェア・エニックス Video game processing apparatus, video game processing method, and video game processing program
JP2020025170A (en) * 2018-08-06 2020-02-13 シャープ株式会社 Information processing unit, detection method, control program, and recording medium
KR20200055532A (en) * 2018-11-13 2020-05-21 효성티앤에스 주식회사 A virtual keyboard module applied to a drive-thru ATM and the ATM equipped with the same
KR102140927B1 (en) * 2020-02-11 2020-08-04 주식회사 베오텍 Method and for space touch

Similar Documents

Publication Publication Date Title
US10845871B2 (en) Interaction and management of devices using gaze detection
CN106406710B (en) Screen recording method and mobile terminal
US8627235B2 (en) Mobile terminal and corresponding method for assigning user-drawn input gestures to functions
KR101541561B1 (en) User interface device, user interface method, and recording medium
US10990226B2 (en) Inputting information using a virtual canvas
US20120229509A1 (en) System and method for user interaction
KR20170121719A (en) Method and device for providing user interface in the virtual reality space and recordimg medium thereof
JP2010541398A (en) Enhanced interface for voice and video communication
CN107643884B (en) Method and system for interaction between at least two computers and a screen
US20200142495A1 (en) Gesture recognition control device
US20150139483A1 (en) Interactive Controls For Operating Devices and Systems
US20170214856A1 (en) Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device
CN106909256A (en) Screen control method and device
CN110868632B (en) Video processing method and device, storage medium and electronic equipment
KR102419507B1 (en) Space touch system and method for providing drive-through service
CN210405494U (en) Video control system capable of being movably controlled
KR20220093091A (en) Labeling method and apparatus, electronic device and storage medium
KR102414378B1 (en) Space touch system and method for providing drive-through service
CN113534957B (en) Single-hand control method and device and mobile terminal
JP6187547B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
KR102617269B1 (en) System and method for providing contents within a smartphone
CN114783432A (en) Playing control method of intelligent glasses, intelligent glasses and storage medium
CN114116106A (en) Chart display method and device, electronic equipment and storage medium
CN107153448A (en) Display module and its control method, electronic equipment and computer-readable recording medium
KR101909140B1 (en) Mobile terminal and method for controlling of the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant