KR102426071B1 - Artificial intelligence based gaze recognition device and method, and unmanned information terminal using the same - Google Patents
Artificial intelligence based gaze recognition device and method, and unmanned information terminal using the same Download PDFInfo
- Publication number
- KR102426071B1 KR102426071B1 KR1020210095701A KR20210095701A KR102426071B1 KR 102426071 B1 KR102426071 B1 KR 102426071B1 KR 1020210095701 A KR1020210095701 A KR 1020210095701A KR 20210095701 A KR20210095701 A KR 20210095701A KR 102426071 B1 KR102426071 B1 KR 102426071B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- gaze
- virtual keypad
- size
- virtual
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0633—Lists, e.g. purchase orders, compilation or processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F17/00—Coin-freed apparatus for hiring articles; Coin-freed facilities or services
- G07F17/40—Coin-freed apparatus for hiring articles; Coin-freed facilities or services for devices for accepting orders, advertisements, or the like
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Abstract
Description
본 발명의 실시예들은 인공지능 기반 시선 인식 장치 및 방법과 이를 이용한 무인 정보 단말기와 관련된다.Embodiments of the present invention relate to an artificial intelligence-based gaze recognition apparatus and method and an unmanned information terminal using the same.
사용자 및 사업주의 편의를 위해 음식점, 약국, 오프라인 쇼핑몰 등 다양한 장소에 무인 키오스크를 배치시켜 직원이 상주하지 않아도 상품 정보 제공 및 결제를 비롯한 관련 서비스 제공이 이루어질 수 있도록 하고 있다.For the convenience of users and business owners, unmanned kiosks are placed in various places, such as restaurants, pharmacies, and offline shopping malls, so that product information and related services, including payment, can be provided even without employees.
한편, 인공지능 기반 기술 및 무선통신 기술이 발달함에 따라, 무인 키오스크를 이용하는 사용자들에게도 보다 양질의 서비스를 제공하기 위한 방법이 모색되고 있는 실정이다.Meanwhile, with the development of artificial intelligence-based technology and wireless communication technology, a method for providing a higher quality service to users using an unmanned kiosk is being sought.
본 발명의 실시예들은 사용자가 비접촉 상태에서 각종 콘텐츠 서비스를 제공받을 수 있도록 사용자의 시선을 인식하기 위한 인공지능 기반 시선 인식 장치 및 방법과 이를 이용한 무인 정보 단말기를 제공하기 위한 것이다.SUMMARY Embodiments of the present invention are to provide an artificial intelligence-based gaze recognition apparatus and method for recognizing a user's gaze so that the user can receive various content services in a non-contact state, and an unmanned information terminal using the same.
본 발명의 예시적인 실시예에 따르면, 인공지능 기반 시선 인식 장치는 안면 이미지와 이에 매칭되는 생체정보를 포함하는 복수의 사용자 안면 정보를 수집하여 안면 빅 데이터를 축적하도록 하는 데이터 수집부; 축적된 상기 안면 빅 데이터를 기 설정된 조건에 따라 패턴인식, 분류 및 연관성 연계 중 적어도 하나 이상을 포함하는 학습 처리를 수행하여 사용자의 시선을 인식하기 위한 인공 신경망 모델을 생성하는 학습 처리부; 사용자의 접근, 사용자의 생체 프로필, 사용자와의 이격 거리 또는 사용자의 시선 이동을 인식하는데 요구되는 정보를 감지하기 위한 감지 센서; 및 상기 감지 센서로부터 촬영된 사용자의 안면 이미지를 수신하면, 이를 상기 인공 신경망 모델에 적용하여 사용자의 두 눈동자를 파악하고 파악된 상기 두 눈동자 사이의 중심을 눈 위치로 간주하여 제1 영점으로 설정하고, 상기 제1 영점을 중심 좌표로 하는 중심 영역 및 상기 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성하는 제어부를 포함한다.According to an exemplary embodiment of the present invention, an artificial intelligence-based gaze recognition apparatus includes: a data collection unit configured to collect a plurality of user facial information including a facial image and biometric information matching it to accumulate facial big data; a learning processing unit for generating an artificial neural network model for recognizing a user's gaze by performing a learning process including at least one of pattern recognition, classification, and association linkage on the accumulated facial big data according to a preset condition; a detection sensor for sensing information required to recognize a user's approach, a user's biometric profile, a separation distance from the user, or a movement of the user's gaze; and when receiving the user's face image taken from the detection sensor, it is applied to the artificial neural network model to identify the user's two pupils, and the center between the two identified pupils is regarded as the eye position and set as the first zero point, , a control unit for generating a virtual keypad including a central region having the first zero point as a central coordinate and a plurality of border regions adjacent to the central region.
상기 제어부는, 상기 중심 좌표에 가상 커서(virtual cursor)가 위치하도록 하고, 상기 감지 센서로부터 사용자의 신규 안면 이미지를 획득하면, 상기 사용자의 신규 안면 이미지를 상기 인공 신경망 모델에 적용하여 사용자의 시선을 추적하고, 추적 결과 상기 눈 위치의 변경을 인지하면 사용자의 시선 이동 이벤트를 발생시켜 상기 가상 키패드 상에서 상기 중심 좌표에 위치하는 상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시킬 수 있다.The control unit places a virtual cursor at the central coordinates, and when a new facial image of the user is obtained from the detection sensor, the user's gaze is obtained by applying the new facial image of the user to the artificial neural network model. Upon tracking and recognizing a change in the eye position as a result of tracking, a user's gaze movement event may be generated to move the virtual cursor located at the central coordinate on the virtual keypad to the user's gaze movement position.
상기 제어부는, 상기 감지 센서로부터 상기 사용자와의 이격거리를 획득하고, 획득된 상기 사용자와의 이격거리를 기초로 상기 가상 키패드의 사이즈를 설정 사이즈로 조정할 수 있다.The control unit may obtain a separation distance from the user from the detection sensor, and adjust the size of the virtual keypad to a set size based on the obtained separation distance from the user.
상기 제어부는, 상기 사용자와의 이격거리가 멀수록 상기 가상 키패드의 사이즈가 기 설정된 비율로 작아지도록 조정할 수 있다.The controller may adjust the size of the virtual keypad to decrease at a preset ratio as the distance from the user increases.
상기 제어부는, 상기 가상 키패드의 사이즈를 조정할 때, 상기 가상 키패드에 포함되는 상기 중심 영역 및 상기 복수의 테두리 영역 각각의 소단위 사이즈 또는 상기 가상 키패드의 전체 사이즈가 기 설정된 비율에 따라 조정되도록 제어할 수 있다.When the size of the virtual keypad is adjusted, the control unit may control the subunit size of each of the central region and the plurality of edge regions included in the virtual keypad or the overall size of the virtual keypad to be adjusted according to a preset ratio. have.
상기 제어부는, 상기 가상 키패드의 사이즈가 상기 설정 사이즈를 기초로 기 설정된 비율로 조정될 때, 상기 가상 키패드의 가상 커서를 상기 가상 키패드의 사이즈 조정 비율에 대응되는 거리만큼 이동시킬 수 있다.When the size of the virtual keypad is adjusted at a preset ratio based on the set size, the controller may move the virtual cursor of the virtual keypad by a distance corresponding to the size adjustment ratio of the virtual keypad.
상기 제어부는, 상기 가상 키패드 상의 상기 제1 영점을 상기 사용자의 시선 이동 위치에 대응되는 제2 영점으로 재 설정하고, 상기 제2 영점을 중심 좌표로 하는 중심 영역을 형성하고, 형성된 상기 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성할 수 있다.The control unit resets the first zero point on the virtual keypad to a second zero point corresponding to a movement position of the user's gaze, forms a center area using the second zero point as a center coordinate, and selects the formed center area A virtual keypad including a plurality of adjacent border regions may be generated as a reference.
상기 감지 센서는, 상기 사용자의 접근, 상기 사용자와의 이격 거리, 상기 사용자의 생체 프로필 또는 상기 사용자의 시선 이동을 인식하기 위한 초음파 센서, 적외선 센서, 레이저 센서 및 위치 감지 센서를 포함하는 근거리 무선 감지 센서, 접근 인식 센서, IOT(internet of things) 센서, 및 영상 촬영기 중 적어도 하나 이상을 포함할 수 있다.The detection sensor includes an ultrasonic sensor, an infrared sensor, a laser sensor, and a position detection sensor for recognizing the user's approach, the separation distance from the user, the user's bio-profile or the user's gaze movement It may include at least one of a sensor, an approach recognition sensor, an Internet of things (IOT) sensor, and an image capturer.
본 발명의 예시적인 실시예에 따르면, 인공지능 기반 시선 인식 방법은 안면 이미지와 이에 매칭되는 생체정보를 포함하는 복수의 사용자 안면 정보를 수집하여 안면 빅 데이터를 축적하는 단계; 축적된 상기 안면 빅 데이터를 기 설정된 조건에 따라 패턴인식, 분류 및 연관성 연계 중 적어도 하나 이상을 포함하는 학습 처리를 수행하여 사용자의 시선 인식을 위한 인공 신경망 모델을 생성하는 단계; 촬영된 사용자의 안면 이미지를 상기 인공 신경망 모델에 적용하여 사용자의 두 눈동자를 파악하고 파악된 상기 두 눈동자 사이의 중심을 눈 위치로 간주하여 제1 영점으로 설정하는 단계; 및 상기 제1 영점을 중심 좌표로 하는 중심 영역 및 상기 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성하는 단계를 포함한다.According to an exemplary embodiment of the present invention, an AI-based gaze recognition method includes: accumulating facial big data by collecting a plurality of user facial information including a facial image and matching biometric information; generating an artificial neural network model for recognizing a user's gaze by performing a learning process including at least one of pattern recognition, classification, and association linkage on the accumulated facial big data according to a preset condition; applying the photographed facial image of the user to the artificial neural network model to identify the user's two pupils, and setting the center between the two identified pupils as the eye position as a first zero point; and generating a virtual keypad including a central region having the first zero point as a central coordinate and a plurality of border regions adjacent to the central region.
상기 인공지능 기반 시선 인식 방법은, 상기 가상 키패드를 생성하는 단계에서, 상기 중심 좌표에 가상 커서(virtual cursor)를 위치시키고, 상기 가상 키패드를 생성하는 단계 이후에, 사용자의 신규 안면 이미지를 획득하면, 이를 상기 인공 신경망 모델에 적용하여 상기 사용자의 시선을 추적하는 단계; 추적 결과 상기 눈 위치의 변경을 인지하면 사용자의 시선 이동 이벤트를 발생시키는 단계; 및 상기 가상 키패드 상에서 상기 중심 좌표에 위치하는 상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시키는 단계를 더 포함할 수 있다.In the artificial intelligence-based gaze recognition method, in the step of generating the virtual keypad, a virtual cursor is positioned at the central coordinates, and after the step of generating the virtual keypad, a new facial image of the user is obtained , applying this to the artificial neural network model to track the gaze of the user; generating a user's gaze movement event upon recognizing a change in the eye position as a result of tracking; and moving the virtual cursor positioned at the central coordinates on the virtual keypad to a movement position of the user's gaze.
상기 가상 키패드를 생성하는 단계는, 상기 사용자와의 이격거리를 획득하는 단계; 및 획득된 상기 사용자와의 이격거리를 기초로 상기 가상 키패드의 사이즈를 설정 사이즈로 조정하는 단계를 더 포함할 수 있다.The generating of the virtual keypad may include: obtaining a separation distance from the user; and adjusting the size of the virtual keypad to a set size based on the obtained separation distance from the user.
상기 인공지능 기반 시선 인식 방법은, 상기 가상 키패드의 사이즈를 설정 사이즈로 조정하는 단계에서, 상기 사용자와의 이격거리가 멀수록 상기 가상 키패드의 사이즈가 기 설정된 비율로 작아지도록 조정할 수 있다.In the artificial intelligence-based gaze recognition method, in the step of adjusting the size of the virtual keypad to a preset size, as the distance from the user increases, the size of the virtual keypad may be adjusted to decrease at a preset ratio.
상기 인공지능 기반 시선 인식 방법은, 상기 가상 키패드의 사이즈를 설정 사이즈로 조정하는 단계에서, 상기 가상 키패드에 포함되는 상기 중심 영역 및 상기 복수의 테두리 영역 각각의 소단위 사이즈 또는 상기 가상 키패드의 전체 사이즈를 기 설정된 비율에 따라 조정할 수 있다.In the artificial intelligence-based gaze recognition method, in the step of adjusting the size of the virtual keypad to a set size, the subunit size of each of the central region and the plurality of edge regions included in the virtual keypad or the entire size of the virtual keypad It can be adjusted according to a preset ratio.
상기 인공지능 기반 시선 인식 방법은, 상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시키는 단계에서, 상기 가상 키패드의 가상 커서를 상기 가상 키패드의 사이즈 조정 비율에 대응되는 거리만큼 이동시킬 수 있다.In the AI-based gaze recognition method, in moving the virtual cursor to the user's gaze movement position, the virtual cursor of the virtual keypad may be moved by a distance corresponding to a size adjustment ratio of the virtual keypad.
상기 인공지능 기반 시선 인식 방법은, 상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시키는 단계 이후에, 상기 가상 키패드 상의 상기 제1 영점을 상기 사용자의 시선 이동 위치에 대응되는 제2 영점으로 재 설정하는 단계; 및 상기 제2 영점을 중심 좌표로 하는 중심 영역을 형성하고, 형성된 상기 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 재 생성하는 단계를 더 포함할 수 있다.The artificial intelligence-based gaze recognition method resets the first zero point on the virtual keypad to a second zero point corresponding to the user's gaze movement position after moving the virtual cursor to the user's gaze movement position to do; and forming a central region having the second zero point as a central coordinate, and re-creating a virtual keypad including a plurality of adjacent edge regions based on the formed central region.
상기 사용자와의 이격거리는, 상기 사용자와의 이격거리를 감지하는 거리 인식 센서의 위치로부터 상기 사용자 간의 이격거리이거나, 또는 상기 사용자의 안면 이미지를 촬영하는 영상 촬영기의 위치로부터 상기 사용자 간의 이격거리일 수 있다.The separation distance from the user may be a separation distance between the users from a location of a distance recognition sensor that detects the separation distance from the user, or a separation distance between the users from a location of an imager capturing the user's face image. have.
본 발명의 예시적인 실시예에 따르면, 인공지능을 이용한 무인 정보 단말기는, 사용자의 안면 이미지를 획득하면, 상기 사용자의 안면 이미지로부터 사용자의 두 눈동자를 파악하고 파악된 상기 두 눈동자 사이의 중심을 눈 위치로 간주하여 제1 영점으로 설정하고, 상기 제1 영점을 중심 좌표로 하는 중심 영역 및 상기 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성하는 시선 인식 모듈; 및 미디어 정보, 상품 리스트 및 온오프라인 쇼핑몰 정보 중 적어도 하나 이상을 포함하는 콘텐츠를 상기 가상 키패드의 영역별 위치에 대응되는 복수의 영역을 포함하는 디스플레이 상에 출력하되, 상기 시선 인식 모듈을 통해 파악된 사용자의 시선에 따라 이동하는 상기 가상 커서를 기초로 해당 콘텐츠를 출력하는 무인 정보 제공 모듈을 포함할 수 있다.According to an exemplary embodiment of the present invention, when the unmanned information terminal using artificial intelligence acquires the user's face image, the user's two pupils are identified from the user's face image and the center between the two identified pupils is the eye a gaze recognition module that sets a first zero point to be regarded as a position, and generates a virtual keypad including a central region having the first zero point as a central coordinate and a plurality of border regions adjacent to the central region; and outputting content including at least one of media information, product list, and online/offline shopping mall information on a display including a plurality of regions corresponding to positions of each region of the virtual keypad, but identified through the gaze recognition module It may include an unattended information providing module that outputs the corresponding content based on the virtual cursor moving according to the user's gaze.
상기 시선 인식 모듈은, 상기 중심 좌표에 가상 커서(virtual cursor)를 위치시키며, 사용자의 신규 안면 이미지에서 상기 사용자의 시선을 추적하고, 추적 결과 상기 눈 위치의 변경을 인지하면 사용자의 시선 이동 이벤트를 발생시켜 상기 가상 키패드 상에서 상기 중심 좌표에 위치하는 상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시킬 수 있다.The gaze recognition module places a virtual cursor in the central coordinates, tracks the gaze of the user in a new facial image of the user, and detects a gaze movement event of the user when recognizing a change in the eye position as a result of tracking generated to move the virtual cursor located at the central coordinates on the virtual keypad to a position where the user's gaze moves.
상기 무인 정보 제공 모듈은, 상기 가상 커서의 위치 이동에 대응되는 콘텐츠 관련 서비스를 제공할 수 있다.The unattended information providing module may provide a content-related service corresponding to the movement of the virtual cursor.
본 발명의 예시적인 실시예에 따르면, 사용자의 얼굴을 비롯한 생체 이미지 정보를 인공 신경망 모델에 적용함에 따라 사용자의 시선을 인식하고, 이를 기초로 각종 콘텐츠 및 관련 서비스를 비접촉 방식으로 제공할 수 있다는 효과를 기대할 수 있다.According to an exemplary embodiment of the present invention, when biometric image information including the user's face is applied to the artificial neural network model, the user's gaze is recognized, and various contents and related services can be provided in a non-contact manner based on this. can be expected
또한, 본 발명의 실시예들에 따르면, 불특정 다수가 접촉할 수 있는 단말기를 비접촉 방식에 따라 조작할 수 있기 때문에, 감염 예방 등을 비롯하여 공중 위생을 청결한 상태로 유지할 수 있다는 것이다.In addition, according to embodiments of the present invention, since a terminal that can be contacted by an unspecified number can be operated according to a non-contact method, it is possible to keep public hygiene in a clean state, including prevention of infection.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반 시선 인식 장치를 설명하기 위한 블록도
도 2는 본 발명의 일 실시예에 따른 인공지능 기반 무인 정보 단말기를 설명하기 위한 블록도
도 3 내지 도 7은 본 발명의 일 실시예에 따른 가상 키패드 생성 방법을 설명하기 위한 예시도
도 8 내지 도 9는 본 발명의 일 실시예에 따른 가상 키패드의 사이즈 조절 방법을 설명하기 위한 예시도
도 10은 본 발명의 일 실시예에 따른 인공지능 기반 무인 정보 단말기, 주문 관리 서버 및 콘텐츠 서비스 서버 간의 연결 관계를 설명하기 위한 블록도
도 11은 본 발명의 일 실시예에 따른 인공지능 기반 시선 인식 방법을 설명하기 위한 흐름도
도 12는 본 발명의 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도1 is a block diagram illustrating an artificial intelligence-based gaze recognition apparatus according to an embodiment of the present invention;
2 is a block diagram illustrating an artificial intelligence-based unmanned information terminal according to an embodiment of the present invention;
3 to 7 are exemplary views for explaining a method for generating a virtual keypad according to an embodiment of the present invention;
8 to 9 are exemplary views for explaining a method for adjusting the size of a virtual keypad according to an embodiment of the present invention;
10 is a block diagram illustrating a connection relationship between an artificial intelligence-based unmanned information terminal, an order management server, and a content service server according to an embodiment of the present invention;
11 is a flowchart illustrating an AI-based gaze recognition method according to an embodiment of the present invention;
12 is a block diagram illustrating and explaining a computing environment including a computing device according to an embodiment of the present invention;
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The following detailed description is provided to provide a comprehensive understanding of the methods, apparatus, and/or systems described herein. However, this is merely an example and the present invention is not limited thereto.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments of the present invention, if it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification. The terminology used in the detailed description is for the purpose of describing embodiments of the present invention only, and should in no way be limiting. Unless explicitly used otherwise, expressions in the singular include the meaning of the plural. In this description, expressions such as “comprising” or “comprising” are intended to indicate certain features, numbers, steps, acts, elements, some or a combination thereof, one or more other than those described. It should not be construed to exclude the presence or possibility of other features, numbers, steps, acts, elements, or any part or combination thereof.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반 시선 인식 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating an artificial intelligence-based gaze recognition apparatus according to an embodiment of the present invention.
이하에서는, 본 발명의 일 실시예에 따른 가상 키패드 생성 방법을 설명하기 위한 예시도인 도 3 내지 도 7 및 본 발명의 일 실시예에 따른 가상 키패드의 사이즈 조절 방법을 설명하기 위한 예시도인 도 8 내지 도 9를 참조하여 설명하기로 한다.Hereinafter, FIGS. 3 to 7 are exemplary diagrams for explaining a method for generating a virtual keypad according to an embodiment of the present invention, and an exemplary diagram for explaining a method for adjusting the size of a virtual keypad according to an embodiment of the present invention It will be described with reference to FIGS. 8 to 9 .
도 1을 참고하면, 인공지능 기반 시선 인식 장치(이하에서는 '시선 인식 장치'라고 하기로 함)(100)는 네트워크 통신 인터페이스(110), 입출력 인터페이스(120), 데이터 수집부(130), 감지 센서(140), 학습 처리부(150), 디스플레이(160), 저장 장치(170) 및 제어부(180)를 포함할 수 있다.Referring to FIG. 1 , an artificial intelligence-based gaze recognition device (hereinafter referred to as a 'gaze recognition device') 100 includes a
보다 상세히 설명하면, 네트워크 통신 인터페이스(110)는 후술하는 주문 관리 서버(300) 및 콘텐츠 서비스 서버(400)를 비롯한 외부 장치와 정보 송수신을 위한 통신을 수행하기 위한 구성일 수 있다.In more detail, the
입출력 인터페이스(120)는 하나 이상의 입출력 장치(예를 들어, 디스플레이(160))를 위한 인터페이스를 제공하는 구성으로서, 하나 이상 구현될 수 있다.The input/output interface 120 is a configuration that provides an interface for one or more input/output devices (eg, the display 160 ), and may be implemented with one or more.
데이터 수집부(130)는 안면 이미지와 이에 매칭되는 생체정보를 포함하는 복수의 사용자 안면 정보를 수집하여 안면 빅 데이터를 축적하도록 할 수 있다. 이때, 빅 데이터(big data)는 디지털 환경에서 생성되는 데이터로 그 규모가 방대하고, 생성 주기도 짧고, 형태도 수치 데이터뿐 아니라 문자와 영상 데이터를 포함하는 대규모 데이터를 의미하는 것으로서, 본 발명의 실시예에서는 후술하는 인공 신경망 모델을 생성하기 위해 감지 센서(140)를 통해 감지되어 수집되는 정보뿐만 아니라 주문 관리 서버(300) 및 콘텐츠 서비스 서버(400)를 비롯하여 각종 외부 장치로부터 수집되는 정보를 포함할 수 있다. 이에 한정되지 않고, 빅 데이터는 운용자에 의해서 임의로 입력되는 정보를 포함하는 것 역시 가능하다 할 것이다. The
감지 센서(140)는 사용자의 접근, 사용자의 생체 프로필, 사용자와의 이격 거리 또는 사용자의 시선 이동을 인식하는데 요구되는 정보를 감지하기 위한 구성일 수 있다.The
도 1에서 도시하는 바와 같이, 감지 센서(140)는 사용자의 접근을 인식하기 위한 접근 인식 센서, 사용자의 생체 프로필을 파악하기 위한 사용자의 얼굴을 비롯한 생체 이미지를 촬영하기 위한 영상 촬영기, 인식된 사용자와의 이격 거리를 감지하기 위한 거리 인식 센서를 포함할 수 있다.As shown in FIG. 1 , the
한편, 감지 센서(140)는 사용자의 접근, 사용자와의 이격 거리, 사용자의 생체 프로필 또는 사용자의 시선 이동을 인식하기 위한 초음파 센서, 적외선 센서, 레이저 센서 및 위치 감지 센서를 포함하는 근거리 무선 감지 센서, 접근 인식 센서, IOT(internet of things) 센서, 및 영상 촬영기 중 적어도 하나 이상을 포함할 수 있으며, 이에 한정되지 않는다.On the other hand, the
학습 처리부(150)는 축적된 안면 빅 데이터를 기 설정된 조건에 따라 패턴인식, 분류 및 연관성 연계 중 적어도 하나 이상을 포함하는 학습 처리를 수행하여 사용자의 시선을 인식하기 위한 인공 신경망 모델을 생성할 수 있다.The
이때, 인공 신경망 모델은 사용자로부터 감지되는 생체 이미지를 비롯한 관련 정보를 이용하여 사용자가 특정 메뉴를 물리적으로 선택하지 않아도 사용자의 시선 인식을 통해 비접촉 방식으로 서비스를 제공받을 수 있도록 하기 위한 것일 수 있다. 즉, 본 실시예는 인식되는 사용자의 시선을 특정 메뉴를 선택하는 수단으로 활용할 수 있는 것이다.In this case, the artificial neural network model may be used to provide a service in a non-contact manner through the user's gaze recognition even if the user does not physically select a specific menu by using related information including a biometric image sensed by the user. That is, the present embodiment can utilize the recognized user's gaze as a means for selecting a specific menu.
디스플레이(160)는 시선 인식 장치(100)와 관련된 각종 정보를 표시하여 사용자가 확인할 수 있도록 할 수 있다.The
저장 장치(170)는 수집하여 축적된 안면 빅 데이터 및 인공 신경망 모델을 비롯하여 시선 인식 장치(100)와 관련된 각종 정보를 저장할 수 있다. The
제어부(180)는 감지 센서(140)로부터 촬영된 사용자의 안면 이미지를 수신하면, 이를 인공 신경망 모델에 적용하여 사용자의 두 눈동자를 파악하고 파악된 두 눈동자 사이의 중심을 눈 위치로 간주하여 제1 영점으로 설정할 수 있다.When the
도 3을 참고하면, 제어부(180)는 사용자의 안면 이미지에서 사용자의 두 눈동자를 파악하고, 두 눈동자 사이의 중심 C를 눈 위치로 판단하여 영점으로 설정할 수 있는 것이다.Referring to FIG. 3 , the
상기 눈 위치는 사용자가 응시하는 시선을 판단하기 위한 기준위치로, 실시간으로 획득되는 안면 이미지로부터 눈 위치를 파악하고, 이에 변경이 발생하는 경우 사용자의 시선 이동이 발생하였다고 판단할 수 있는 것이다.The eye position is a reference position for determining the gaze the user is gazing at. The eye position is recognized from the face image acquired in real time, and when the change occurs, it can be determined that the user's gaze movement has occurred.
제어부(180)는 제1 영점을 중심 좌표로 하는 중심 영역 및 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성할 수 있다. 이때, 제어부(180)는 중심 좌표에 가상 커서(virtual cursor)가 위치하도록 할 수 있다.The
도 4 및 도 5를 참고하면, 제어부(180)는 제1 영점을 중심 좌표로 하여 중심 영역(0영역)을 설정하고, 이에 인접하게 테두리 영역(1영역, 2영역, 3영역, 4영역, 5영역, 6영역, 7영역 및 8영역)을 포함하여 가상 키패드를 생성할 수 있다. 이때, 가상 커서는 0영역에 위치할 수 있다.4 and 5 , the
제어부(180)는 감지 센서(140)로부터 사용자의 신규 안면 이미지를 획득하면, 사용자의 신규 안면 이미지를 인공 신경망 모델에 적용하여 사용자의 시선을 추적하고, 추적 결과 상기 눈 위치의 변경을 인지하면 사용자의 시선 이동 이벤트를 발생시켜 상기 가상 키패드 상에서 상기 중심 좌표에 위치하는 상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시킬 수 있다.When the
제어부(180)는 가상 키패드 상의 제1 영점을 사용자의 시선 이동 위치에 대응되는 제2 영점으로 재 설정하고, 제2 영점을 중심 좌표로 하는 중심 영역을 형성하며, 형성된 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성할 수 있다.The
도 6을 참고하면, 제어부(180)는 신규 안면 이미지를 통해 사용자의 눈 위치가 0영역에서 4영역으로 변경되었음을 인지할 수 있고, 이러한 경우 사용자 시선 이동 이벤트를 발생시킬 수 있다. 이때, 제어부(180)는 사용자의 시선 이동에 따라 0영역에 위치하는 가상 커서를 4영역으로 이동시킬 수 있다.Referring to FIG. 6 , the
도 7을 참고하면, 제어부(180)는 사용자의 눈 위치가 이동한 도 6의 4영역을 신규 영점인 제2 영점으로 설정하고, 제2 영점을 중심 좌표로 하여 중심 영역으로 설정하고, 중심 영역에 인접하게 테두리 영역을 형성하여 가상 키패드를 재 설정할 수 있다. 제어부(180)는 사용자의 시선 이동이 발생하면, 가상 커서를 사용자의 시선 이동 위치로 이동시킨 후, 영점을 이전 영점(제1 영점)에서 사용자의 시선 이동 위치인 신규 영점(제2 영점)로 변경하고, 이를 기초로 가상 키패드를 재 설정할 수 있다. 즉, 제어부(180)는 사용자 시선 이동 이벤트가 발생할 때마다 가상 키패드를 재 형성할 수 있는 것이다.Referring to FIG. 7 , the
제어부(180)는 감지 센서(140)로부터 사용자와의 이격거리를 획득하고, 획득된 사용자와의 이격거리를 기초로 가상 키패드의 사이즈를 설정 사이즈로 조정할 수 있다.The
제어부(180)는 사용자와의 이격거리가 멀수록 가상 키패드의 사이즈가 기 설정된 비율로 작아지도록 조정할 수 있다.The
도 8 및 도 9를 참조하면, 사용자가 감지 센서(140)로부터 D1만큼 이격된 위치에 서 있는 경우, 제어부(180)는 도 9의 D1와 같은 크기의 가상 키패드를 생성할 수 있다. 만약, 사용자가 감지 센서(140)로부터 D2만큼 이격된 위치에 서 있는 경우, 제어부(180)는 도 9의 D2와 같이 가상 키패드의 사이즈를 기 설정된 비율에 따라 축소시킬 수 있다.Referring to FIGS. 8 and 9 , when the user stands at a position spaced apart from the
제어부(180)는 가상 키패드의 사이즈를 조정할 때, 가상 키패드에 포함되는 중심 영역 및 복수의 테두리 영역 각각의 소단위 사이즈 또는 가상 키패드의 전체 사이즈가 기 설정된 비율에 따라 조정되도록 제어할 수 있다.When adjusting the size of the virtual keypad, the
제어부(180)는 가상 키패드의 사이즈가 설정 사이즈를 기초로 기 설정된 비율로 조정될 때, 가상 키패드의 가상 커서를 가상 키패드의 사이즈 조정 비율에 대응되는 거리만큼 이동시킬 수 있다.When the size of the virtual keypad is adjusted at a preset ratio based on the set size, the
도 2는 본 발명의 일 실시예에 따른 인공지능 기반 무인 정보 단말기를 설명하기 위한 블록도이다.2 is a block diagram illustrating an artificial intelligence-based unmanned information terminal according to an embodiment of the present invention.
후술하는 시선 인식 모듈(210)는 도 1에서 개시하는 시선 인식 장치(100)와 동일한 구성일 수 있으며, 이에 따라, 시선 인식 장치(100)의 모든 구성을 동일하게 구비함은 당연하다 할 것이다.The
도 2를 참조하면, 인공지능을 이용한 무인 정보 단말기(이하에서는 '무인 정보 단말기'라고 하기로 한다)(200)는 시선 인식 모듈(210) 및 무인 정보 제공 모듈(230)를 포함할 수 있다.Referring to FIG. 2 , an unmanned information terminal using artificial intelligence (hereinafter, referred to as an 'unmanned information terminal') 200 may include a
시선 인식 모듈(210)은 사용자의 안면 이미지를 획득하면, 사용자의 안면 이미지로부터 사용자의 두 눈동자를 파악하고 파악된 두 눈동자 사이의 중심을 눈 위치로 간주하여 제1 영점으로 설정하고, 제1 영점을 중심 좌표로 하는 중심 영역 및 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성할 수 있다. 이때, 시선 인식 모듈(210)은 중심 좌표에 가상 커서(virtual cursor)를 위치시킬 수 있다.When the
시선 인식 모듈(210)은 사용자의 신규 안면 이미지에서 사용자의 시선을 추적하고, 추적 결과 눈 위치의 변경을 인지하면 사용자의 시선 이동 이벤트를 발생시켜 가상 키패드 상에서 중심 좌표에 위치하는 가상 커서를 사용자의 시선 이동 위치로 이동시킬 수 있다.The
무인 정보 제공 모듈(230)은 미디어 정보, 상품 리스트 및 온오프라인 쇼핑몰 정보 중 적어도 하나 이상을 포함하는 콘텐츠를 가상 키패드의 영역별 위치에 대응되는 복수의 영역을 포함하는 디스플레이 상에 출력하되, 시선 인식 모듈(210)을 통해 파악된 사용자의 시선에 따라 이동하는 가상 커서를 기초로 해당 콘텐츠를 출력할 수 있다.The unattended
무인 정보 제공 모듈(230)은 가상 커서의 위치 이동에 대응되는 콘텐츠 관련 서비스를 제공할 수 있다.The unattended
도 10은 본 발명의 일 실시예에 따른 인공지능 기반 무인 정보 단말기, 주문 관리 서버 및 콘텐츠 서비스 서버 간의 연결 관계를 설명하기 위한 블록도이다.10 is a block diagram illustrating a connection relationship between an artificial intelligence-based unmanned information terminal, an order management server, and a content service server according to an embodiment of the present invention.
무인 정보 단말기(200)는 광고를 비롯한 각종 미디어 정보 또는 상품 정보를 디스플레이 상에 출력하기 위한 단말기로서, 복수 개가 구비되어 다양한 장소에 설치될 수 있다.The
무인 정보 단말기(200)는 사용자가 비접촉 방식으로 콘텐츠 정보를 제공받을 수 있도록 서비스를 제공하는 구성으로서, 각종 감지 센서를 통해 사용자의 얼굴 패턴을 인식하여 사용자 선호 콘텐츠를 제공할 수 있다. 또한, 무인 정보 단말기(200)는 사용자에 의해서 선택된 콘텐츠에 대한 상세 설명 및 주문 처리를 비접촉 방식으로 이루어질 수 있도록 할 수 있다.The
구체적으로, 무인 정보 단말기(200)는 사용자 생체 프로필에 따라 광고, 브랜드, 드라마 및 영화를 비롯한 미디어 정보, 상품 리스트 및 온오프라인 쇼핑몰 정보 중 적어도 하나 이상을 포함하는 사용자 선호 콘텐츠를 디스플레이를 통해 제공할 수 있다. 상기 사용자 생체 프로필은, 사용자의 얼굴 패턴, 성별, 연령, 사용자의 눈동자 위치, 신장 및 사용자의 눈높이 중 적어도 하나 이상을 포함할 수 있다.Specifically, the
또한, 무인 정보 단말기(200)는 사용자 선호 콘텐츠 중 사용자의 시선이동에 따라 결정된 선택 콘텐츠에 대한 상세 설명을 추출 및 출력하고, 감지 센서로부터 사용자 주문 동작 감지에 따른 주문 이벤트를 수신하면, 수신된 주문 이벤트에 매칭되는 선택 콘텐츠의 주문을 위한 결제정보 링크(link)를 생성하여 출력할 수 있다. 이때, 사용자의 시선이동을 인지하는 것은 상술한 시선 인식 장치(100)를 통해 구현될 수 있다.In addition, the
무인 정보 단말기(200)는 사용자 선호 콘텐츠 중 선택 콘텐츠에 대한 상세 설명을 제공할 때, 사용자의 시선이 기 설정된 기준 시간 이상 유지한 콘텐츠를 선택 콘텐츠로 결정하거나, 또는 사용자의 시선이동이 기 설정된 선택패턴에 매칭된 콘텐츠를 선택 콘텐츠로 결정할 수 있다.When the
무인 정보 단말기(200)는 상품 주문 수량, 상품 가격, 회원 상품 결제 수단, 비회원 상품 결제 수단 입력란, 상품 판매 쇼핑몰, 회원 배송지 주소, 비회원 배송지 주소 입력란 및 적어도 하나 이상을 포함하는 상기 선택 콘텐츠의 비접촉 결제를 위한 결제 시스템으로의 연결 기능을 포함하는 상기 결제정보 링크를 생성하여 디스플레이를 통해 출력하도록 할 수 있다.The
사용자가 회원인 경우, 결제정보 링크는 상품 결제 시 사용자가 필수로 입력해야 하는 사용자의 결제수단, 배송지 주소를 비롯한 개인정보를 미리 포함시켜 사용자의 편의를 증대시킬 수 있다.If the user is a member, the payment information link may increase the convenience of the user by including in advance personal information including the user's payment method and delivery address, which the user must input when paying for a product.
무인 정보 단말기(200)는 감지 센서를 통해 측정된 사용자의 생체 프로필 및 감지 센서의 설치위치 중 적어도 하나 이상을 인공 신경망 모델에 적용하여 사용자의 신장을 고려한 사용자의 눈높이 또는 사용자의 손높이를 파악할 수 있다.The
무인 정보 단말기(200)는 결제정보 링크 또는 콘텐츠를 디스플레이를 통해 출력할 때, 디스플레이 전면 중 사용자의 눈높이, 사용자의 손높이 또는 기 설정된 지점에 대응되는 위치에 결제정보 링크(link)가 출력되도록 제어할 수 있다. 상기 결제정보 링크는 QR 코드(Quick Response code), 바코드(Barcode) 및 URL(Uniform Resource Locator) 중 적어도 하나 이상을 포함할 수 있다.When the
한편, 무인 정보 단말기(200)는 사용자의 접근이 인식되면, 사용자의 얼굴 패턴을 파악하고, 파악된 사용자의 얼굴 패턴과 일치하는 페이스 아이디(face ID)가 존재하는 경우 사용자의 동의 여부에 따라 페이스 아이디를 기초한 비접촉 로그인 절차를 수행할 수 있다. 이때, 사용자의 얼굴 패턴을 파악하는 것 역시 기 설정된 인공 신경망 모델의 알고리즘을 통해 파악할 수 있다. 이때, 얼굴 패턴 파악을 위한 인공 신경망 모델은 수집된 생체 이미지 및 생체 정보들을 기 설정된 조건에 따라 패턴인식, 분류 및 연관성 연계를 포함하는 학습 처리를 수행하여, 사용자의 신장을 비롯한 사용자의 생체 프로필 및 사용자의 동작 중 적어도 하나 이상을 인식하기 위한 알고리즘을 포함할 수 있다.On the other hand, when the user's access is recognized, the
상술한 사용자의 동의 여부 역시 비접촉 방식으로 이루어질 수 있다. 예를 들어, 무인 정보 단말기(200)는 디스플레이를 통해 "고객님의 페이스 아이디가 존재합니다. 페이스 아이디를 통한 로그인 절차를 수행하시겠습니까?", "회원이십니까?", "다른 아이디 형태로 로그인 절차를 수행하시겠습니까?"등 다양한 형태의 로그인 동의 여부를 표시하고, 사용자의 시선 추적 또는 동작 인식 등의 비접촉 방식을 통한 사용자 응답 회신을 수신하고, 수신 결과에 따라 로그인을 처리하거나 미처리할 수 있는 것이다. Whether or not the above-described user consents may be made in a non-contact manner. For example, the
무인 정보 단말기(200)는 감지 센서로부터 사용자의 접근 인식 정보를 수신하기 이전에, 무인 정보 단말기(200) 설치 장소의 지역 특성 및 유동 인구 특성에 따라 결정된 콘텐츠를 디스플레이를 통해 출력할 수 있다.Before receiving the user's access recognition information from the detection sensor, the
무인 정보 단말기(200)는 최종 선택된 콘텐츠, 콘텐츠별 사용자 시선 유지 시간, 기 설정된 횟수 이상으로 사용자 시선이 인식된 콘텐츠 및 이들의 조합 중 적어도 하나 이상을 포함하는 사용자 선호 정보를 주문 관리 서버(300)로 전송할 수 있다.The
주문 관리 서버(300)는 복수의 무인 정보 단말기(200, 200a, 200b) 및 복수의 콘텐츠 서비스 서버(400, 400a, 400b)와 연결되어, 각각에서 다루는 데이터를 수집하여 저장 및 관리하는 구성일 수 있다.The
주문 관리 서버(300)는 무인 정보 단말기(200)에서 인식된 사용자의 생체 이미지를 기초로 사용자의 얼굴 패턴을 인식하고, 이를 기초로 사용자별 선호 콘텐츠를 파악할 수 있도록 하는 인공 신경망 모델을 생성하여 무인 정보 단말기(200)로 제공할 수 있다. 이때, 인공 신경망 모델을 생성 및 제공하는 주체는 주문 관리 서버(300)에 한정되지 않고, 무인 정보 단말기(200)를 비롯한 타 구성에서 구현하는 것 역시 가능하다 할 것이다.The
콘텐츠 서비스 서버(400)는 무인 정보 단말기(200)를 통해 제공되는 미디어 정보 또는 상품 정보의 관리 및 제공을 직접적으로 처리하는 구성으로서, 후술하는 상품의 결제 처리를 위한 기능도 포함할 수 있으며, 이에 한정되지 않고, 별도의 결제 서비스 서버(미도시)에서 수행할 수 있음도 당연하다 할 것이다.The
예를 들어, 콘텐츠 서비스 서버(400)는 연예인, 인플루언서(influencer), 광고, 드라마, 영화, 방송 프로그램, 경제, SNS(Social Network Service) 및 이들의 조합을 포함하는 각종 미디어 정보를 제공하거나, 또는 의류, 식품 및 여행 상품을 비롯한 상품 정보를 제공 및 판매하는 서버일 수 있다.For example, the
도 11은 본 발명의 일 실시예에 따른 인공지능 기반 시선 인식 방법을 설명하기 위한 흐름도이다. 도 11에 도시된 방법은 예를 들어, 전술한 시선 인식 장치(100)에 의해 수행될 수 있다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.11 is a flowchart illustrating an AI-based gaze recognition method according to an embodiment of the present invention. The method illustrated in FIG. 11 may be performed, for example, by the above-described
101 단계에서, 시선 인식 장치(100)는 안면 이미지와 이에 매칭되는 생체정보를 포함하는 복수의 사용자 안면 정보를 수집하여 안면 빅 데이터를 축적할 수 있다.In step 101 , the
103 단계에서, 시선 인식 장치(100)는 축적된 안면 빅 데이터를 기 설정된 조건에 따라 패턴인식, 분류 및 연관성 연계 중 적어도 하나 이상을 포함하는 학습 처리를 수행하여 사용자의 시선 인식을 위한 인공 신경망 모델을 생성할 수 있다.In step 103, the
105 단계에서, 시선 인식 장치(100)는 촬영된 사용자의 안면 이미지를 인공 신경망 모델에 적용하여 사용자의 두 눈동자를 파악하고 파악된 두 눈동자 사이의 중심을 눈 위치로 간주하여 제1 영점으로 설정할 수 있다.In step 105, the
107 단계에서, 시선 인식 장치(100)는 제1 영점을 중심 좌표로 하는 중심 영역 및 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성할 수 있다. 이때, 시선 인식 장치(100)는 중심 좌표에 가상 커서(virtual cursor)를 위치시킬 수 있다.In operation 107 , the
이때, 시선 인식 장치(100)는 감지 센서(140)를 통해 사용자와의 이격거리를 획득하고, 획득된 사용자와의 이격거리를 기초로 가상 키패드의 사이즈를 설정 사이즈로 조정할 수 있다. 상기 사용자와의 이격거리는 사용자와의 이격거리를 감지하는 거리 인식 센서 위치로부터 사용자 간의 이격거리이거나, 또는 사용자의 안면 이미지를 촬영하는 영상 촬영기의 위치로부터 상기 사용자 간의 이격거리일 수 있다.In this case, the
가상 키패드의 사이즈를 설정 사이즈로 조정할 때, 시선 인식 장치(100)는 사용자와의 이격거리가 멀수록 가상 키패드의 사이즈가 기 설정된 비율로 작아지도록 조정할 수 있다. 이때, 시선 인식 장치(100)는 가상 키패드에 포함되는 중심 영역 및 복수의 테두리 영역 각각의 소단위 사이즈 또는 가상 키패드의 전체 사이즈를 기 설정된 비율에 따라 조정할 수 있다.When adjusting the size of the virtual keypad to the set size, the
109 단계에서, 시선 인식 장치(100)는 사용자의 신규 안면 이미지를 획득하면, 이를 인공 신경망 모델에 적용하여 상기 사용자의 시선을 추적할 수 있다. 또한, 추적 결과 눈 위치의 변경을 인지하면 시선 인식 장치(100)는 사용자의 시선 이동 이벤트를 발생시킬 수 있다. 시선 인식 장치(100)는 가상 키패드 상에서 중심 좌표에 위치하는 가상 커서를 사용자의 시선 이동 위치로 이동시킬 수 있다. 이때, 시선 인식 장치(100)는 가상 키패드의 가상 커서를 가상 키패드의 사이즈 조정 비율에 대응되는 거리만큼 이동시킬 수 있다. 즉, 사용자와의 이격거리에 따라 가상 키패드의 사이즈가 조정될 때, 시선 인식 장치(100)는 가상 키패드 상에서 특정 포인팅 위치를 인식하기 위한 용도로 적용되는 가상 커서의 위치 역시 조정하는 것이다.In step 109 , when the
111 단계에서, 시선 인식 장치(100)는 가상 키패드 상의 제1 영점을 사용자의 시선 이동 위치에 대응되는 제2 영점으로 재 설정할 수 있다. 시선 인식 장치(100)는 제2 영점을 중심 좌표로 하는 중심 영역을 형성하고, 형성된 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 재 생성할 수 있다.In step 111 , the
도 12는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에 서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.12 is a block diagram illustrating and describing a
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 시선 인식 장치(100)일 수 있다. 또한, 컴퓨팅 장치(12)는 무인 정보 단말기(200), 주문 관리 서버(300) 및 콘텐츠 서비스 서버(400)일 수 있다.The illustrated
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although representative embodiments of the present invention have been described in detail above, those of ordinary skill in the art to which the present invention pertains will understand that various modifications are possible within the limits without departing from the scope of the present invention with respect to the above-described embodiments. . Therefore, the scope of the present invention should not be limited to the described embodiments, and should be defined by the claims described below as well as the claims and equivalents.
10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22, 120: 입출력 인터페이스
24: 입출력 장치
26, 110: 네트워크 통신 인터페이스
100: 시선 인식 장치
130: 데이터 수집부
140: 감지 센서
150: 학습 처리부
160: 디스플레이
170: 저장 장치
180: 제어부
200, 200a, 200b: 무인 정보 단말기
300: 주문 관리 서버
400, 400a, 400b: 콘텐츠 서비스 서버10: Computing Environment
12: computing device
14: Processor
16: computer readable storage medium
18: communication bus
20: Program
22, 120: input/output interface
24: input/output device
26, 110: network communication interface
100: gaze recognition device
130: data collection unit
140: detection sensor
150: learning processing unit
160: display
170: storage device
180: control unit
200, 200a, 200b: unmanned information terminal
300: order management server
400, 400a, 400b: content service server
Claims (19)
안면 이미지와 이에 매칭되는 생체정보를 포함하는 복수의 사용자 안면 정보를 수집하여 안면 빅 데이터를 축적하도록 하는 데이터 수집부;
축적된 상기 안면 빅 데이터를 기 설정된 조건에 따라 패턴인식, 분류 및 연관성 연계 중 적어도 하나 이상을 포함하는 학습 처리를 수행하여 사용자의 시선을 인식하기 위한 인공 신경망 모델을 생성하는 학습 처리부;
사용자의 접근, 사용자의 생체 프로필, 사용자와의 이격 거리 또는 사용자의 시선 이동을 인식하는데 요구되는 정보를 감지하기 위한 감지 센서; 및
상기 감지 센서로부터 촬영된 사용자의 안면 이미지를 수신하면, 이를 상기 인공 신경망 모델에 적용하여 사용자의 두 눈동자를 파악하고 파악된 상기 두 눈동자 사이의 중심을 눈 위치로 간주하여, 상기 눈 위치를 기준으로 상기 사용자가 응시하는 시선에 대응되는 위치를 상기 디스플레이 상에서 제1 영점으로 설정하고, 상기 제1 영점을 중심 좌표로 하는 중심 영역 및 상기 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성하여 상기 디스플레이를 통해 출력하는 제어부를 포함하고,
상기 제어부는, 상기 중심 좌표에 가상 커서(virtual cursor)가 위치하도록 하고, 상기 감지 센서로부터 사용자의 신규 안면 이미지를 획득하면, 상기 사용자의 신규 안면 이미지를 상기 인공 신경망 모델에 적용하여 사용자의 시선을 추적하고, 추적 결과 상기 눈 위치의 변경을 인지하면 사용자의 시선 이동 이벤트를 발생시켜 상기 가상 키패드 상에서 상기 중심 좌표에 위치하는 상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시키며,
상기 제어부는, 상기 감지 센서로부터 상기 사용자와의 이격거리를 획득하고 획득된 상기 사용자와의 이격거리를 기초로 상기 가상 키패드의 사이즈를 설정 사이즈로 조정하고,
상기 제어부는, 상기 사용자와의 이격거리가 멀수록 상기 가상 키패드의 사이즈가 기 설정된 비율로 작아지도록 조정하며,
상기 제어부는, 상기 가상 키패드의 사이즈를 조정할 때, 상기 가상 키패드에 포함되는 상기 중심 영역 및 상기 복수의 테두리 영역 각각의 소단위 사이즈 또는 상기 가상 키패드의 전체 사이즈가 기 설정된 비율에 따라 조정되도록 제어하고,
상기 제어부는, 상기 가상 키패드의 사이즈가 상기 설정 사이즈를 기초로 기 설정된 비율로 조정될 때, 상기 가상 키패드의 상기 가상 커서를 상기 가상 키패드의 사이즈 조정 비율에 대응되는 거리만큼 이동시키는 인공지능 기반 시선 인식 장치.
display;
a data collection unit configured to collect a plurality of user facial information including a facial image and matching biometric information to accumulate facial big data;
a learning processing unit for generating an artificial neural network model for recognizing a user's gaze by performing a learning process including at least one of pattern recognition, classification, and association linkage on the accumulated facial big data according to a preset condition;
a detection sensor for detecting information required to recognize a user's approach, a user's biometric profile, a separation distance from the user, or a movement of the user's gaze; and
When receiving the user's facial image taken from the sensor, it is applied to the artificial neural network model to identify the user's two pupils, and the center between the two identified pupils is regarded as the eye position, and based on the eye position, A virtual keypad including a central region having the first zero point as a central coordinate and a plurality of border regions adjacent to the central region by setting a position corresponding to the gaze of the user as a first zero point on the display; and a control unit for generating and outputting through the display,
The control unit places a virtual cursor at the central coordinates, and when a new facial image of the user is obtained from the detection sensor, the user's gaze is obtained by applying the new facial image of the user to the artificial neural network model. When tracking and recognizing a change in the eye position as a result of tracking, a user's gaze movement event is generated to move the virtual cursor located at the central coordinate on the virtual keypad to the user's gaze movement position,
The control unit obtains a separation distance from the user from the detection sensor and adjusts the size of the virtual keypad to a set size based on the obtained separation distance from the user,
The control unit adjusts the size of the virtual keypad to be smaller at a preset ratio as the distance from the user increases,
When the size of the virtual keypad is adjusted, the control unit controls such that a sub-unit size of each of the central region and the plurality of edge regions included in the virtual keypad or the entire size of the virtual keypad is adjusted according to a preset ratio,
When the size of the virtual keypad is adjusted at a preset rate based on the set size, the control unit moves the virtual cursor of the virtual keypad by a distance corresponding to the size adjustment rate of the virtual keypad, AI-based gaze recognition Device.
상기 제어부는,
상기 가상 키패드 상의 상기 제1 영점을 상기 사용자의 시선 이동 위치에 대응되는 제2 영점으로 재 설정하고, 상기 제2 영점을 중심 좌표로 하는 중심 영역을 형성하고, 형성된 상기 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성하는 인공지능 기반 시선 인식 장치.
The method according to claim 1,
The control unit is
resetting the first zero point on the virtual keypad to a second zero point corresponding to a movement position of the user's gaze, forming a central area having the second zero point as a center coordinate, and forming a plurality of adjacent areas based on the formed center area An artificial intelligence-based gaze recognition device that creates a virtual keypad including the border area of
상기 감지 센서는,
상기 사용자의 접근, 상기 사용자와의 이격 거리, 상기 사용자의 생체 프로필 또는 상기 사용자의 시선 이동을 인식하기 위한 초음파 센서, 적외선 센서, 레이저 센서 및 위치 감지 센서를 포함하는 근거리 무선 감지 센서, 접근 인식 센서, IOT(internet of things) 센서, 및 영상 촬영기 중 적어도 하나 이상을 포함하는 인공지능 기반 시선 인식 장치.
The method according to claim 1,
The detection sensor is
A short-range wireless sensing sensor, an approach recognition sensor including an ultrasonic sensor, an infrared sensor, a laser sensor, and a position detection sensor for recognizing the user's approach, the separation distance from the user, the user's bio-profile or the user's gaze movement , an Internet of things (IOT) sensor, and an artificial intelligence-based gaze recognition device including at least one of an image recorder.
상기 시선 인식 장치가 안면 이미지와 이에 매칭되는 생체정보를 포함하는 복수의 사용자 안면 정보를 수집하여 안면 빅 데이터를 축적하는 단계;
상기 시선 인식 장치가 축적된 상기 안면 빅 데이터를 기 설정된 조건에 따라 패턴인식, 분류 및 연관성 연계 중 적어도 하나 이상을 포함하는 학습 처리를 수행하여 사용자의 시선 인식을 위한 인공 신경망 모델을 생성하는 단계;
상기 시선 인식 장치가 촬영된 사용자의 안면 이미지를 상기 인공 신경망 모델에 적용하여 사용자의 두 눈동자를 파악하고 파악된 상기 두 눈동자 사이의 중심을 눈 위치로 간주하여, 상기 눈 위치를 기준으로 상기 사용자가 응시하는 시선에 대응되는 위치를 디스플레이 상에서 제1 영점으로 설정하는 단계;
상기 시선 인식 장치가 상기 제1 영점을 중심 좌표로 하는 중심 영역 및 상기 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 생성하여 상기 디스플레이를 통해 출력하되, 상기 중심 좌표에 가상 커서(virtual cursor)를 위치시키는 단계;
상기 시선 인식 장치가 사용자의 신규 안면 이미지를 획득하면, 이를 상기 인공 신경망 모델에 적용하여 상기 사용자의 시선을 추적하는 단계;
상기 시선 인식 장치가 상기 눈 위치의 변경을 인지하면 사용자의 시선 이동 이벤트를 발생시키는 단계; 및
상기 시선 인식 장치가 상기 가상 키패드 상에서 상기 중심 좌표에 위치하는 상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시키는 단계를 포함하고,
상기 가상 키패드를 생성하는 단계는, 상기 사용자와의 이격거리를 획득하는 단계; 및 획득된 상기 사용자와의 이격거리를 기초로 상기 가상 키패드의 사이즈를 설정 사이즈로 조정하는 단계를 더 포함하며,
상기 가상 키패드의 사이즈를 설정 사이즈로 조정하는 단계에서, 상기 사용자와의 이격거리가 멀수록 상기 가상 키패드의 사이즈가 기 설정된 비율로 작아지도록 조정하고,
상기 가상 키패드의 사이즈를 설정 사이즈로 조정하는 단계에서, 상기 가상 키패드에 포함되는 상기 중심 영역 및 상기 복수의 테두리 영역 각각의 소단위 사이즈 또는 상기 가상 키패드의 전체 사이즈를 기 설정된 비율에 따라 조정하며,
상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시키는 단계에서, 상기 가상 키패드의 가상 커서를 상기 가상 키패드의 사이즈 조정 비율에 대응되는 거리만큼 이동시키는 인공지능 기반 시선 인식 방법.
A method for recognizing a user's gaze in a gaze recognition device, comprising:
accumulating, by the gaze recognition device, facial big data by collecting a plurality of user facial information including a facial image and matching biometric information;
generating an artificial neural network model for recognizing a user's gaze by performing a learning process including at least one of pattern recognition, classification, and association linkage on the facial big data accumulated by the gaze recognition device according to a preset condition;
By applying the facial image of the user photographed by the gaze recognition device to the artificial neural network model, the user's two pupils are identified, and the center between the two identified pupils is regarded as the eye position, and the user based on the eye position setting a position corresponding to the gazing gaze as a first zero point on the display;
The gaze recognition device generates a virtual keypad including a central region having the first zero point as a central coordinate and a plurality of border regions adjacent to the central region, and outputs it through the display, but a virtual cursor ( locating a virtual cursor);
when the gaze recognition device acquires a new facial image of the user, applying it to the artificial neural network model to track the gaze of the user;
generating a user's gaze movement event when the gaze recognition device recognizes a change in the eye position; and
moving, by the gaze recognition device, the virtual cursor located at the central coordinates on the virtual keypad to a position of the user's gaze movement,
The generating of the virtual keypad may include: obtaining a separation distance from the user; and adjusting the size of the virtual keypad to a set size based on the obtained separation distance from the user,
In the step of adjusting the size of the virtual keypad to a set size, the larger the separation distance from the user, the smaller the size of the virtual keypad is adjusted at a preset ratio,
In the step of adjusting the size of the virtual keypad to a set size, the sub-unit size of each of the central region and the plurality of border regions included in the virtual keypad or the overall size of the virtual keypad is adjusted according to a preset ratio,
In the step of moving the virtual cursor to the movement position of the user's gaze, the artificial intelligence-based gaze recognition method of moving the virtual cursor of the virtual keypad by a distance corresponding to a size adjustment ratio of the virtual keypad.
상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시키는 단계 이후에,
상기 가상 키패드 상의 상기 제1 영점을 상기 사용자의 시선 이동 위치에 대응되는 제2 영점으로 재 설정하는 단계; 및
상기 제2 영점을 중심 좌표로 하는 중심 영역을 형성하고, 형성된 상기 중심 영역을 기준으로 인접한 복수의 테두리 영역을 포함하는 가상 키패드를 재 생성하는 단계를 더 포함하는 인공지능 기반 시선 인식 방법.
10. The method of claim 9,
After moving the virtual cursor to the user's eye movement position,
resetting the first zero point on the virtual keypad to a second zero point corresponding to the user's gaze movement position; and
The AI-based gaze recognition method further comprising: forming a central region having the second zero point as a central coordinate; and re-creating a virtual keypad including a plurality of adjacent border regions based on the formed central region.
상기 사용자와의 이격거리는,
상기 사용자와의 이격거리를 감지하는 거리 인식 센서의 위치로부터 상기 사용자 간의 이격거리이거나, 또는 상기 사용자의 안면 이미지를 촬영하는 영상 촬영기의 위치로부터 상기 사용자 간의 이격거리인 인공지능 기반 시선 인식 방법.
10. The method of claim 9,
The separation distance from the user,
An artificial intelligence-based gaze recognition method that is a distance between the users from a location of a distance recognition sensor that detects the distance from the user, or a distance between the users from a location of an imager that captures the user's face image.
미디어 정보, 상품 리스트 및 온오프라인 쇼핑몰 정보 중 적어도 하나 이상을 포함하는 콘텐츠를 상기 가상 키패드의 영역별 위치에 대응되는 복수의 영역을 포함하는 상기 디스플레이 상에 출력하되, 상기 시선 인식 모듈을 통해 파악된 사용자의 시선에 따라 이동하는 가상 커서를 기초로 해당 콘텐츠를 출력하는 무인 정보 제공 모듈을 포함하고,
상기 시선 인식 모듈은, 상기 중심 좌표에 상기 가상 커서가 위치하도록 하고, 감지 센서로부터 사용자의 신규 안면 이미지를 획득하면, 상기 사용자의 신규 안면 이미지를 인공 신경망 모델에 적용하여 사용자의 시선을 추적하고, 추적 결과 상기 눈 위치의 변경을 인지하면 사용자의 시선 이동 이벤트를 발생시켜 상기 가상 키패드 상에서 상기 중심 좌표에 위치하는 상기 가상 커서를 상기 사용자의 시선 이동 위치로 이동시키며,
상기 시선 인식 모듈은, 상기 감지 센서로부터 상기 사용자와의 이격거리를 획득하고 획득된 상기 사용자와의 이격거리를 기초로 상기 가상 키패드의 사이즈를 설정 사이즈로 조정하고,
상기 시선 인식 모듈은, 상기 사용자와의 이격거리가 멀수록 상기 가상 키패드의 사이즈가 기 설정된 비율로 작아지도록 조정하며,
상기 시선 인식 모듈은, 상기 가상 키패드의 사이즈를 조정할 때, 상기 가상 키패드에 포함되는 상기 중심 영역 및 상기 복수의 테두리 영역 각각의 소단위 사이즈 또는 상기 가상 키패드의 전체 사이즈가 기 설정된 비율에 따라 조정되도록 제어하고,
상기 시선 인식 모듈은, 상기 가상 키패드의 사이즈가 상기 설정 사이즈를 기초로 기 설정된 비율로 조정될 때, 상기 가상 키패드의 상기 가상 커서를 상기 가상 키패드의 사이즈 조정 비율에 대응되는 거리만큼 이동시키는 인공지능을 이용한 무인 정보 단말기.
When the user's face image is obtained, the user's two pupils are identified from the user's face image, the center between the two identified pupils is regarded as the eye position, and the first zero point is set, and the first zero point is the central coordinate. a gaze recognition module for generating and outputting a virtual keypad including a central region and a plurality of border regions adjacent to the central region based on the central region; and
The content including at least one of media information, product list, and online/offline shopping mall information is output on the display including a plurality of regions corresponding to the positions of each region of the virtual keypad, and the content is identified through the gaze recognition module. Including an unattended information providing module that outputs the corresponding content based on the virtual cursor moving according to the user's gaze,
The gaze recognition module places the virtual cursor at the central coordinates, and when a new facial image of the user is obtained from a detection sensor, the user's gaze is tracked by applying the new facial image of the user to an artificial neural network model, When a change in the eye position is recognized as a result of tracking, a user's gaze movement event is generated to move the virtual cursor located at the central coordinate on the virtual keypad to the user's gaze movement position,
The gaze recognition module obtains the separation distance from the user from the detection sensor and adjusts the size of the virtual keypad to a set size based on the obtained separation distance from the user,
The gaze recognition module adjusts the size of the virtual keypad to decrease at a preset rate as the distance from the user increases,
The gaze recognition module controls, when adjusting the size of the virtual keypad, the subunit size of each of the central region and the plurality of edge regions included in the virtual keypad or the overall size of the virtual keypad according to a preset ratio do,
The gaze recognition module, when the size of the virtual keypad is adjusted at a preset ratio based on the set size, artificial intelligence for moving the virtual cursor of the virtual keypad by a distance corresponding to the size adjustment ratio of the virtual keypad Unmanned information terminal used.
상기 무인 정보 제공 모듈은,
상기 가상 커서의 위치 이동에 대응되는 콘텐츠 관련 서비스를 제공하는 무인 정보 단말기.18. The method of claim 17,
The unmanned information providing module,
An unmanned information terminal that provides a content-related service corresponding to the movement of the virtual cursor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210095701A KR102426071B1 (en) | 2021-07-21 | 2021-07-21 | Artificial intelligence based gaze recognition device and method, and unmanned information terminal using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210095701A KR102426071B1 (en) | 2021-07-21 | 2021-07-21 | Artificial intelligence based gaze recognition device and method, and unmanned information terminal using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102426071B1 true KR102426071B1 (en) | 2022-07-27 |
Family
ID=82701380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210095701A KR102426071B1 (en) | 2021-07-21 | 2021-07-21 | Artificial intelligence based gaze recognition device and method, and unmanned information terminal using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102426071B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130010012A (en) * | 2010-04-16 | 2013-01-24 | 퀄컴 인코포레이티드 | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
KR101382772B1 (en) * | 2012-12-11 | 2014-04-08 | 현대자동차주식회사 | Display system and method |
KR20150055327A (en) * | 2013-11-13 | 2015-05-21 | 엘지전자 주식회사 | Mobile terminal and controlling method thereof |
KR20190030140A (en) * | 2017-09-13 | 2019-03-21 | 주식회사 비주얼캠프 | Method for eye-tracking and user terminal for executing the same |
KR20200031283A (en) | 2018-09-14 | 2020-03-24 | 주식회사 더베스트페이 | Method for paying cost using kiosk |
-
2021
- 2021-07-21 KR KR1020210095701A patent/KR102426071B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130010012A (en) * | 2010-04-16 | 2013-01-24 | 퀄컴 인코포레이티드 | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
KR101382772B1 (en) * | 2012-12-11 | 2014-04-08 | 현대자동차주식회사 | Display system and method |
KR20150055327A (en) * | 2013-11-13 | 2015-05-21 | 엘지전자 주식회사 | Mobile terminal and controlling method thereof |
KR20190030140A (en) * | 2017-09-13 | 2019-03-21 | 주식회사 비주얼캠프 | Method for eye-tracking and user terminal for executing the same |
KR20200031283A (en) | 2018-09-14 | 2020-03-24 | 주식회사 더베스트페이 | Method for paying cost using kiosk |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11341515B2 (en) | Systems and methods for sensor data analysis through machine learning | |
US10909386B2 (en) | Information push method, information push device and information push system | |
US8577087B2 (en) | Adjusting a consumer experience based on a 3D captured image stream of a consumer response | |
US20190147228A1 (en) | System and method for human emotion and identity detection | |
KR20230015272A (en) | Unmanned information terminal using artificial intelligence, order management server, and method for providing order information | |
US20150215674A1 (en) | Interactive streaming video | |
US20200387865A1 (en) | Environment tracking | |
KR20190118965A (en) | System and method for eye-tracking | |
US20230410514A1 (en) | Information processing apparatus, information processing method, and program | |
WO2013107038A1 (en) | Method and apparatus for user recognition | |
US20230111437A1 (en) | System and method for content recognition and data categorization | |
US20210195095A1 (en) | Systems and methods for guiding image sensor angle settings in different environments | |
KR102426071B1 (en) | Artificial intelligence based gaze recognition device and method, and unmanned information terminal using the same | |
KR102249666B1 (en) | System for service shopping mall of using eye tracking technology and computing device for executing the same | |
US20220180640A1 (en) | Electronic device for providing response method, and operating method thereof | |
US20210176519A1 (en) | System and method for in-video product placement and in-video purchasing capability using augmented reality with automatic continuous user authentication | |
KR102548625B1 (en) | Method for providing shopping contents of based eye tracking and computing device for executing the method | |
US11688250B2 (en) | Systems and methods for detecting human presence near a transaction kiosk | |
KR102424316B1 (en) | Self-checkout system and method for self-service cafeteria | |
KR102480468B1 (en) | Apparatus for providing information on a product worn by users, and a method therefor | |
US20230033062A1 (en) | Non-transitory computer-readable recording medium, customer service detection method, and information processing device | |
KR20230053269A (en) | A payment system that tracks and predicts customer movement and behavior | |
JPWO2019207795A1 (en) | Behavior-related information provision system, behavior-related information provision method, program, and camera | |
WO2009102231A1 (en) | Method and system for automated confirmation of receiving visual information and quantitative evaluation of influence efficiency degree caused by said information on individuals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |