KR102564072B1 - multi cognitive training device using artificial intelligence and method for player cognition using the same - Google Patents

multi cognitive training device using artificial intelligence and method for player cognition using the same Download PDF

Info

Publication number
KR102564072B1
KR102564072B1 KR1020210057716A KR20210057716A KR102564072B1 KR 102564072 B1 KR102564072 B1 KR 102564072B1 KR 1020210057716 A KR1020210057716 A KR 1020210057716A KR 20210057716 A KR20210057716 A KR 20210057716A KR 102564072 B1 KR102564072 B1 KR 102564072B1
Authority
KR
South Korea
Prior art keywords
touch
game
content
unit
content game
Prior art date
Application number
KR1020210057716A
Other languages
Korean (ko)
Other versions
KR20220120408A (en
Inventor
서영철
Original Assignee
서영철
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서영철 filed Critical 서영철
Priority to KR1020210057716A priority Critical patent/KR102564072B1/en
Publication of KR20220120408A publication Critical patent/KR20220120408A/en
Application granted granted Critical
Publication of KR102564072B1 publication Critical patent/KR102564072B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Abstract

본 발명의 실시예에 따른 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스는, 컨텐츠 게임을 표시하고, 상기 컨텐츠 게임에 대한 터치입력을 감지하는 디스플레이 유닛; 및 상기 디스플레이 유닛을 제어하는 관리시스템을 포함하고, 상기 관리시스템은, 상기 감지된 터치입력을 수신하고, 상기 컨텐츠 게임을 표시하도록 상기 디스플레이 유닛을 제어하는 표시부; 상기 컨텐츠 게임에 관한 정보 및 상기 컨텐츠 게임을 플레이하는 유저에 대한 정보를 저장하는 저장부; 상기 표시부에서 수신된 터치입력에 대한 터치 패턴을 인식하는 인식부; 상기 인식부에서 인식된 터치 패턴에 대응되는 객체 정보를 결정하는 판단부; 및 상기 판단부에서 결정된 객체 정보에 따라서 상기 컨텐츠 게임에 대한 특정 입력 또는 상기 터치입력의 주체를 결정하는 제어부를 포함한다.A cognitive training device based on a content game for multiple players according to an embodiment of the present invention includes a display unit displaying a content game and detecting a touch input for the content game; and a management system that controls the display unit, wherein the management system includes: a display unit that receives the sensed touch input and controls the display unit to display the content game; a storage unit for storing information about the content game and information about a user playing the content game; a recognition unit recognizing a touch pattern for a touch input received from the display unit; a determination unit determining object information corresponding to the touch pattern recognized by the recognition unit; and a control unit that determines a specific input for the content game or a subject of the touch input according to the object information determined by the determination unit.

Description

복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법 {multi cognitive training device using artificial intelligence and method for player cognition using the same}Content game-based cognitive training device and method for multiple players {multi cognitive training device using artificial intelligence and method for player cognition using the same}

본 발명은 동시에 복수의 사용자들이 컨텐츠 게임으로 인지 훈련(Cognitive Training) 및 인지 자극(Cognitive Stimulation)을 제공받을 수 있도록 한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법 에 관한 것이다.The present invention relates to a content game-based cognitive training device and method for a plurality of players enabling a plurality of users to receive cognitive training and cognitive stimulation through a content game at the same time.

사람들의 평균수명이 현저히 연장됨에 따라 노인성 질환의 발생도 급격히 증가하고 있다. 미국 통계에 따르면 암이나 심혈관 질환 등 주요한 질환에 의한 사망률은 치료법 개선으로 꾸준히 낮아지고 있지만, 치매에 의한 사망률은 지속적으로 높아지고 있다고 보고되고 있다.As people's average lifespan is significantly extended, the incidence of geriatric diseases is also rapidly increasing. According to US statistics, mortality rates from major diseases such as cancer and cardiovascular disease are steadily decreasing due to improved treatment methods, but death rates from dementia are reported to be continuously increasing.

실제로 미국알츠하이머협회에 따르면 2000년 이후 치매에 의한 사망률이 89% 증가했다. 고령화와 함께 치매 발생률도 높아지고 있는데다 아직까지 치매 발생의 뚜렷한 원인을 밝혀내지 못하고 있다. 다만, 지금까지 알려진 치매와 관련된 정보는 다음과 같다.In fact, according to the Alzheimer's Association of America, since 2000, the death rate due to dementia has increased by 89%. Along with population aging, the incidence of dementia is also increasing, and the cause of dementia has not yet been identified. However, the information related to dementia known so far is as follows.

치매 환자의 뇌를 분석해 보면 뇌세포 주변을 따라 아밀로이드 베타라는 단백질이 엉긴 덩어리(플라크)가 일종의 노폐물로 관찰된다는 사실이 대표적인 것이 었다. 이를 기초로 한때 아밀로이드 베타를 제거하는 연구가 활발히 진행되었으나, 치매 해결의 대안으로 자리잡진 못했다. 왜냐하면, 아밀로이드 베타를 제거하더라도 사람의 인지능력이 개선되지 않은 경우가 많았고 플라크(엉긴 덩어리)가 많은 사람이더라도 치매에 걸리지 않은 사람이 많았기 때문이다.When the brains of patients with dementia were analyzed, a typical example was the fact that clumps (plaques) of a protein called amyloid beta were observed as a kind of waste along the periphery of the brain cells. Based on this, research on removing amyloid beta was actively conducted at one time, but it was not established as an alternative to solving dementia. This is because, even if amyloid beta was removed, there were many cases in which people's cognitive abilities did not improve, and even people with many plaques (clots) did not suffer from dementia.

또한, 치매가 초기인 사람들은 전술한 약물에 의한 치료방법 보다는 지속적인 인지 능력 훈련과 인지 자극이 오히려 치매로부터 회복되는 경우가 많다는 것이 보고되었다.In addition, it has been reported that people with dementia in the early stage often recover from dementia with continuous cognitive ability training and cognitive stimulation rather than the above-mentioned drug treatment method.

이러한 이유로 신체 활동과 두뇌 자극을 동시에 제공하여 치매를 예방하는 복합 자극 기구나 방법 등이 많이 제안되었으며, 대한민국 공개특허 제2009-0067578호 역시 이러한 기술 중의 하나이다. 이 기술은, 언어나 수리 또는 상식 등과 같은 게임 컨텐츠를 모니터를 통해 이용자에게 제공하고, 이용자가 제공된 컨텐츠의 지시에 따라 특정한 반응행동을 취하면, 그 결과를 이용자에게 피드백하는 방식이다.For this reason, many complex stimulation devices or methods for preventing dementia by simultaneously providing physical activity and brain stimulation have been proposed, and Korean Patent Publication No. 2009-0067578 is one of these technologies. This technology is a method in which game contents such as language, math, or common sense are provided to users through a monitor, and when the user takes a specific reaction action according to the instructions of the provided contents, the result is fed back to the user.

이 기술은 다양한 종류의 컨텐츠 게임을 시각적으로 이용자에게 제공해줄 수 있다는 점에서 교육의 집중도를 증진시킬 수 있는 장점은 기대되나, 이용자에 대한 정보 없이 반복적인 테스트 결과를 저장하여 각각의 레벨 단위로 컨텐츠를 제공하는 방식이다.Although this technology is expected to increase the concentration of education in that it can visually provide various types of content games to users, it is possible to store the results of repetitive tests without information about the users, and thus provide contents for each level. method to provide.

또한, 대한민국 공개특허 제2009-0067578호 기술은 특정 이용자에게 게임 컨텐츠를 이용하여 두뇌 자극을 제공하도록 하는 방식이기 때문에 개별 치매 환자에게만 국한되어 있다. 즉, 비슷한 치매 상태를 가진 사람들이 협동하는 방식으로 인지 능력 훈련이나 인지 자극을 제공할 수 없는 문제가 있다.In addition, since the technology of Korean Patent Publication No. 2009-0067578 provides brain stimulation using game contents to a specific user, it is limited to individual dementia patients. That is, there is a problem in that people with similar dementia states cannot provide cognitive ability training or cognitive stimulation in a cooperative manner.

대한민국 공개특허 제2009-0067578호Republic of Korea Patent Publication No. 2009-0067578

본 발명의 목적은 치매 환자 또는 인지 능력이 낮은 환자에게 시각, 청각 및 물리적 움직임과 같은 다양한 인지 훈련 및 인지 자극을 제공할 수 있는 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법을 제공함에 있다.An object of the present invention is a content game-based cognitive training device and method for multiple players using artificial intelligence capable of providing various cognitive training and cognitive stimuli such as visual, auditory, and physical movements to dementia patients or patients with low cognitive ability. is in providing

또한, 본 발명의 목적은 복수의 치매 환자 또는 인지 능력이 낮은 환자들이 동시에 협동하는 방식으로 인지 훈련 및 인지 자극을 제공받을 수 있는 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법을 제공함에 있다.In addition, an object of the present invention is a content game-based cognitive training device and method for multiple players using artificial intelligence, in which a plurality of dementia patients or patients with low cognitive ability can receive cognitive training and cognitive stimulation in a cooperative manner at the same time. is in providing

또한, 본 발명의 목적은 딥러닝에 의한 학습 모델을 통해 플레이어들이 컨텐츠 게임을 플레이하면서 표시영역에 입력한 다양한 터치패턴들을 분석한 후, 터치패턴을 입력하는 객체 또는 플레이어를 정확히 인식할 수 있는 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법을 제공함에 있다.In addition, an object of the present invention is to analyze various touch patterns input to the display area by players while playing a content game through a learning model based on deep learning, and then to artificially recognize an object or player inputting a touch pattern accurately. It is to provide a content game-based cognitive training device and method for multiple players using intelligence.

또한, 본 발명의 목적은 컨텐츠 게임을 플레이하는 플레이어의 동작과 표시영역에 입력된 패턴들을 기초로 컨텐츠 게임에서 터치 입력을 제공하는 플레이어들을 구별할 수 있는 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법을 제공함에 있다.In addition, an object of the present invention is a content game base for multiple players using artificial intelligence capable of distinguishing players who provide touch input in a content game based on the motion of the player playing the content game and the patterns input to the display area. It is to provide a cognitive training device and method of.

본 발명의 실시예에 따른 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스는, 컨텐츠 게임을 표시하고, 상기 컨텐츠 게임에 대한 터치입력을 감지하는 디스플레이 유닛; 및 상기 디스플레이 유닛을 제어하는 관리시스템을 포함하고, 상기 관리시스템은, 상기 감지된 터치입력을 수신하고, 상기 컨텐츠 게임을 표시하도록 상기 디스플레이 유닛을 제어하는 표시부; 상기 컨텐츠 게임에 관한 정보 및 상기 컨텐츠 게임을 플레이하는 유저에 대한 정보를 저장하는 저장부; 상기 표시부에서 수신된 터치입력에 대한 터치 패턴을 인식하는 인식부; 상기 인식부에서 인식된 터치 패턴에 대응되는 객체 정보를 결정하는 판단부; 및 상기 판단부에서 결정된 객체 정보에 따라서 상기 컨텐츠 게임에 대한 특정 입력 또는 상기 터치입력의 주체를 결정하는 제어부를 포함한다. A cognitive training device based on a content game for multiple players according to an embodiment of the present invention includes a display unit displaying a content game and detecting a touch input for the content game; and a management system that controls the display unit, wherein the management system includes: a display unit that receives the sensed touch input and controls the display unit to display the content game; a storage unit for storing information about the content game and information about a user playing the content game; a recognition unit recognizing a touch pattern for a touch input received from the display unit; a determination unit determining object information corresponding to the touch pattern recognized by the recognition unit; and a control unit that determines a specific input for the content game or a subject of the touch input according to the object information determined by the determination unit.

또한, 본 발명의 실시예에 따른 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 방법은, 컨텐츠 게임을 표시하고, 상기 컨텐츠 게임에 대한 터치입력을 감지하는 디스플레이 유닛과, 상기 디스플레이 유닛을 제어하는 관리시스템을 포함하는 멀티 인지 훈련 장치에서 제공하는 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 방법으로서, 상기 컨텐츠 게임을 표시하도록 상기 디스플레이 유닛을 제어하는 단계; 상기 표시된 컨텐츠 게임에 대한 터치입력을 수신하는 단계; 상기 표시부에서 수신된 터치입력에 대한 터치 패턴을 인식하는 단계; 기 저장된 리스트에서 상기 인식된 터치 패턴에 대응되는 객체 정보를 결정하는 단계; 및 상기 결정된 객체 정보에 따라서 상기 컨텐츠 게임에 대한 특정 입력 또는 상기 터치입력의 주체를 결정하여 상기 컨텐츠 게임을 진행하는 단계를 포함한다. In addition, a content game-based cognitive training method for multiple players according to an embodiment of the present invention includes a display unit displaying a content game and detecting a touch input for the content game, and a management system controlling the display unit. A content game-based cognitive training method for multiple players provided by a multi-cognitive training apparatus comprising: controlling the display unit to display the content game; Receiving a touch input for the displayed content game; Recognizing a touch pattern for a touch input received from the display unit; determining object information corresponding to the recognized touch pattern from a pre-stored list; and determining a specific input for the content game or subject of the touch input according to the determined object information, and proceeding with the content game.

본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 치매 환자 또는 인지 능력이 낮은 환자에게 시각, 청각 및 물리적 움직임과 같은 다양한 인지 훈련 및 인지 자극을 제공할 수 있는 효과가 있다.Content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention can provide various cognitive training and cognitive stimuli such as visual, auditory and physical movements to dementia patients or patients with low cognitive ability It works.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 복수의 치매 환자 또는 인지 능력이 낮은 환자들이 동시에 협동하는 방식으로 인지 훈련 및 인지 자극을 제공받을 수 있는 효과가 있다.In addition, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention can provide cognitive training and cognitive stimulation in a manner in which a plurality of dementia patients or patients with low cognitive abilities cooperate at the same time It works.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 딥러닝에 의한 학습 모델을 통해 플레이어들이 컨텐츠 게임을 플레이하면서 표시영역에 입력한 다양한 터치패턴들을 분석한 후, 터치패턴을 입력하는 객체 또는 플레이어를 정확히 인식할 수 있는 효과가 있다.In addition, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention analyzes various touch patterns input to the display area while players play the content game through a learning model based on deep learning. After that, there is an effect of accurately recognizing an object or a player inputting a touch pattern.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 컨텐츠 게임을 플레이하는 플레이어의 동작과 표시영역에 입력된 패턴들을 기초로 컨텐츠 게임에서 터치 입력을 제공하는 플레이어들을 구별할 수 있는 효과가 있다.In addition, a content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention provides touch input in the content game based on the motion of the player playing the content game and patterns input to the display area It has the effect of distinguishing players.

도 1은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치를 사용자들이 이용하는 모습을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치의 구조를 도시한 사시도이다.
도 3은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치에 대한 블럭도이다.
도 4a 내지 도 4d는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치가 사용자의 수에 따라 플레이 영역을 제공하는 모습을 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치가 표시부로 입력된 터치 입력을 기초로 사용자 또는 객체를 인식하는 과정을 설명하기 위한 도면이다.
도 6 내지 도 8은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치를 이용하는 사용자와 제공된 컨텐츠 게임에서 사용하는 객체를 인식하는 원리를 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치에서 사용자의 터치 동작과 컨텐츠의 객체 동작을 설명하기 위한 도면이다.
도 10은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치가 표시영역의 터치 위치를 인식하는 모습을 나타낸 도면이다.
도 11은 표시영역(DA)에 입력되는 터치콘택부(TC)들로 부터 가능한 터치패턴(CP)을 추정한 모습을 도시한 도면이다.
도 12는 터치콘택부(TC)와 같은 터치정보들과 대응되는 터치 ID를 나타낸 도면이다.
도 13은 터치 ID에 대응하는 기능을 표시영역(DA)에서 플레이되는 컨텐츠 게임에 적용한 도면이다.
도 14는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치의 인식부에 대한 구체적인 구성을 도시한 블럭도이다.
도 15는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치의 판단부에 대한 구체적인 블럭도이다.
도 16은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치가 복수의 플레이어들을 인식하는 모습을 설명하기 위한 도면이다.
1 is a diagram showing how users use a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention.
2 is a perspective view showing the structure of a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention.
3 is a block diagram of a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention.
4A to 4D are diagrams showing how a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention provides a play area according to the number of users.
5 is a diagram for explaining a process of recognizing a user or an object based on a touch input input to a display unit by a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention.
6 to 8 are views for explaining the principle of recognizing a user using a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention and an object used in a provided content game.
9 is a diagram for explaining a user's touch motion and content object motion in a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention.
10 is a diagram illustrating a state in which a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention recognizes a touch position of a display area.
FIG. 11 is a diagram illustrating a state in which possible touch patterns CP are estimated from touch contact units TC input to the display area DA.
12 is a diagram illustrating touch IDs corresponding to touch information such as the touch contact unit TC.
13 is a diagram in which a function corresponding to a touch ID is applied to a content game played in the display area DA.
14 is a block diagram showing a specific configuration of a recognition unit of a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention.
15 is a specific block diagram of a judgment unit of a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention.
16 is a diagram for explaining how a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention recognizes a plurality of players.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can apply various transformations and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and methods for achieving them will become clear with reference to the embodiments described later in detail together with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first and second are used for the purpose of distinguishing one component from another component without limiting meaning. Also, expressions in the singular number include plural expressions unless the context clearly dictates otherwise. In addition, terms such as include or have mean that features or elements described in the specification exist, and do not preclude the possibility that one or more other features or elements may be added. In addition, in the drawings, the size of components may be exaggerated or reduced for convenience of explanation. For example, since the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when describing with reference to the drawings, the same or corresponding components are assigned the same reference numerals, and overlapping descriptions thereof will be omitted. .

도 1은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치를 사용자들이 이용하는 모습을 나타낸 도면이다. 도 2는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치의 구조를 도시한 사시도이다.1 is a diagram showing how users use a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention. 2 is a perspective view showing the structure of a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는, 디스플레이 유닛(100a)과 디스플레이 유닛(100a)을 지지하는 베이스 유닛(100b)을 포함한다. 디스플레이 유닛(100a)은 사용자에게 다양한 컨텐츠 게임을 제공하는 표시영역(DA)과 표시영역(DA)의 둘레를 따라 배치된 비표시영역(NDA)을 포함한다. 표시영역(DA)과 대응하는 영역에는 컨텐츠 게임을 표시할 수 있는 디스플레이 패널이 배치될 수 있다. 디스플레이 패널은 액정표시장치(LCD) 또는 유기발광표시장치(OLED)로 구현된 터치스크린패널(TSP: Touch Screen Panel)일 수 있다. 또한, 본 발명의 멀티 인지 훈련 장치(100)는, 퍼스널 컴퓨터, 랩탑, 노트북, 넷북 또는 태블릿, 휴대 정보 단말기(personal digital assistant; PDA), 네비게이션, 가정용 전자기기(home appliance), 영상 처리 장치, 스마트폰, 3D TV 또는 DID(Digital Information Display) 등의 장치내에서 구현될 수 있다. 특히, 본 발명의 각 구성부들은 전술한 장치들 내에 배치되는 프로세서와 메모리 내에서 동작될 수 있다.1 and 2, the multi-cognitive training apparatus 100 using artificial intelligence of the present invention includes a display unit 100a and a base unit 100b supporting the display unit 100a. The display unit 100a includes a display area DA providing various content games to users and a non-display area NDA disposed along the circumference of the display area DA. A display panel capable of displaying a content game may be disposed in an area corresponding to the display area DA. The display panel may be a touch screen panel (TSP) implemented with a liquid crystal display (LCD) or an organic light emitting display (OLED). In addition, the multi-cognitive training apparatus 100 of the present invention is a personal computer, laptop, notebook, netbook or tablet, personal digital assistant (PDA), navigation, home appliance, image processing device, It can be implemented in a device such as a smart phone, 3D TV or DID (Digital Information Display). In particular, each component of the present invention can be operated within the processor and memory disposed in the above-described devices.

비표시영역(NDA)은 사용자를 인식할 수 있는 인식수단들이 배치될 수 있다. 예를 들어, 컨텐츠 게임을 이용하는 이용자의 정보를 확인할 수 있는 복수의 인증패드(N1, N2, N3, N4)가 배치될 수 있다. 인증패드(N1, N2, N3, N4)는 사용자의 고유 식별자 정보가 포함된 카드를 인식하고 인식된 사용자의 정보에 기초하여 맞춤형 컨텐츠 게임을 제공하는 기능을 할 수 있다. 또한, 복수의 사용자에 대해 제1 내지 제4 인증패드(N1, N2, N3, N4)가 서로 다른 정보를 인식하면 이를 기초로 하여 복수의 사용자가 함께할 수 있는 컨텐츠 게임을 추천하거나 제공할 수 있다. 즉, 본 발명의 멀티 인지 훈련 장치(100)는 복수의 사용자 각각에게 요구되는 인지 훈련 컨텐츠 게임 또는 인지 자극 컨텐츠 게임을 제공하거나 복수의 사용자가 함께 플레이를 할 수 있는 컨텐츠 게임을 추천하고 제공할 수 있다. 본 명세서에서는 멀티 인지 훈련 장치(100)를 사용하는 사용자, 컨텐츠 게임을 이용하는 플레이어 및 멀티 인지 훈련 장치(100)가 제공하는 서비스를 이용하는 이용자를 구별하지 않고 사용한다. 따라서, 컨텐츠 게임을 플레이하는 플레이어는 멀티 인지 훈련 장치(100)를 사용하거나 이용하는 사람이기 때문에 사용자 또는 이용자로 명명될 수 있다.Recognition means capable of recognizing a user may be disposed in the non-display area NDA. For example, a plurality of authentication pads (N1, N2, N3, N4) capable of checking information of a user using a content game may be disposed. The authentication pads (N1, N2, N3, N4) may recognize a card including user's unique identifier information and provide a customized content game based on the recognized user's information. In addition, when the first to fourth authentication pads (N1, N2, N3, N4) recognize different information for a plurality of users, based on this, a content game that a plurality of users can play together can be recommended or provided. there is. That is, the multi-cognitive training apparatus 100 of the present invention can provide a cognitive training content game or a cognitive stimulation content game required for each of a plurality of users, or recommend and provide a content game that a plurality of users can play together. there is. In this specification, a user using the multi-cognitive training apparatus 100, a player using a content game, and a user using a service provided by the multi-cognitive training apparatus 100 are used without distinction. Accordingly, the player who plays the content game may be named a user or a user because he/she uses or uses the multi-cognitive training apparatus 100 .

또한, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는 복수의 사용자(P1, P2, P3, P4)가 함께 수행하는 컨텐츠 게임 또는 개별 사용자에 맞는 각각의 컨텐츠 게임을 제공하는 경우, 표시영역(DA)은 제1 내지 제4 게임영역(110a, 110b, 110c, 110d)으로 분할될 수 있다.In addition, when the multi-cognitive training apparatus 100 using artificial intelligence of the present invention provides a content game performed by a plurality of users (P1, P2, P3, P4) or each content game suitable for individual users, display Area DA may be divided into first to fourth game areas 110a, 110b, 110c, and 110d.

복수의 사용자(players: P1, P2, P3, P4)는 각각 자신의 분할된 제1 내지 제4 게임영역(110a, 110b, 110c, 110d)에 마커(M)를 놓고 컨텐츠 게임을 진행할 수 있다. 또한, 표시영역(DA)은 공통표시영역(CDA)을 포함할 수 있다. 공통표시영역(CDA)은 복수의 사용자(players: P1, P2, P3, P4)가 하나의 컨텐츠 게임을 함께 진행할 경우, 복수의 사용자(players: P1, P2, P3, P4) 모두에게 공통으로 적용되는 게임영역일 수 있다. 또한, 복수의 사용자(players: P1, P2, P3, P4)가 개별 컨텐츠 게임을 진행하는 경우, 개별 컨텐츠 게임들에서 공통으로 사용하는 영역일 수 있다.A plurality of users (players: P1, P2, P3, P4) may place markers M in their respective divided first to fourth game areas 110a, 110b, 110c, and 110d and proceed with the content game. Also, the display area DA may include the common display area CDA. The common display area (CDA) is commonly applied to all of the multiple users (players: P1, P2, P3, P4) when multiple users (players: P1, P2, P3, P4) play one content game together. It may be a game area to be. In addition, when a plurality of users (players P1, P2, P3, P4) play individual content games, it may be a common area used by individual content games.

도 2를 참조하면, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)의 디스플레이 유닛(100a)은 사각형 플레이트 또는 테이블 형태로 구현될 수 있다. 디스플레이 유닛(100a)의 상면은 컨텐츠 게임을 표시하는 표시영역(DA)과 비표시영역(NDA)을 포함한다. 또한, 디스플레이 유닛(100a)의 네 측면에는 각각 복수의 센서들이 일정한 간격으로 배치된 제1 센서부(130a)가 배치될 수 있다. 제1 센서부(130a)는 컨텐츠 게임을 플레이하기 위한 사용자의 위치 정보를 획득하는 기능을 한다. 따라서, 제1 센서부(130a)를 구성하는 센서들은 초음파 센서, 적외선 센서, 라이다(LIDAR) 센서, 레이더 센서(RADAR) 및 카메라 센서 중 어느 하나 또는 적어도 하나 이상 혼합된 센서들일 수 있다.Referring to FIG. 2 , the display unit 100a of the multi-cognitive training apparatus 100 using artificial intelligence of the present invention may be implemented in the form of a rectangular plate or table. The upper surface of the display unit 100a includes a display area DA displaying a content game and a non-display area NDA. In addition, first sensor units 130a in which a plurality of sensors are disposed at regular intervals may be disposed on each of the four sides of the display unit 100a. The first sensor unit 130a serves to obtain location information of a user for playing a content game. Accordingly, the sensors constituting the first sensor unit 130a may be any one or a combination of at least one of an ultrasonic sensor, an infrared sensor, a LIDAR sensor, a radar sensor, and a camera sensor.

디스플레이 유닛(100a)의 표시영역(DA)에는 사용자(플레이어들)의 얼굴 정보(안면 정보)를 획득할 수 있는 제2 센서부(130b)가 배치될 수 있다. 도면에는 사각형 구조의 디스플레이 유닛(100a)의 각 모서리와 대응되는 영역에 4개의 센서들을 배치하였지만, 이것은 컨텐츠 게임을 진행하는 복수의 사용자 수에 따라 가변될 수 있다. 예를 들어, 6명의 플레이어가 컨텐츠 게임을 진행할 경우 제2 센서부(130b)를 구성하는 센서들은 6개 이상으로 구성될 수 있다.A second sensor unit 130b capable of obtaining face information (facial information) of users (players) may be disposed in the display area DA of the display unit 100a. In the drawing, four sensors are disposed in areas corresponding to each corner of the quadrangular display unit 100a, but this may vary according to the number of users playing the content game. For example, when 6 players play a content game, 6 or more sensors constituting the second sensor unit 130b may be configured.

디스플레이 유닛(100a)의 비표시영역(NDA)은 각 모서리와 대응되는 상면에 제3 센서부(130c)가 배치될 수 있다. 제3 센서부(130c)는 사용자의 고유 식별자 정보를 포함하는 ID 카드가 놓이면 사용자(플레이어)의 ID 카드에 대한 정보를 획득하여 컨텐츠 게임을 제공하거나 ID 카드의 개수에 따라 컨텐츠 게임을 진행할 플레이 영역을 분할하는데 활용될 수 있다. 또한, 제3 센서부(130c)는 플레이어의 ID 카드가 놓인 상태를 기초로 현재 제공되는 컨텐츠 게임을 진행하는 플레이어의 존재 유무를 인식하는 역할을 할 수 있다. 특히, 제3 센서부(130c) 영역은 표시영역(DA)과 일부가 중첩될 수 있다. The third sensor unit 130c may be disposed on an upper surface corresponding to each corner of the non-display area NDA of the display unit 100a. The third sensor unit 130c acquires information on the user's (player's) ID card when an ID card containing the user's unique identifier information is placed and provides a content game or a play area where the content game is played according to the number of ID cards. can be used to divide In addition, the third sensor unit 130c may play a role of recognizing the presence or absence of a player playing a currently provided content game based on a state in which the ID card of the player is placed. In particular, the area of the third sensor unit 130c may partially overlap the display area DA.

디스플레이 유닛(100a)의 비표시영역(NDA)은 제1 내지 제4 인증패드(N1, N2, N3, N4)가 배치될 수 있다. 도면에서는 디스플레이 유닛(100a)의 네 모서리 영역에 각각 배치되어 있지만, 이것은 고정된 것이 아니다. 특히, 제1 내지 제4 인증패드(N1, N2, N3, N4)에 접속된 제어부에 의해 순차적으로 사용자 마커(M)가 인증패드에 접촉되더라도 각각의 사용자에 대한 고유 식별자 정보를 포함한 정보들을 획들 할 수 있는 경우에는 하나의 인증패드(N)만 배치할 수 있다.In the non-display area NDA of the display unit 100a, first to fourth authentication pads N1, N2, N3, and N4 may be disposed. In the drawing, although each of the four corner regions of the display unit 100a is disposed, it is not fixed. In particular, even if the user marker M is sequentially contacted by the control unit connected to the first to fourth authentication pads N1, N2, N3, and N4, information including unique identifier information for each user is stroked. If possible, only one authentication pad (N) can be placed.

또한, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는 디스플레이 유닛(100a)의 상측 공간에 제4 센서부(130d)가 배치될 수 있다. 제4 센서부(130d)는 컨텐츠 게임을 플레이하는 플레이어들의 피사체 정보를 지속적으로 획득하여 컨텐츠 게임에 반영하거나 플레이어(사용자)의 움직임 정보를 획득하여 플레이어의 인지 능력을 판단하는 정보로 이용할 수 있다. 제4 센서부(130d)를 구성하는 센서는 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Semiconductor)로 구성될 수 있다.In addition, in the multi-cognitive training apparatus 100 using artificial intelligence of the present invention, a fourth sensor unit 130d may be disposed in a space above the display unit 100a. The fourth sensor unit 130d continuously acquires subject information of players playing the content game and reflects it to the content game, or acquires motion information of the player (user) and uses it as information for determining the player's cognitive ability. The sensor constituting the fourth sensor unit 130d may be composed of a Charge Coupled Device (CCD) or a Complementary Metal Semiconductor (CMOS).

베이스 유닛(100b)은 디스플레이 유닛(100a)을 지지하고 디스플레이 유닛(100a)을 상하 이동, 회전 이동 및 틸트 이동시킬 수 있는 제1 지지부(120)와, 제1 지지부(120) 하측에 배치되어 지면과 접촉하는 제2 지지부(121)를 포함한다. 제1 지지부(120)의 내측에는 후술할 멀티 인지 훈련 장치(100)의 동작을 제어하는 구성부들이 배치될 수 있다. 또한, 제2 지지부(121)는 제1 지지부(120)와 결합되면서 디스플레이 유닛(100a)과 제1 지지부(120)의 하중을 분산할 수 있도록 복수의 브릿지부를 포함할 수 있다. 각 브릿지부에는 도면에 도시된 바와 같이, 이동수단(123)이 배치될 수 있다.The base unit 100b includes a first support 120 that supports the display unit 100a and can vertically move, rotate, and tilt the display unit 100a, and is disposed below the first support 120 to It includes a second support part 121 in contact with. Components that control the operation of the multi-cognitive training apparatus 100 to be described below may be disposed inside the first support 120 . In addition, the second support part 121 may include a plurality of bridge parts to distribute loads between the display unit 100a and the first support part 120 while being coupled to the first support part 120 . As shown in the drawing, a moving means 123 may be disposed in each bridge unit.

또한, 도 1 및 도 2에는 구체적으로 도시하지 않았지만, 디스플레이 유닛(100a)은 제1 지지부(120)에 의해 수평 방향으로 배치되거나 수직한 경사 방향으로 배치될 수 있다. 따라서, 제1 지지부(120)는 디스플레이 유닛(100a)의 배면과 결합되어 상하 방향으로 이동할 수 있는 샤프트가 배치될 수 있다. 샤프트는 구동부에서 제공되는 동력에 의해 상하 방향으로 업(up)/다운(down) 동작을 할 수 있고, 샤프트의 업(up)/다운(down) 동작에 대응하여 디스플레이 유닛(100a)은 지면에 수직한 방향으로 세워지거나 지면에 대해 소정의 각도를 갖도록 경사지게 배치될 수 있다.Also, although not specifically illustrated in FIGS. 1 and 2 , the display unit 100a may be disposed in a horizontal direction or vertically inclined by the first support 120 . Accordingly, the first support 120 may include a shaft coupled to the rear surface of the display unit 100a to move vertically. The shaft can move up/down in the up/down direction by the power provided by the driving unit, and the display unit 100a is placed on the ground in response to the up/down motion of the shaft. It may be erected in a vertical direction or disposed inclined to have a predetermined angle with respect to the ground.

이와 같이, 디스플레이 유닛(100a)이 세워지거나 경사지게 배치되는 경우, 플레이어들이 디스플레이 유닛(100a)을 사이에 두고 양측에 위치하여 진행하는 컨텐츠 게임에 이용될 수 있다.In this way, when the display unit 100a is erected or disposed at an angle, it can be used for a content game in which players are positioned on both sides with the display unit 100a interposed therebetween.

또한, 디스플레이 유닛(100a)은 컨텐츠 게임을 진행하는 과정에서 플레이어들에게 생생한 현장감을 제공할 수 있는 이벤트 제공부가 배치될 수 있다. 이벤트 제공부는 복수의 에어 노즐 또는 진동 모션 또는 지능형 스피커로 구성될 수 있다.In addition, the display unit 100a may be provided with an event provider capable of providing players with a vivid sense of realism in the process of playing a content game. The event providing unit may be composed of a plurality of air nozzles, vibration motions, or intelligent speakers.

이와 같이, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 치매 환자 또는 인지 능력이 낮은 환자에게 시각, 청각 및 물리적 움직임과 같은 다양한 인지 훈련 및 인지 자극을 제공할 수 있는 효과가 있다.As such, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention provides various cognitive training and cognitive stimulation such as visual, auditory, and physical movements to dementia patients or patients with low cognitive abilities. There are effects that can be done.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 복수의 치매 환자 또는 인지 능력이 낮은 환자들이 동시에 협동하는 방식으로 인지 훈련 및 인지 자극을 제공받을 수 있는 효과가 있다.In addition, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention can provide cognitive training and cognitive stimulation in a manner in which a plurality of dementia patients or patients with low cognitive abilities cooperate at the same time It works.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 딥러닝에 의한 학습 모델을 통해 플레이어들이 컨텐츠 게임을 플레이하면서 표시영역에 입력한 다양한 터치패턴들을 분석한 후, 터치패턴을 입력하는 객체 또는 플레이어를 정확히 인식할 수 있는 효과가 있다.In addition, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention analyzes various touch patterns input to the display area while players play the content game through a learning model based on deep learning. After that, there is an effect of accurately recognizing an object or a player inputting a touch pattern.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 컨텐츠 게임을 플레이하는 플레이어의 동작과 표시영역에 입력된 패턴들을 기초로 컨텐츠 게임에서 터치 입력을 제공하는 플레이어들을 구별할 수 있는 효과가 있다.In addition, a content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention provides touch input in the content game based on the motion of the player playing the content game and patterns input to the display area It has the effect of distinguishing players.

도 3은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치에 대한 블럭도이다. 도 4a 내지 도 4d는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치가 사용자의 수에 따라 플레이 영역을 제공하는 모습을 나타낸 도면이다. 도 5는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치가 표시부로 입력된 터치 입력을 기초로 사용자 또는 객체를 인식하는 과정을 설명하기 위한 도면이다. 도 6 내지 도 8은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치를 이용하는 사용자와 제공된 컨텐츠 게임에서 사용하는 객체를 인식하는 원리를 설명하기 위한 도면이다. 도 9는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치에서 사용자의 터치 동작과 컨텐츠의 객체 동작을 설명하기 위한 도면이다. 도 10은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치가 표시영역의 터치 위치를 인식하는 모습을 나타낸 도면이다. 도 11은 표시영역(DA)에 입력되는 터치콘택부(TC)들로 부터 가능한 터치패턴(CP)을 추정한 모습을 도시한 도면이고, 도 12는 터치콘택부(TC)와 같은 터치정보들과 대응되는 터치 ID를 나타낸 도면이며, 도 13은 터치 ID에 대응하는 기능을 표시영역(DA)에서 플레이되는 컨텐츠 게임에 적용한 도면이다.3 is a block diagram of a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention. 4A to 4D are diagrams showing how a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention provides a play area according to the number of users. 5 is a diagram for explaining a process of recognizing a user or an object based on a touch input input to a display unit by a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention. 6 to 8 are views for explaining the principle of recognizing a user using a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention and an object used in a provided content game. 9 is a diagram for explaining a user's touch motion and content object motion in a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention. 10 is a diagram illustrating a state in which a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention recognizes a touch position of a display area. 11 is a diagram showing possible touch patterns CP estimated from touch contact units TC input to the display area DA, and FIG. 12 shows touch information such as the touch contact unit TC. 13 is a diagram showing a touch ID corresponding to , and FIG. 13 is a diagram in which a function corresponding to a touch ID is applied to a content game played in the display area DA.

도 2와 함께 도 3 내지 도 13을 참고하면, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는 디스플레이 유닛(100a)과 베이스 유닛(100b)을 포함한다.Referring to FIGS. 3 to 13 together with FIG. 2 , the multi-cognitive training apparatus 100 using artificial intelligence of the present invention includes a display unit 100a and a base unit 100b.

본 발명의 멀티 인지 훈련 장치(100)는 사용자에게 맞춤형 컨텐츠 게임을 제공하기 위해 플레이를 진행하는 사용자들을 인식하거나 컨텐츠 게임에서 사용하는 도구들을 인식할 수 있다. 또한, 본 발명의 멀티 인지 훈련 장치(100)는 복수의 사용자에 대한 인지 능력 정도에 따라 각각 맞춤형 인지 훈련 또는 인지 자극 컨텐츠 게임을 제공할 수 있다. 멀티 인지 훈련 장치(100)는 제1 내지 제4 센서부(130a, 130b, 130c, 130d), 입력부(301), 저장부(302), 구동부(303), 컨텐츠 제공부(304), 제어부(305), 인식부(306), 판단부(307) 및 표시부(308)를 포함하는 관리시스템에 의해 동작될 수 있다.The multi-cognitive training apparatus 100 of the present invention may recognize users who play or tools used in the content game to provide a customized content game to the user. In addition, the multi-cognitive training apparatus 100 of the present invention may provide customized cognitive training or cognitive stimulation content games to each of a plurality of users according to their cognitive abilities. The multi-cognitive training apparatus 100 includes first to fourth sensor units 130a, 130b, 130c, and 130d, an input unit 301, a storage unit 302, a driving unit 303, a content providing unit 304, and a control unit ( 305), a recognition unit 306, a determination unit 307, and a display unit 308 may be operated by a management system.

전술한 바와 같이, 제1 센서부(130a)는 인지 능력 훈련을 위한 사용자와 멀티 인지 훈련 장치(100)와의 거리 및 위치 정보를 획득하고, 제2 센서부(130b)는 사용자가 컨텐츠 게임을 플레이하기 위해 자신의 자리에 위치한 상태에서 플레이하기 전후 안면(얼굴) 정보를 획득하며, 제3 센서부(130c)는 사용자의 정보를 포함하는 ID 카드 또는 객체 정보를 포함하는 카드를 포함하는 마커(M)의 위치와 마커(M)의 정보를 획득하고, 제4 센서부(130d)는 컨텐츠 게임을 플레이하는 플레이어들(사용자들)의 움직임 정보를 획득한다.As described above, the first sensor unit 130a acquires distance and location information between the user for cognitive ability training and the multi-cognitive training apparatus 100, and the second sensor unit 130b allows the user to play the content game. In order to acquire facial (face) information before and after playing in a state located at one's place, the third sensor unit 130c is a marker (M) including an ID card including user information or a card including object information. ) and the information of the marker M, and the fourth sensor unit 130d acquires motion information of players (users) playing the content game.

특히, 제2 센서부(130b)와 제4 센서부(130d)는 컬러 영상 센서와 깊이 영상 센서를 포함하는 카메라를 포함할 수 있다. 일부 구현예에서 깊이 영상 센서는 장면의 깊이 정보를 예를 들어 [mm] 단위의 16비트의 정수형으로 표현한 깊이 영상을 제공할 수 있다. 깊이 정보를 표현하기 위한 비트수는 16비트에 제한되는 것은 아니고 변경될 수 있으며, 또한 정수형으로 한정되지 않고 실수형으로 제공될 수 있다. 깊이 영상 센서는 적외선 등을 이용하여 카메라로부터 객체 및 배경까지의 거리를 측정하여 거리에 비례 또는 반비례하는 값을 갖는 깊이 영상을 제공할 수 있다.In particular, the second sensor unit 130b and the fourth sensor unit 130d may include a camera including a color image sensor and a depth image sensor. In some implementations, the depth image sensor may provide a depth image in which depth information of a scene is expressed as a 16-bit integer in [mm], for example. The number of bits for expressing depth information is not limited to 16 bits and may be changed, and may be provided in a real number type without being limited to an integer type. The depth image sensor may measure distances from a camera to an object and a background using infrared rays, etc., and provide a depth image having a value proportional to or inversely proportional to the distance.

깊이 영상의 화소 값은 예를 들어, RGB의 색상 정보가 아닌 일 예로 [mm] 단위(이에 한정하는 것은 아님)의 정수로 된 깊이 정보가 될 수 있다.The pixel value of the depth image may be, for example, not RGB color information but, for example, depth information in the unit of [mm] (but is not limited thereto) as an integer.

컬러 영상 센서는 컬러 영상을 획득하는 장치로서, 예를 들어, CMOS(Complementary Metal-Oxide-Semiconductor) 영상 센서, CCD(Charge-Coupled Device) 영상 센서 또는 스테레오 카메라 등일 수 있다. 깊이 센서는 키넥트(kinect), TOF(time-of-flight) 깊이 카메라 또는 광 3D 스캐너 등일 수 있다.The color image sensor is a device that acquires a color image, and may be, for example, a complementary metal-oxide-semiconductor (CMOS) image sensor, a charge-coupled device (CCD) image sensor, or a stereo camera. The depth sensor may be a kinect, a time-of-flight (TOF) depth camera, or an optical 3D scanner.

입력부(301)는 표시부(308)를 통해 터치 정보가 입력될 수 있으므로 터치스크린패널을 포함할 수 있다. 따라서, 입력부(301)는 제1 내지 제4 센서부(130a, 130b, 130c, 130d) 및 표시부(308)를 통해 제공되는 정보와 사용자에 대한 사전 정보 및 컨텐츠 게임과 관련된 정보(패턴 정보)가 제공될 수 있다. 또한, 입력부(301)는 표시부(308)와 일체로 구현될 수 있다.The input unit 301 may include a touch screen panel since touch information may be input through the display unit 308 . Accordingly, the input unit 301 includes information provided through the first to fourth sensor units 130a, 130b, 130c, and 130d and the display unit 308, prior information about the user, and information related to the content game (pattern information). can be provided. Also, the input unit 301 may be integrally implemented with the display unit 308 .

저장부(302)는 컨텐츠 게임들에 관한 정보와 사용자에 대한 정보를 포함할 수 있다. 예를 들어, 사용자가 사전 치매 정도를 알아보기 위해 테스트를 진행한 경우, 그에 대한 결과 정보가 저장될 수 있다. 컨텐츠 게임들에 관한 정보는 각 게임에서 플레이되는 캐릭터들에 관한 정보, 각 게임에서 진행할 수 있는 동작들에 관한 정보를 포함할 수 있다. 저장부(302)는 HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. 또한, 저장부(302)는 컴퓨터 판독가능 명령들 또는 프로세서 판독가능 명령들과 같은 명령들(예를 들어, 실행가능 명령들)을 포함한다. 명령들은 하나 이상의 프로세서들 각각에 의해서와 같이 컴퓨터에 의해 실행가능한 하나 이상의 명령어들을 포함할 수도 있다.The storage unit 302 may include information about content games and information about users. For example, when a user conducts a test to find out the degree of dementia in advance, result information thereof may be stored. Information about content games may include information about characters played in each game and information about operations that can be performed in each game. The storage unit 302 may include a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, and an optical data storage device. . Storage 302 also includes instructions (eg, executable instructions), such as computer readable instructions or processor readable instructions. The instructions may include one or more instructions executable by a computer, such as by each of one or more processors.

예를 들어 하나 이상의 명령들은 하나 이상의 프로세서들로 하여금 깊이 영상의 움직임 벡터를 결정하고 깊이 영상을 부호화하기 위해 깊이 영상을 프로세싱하는 것을 포함하는 동작들을 수행하기 위해 하나 이상의 프로세서들에 의해 실행가능 할 수도 있다.For example, one or more instructions may be executable by one or more processors to perform operations that include processing a depth image to determine a motion vector of the depth image and to encode the depth image. there is.

구동부(303)는 전술한 바와 같이, 멀티 인지 훈련 장치(100)를 구성하는 디스플레이 유닛(100a)을 물리적으로 움직이도록 하거나 제1 내지 제4 센서부(130a, 130b, 130c, 130d)를 구성하는 센서들의 움직이도록 동력을 제공할 수 있다.As described above, the drive unit 303 physically moves the display unit 100a constituting the multi-cognitive training apparatus 100 or configures the first to fourth sensor units 130a, 130b, 130c, and 130d. It can provide power to move the sensors.

컨텐츠 제공부(304)는 인지 능력 훈련을 위해 마련된 컨텐츠 게임들과 인지 자극을 위해 마련된 컨텐츠 게임들을 제공할 수 있다.The content providing unit 304 may provide content games prepared for cognitive ability training and content games prepared for cognitive stimulation.

인식부(306)는 표시부(308)로부터 제공되는 터치 정보에 기초하여 터치 패턴들을 인식하고 분석한 후, 분석된 패턴에 대응하는 객체를 인식할 수 있다. 또한, 인식부(306)는 객체에 배치된 마커의 터치 정보뿐만 아니라 플레이어가 제공하는 터치 정보를 인식할 수 있다.After recognizing and analyzing touch patterns based on touch information provided from the display unit 308 , the recognition unit 306 may recognize an object corresponding to the analyzed pattern. Also, the recognition unit 306 may recognize touch information provided by a player as well as touch information of a marker disposed on an object.

판단부(307)는 표시부(308)를 통해 인식된 패턴들과 패턴들에 대응하는 객체 정보를 획득하거나 인식된 패턴들이지만 현재 진행하는 컨텐츠 게임과는 무관한 패턴들을 필터링 할 수 있다. 이와 같이, 선별된 객체 인식 정보와 표시부(308)를 통해 플레이어로부터 제공되는 터치 정보를 조합하여 어떤 객체에 대한 어떤 명령인지를 최종적으로 판단할 수 있다.The determination unit 307 may acquire patterns recognized through the display unit 308 and object information corresponding to the patterns, or may filter recognized patterns but patterns unrelated to the current content game. In this way, a combination of the selected object recognition information and the touch information provided from the player through the display unit 308 may finally determine which command for which object.

또한, 인식부(306)와 판단부(307)는 컨텐츠 게임을 진행할 사용자들의 수, 사용자들에 대한 정보로부터 제공할 컨텐츠 게임들을 판단할 수 있다. 예를 들어, 복수의 사용자가 멀티 인지 훈련 장치(100)에 인증된 경우, 각 사용자의 정보를 토대로 개별 맞춤형 컨텐츠 게임을 제공하거나 복수의 사용자가 함께 진행할 수 있는 컨텐츠 게임을 제공할 수 있다.In addition, the recognition unit 306 and the determination unit 307 may determine content games to be provided based on the number of users who will play the content game and information about the users. For example, when a plurality of users are authenticated by the multi-cognitive training device 100, an individually customized content game may be provided based on information of each user, or a content game in which a plurality of users may proceed together may be provided.

또한, 인식부(306)와 판단부(307)는 인증된 복수의 사용자와 대응되도록 디스플레이 영역(DA)을 복수의 영역으로 분할한 후, 각각의 사용자에게 게임 영역을 제공할 수 있다. 이때, 단순히 인증패드들을 통해 사용자의 마커가 인증된 경우에만 디스플레이 영역(DA)을 분할하지 않고 전술한 제1 내지 제4 센서부(130a, 130b, 130c, 130d)를 통해 입력된 정보를 종합하여 분할한다.Also, the recognition unit 306 and the determination unit 307 may divide the display area DA into a plurality of areas to correspond to a plurality of authenticated users, and then provide a game area to each user. At this time, only when the user's marker is simply authenticated through the authentication pads, the display area DA is not divided and the information input through the above-described first to fourth sensor units 130a, 130b, 130c, and 130d is combined and divide

특히, 본 발명의 멀티 인지 훈련 장치(100)는 복수의 사용자가 컨텐츠 게임을 진행할 때, 디스플레이 유닛(100a)의 둘레를 따라 이동해야하는 경우, 제2 센서부(130b)와 제4 센서부(130d)를 이용하여 복수의 사용자(플레이어)를 각각 개별적으로 인식하고 그 위치를 추적할 수 있다. 이와 같이, 제2 센서부(130b)와 제4 센서부(130d)에 의해 제공되는 영상에 기초하여 플레이어가 인식되고 추적되는 경우 최초 컨텐츠 게임을 시작할 때, 각 플레이어에게 설정된 분할된 게임 영역은 표시영역(DA)의 가장자리를 따라 해당 플레이어의 위치로 이동할 수 있다.In particular, the multi-cognitive training apparatus 100 of the present invention, when a plurality of users play a content game, needs to move along the circumference of the display unit 100a, the second sensor unit 130b and the fourth sensor unit 130d ) can be used to individually recognize a plurality of users (players) and track their locations. In this way, when a player is recognized and tracked based on the images provided by the second sensor unit 130b and the fourth sensor unit 130d, when the first content game starts, the divided game area set for each player is displayed. It is possible to move to the location of the corresponding player along the edge of the area DA.

따라서, 플레이어는 컨텐츠 게임을 진행하는 과정에서 이동이 있는 경우 다시 최초 설정된 자신의 분할 게임 영역으로 복귀할 필요가 없다. 만약, 복수의 사용자(플레이어)들에게 설정된 분할 게임 영역이 서로 겹치는 경우에는 제1 센서부(130a)의 초음파 센서 정보를 이용하여 가장 근접한 영역으로 플레이어의 게임 영역을 기준으로 바로 인접한 영역에 게임 영역을 위치시킬 수 있다. 예를 들어, 제2 플레이어가 컨텐츠 게임을 진행하는 과정에서 제4 플레이어의 위치에 있는 경우 제4 플레이어의 게임 영역과 겹치지 않도록 제4 플레이어의 게임 영역의 인접 영역에 위치시켜 다음 플레이를 진행할 수 있도록 한다. Accordingly, when the player moves while playing the content game, there is no need to return to his or her initially set divisional game area. If the divided game areas set for a plurality of users (players) overlap each other, use the ultrasonic sensor information of the first sensor unit 130a as the closest area to the game area immediately adjacent to the game area of the player. can be located. For example, when the second player is in the position of the fourth player while playing the content game, the second player is placed in an area adjacent to the fourth player's game area so as not to overlap with the fourth player's game area so that the next play can proceed. do.

전술한 바와 같이, 입력부(301)는 표시부(308)와 일체로 형성될 수 있기 때문에 제어부(305), 저장부(302), 구동부(303), 컨텐츠 제공부(304), 인식부(306), 판단부(307)는 멀티 인지 훈련 장치(100)의 베이스 유닛(100b)에 배치될 수 있다.As described above, since the input unit 301 can be integrally formed with the display unit 308, the control unit 305, the storage unit 302, the driving unit 303, the content providing unit 304, and the recognizing unit 306 , The determination unit 307 may be disposed in the base unit 100b of the multi-cognitive training apparatus 100.

도 4a 내지 도 4d를 참조하면, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는 컨텐츠 게임을 이용하는 사용자의 수와 대응되도록 표시영역(DA)을 복수의 분할된 게임 영역으로 분할할 수 있다.4A to 4D, the multi-cognitive training apparatus 100 using artificial intelligence of the present invention can divide the display area DA into a plurality of divided game areas to correspond to the number of users using content games. there is.

컨텐츠 게임을 통해 인지 능력 훈련을 진행하거나 인지 자극 훈련을 수행할 사용자가 2명인 경우에는 도 4a에 도시한 바와 같이, 디스플레이 영역(DA)은 A1 게임 영역과 A2 게임 영역으로 분할된다. 2명의 사용자는 분할된 게임 영역(A1, A2)에서 서로 다른 컨텐츠 게임을 진행하거나 하나의 컨텐츠 게임을 동시에 자신의 게임 영역에서 진행할 수 있다. When there are two users who will perform cognitive ability training or cognitive stimulation training through content games, the display area DA is divided into an A1 game area and an A2 game area, as shown in FIG. 4A. Two users can play different content games in the divided game areas A1 and A2 or play one content game simultaneously in their own game areas.

전술한 바와 같이, 하나의 컨텐츠 게임을 함께 진행하는 협동 게임이거나 경쟁 게임인 경우에는 사용자가 게임을 진행하면서 디스플레이 유닛(100a)의 둘레를 따라 이동할 수 있다. 본 발명의 멀티 인지 훈련 장치(100)는 분할된 게임 영역(A1, A2)이 사용자를 인식하고 추적하여 현재 플레이어의 위치와 대응되는 위치에 게임 영역을 이동시킬 수 있다. 따라서, 컨텐츠 게임을 진행하는 플레이어(사용자)는 최초 설정된 자신의 분할 게임 영역(A1, A2)으로 복귀하지 않고 이동 위치에서 다음 플레이를 진행할 수 있다.As described above, in the case of a cooperative game or competitive game in which one content game is played together, the user may move along the circumference of the display unit 100a while playing the game. In the multi-cognitive training apparatus 100 of the present invention, the divided game areas A1 and A2 recognize and track the user, and move the game area to a position corresponding to the current player position. Accordingly, the player (user) playing the content game can proceed with the next play at the moving position without returning to his or her initially set divided game areas A1 and A2.

컨텐츠 게임을 통해 인지 능력 훈련을 진행하거나 인지 자극 훈련을 수행할 사용자가 3명인 경우에는 도 4b에 도시한 바와 같이, 디스플레이 영역(DA)은 A1 영역, A2 게임 영역 및 A3 게임 영역으로 분할된다. 컨텐츠 게임을 통해 인지 능력 훈련을 진행하거나 인지 자극 훈련을 수행할 사용자가 4명인 경우에는 도 4c에 도시한 바와 같이, 디스플레이 영역(DA)은 A1 게임 영역, A2 게임 영역, A3 게임 영역 및 A4 게임 영역으로 분할된다. 컨텐츠 게임을 통해 인지 능력 훈련을 진행하거나 인지 자극 훈련을 수행할 사용자가 5명인 경우에는 도 4d에 도시한 바와 같이, 디스플레이 영역(DA)은 A1 게임 영역, A2 게임 영역, A3 게임 영역, A4 게임 영역 및 A5 게임 영역으로 분할된다.When there are three users who will perform cognitive ability training or cognitive stimulation training through content games, the display area DA is divided into an A1 area, an A2 game area, and an A3 game area, as shown in FIG. 4B. When there are four users who will perform cognitive ability training or cognitive stimulation training through content games, as shown in FIG. 4C, the display area DA is A1 game area, A2 game area, A3 game area, and A4 game area divided into areas When there are 5 users who will perform cognitive ability training or cognitive stimulation training through content games, as shown in FIG. area and A5 game area.

또한, 전술한 바와 같이, 하나의 컨텐츠 게임을 3명, 4명, 5명이 함께 진행하는 협동 게임이거나 경쟁 게임인 경우에는 사용자들이 게임을 진행하면서 이동할 경우, 분할된 게임 영역(A1, A2, A3, A4, A5)들은 사용자들의 이동 방향을 추적하여 이동할 수 있다. 따라서, 컨텐츠 게임을 진행하는 플레이어(사용자)들은 최초 설정되거나 이전에 위치한 게임 영역으로 복귀함이 없이 플레이를 진행한 위치에서 다음 플레이를 연속적으로 진행할 수 있다.In addition, as described above, in the case of a cooperative game or a competitive game in which 3, 4, or 5 players play a single content game together, when users move while playing the game, the divided game areas (A1, A2, A3 , A4, and A5) may move by tracking the movement direction of the users. Accordingly, players (users) playing the content game can continuously proceed to the next play from the position where the play was performed without returning to the initially set or previously located game area.

본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는 컨텐츠 게임에서 사용하는 도구나 사용자(플레이어)를 식별할 수 있는 마커(M)와 같은 객체를 인식할 수 있다.The multi-cognitive training apparatus 100 using artificial intelligence of the present invention can recognize objects such as tools used in content games or markers M capable of identifying users (players).

도 5는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치가 사용자의 마커 또는 게임에 사용하는 도구를 인식하는 방법을 설명하기 위한 도면이다. 사용자 마커 또는 도구 마커는 물리적 객체로 구성된다. 즉, 사용자의 신체 일부에 대한 인식이 아니라 객체에 대한 인식으로 볼 수 있다.5 is a diagram for explaining how a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention recognizes a user's marker or a tool used in a game. User markers or tool markers are composed of physical objects. That is, it can be seen as the recognition of an object rather than the recognition of a part of the user's body.

따라서, 사용자 마커(M)와 도구에 부착된 마커(M)는 디스플레이 유닛(100a)에 터치 정보를 제공할 수 있는 터치 포인트(TP)를 포함한다. 각각의 마커(M)마다 터치 포인트(TP)의 크기, 터치 포인트(TP)의 위치 및 터치 포인트(TP)의 개수가 상이할 수 있다. Accordingly, the user marker M and the marker M attached to the tool include a touch point TP capable of providing touch information to the display unit 100a. For each marker M, the size of the touch point TP, the location of the touch point TP, and the number of touch points TP may be different.

도 5의 (a)를 참조하면, 마커(M)에는 터치 포인트(TP)가 세개 배치되고 각 터치 포인트(TP)를 연결할 경우, 터치 포인트(TP)들에 의해 구현되는 삼각형 터치패턴(CP)을 획득할 수 있다. 또한, 3개의 터치 포인트(TP)에 대한 각각의 면적을 모두 동일하게 하거나 적어도 하나 이상을 다르게 할 수 있다. 도면에 도시된 바와 같이, 터치 포인트(TP)가 점유하는 면적을 터치면적(TA), 터치 포인트(TP)들의 연결에 의해 형성되는 터치패턴(CP), 터치패턴(CP)의 면적을 패턴면적(PA), 각 터치 포인트(TP)에 대한 방향 정보에 관련된 터치포인트의 방향(TD)을 정의한다.Referring to (a) of FIG. 5 , when three touch points TP are disposed on a marker M and each touch point TP is connected, a triangular touch pattern CP implemented by the touch points TP can be obtained. Also, all areas of the three touch points TP may be the same or at least one may be different. As shown in the drawing, the area occupied by the touch point TP is the touch area TA, the touch pattern CP formed by connecting the touch points TP, and the area of the touch pattern CP is the pattern area. (PA), the direction (TD) of the touch point related to the direction information for each touch point (TP) is defined.

본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는 마커(M)에 배치된 터치포인트(TP)들을 분석하여 각 마커(M)가 제공하는 정보를 획득할 수 있다. 예를 들어, 하나의 마커(M)에 배치된 터치 포인트(TP)를 이용하여 터치패턴(CP)이 삼각형, 사각형, 오각형인지에 대한 도형 정보를 획득할 수 있다. 즉, 본 발명의 멀티 인지 훈련 장치(100)는 터치패턴(CP)을 구성하는 도형의 크기와 모양에 대한 정보를 획득할 수 있다. 또한, 각 터치 포인트(TP)에 대한 터치면적(TA)에 관한 정보를 획득할 수 있다. 또한, 터치패턴(CP)을 구성하는 도형에 대해 각 꼭지점과 대응되는 터치 포인트(TP)의 방향에 대한 정보를 획득할 수 있다. 예를 들어, 도 5의 (a)의 삼각형에서 중앙에 가상의 서로 수직한 방향 좌표축을 형성하면 상측 꼭지점은 북쪽(N), 좌하측 터치 포인트(TP)는 남서쪽(SW), 우하측 터치포인트(TP)는 남동쪽(SE)과 같이 터치포인트의 방향(TD) 정보를 획득할 수 있다.The multi-cognitive training apparatus 100 using artificial intelligence of the present invention may obtain information provided by each marker M by analyzing the touch points TPs disposed on the marker M. For example, figure information about whether the touch pattern CP is a triangle, a quadrangle, or a pentagon may be obtained using the touch point TP disposed on one marker M. That is, the multi-cognitive training apparatus 100 of the present invention may obtain information about the size and shape of figures constituting the touch pattern CP. Also, information about the touch area TA for each touch point TP may be acquired. In addition, information about the direction of the touch point TP corresponding to each vertex of the figure constituting the touch pattern CP may be obtained. For example, in the triangle of FIG. 5 (a), if a virtual mutually perpendicular direction coordinate axis is formed at the center, the upper vertex is north (N), the lower left touch point (TP) is southwest (SW), and the lower right touch point (TP) may obtain direction (TD) information of the touch point, such as southeast (SE).

이와 같이, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치는 마커에 배치된 터치포인트들(TP)에 의해 제공되는 다양한 정보에 기초하여 각각의 마커(M)를 구별할 수 있다.In this way, the multi-cognitive training apparatus using artificial intelligence of the present invention can distinguish each marker M based on various information provided by the touch points TP disposed on the markers.

또한, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치는 마커에 배치되는 터치포인트들(TP)의 터치면적, 터치포인트(TP)들에 의해 형성되는 터치패턴(CP), 터치패턴(CP)의 각 꼭지점에 위치한 터치포인트(TP)의 방향 정보와 이들 정보의 조합하여 복수의 마커들을 서로 구분할 수 있다.In addition, the multi-cognitive training apparatus using artificial intelligence of the present invention is the touch area of the touch points (TP) arranged on the marker, the touch pattern (CP) formed by the touch points (TP), and the touch pattern (CP) A plurality of markers can be distinguished from each other by combining the direction information of the touch point TP located at each vertex and this information.

도 6은 멀티 인지 훈련 장치(100)가 제공하는 컨텐츠 게임을 이용하는 사용자의 마커(M)를 인식하는 원리를 설명한다. 인지 능력 훈련을 위한 컨텐츠 게임 또는 인지 자극을 위한 컨텐츠 게임을 수행하는 사용자들에게는 게임 내에서 서로 다른 플레이어로 인식될 수 있도록 서로 다른 정보를 포함하는 마커(M)들이 지급된다. 마커(M)는 전술한 멀티 인지 훈련 장치(100)의 인증패드(N1, N2, N3, N4)에 의해 인식되거나 디스플레이 유닛(100a)의 마커인식부에서 인식될 수 있다. 전술한 바와 같이, 복수의 사용자에게 각각 지급된 마커(M)는 각각 서로 다른 개수와 모양으로된 터치포인트(TP)들로 구성될 수 있다.6 illustrates a principle of recognizing a marker M of a user using a content game provided by the multi-cognitive training apparatus 100 . Markers M including different information are provided to users who play content games for cognitive ability training or content games for cognitive stimulation so that they can be recognized as different players in the game. The marker M may be recognized by the authentication pads N1, N2, N3, and N4 of the aforementioned multi-cognitive training device 100 or recognized by the marker recognition unit of the display unit 100a. As described above, the markers M each provided to a plurality of users may be composed of touch points TP having different numbers and shapes.

도 6의 (a) 내지 (e)에 도시된 바와 같이, 제1 마커(M1)와 제2 마커(M2)는 동일한 개수의 터치포인트(TP)가 배치되어 있다. 하지만, 제1 마커(M1)는 터치포인트(TP)의 위치가 제1 마커(M1)의 모서리에 배치된 터치포인트(TP)를 중심으로 인접한 모서리 영역에 각각 터치포인트(TP)가 배치된 구조이고, 제2 마커(M2)는 제2 마커(M2)의 양측 모서리와 중앙에 각각 터치포인트(TP)가 배치된 구조이다. 따라서, 제1 마커(M1)와 제2 마커(M2)는 터치포인트(TP)의 위치가 다르고 각 마커에 배치된 터치포인트(TP)를 기초로 터치패턴(CP)의 모양(도형 모양)도 달라진다. 이러한 정보를 기초로 본 발명의 멀티 인지 훈련 장치(100)는 제1 마커(M1)와 제2 마커(M2)를 구별한다.As shown in (a) to (e) of FIG. 6 , the first marker M1 and the second marker M2 have the same number of touch points TP. However, the first marker M1 has a structure in which the touch points TP are disposed at corner areas adjacent to each other around the touch points TP disposed at the corner of the first marker M1. , and the second marker M2 has a structure in which touch points TP are disposed at both corners and the center of the second marker M2. Therefore, the positions of the touch points TP of the first marker M1 and the second marker M2 are different, and the shape (shape of a figure) of the touch pattern CP is also determined based on the touch points TP disposed at each marker. It varies. Based on this information, the multi-cognitive training apparatus 100 of the present invention distinguishes the first marker M1 and the second marker M2.

도면에서는 세개의 터치포인트(TP)가 배치된 제1 및 제2 마커(M1, M2) 만이 도시되어 있지만, 세개의 터치포인트(TP)로 구성된 복수의 마커(M)들이 형성될 수 있다. 세개의 터치포인트(TP)들로 구성된 마커(M)가 복수개일 경우에는 터치포인트(TP)의 위치와 터치패널(CP)의 모양만으로 정확히 구분하기 어려울 경우가 있다. 이러한 경우에는 각 마커(M)에 배치되는 터치포인트(TP)들의 각각에 대한 터치면적(TA)을 서로 다르게 하거나 세개의 터치포인트(TP) 중 어느 하나 또는 둘을 서로 다른 형태의 터치포인트(TP)로 구현할 수 있다. 예를 들어, 세걔의 터치포인트(TP) 중 하나는 원, 나머지 둘은 각각 타원 또는 삼각형(또는 사각형 구조)으로 형성할 수 있다.Although only the first and second markers M1 and M2 with three touch points TP are shown in the drawing, a plurality of markers M composed of three touch points TP may be formed. When there are a plurality of markers M composed of three touch points TP, it may be difficult to accurately distinguish only the location of the touch points TP and the shape of the touch panel CP. In this case, the touch area TA for each of the touch points TP disposed on each marker M is made different or one or two of the three touch points TP are set to different types of touch points TP. ) can be implemented. For example, one of the three touch points TP may be formed as a circle, and the other two may be formed as an ellipse or a triangle (or quadrangular structure), respectively.

도 6의 (c) 및 (d)를 참조하면, 제3 마커(M3)와 제4 마커(M4)에는 4개의 터치포인트(TP)가 배치되어 있다. 제3 마커(M3)의 터치포인트(TP)는 제3 마커(M3)의 4 모서리에 각각 배치되어 있고, 제4 마커(M4)의 터치포인트(TP)는 제4 마커(M4)의 일측변의 양측 모서리에 2개의 터치포인트(TP)가 배치되고 일측변과 마주하는 타측변의 양측 모서리 사이에 2개의 터치포인트(TP)가 배치되어 있다. 따라서, 제3 마커(M3)의 터치포인트(TP)들에 의해 형성되는 터치패턴(CP)은 제3 마커(M3)의 모양과 동일한 사각형 패턴이고 제4 마커(M4)의 터치포인트(TP)들에 의해 형성되는 터치패턴(CP)은 사다리꼴 모양을 갖는다. 즉, 제3 마커(M3)와 제4 마커(M4)에 배치되는 터치포인트(TP)의 개수는 동일하지만 터치패턴(CP)의 모양이 다르기 때문에 두 마커(M3, M4)는 서로 다른 마커로 인식될 수 있다. 전술한 바와 같이, 4개의 터치포인트(TP)로 구성된 마커(M)가 복수개일 경우에는 4개의 터치포인트(TP)의 터치면적(TA)을 각각 다르게 형성하거나 각각의 터치포인트(TP)에 대한 위치 좌표 정보를 조합하여 마커(M)들이 서로 다르게 인식될 수 있도록 할 수 있다.Referring to (c) and (d) of FIG. 6 , four touch points TP are disposed at the third and fourth markers M3 and M4. The touch points TP of the third marker M3 are disposed at each of the four corners of the third marker M3, and the touch points TP of the fourth marker M4 are located on one side of the fourth marker M4. Two touch points TP are disposed at both corners, and two touch points TP are disposed between both corners of one side and the other side facing each other. Therefore, the touch pattern CP formed by the touch points TP of the third marker M3 is a rectangular pattern identical to the shape of the third marker M3, and the touch point TP of the fourth marker M4 The touch pattern CP formed by these has a trapezoidal shape. That is, since the number of touch points TP disposed on the third and fourth markers M3 and M4 is the same, but the shapes of the touch patterns CP are different, the two markers M3 and M4 are designated as different markers. can be recognized. As described above, when there are a plurality of markers M composed of four touch points TP, the touch areas TA of the four touch points TP are formed differently or By combining the location coordinate information, the markers M can be recognized differently.

도 6의 (e)의 제5 마커(M5)는 5개의 터치포인트(TP)를 구비하고 있고, 이들 터치포인트(TP)에 의해 형성되는 터치패턴(CP)은 오각형 구조를 갖는다. 따라서, (a) 내지 (d)의 제1 내지 제4 마커(M1, M2, M3, M4)들과 터치패턴(CP)의 모양이 다르기 때문에 구별될 수 있다. 전술한 바와 같이, 5개의 터치포인트(TP)로 구성된 마커(M)가 복수개일 겨우에는 5개의 터치포인트(TP)의 터치면적(TA)을 각각 다르게 형성하거나 각각의 터치포인트(TP)에 대한 위치 좌표 정보를 조합하여 마커(M)들이 서로 다르게 인식될 수 있도록 할 수 있다. The fifth marker M5 in (e) of FIG. 6 has five touch points TP, and the touch pattern CP formed by these touch points TP has a pentagonal structure. Accordingly, since the shape of the first to fourth markers M1, M2, M3, and M4 of (a) to (d) and the touch pattern CP are different, they can be distinguished. As described above, when there are a plurality of markers M composed of five touch points TP, the touch areas TA of the five touch points TP are formed differently or By combining the location coordinate information, the markers M can be recognized differently.

도 7에 도시된 바와 같이, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는 제공된 컨텐츠 게임이 체스 게임인 경우, 체스 게임에서 사용되는 도구(말)들이 어떤 도구인지를 인식할 수 있다. 즉, 체스 게임의 말들에는 각각 마커(M)가 부착될 수 있고, 마커(M)에는 말들 각각을 구분할 수 있도록 터치포인트(TP)의 개수 또는 터치포인트(TP)들로 이루어진 터치패턴(CP)의 모양을 다르게 설정할 수 있다.As shown in FIG. 7, when the provided content game is a chess game, the multi-cognitive training apparatus 100 using artificial intelligence of the present invention can recognize which tools (words) are used in the chess game. . That is, markers M may be attached to each piece of the chess game, and the number of touch points TP or touch patterns CP consisting of the touch points TP may be attached to the marker M to distinguish each piece. The shape of can be set differently.

체스 게임은 킹, 퀸, 비숍, 나이트, 룩, 폰으로 구성된 말들이 64개의 칸의 양측에 각각 배치되어 상대 킹을 잡는 방식으로 이루어진다. 따라서, 멀티 인지 훈련 장치(100)가 말들을 인식할 수 있어야 플레이어의 플레이에 의해 체스 게임을 진행할 수 있다. (a) 내지 (d)에서는 체스에 사용되는 킹, 퀸, 비숍 및 나이트의 하측에 마커(M)를 부착하여 말(도구)의 종류를 인식하도록 하였다. 킹에 부착된 마커(M)에는 터치포인트(TP)가 3개 배치되어 있고, 이들은 삼각형의 터치패턴(CP)을 형성한다. 퀸에 부착된 마커(M)에는 터치포인트(TP)가 4개 배치되어 있고, 이들은 (a)와 같이 삼각형 터치패턴(CP)의 구조로 형성되지만 중앙에 터치포인트(TP)가 추가로 배치되어 킹의 마커(M)와 구별될 수 있다. 전술한 바와 같이, 마커(M)의 인식은 터치포인트(TP)의 개수, 터치포인트(TP)들에 의해 형성되는 터치패턴(CP), 각 터치포인트(TP)의 면적(모양) 및 터치패턴(CP)의 면적 등이 조합하여 인식되기 때문에 터치포인트(TP)의 개수가 같더라도 서로 다른 마커(M)로 인식할 수 있다.A chess game consists of pieces composed of kings, queens, bishops, knights, rooks, and pawns placed on both sides of 64 squares to capture the opponent's king. Therefore, the multi-cognitive training apparatus 100 must be able to recognize the pieces so that the chess game can be played by the player's play. In (a) to (d), markers (M) are attached to the lower side of the king, queen, bishop, and knight used in chess to recognize the type of piece (tool). Three touch points TP are disposed on the marker M attached to the king, and they form a triangular touch pattern CP. Four touch points (TP) are arranged on the marker (M) attached to the queen, and they are formed in the structure of a triangular touch pattern (CP) as shown in (a), but an additional touch point (TP) is placed in the center It can be distinguished from the King's marker (M). As described above, the recognition of the marker M is based on the number of touch points TP, the touch pattern CP formed by the touch points TP, the area (shape) of each touch point TP, and the touch pattern. Since the areas of CP are combined and recognized, even if the number of touch points TP is the same, they can be recognized as different markers M.

도 8은 컨텐츠 게임이 두더지 게임과 같이, 플레이어가 뿅 망치(도구)를 이용하는 경우에 뿅 망치의 양측 가장자리면에 마커(M)를 부착하여 플레이어(Player1, Player2, Player3, Player4)를 구별할 수 있다.8 is a content game, like a mole game, when a player uses a hammer (tool), markers (M) are attached to both edge surfaces of the hammer to distinguish players (Player1, Player2, Player3, Player4). there is.

제1 플레이어(player1)가 갖는 뿅 망치의 마커(M)에는 3개의 터치포인트(TP)가 배치되어 있고, 제2 플레이어(player2)가 갖는 뿅 망치의 마커(M)에는 4개의 터치포인트(TP)가 배치되며, 제3 플레이어(player3)가 갖는 뿅 망치의 마커(M)에는 4개의 터치포인트(TP)가 배치되고, 제4 플레이어(player4)가 갖는 뿅 망치의 마커(M)에는 5개의 터치포인트(TP)가 배치된다. 도 7에서 설명한 바와 같이, 각 플레이어가 갖는 뿅 망치는 터치포인트(TP)의 개수, 터치포인트(TP)들에 의해 형성되는 터치패턴(CP), 각 터치포인트(TP)의 면적(모양) 및 터치패턴(CP)의 면적 등에 관한 정보를 조합하여 인식될 수 있다.Three touch points (TP) are arranged on the marker M of the poke hammer of the first player (player1), and four touch points (TP) are placed on the marker M of the poke hammer of the second player (player2). ) is placed, four touch points (TP) are placed on the marker M of the poke hammer of the third player (player3), and five touch points (TP) are placed on the marker M of the poke hammer of the fourth player (player4). A touch point TP is disposed. As described in FIG. 7, each player's hammer has the number of touch points (TP), the touch pattern (CP) formed by the touch points (TP), the area (shape) of each touch point (TP), and It can be recognized by combining information about the area of the touch pattern CP.

특히, 도 8과 같이 두더지 게임은 플레이어들 각각이 자신의 뿅 망치를 들고 두더지들이 표시되는 표시영역(DA)을 터치함으로써 진행되기 때문에 마커(M)에 배치된 터치포인트(TP)에 대한 정보와 멀티 인지 훈련 장치(100)에 배치된 제4 센서부(130d)에 의해 획득된 플레이어의 움직임 정보를 함께 이용할 수 있다.In particular, as shown in FIG. 8, since the mole game is progressed by each player holding his or her hammer and touching the display area DA where moles are displayed, information on the touch point TP disposed on the marker M and The motion information of the player acquired by the fourth sensor unit 130d disposed in the multi-cognitive training apparatus 100 may be used together.

즉, 뿅 망치에 배치된 마커(M)에는 터치포인트(TP)가 배치되어 있고, 뿅 망치의 마커(M)가 플레이어의 동작에 의해 표시영역(DA)과 접촉되면 터치포인트(TP)를 포함한 마커(M) 정보를 표시부(308)가 획득한다. 이때, 복수의 플레이어(player1, player2, player3, player4)들이 동시에 뿅 망치를 사용하는 경우, 보다 정확한 게임 결과 정보를 획득하기 위해 플레이어들의 움직임 정보를 추가적으로 고려할 수 있다.That is, the touch point TP is disposed on the marker M disposed on the hammer, and when the marker M of the hammer is brought into contact with the display area DA by the player's motion, the touch point TP including the touch point TP The display unit 308 acquires marker (M) information. In this case, when a plurality of players (player1, player2, player3, and player4) use hammers at the same time, motion information of the players may be additionally considered to obtain more accurate game result information.

예를 들어, 표시영역(DA)에서 뿅 망치로 터트려야할 풍선 또는 가격해야할 두더지들이 있고, 이들이 각각의 플레이어들(player1, player2, player3, player4)과 대응되도록 구분되어 있다면(색깔, 모양 등), 풍선 또는 두더지에 접촉되는(터치되는) 뿅 망치(플레이어)를 정확하게 구분할 수 있어여 게임 진행 및 게임 결과를 보여줄수 있다. 따라서, 특정 영역의 풍선 또는 두더지에 다수의 뿅 망치가 접촉(터치)한 경우, 뿅 망치와 풍선 또는 두더지와의 매칭을 정확하게 구분할 수 있도록 본 발명의 멀티 인지 훈련 장치(100)는 제4 센서부(130d)에 의한 플레이어의 움직임 정보를 추가적으로 고려한다. 이와 관련해서는 도 15에서 보다 구체적으로 설명한다.For example, if there are balloons to pop or moles to hit in the display area (DA), and they are classified to correspond to each player (player1, player2, player3, player4) (color, shape, etc.) , It is possible to accurately distinguish the hammer (player) that is in contact (touched) with a balloon or mole, so that game progress and game results can be displayed. Therefore, when a plurality of pop hammers contact (touch) a balloon or mole in a specific area, the multi-cognitive training apparatus 100 of the present invention is a fourth sensor unit so that matching between the pop hammer and the balloon or mole can be accurately distinguished. The motion information of the player by (130d) is additionally considered. This will be described in more detail with reference to FIG. 15 .

도 9는 컨텐츠 게임을 진행할 때, 사용자(플레이어)의 손가락 터치 정보를 사용하는 경우, 손가락에 대한 터치 정보와 그에 대한 컨텐츠 게임에서의 기능을 설명하기 위한 도면이다. 사용자(플레이어)는 (a)와 같이 검지 손가락으로 컨텐츠 게임의 캐릭터 또는 객체를 핑거터치(FT)를 하는 경우, 본 발명의 멀티 인지 훈련 장치(100)는 터치된 캐릭터 또는 객체를 선택하는 것으로 인식하고 설정된 기능을 하도록 할 수 있다.9 is a diagram for explaining finger touch information and functions in the content game when a user's (player's) finger touch information is used when a content game is played. When a user (player) performs a finger touch (FT) on a character or object of a content game with an index finger as shown in (a), the multi-cognitive training apparatus 100 of the present invention recognizes that the touched character or object is selected and enable the set function.

(b)와 같이 검지와 중지를 이용하여 제1 및 제2 핑거터치(FT1, FT2)를 하는 경우, 본 발명의 멀티 인지 훈련 장치(100)는 컨텐츠 게임에서 터치된 캐릭터 또는 객체의 크기를 조절하는 것으로 인식하고 기능하도록 할 수 있다. (c)와 같이 검지, 중지 및 약지(또는 엄지, 검지 및 중지)로 제1 내지 제3 핑거터치(FT1, FT2, FT3)를 하는 경우, 본 발명의 멀티 인지 훈련 장치(100)는 터치된 캐릭터 또는 객체를 이동하는 것으로 인식하고 기능하도록 할 수 있다.As in (b), when the first and second finger touches FT1 and FT2 are performed using the index and middle fingers, the multi-cognitive training apparatus 100 of the present invention adjusts the size of the touched character or object in the content game It can be recognized as doing and functioning. As in (c), when the first to third finger touches FT1, FT2, and FT3 are performed with the index, middle, and ring fingers (or thumb, index and middle fingers), the multi-cognitive training apparatus 100 of the present invention is touched It can recognize a character or object as moving and make it function.

(d)와 같이, 검지, 중지, 약지 및 새끼손가락(또는 엄지, 검지, 중지 및 약지)을 이용하여 제1 내지 제4 핑거터치(FT1, FT2, FT3, FT4)를 하는 경우, 본 발명의 멀티 인지 훈련 장치(100)는 컨텐츠 게임에서 터치된 캐릭터 또는 객체를 회전하는 것으로 인식하고 기능하도록 할 수 있다.As in (d), when the first to fourth finger touches (FT1, FT2, FT3, FT4) are performed using the index finger, middle finger, ring finger, and little finger (or thumb, index finger, middle finger, and ring finger), The multi-cognitive training apparatus 100 may recognize and function as rotating a character or object touched in a content game.

도 10의 (a)는 표시영역(DA)에 터치되는 터치부분을 위치 좌표 형태로 인식하는 것이고, (b)는 마커(M)와 같이 터치포인트(TP)들이 배치된 경우에는 해당 터치포인트(TP)에 대해 ①번, ②번, ③번을 지정하여 하나의 터치 ID로 인식하는 것이며, (c)는 전술한 바와 같이, 마커(M)에 배치된 터치포인트(TP)의 면적 또는 모양을 다르게 하는 경우와 사람의 손가락에 의한 핑거터치(FT)로 인한 면적을 인식하는 것을 나타낸다.(a) of FIG. 10 recognizes the touch portion touched on the display area DA in the form of positional coordinates, and (b) shows that when touch points TP are arranged like the marker M, the corresponding touch point ( TP) is recognized as one touch ID by specifying numbers ①, ②, and ③, and (c), as described above, the area or shape of the touch point (TP) disposed on the marker (M) It represents the case of doing differently and recognizing the area due to the finger touch (FT) by a person's finger.

표시영역(DA)에 터치포인트(TP) 또는 손가락에 의한 터치가 입력되는 경우, 해당 터치 부분에 대해 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는 표시영역(DA)의 가로축(X 좌표)과 세로축(Y 좌표)로 이루어진 터치 좌표를 계산한다. 따라서, 본 발명의 멀티 인지 훈련 장치(100)는 표시영역(DA)에 터치 입력이 제공되는 경우, 터치 부분에 대한 위치 좌표를 인식한다.When a touch point (TP) or a touch by a finger is input to the display area (DA), the multi-cognitive training apparatus 100 using the artificial intelligence of the present invention for the touch portion is the horizontal axis (X) of the display area (DA). coordinate) and the vertical axis (Y coordinate). Accordingly, the multi-cognitive training apparatus 100 of the present invention recognizes the positional coordinates of the touch portion when a touch input is provided to the display area DA.

또한, (b)는 표시영역(DA)에 같은 개수의 터치포인트(TP) 또는 서로 다른 개수의 터치포인트(TP)를 갖는 복수의 마커(M)들 또는 손가락에 의한 핑거터치(FT)가 입력되는 경우, 해당 터치콘택부에 대해 ①번, ②번, ③번과 같이 넘버링을 하여 터치패턴(CP) 등의 정보를 획득할 수 있다. 즉, 터치콘택부들로 구성된 터치패턴(CP)에 대해 모양, 크기, 각 터치콘택부의 위치 정보에 기초하여 터치 ID를 설정할 수 있다.Also, in (b), a plurality of markers M having the same number of touch points TP or different numbers of touch points TP in the display area DA or a finger touch FT by a finger is input In this case, information such as a touch pattern (CP) may be obtained by numbering the corresponding touch contact unit as ①, ②, and ③. That is, the touch ID may be set based on the shape, size, and location information of each touch contact unit for the touch pattern CP composed of touch contact units.

또한, (c)에서와 같이, 마커(M)에 배치된 터치포인트(TP)들과 손가락에 의한 핑거터치(FT)들에 의해 표시영역(DA)에서 인식되는 터치면적(TA)을 기반으로 표시영역(DA)에 터치되는 객체 등을 식별하도록 할 수 있다.In addition, as in (c), based on the touch area TA recognized in the display area DA by the touch points TP disposed on the marker M and the finger touches FT by the fingers An object or the like touched on the display area DA may be identified.

예를 들어, 터치포인트(TP)들이 배치된 마커(M) 또는 손가락에 의한 핑거터치(FT)가 표시영역(DA)을 통해 입력되면 본 발명의 멀티 인지 훈련 장치(100)는 각 터치콘택부에 대한 위치 좌표(x, y)를 인식한다. 컨텐츠 게임을 복수의 사용자가 진행할 경우, 표시영역(DA)에는 많은 터치콘택부(터치포인트 또는 손가락에 의한 터치 등)들이 인식되는데, 이러한 터치정보들 중 유효한 터치정보만을 필터링할 필요가 있다. 마커(M)의 터치포인트(TP)들에 의한 마커 정보나 손가락에 의한 기능 정보는 미리 설정되어 저장된다. 이후, 표시영역(DA)에 터치입력들이 제공되면 표시영역(DA)에 터치된 많은 터치정보 중 유효한 정보만을 추출할 필요가 있다.For example, when a marker M where touch points TP are arranged or a finger touch FT by a finger is input through the display area DA, the multi-cognitive training apparatus 100 of the present invention provides each touch contact unit Recognizes the positional coordinates (x, y) for When a plurality of users play a content game, many touch contact units (touch points or finger touches, etc.) are recognized in the display area DA, and it is necessary to filter only valid touch information among such touch information. Marker information by the touch points TP of the marker M or function information by a finger are set in advance and stored. Thereafter, when touch inputs are provided to the display area DA, it is necessary to extract only valid information from a lot of touch information touched on the display area DA.

도 11은 표시영역(DA)에 입력되는 터치콘택부(TC)들로 부터 가능한 터치패턴(CP)을 추정한 모습을 도시한 도면이고, 도 12는 터치콘택부(TC)와 같은 터치정보들과 대응되는 터치 ID를 나타낸 도면이며, 도 13은 터치 ID에 대응하는 기능을 표시영역(DA)에서 플레이되는 컨텐츠 게임에 적용한 도면이다.11 is a diagram showing possible touch patterns CP estimated from touch contact units TC input to the display area DA, and FIG. 12 shows touch information such as the touch contact unit TC. 13 is a diagram showing a touch ID corresponding to , and FIG. 13 is a diagram in which a function corresponding to a touch ID is applied to a content game played in the display area DA.

도 11 내지 도 13을 참조하면, 표시영역(DA)은 컨텐츠 게임에 사용하는 도구, 플레이어(사용자)의 마커(M) 및 플레이어의 손가락 터치 정보 등이 입력될 수 있다. 따라서, 도 11에 도시한 바와 같이, 표시영역(DA)에는 많은 수의 터치콘택부(TC)들이 인식될 수 있고, 이러한 터치콘택부(TC)들로 이루어진 터치패턴들(CP)이 다수개 나타날 수 있다. 도면에 도시된 바와 같이, 표시영역(DA)에 16개의 터치콘택부(TC)들이 인식되는 경우, 16개의 터치콘택부(TC)로 인식될 수 있는 터치패턴(CP)들은 제1 내지 제11 터치패턴(P1~P11)이다.Referring to FIGS. 11 to 13 , in the display area DA, a tool used for a content game, a player's (user's) marker M, and player's finger touch information may be input. Therefore, as shown in FIG. 11 , a large number of touch contact units TC can be recognized in the display area DA, and a plurality of touch patterns CP formed of these touch contact units TC are provided. can appear As shown in the drawing, when 16 touch contact units TC are recognized in the display area DA, touch patterns CP that can be recognized as 16 touch contact units TC are first to eleventh. These are the touch patterns (P1 to P11).

하지만, 제1 내지 제11 터치패턴(P1~P11)들이 모두 컨텐츠 게임, 플레이어의 손가락 터치 또는 플레이어의 마커(M) 정보를 제공하는 것이 아니기 때문에 이들 터치패턴들 중 유효한 터치패턴들을 선별할 필요가 있다.However, since the first to eleventh touch patterns P1 to P11 do not all provide content game, player's finger touch, or player's marker M information, it is necessary to select valid touch patterns among these touch patterns. there is.

도 12에 도시한 바와 같이, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는 (a) 내지 (d)에 도시한 터치콘택부(TC)로 구성되는 터치패턴(CP)을 터치 ID 형태(ID11, ID21, ID23, ID105)로 저장한다. 터치 ID 정보는 전술한 바와 같이, 터치콘택부(TC)들로 이루어지는 터치패턴(CP)의 모양뿐 아니라 각 터치콘택부(TC)의 면적들에 대한 정보, 터치콘택부(TC)의 방향, 터치패턴(CP)의 면적 정보들을 조합하여 하나의 터치 ID 정보로 저장된다.As shown in FIG. 12, the multi-cognitive training apparatus 100 using artificial intelligence of the present invention uses the touch pattern CP composed of the touch contact units TC shown in (a) to (d) as a touch ID. It is saved in the form (ID11, ID21, ID23, ID105). As described above, the touch ID information includes not only the shape of the touch pattern CP composed of the touch contact units TC, but also information on the areas of each touch contact unit TC, the direction of the touch contact unit TC, Area information of the touch pattern CP is combined and stored as one touch ID information.

따라서, 도 11에서와 같이, 표시영역(DA)에 복수의 터치콘택부(TC)들이 입력되면 이들 터치콘택부(TC)들로 이루어지는 제1 내지 제11 터치패턴(P1~P11)들을 인식한 후, 인식된 제1 내지 제11 터치패턴(P1~P11)들과 기 저장된 터치 ID 정보를 비교하여 현재 제공되는 컨텐츠 게임에 유효적절한 정보만을 선택한다. Therefore, as shown in FIG. 11 , when a plurality of touch contact units TC are input to the display area DA, the first to eleventh touch patterns P1 to P11 made of these touch contact units TC are recognized. Then, the recognized first to eleventh touch patterns P1 to P11 are compared with pre-stored touch ID information to select only information valid for the currently provided content game.

도 13에 도시한 바와 같이, 도 11에서 인식된 제1 내지 제11 터치패턴(P1~P11) 중 제1 터치패턴(P1: ID11)과 제4 터치패턴(P4: ID23), 제11 터치패턴(P11: ID21) 및 제7 터치패턴(P7: ID105)만이 멀티 인지 훈련 장치(100)에 기 저장된 정보와 매칭되는 것을 볼 수 있다. 제7 터치패턴(P7)은 기저장된 정보의 터치패턴과 일치하지만 현재 컨텐츠 게임에서는 사용하지 않는 터치패턴일 경우에는 표시영역(DA) 상에서 기능하지 않는다.As shown in FIG. 13, among the first to eleventh touch patterns P1 to P11 recognized in FIG. 11, the first touch pattern P1: ID11, the fourth touch pattern P4: ID23, and the eleventh touch pattern It can be seen that only (P11: ID21) and the seventh touch pattern (P7: ID105) are matched with information pre-stored in the multi-cognitive training apparatus 100. The seventh touch pattern P7 matches the touch pattern of the pre-stored information, but does not function on the display area DA if the touch pattern is not currently used in the content game.

제1 터치패턴(P1: ID11)은 캐릭터(사람)를 지시하고 위치한 방향으로 이동하는 동작을 진행하는 기능을 수행하고, 제4 터치패턴(P4: ID23)은 컨텐츠 게임에서 범위 내의 객체 이동 속도를 2배로 증가시키는 효과 기능을 수행하며, 제11 터치패턴(P11: ID21)은 차량을 지시하고 위치한 방향으로 이동하는 동작을 진행하는 기능을 수행하고, 제7 터치패턴(P7: ID105)은 현재 실행 중인 컨텐츠 게임에서는 등록된 객체나 기능 데이터가 없다.The first touch pattern (P1: ID11) instructs a character (person) and performs a function of moving in the direction where it is located, and the fourth touch pattern (P4: ID23) controls the movement speed of an object within a range in a content game. It performs the function of doubling, the 11th touch pattern (P11: ID21) performs the function of instructing the vehicle and moving in the direction in which it is located, and the 7th touch pattern (P7: ID105) is currently being executed. In the content game being played, there are no registered objects or function data.

따라서, 도 13에 도시한 바와 같이, 표시영역(DA)에 표시되는 제1 내지 제11 터치패턴(P1~P11)들 중 제1 터치패턴(P1: ID11), 제4 터치패턴(P4: ID23) 및 제11 터치패턴(P11: ID21)에 대해서만 컨텐츠 게임 내에서 작동하는 것을 볼 수 있다.Accordingly, as shown in FIG. 13 , among the first to eleventh touch patterns P1 to P11 displayed on the display area DA, the first touch pattern P1: ID11 and the fourth touch pattern P4: ID23 ) and the 11th touch pattern (P11: ID21) only works in the content game.

이와 같이, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 치매 환자 또는 인지 능력이 낮은 환자에게 시각, 청각 및 물리적 움직임과 같은 다양한 인지 훈련 및 인지 자극을 제공할 수 있는 효과가 있다.As such, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention provides various cognitive training and cognitive stimulation such as visual, auditory, and physical movements to dementia patients or patients with low cognitive abilities. There are effects that can be done.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 복수의 치매 환자 또는 인지 능력이 낮은 환자들이 동시에 협동하는 방식으로 인지 훈련 및 인지 자극을 제공받을 수 있는 효과가 있다.In addition, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention can provide cognitive training and cognitive stimulation in a manner in which a plurality of dementia patients or patients with low cognitive abilities cooperate at the same time It works.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 딥러닝에 의한 학습 모델을 통해 플레이어들이 컨텐츠 게임을 플레이하면서 표시영역에 입력한 다양한 터치패턴들을 분석한 후, 터치패턴을 입력하는 객체 또는 플레이어를 정확히 인식할 수 있는 효과가 있다.In addition, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention analyzes various touch patterns input to the display area while players play the content game through a learning model based on deep learning. After that, there is an effect of accurately recognizing an object or a player inputting a touch pattern.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 컨텐츠 게임을 플레이하는 플레이어의 동작과 표시영역에 입력된 패턴들을 기초로 컨텐츠 게임에서 터치 입력을 제공하는 플레이어들을 구별할 수 있는 효과가 있다.In addition, a content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention provides touch input in the content game based on the motion of the player playing the content game and patterns input to the display area It has the effect of distinguishing players.

도 14는 본 발명의 일실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치의 인식부의 구체적인 구성을 도시한 블럭도이다. 도 15는 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치의 판단부에 대한 구체적인 블럭도이다. 도 16은 본 발명의 실시예에 따른 인공지능을 이용한 멀티 인지 훈련 장치가 복수의 플레이어들을 인식하는 모습을 설명하기 위한 도면이다.14 is a block diagram showing a specific configuration of a recognition unit of a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention. 15 is a specific block diagram of a judgment unit of a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention. 16 is a diagram for explaining how a multi-cognitive training apparatus using artificial intelligence according to an embodiment of the present invention recognizes a plurality of players.

도 2 및 도 3과 함께 도 14와 도 15를 참조하면, 본 발명의 인공지능을 이용한 멀티 인지 훈련 장치(100)는, 제1 내지 제4 센서부(130a, 130b, 130c, 130d), 입력부(301), 저장부(302), 구동부(303), 컨텐츠 제공부(304), 제어부(305), 인식부(306), 판단부(307) 및 표시부(308)를 포함한다. 인식부(306)는 표시부(308)를 통해 입력되는 터치 정보를 인식하고 분석하여 객체를 인식하기 위한 패턴 인식부(306a), 패턴 분석부(306b), 패턴 데이터베이스(306c, Pattern Data Base), 객체 인식부(306d) 및 객체 데이터베이스(306e, Object Data Base)를 포함한다.14 and 15 together with FIGS. 2 and 3, the multi-cognitive training apparatus 100 using artificial intelligence of the present invention includes first to fourth sensor units 130a, 130b, 130c, and 130d, an input unit 301, a storage unit 302, a drive unit 303, a content providing unit 304, a control unit 305, a recognizing unit 306, a determination unit 307, and a display unit 308. The recognition unit 306 recognizes and analyzes touch information input through the display unit 308 to recognize a pattern recognition unit 306a, a pattern analysis unit 306b, a pattern database 306c (Pattern Data Base), It includes an object recognition unit 306d and an object database 306e (Object Data Base).

전술한 바와 같이, 본 발명의 멀티 인지 훈련 장치(100)에 배치된 저장부(302)는 마커(M)들의 터치패턴들(CP)과 사용자의 손가락에 의한 핑거터치로 구성된 터치패턴들(CP)에 대한 정보들이 저장되어 있다. 표시부(308)의 표시영역(DA)을 통해 플레이어(사용자)의 핑거터치 및 마커(M)의 터치포인트(TP)들에 의한 터치 정보들이 입력되면 인식부(306)에 배치된 패턴 인식부(306a)에 전달된다.As described above, the storage unit 302 disposed in the multi-cognitive training apparatus 100 of the present invention is the touch patterns CP composed of the touch patterns CP of the markers M and the finger touch by the user's finger ) is stored. When the touch information by the player's (user's) finger touch and the marker's (M's) touch points (TP) are input through the display area (DA) of the display unit (308), the pattern recognition unit ( 306a).

도 11에서 설명한 바와 같이, 마커(M)에 배치된 터치포인트(TP)들과 플레이어의 손가락에 의해 제공되는 터치에 의해 표시영역(DA)에 다수의 터치콘택부(TC) 형태로 터치 정보가 입력된다. As described in FIG. 11, touch information is generated in the form of a plurality of touch contact units TC in the display area DA by the touch provided by the touch points TP disposed on the marker M and the player's finger. is entered

패턴 분석부(306b)는 유효 터치 영역으로 결정된 터치 정보를 기초로 터치콘택부(TC)들에 의해 형성되는 터치패턴(CP)들을 분석한다. 즉, 패턴 DB(306c)에 저장된 패턴 정보에 기초하여 표시영역(DA)에 입력된 터치콘택부(TC)들에 의한 터치패턴(CP)들이 객체를 지시하는 터치패턴인지 또는 특정 기능(효과)을 구현하는 터치패턴인지를 분석한다. 패턴 DB(306c)는 인식부(306a)의 구성으로 도시되어 있지만, 멀티 인지 훈련 장치(100)의 저장부(302)의 일부로 구현될 수 있다.The pattern analyzer 306b analyzes the touch patterns CP formed by the touch contact units TC based on touch information determined as an effective touch area. That is, based on the pattern information stored in the pattern DB 306c, the touch patterns CPs by the touch contact units TC input to the display area DA are touch patterns indicating objects or specific functions (effects). It analyzes whether it is a touch pattern that implements . The pattern DB 306c is shown as a configuration of the recognition unit 306a, but may be implemented as a part of the storage unit 302 of the multi-cognitive training apparatus 100.

패턴 분석부(306b)가 표시영역(DA)에 입력된 터치콘택부(TC)들의 터치패턴들(CP)을 분석한 후, 그 결과들은 객체 인식부(306d)에 제공된다. 객체 인식부(306d)는 패턴 분석부(306b)에서 분석된 터치패턴들(CP)이 어떤 객체 또는 특정 기능과 관련되어 있는지를 인식한다. 객체 인식부(306d)는 객체 데이터베이스(306e)에 저장된 객체 정보(터치패턴에 대응하는 특정 효과 및 기능 정보를 포함한다)에 기초하여 패턴 분석부(306b)에서 제공된 터치패턴(CP)을 비교한다. 즉, 객체 데이터베이스(306e)는 각 컨텐츠 게임에서 활동하는 캐릭터들과 게임에서 수행할 수 있는 특정한 효과 및 기능 정보와 터치패턴(CP)들이 룩업 테이블 형태로 리스트화 되어 있다. 따라서, 패턴 분석부(306b)에서 분석된 터치패턴(CP)들에 대해 동일한 터치패턴(CP)을 갖는 캐릭터 또는 게임에서의 특정 효과 및 기능을 매칭시킬 수 있다. 이때, 객체 인식부(306d)는 컨텐츠 정보를 제공받아, 현재 컨텐츠 게임에서의 사용되는 객체 또는 특정 기능을 인식할 수 있다.After the pattern analyzer 306b analyzes the touch patterns CP of the touch contact units TC input to the display area DA, the results are provided to the object recognizer 306d. The object recognizer 306d recognizes which object or specific function the touch patterns CP analyzed by the pattern analyzer 306b are associated with. The object recognizing unit 306d compares the touch pattern CP provided from the pattern analyzing unit 306b based on object information (including specific effect and function information corresponding to the touch pattern) stored in the object database 306e. . That is, in the object database 306e, characters active in each content game, information on specific effects and functions that can be performed in the game, and touch patterns (CPs) are listed in the form of a lookup table. Accordingly, a character having the same touch pattern CP or a specific effect or function in a game may be matched to the touch patterns CP analyzed by the pattern analyzer 306b. At this time, the object recognition unit 306d may receive content information and recognize an object or a specific function currently used in the content game.

또한, 객체 인식부(306d)는 저장부(302)에 저장되어 있는 각 컨텐츠 게임 정보를 제공받아, 터치패턴(CP)으로 인식되었지만 현재 진행하는 컨텐츠 게임과 관련해서 유효한(사용하는) 터치패턴인지를 필터링할 수 있다. 예를 들어, 패턴 분석부(306b)가 터치패턴(CP)으로 분석하였지만, 현재 사용자에게 제공되는 컨텐츠 게임에서는 사용하지 않는 객체 또는 특정 효과(기능)인 경우에는 객체 인식부(306d)에서 필터링될 수 있다.In addition, the object recognition unit 306d receives each content game information stored in the storage unit 302 and recognizes it as a touch pattern (CP), but determines whether or not the touch pattern is valid (used) in relation to the current content game. can be filtered. For example, if the pattern analysis unit 306b analyzes the touch pattern (CP), but is not currently used in the content game provided to the user or a specific effect (function), the object recognition unit 306d will filter it out. can

객체 인식부(306d)에서 터치패턴(CP)과 객체(또는 게임의 특정 효과)가 매칭되면 판단부(307)에서는 최종적으로 표시영역(DA)에 입력된 터치 정보에 대한 결정을 수행할 수 있다. 예를 들어, 터치패턴(CP)으로 인식되었지만 객체(도구)가 아니라 플레이어의 손가락에 의한 터치 정보인지를 매칭할 수 있다.When the object recognition unit 306d matches the touch pattern CP and the object (or the specific effect of the game), the determination unit 307 may finally determine the touch information input to the display area DA. . For example, although it is recognized as a touch pattern (CP), it may be matched whether it is touch information by a player's finger, not an object (tool).

본 발명의 멀티 인지 훈련 장치(100)의 판단부(307)는 복수의 플레이어가 디스플레이 유닛(100a) 상에서 컨텐츠 게임을 진행할 때, 표시영역(DA)에 입력되는 터치 정보가 어느 플레이어에 의해 입력된 터치 정보인지를 판단할 수 있다.The determination unit 307 of the multi-cognitive training apparatus 100 of the present invention determines which player inputs touch information to the display area DA when a plurality of players play a content game on the display unit 100a. It may be determined whether it is touch information.

판단부(307)는 제2 센서부(130b)와 제4 센서부(130d)에 의해 촬영된 영상을 플레이어의 얼굴 중심의 영상과 플레이어의 동작 중심의 영상으로 분리하는 영상 분리부(416)와, 상기 영상 분리부(416)에서 분리된 얼굴 영상과 동작 영상을 딥러닝에 의한 학습 모델(420)을 이용하여 추출할 수 있는 영상으로 변환하는 안면 영상 변환부(417) 및 동작 영상 변환부(418)와, 표시부에 입력되는 터치 정보(도구 또는 손가락의 터치포인트에 의해 접촉된 터치콘택부)를 변환하는 패턴 영상 변환부(419)와, 안면 영상 변환부(417), 동작 영상 변환부(418) 및 패턴 영상 변환부(419)로부터 출력되는 변환 영상을 기초로 플레이어 별로 영상을 추출하도록 기계 학습에 의해 구축된 학습 모델(420)과, 플레이어(얼굴), 플레이어의 동작(움직임) 및 플레이어가 사용하는 객체(도구: 표시부에 입력되는 터치 정보) 영상을 추출하는 분리 추출부(421)와, 제1 센서부(130a)로부터 제공되는 플레이어들의 위치 정보가 저장된 위치 정보 제공부(424)와, 분리 추출부(421)로부터 추출된 영상들과 위치 정보 제공부(424)로부터 제공되는 플레이어들의 위치 정보를 기초로 터치 정보가 어느 플레이어에 의한 것인지를 검사하는 검사부(422)와, 상기 검사부(422)에 의해 터치 정보와 플레이어들이 매칭되면 최종적으로 표시영역(DA)의 각 위치별 입력된 터치 정보에 대해 어느 플레이어에 의한 터치 입력인지를 결정하는 결정부(423)를 포함한다.The determination unit 307 includes an image separation unit 416 that separates the images captured by the second sensor unit 130b and the fourth sensor unit 130d into an image centered on the player's face and an image centered on the player's motion. , a face image conversion unit 417 and a motion image conversion unit that converts the face image and motion image separated by the image separation unit 416 into an image that can be extracted using a learning model 420 based on deep learning ( 418), a pattern image converting unit 419 that converts touch information input to the display unit (a touch contact unit contacted by a tool or a touch point of a finger), a face image converting unit 417, and a motion image converting unit ( 418) and the learning model 420 built by machine learning to extract images for each player based on the converted image output from the pattern image conversion unit 419, the player (face), the player's motion (movement), and the player A separation extraction unit 421 that extracts an image of an object (tool: touch information input to the display unit) used by the player, and a location information providing unit 424 in which location information of players provided from the first sensor unit 130a is stored. , an inspection unit 422 that inspects which player the touch information is based on the images extracted from the separation extraction unit 421 and the location information of the players provided from the location information providing unit 424, and the inspection unit ( 422), when the touch information and the players are matched, a decision unit 423 is included to finally determine which player is the touch input for the touch information input for each position of the display area DA.

여기서, 안면 영상 변환부(417), 동작 영상 변환부(418) 및 패턴 영상 변환부(419)는 센서부에 의해 촬영된 영상 및 표수부에 입력된 터치 정보에 대해 기계 학습을 진행할 수 있도록 영상 변환을 진행한다.Here, the facial image conversion unit 417, the motion image conversion unit 418, and the pattern image conversion unit 419 are used to perform machine learning on the image captured by the sensor unit and the touch information input to the surface area. proceed with the conversion.

도 16에 도시된 바와 같이, 멀티 인지 훈련 장치(100)에 의해 제공되는 컨텐츠 게임을 4명의 플레이어(player1, player2, player3, player4)가 플레이할 때, 각 플레이어들이 가지고 있는 망치를 이용하여 디스플레이 유닛(100a)의 터치패널에 터치 정보를 입력하는 방식으로 진행할 수 있다. 도면에서는 도구(객체)를 사용하는 것을 도시하였지만, 이것은 고정된 것이 아니다. 따라서, 각 플레이어의 손가락에 의한 핑거터치로 터치 정보를 입력하거나 다른 도구를 사용하여 터치 정보가 입력될 수 있다.As shown in FIG. 16, when four players (player1, player2, player3, player4) play the content game provided by the multi-cognitive training device 100, each player uses a hammer to display the unit. The method of inputting touch information to the touch panel of (100a) may be performed. Although the drawing shows using a tool (object), this is not fixed. Accordingly, touch information may be input by a finger touch of each player's finger or by using another tool.

표시영역에 표시되는 버블 중 각 플레이어가 자신의 버블을 터트려야할 경우, 플레이어는 망치(도구)를 이용하여 버블이 표시되는 표시영역을 터치하게 된다. 하지만, 동시에 복수의 플레이어가 터치 정보를 입력하거나 플레이어가 터치해야할 버블이 인접한 플레이어의 버블과 가깝게 있는 경우 또는 동시에 특정 영역을 동시에 망치를 이용하여 가격할 경우 어느 플레이어에 의한 터치 정보가 버블에 먼저 닿았는지를 정확히 판단할 필요가 있다.Among the bubbles displayed on the display area, when each player needs to pop their own bubble, the player touches the display area where the bubble is displayed using a hammer (tool). However, if multiple players input touch information at the same time, or if a bubble to be touched by a player is close to an adjacent player's bubble, or if a specific area is hit with a hammer at the same time, which player's touch information touches the bubble first It is necessary to accurately determine whether

이를 위해 본 발명의 멀티 인지 훈련 장치(100)는 기계 학습에 의해 구축된 학습 모델(420)을 이용할 수 있다. 학습모델(420)의 기계 학습은 신경망뿐만 아니라 의사결정나무 (Decision Tree)나 베이지안 망(Bayesian network), 서포트벡터머신(SVM: support vector machine)와 같은 기계 학습 알고리즘이 사용될 수 있다.To this end, the multi-cognitive training apparatus 100 of the present invention may use the learning model 420 built by machine learning. For machine learning of the learning model 420, not only a neural network but also a machine learning algorithm such as a decision tree, a Bayesian network, or a support vector machine (SVM) may be used.

예를 들어, 마스크 순환 컨볼루션 신경망(Mask-RCNN: Mask Recurrent Convolutional Neural Network)과 같은 완전 연결층(Fully Connected Layer)들을 갖는 신경망들을 포함할 수 있다. 따라서, 학습 모델(372)을 구성하는 신경망은 특징 피라미드망(FPN(Feature Pyramid Network)), 코어 신경망(Resnet), 영역 제안망(Region Proposal Network)을 포함할 수 있다. For example, it may include neural networks having fully connected layers such as Mask-RCNN (Mask Recurrent Convolutional Neural Network). Accordingly, the neural network constituting the learning model 372 may include a feature pyramid network (FPN), a core neural network (Resnet), and a region proposal network.

학습 모델(420)은 멀티 인지 훈련 장치(100)에서 제공되는 컨텐츠 게임을 플레이하는 플레이어들에 의해 표시영역(DA) 상에 입력되는 터치 정보들과 마커(M) 또는 손가락에 의한 터치 정보들 및 다수의 플레이어들에 대한 동작(움직임) 영상들을 기초로 하여 딥러닝 학습에 의해 구축될 수 있다.The learning model 420 includes touch information input on the display area DA by players playing the content game provided by the multi-cognitive training device 100, touch information by a marker M or a finger, and It can be built by deep learning based on motion (movement) images of multiple players.

인식부(306)는 표시영역(DA)에 입력되는 터치 정보들이 터치패턴(CP)을 구성하는지를 분석하고, 분석된 터치패턴(CP)이 객체(도구) 또는 플레이어의 손가락인지를 인식한다. 또한, 객체 인식부(306d)는 터치패턴(CP)이 컨텐츠 게임에서 사용되는 기능인지를 인식할 수 있다. 이와 같이, 인식된 터치패턴(CP)은 판단부(307)에서 최종 결정되어 제어부(305)를 통해 제어된다.The recognition unit 306 analyzes whether the touch information input to the display area DA constitutes the touch pattern CP, and recognizes whether the analyzed touch pattern CP is an object (tool) or a player's finger. Also, the object recognizer 306d may recognize whether the touch pattern CP is a function used in a content game. In this way, the recognized touch pattern CP is finally determined by the determination unit 307 and controlled by the control unit 305 .

또한, 판단부(307)는 복수의 플레이어가 컨텐츠 게임을 진행하는 경우, 각 플레이어가 입력하는 터치 정보를 인식하고 결정할 수 있다. 판단부(307)는 제2 센서부(130b)와 제4 센서부(130d)로부터 제공되는 플레이어 영상을 플레이어의 얼굴 영상과 플레이어의 동작 영상으로 분리하는 단계; 분리된 플레이어의 얼굴 영상과 동작 영상을 학습 모델(372)에 의한 기계 학습이 가능한 영상으로 변환하는 단계; 표시영역(DA)에 입력된 터치 정보를 학습 모델(372)에 의한 기계 학습이 가능한 영상으로 변환하는 단계; 변환된 얼굴 영상, 동작 영상 및 터치 정보 영상에 대해 학습 모델(372)에 의한 기계 학습을 진행하는 단계; 학습 모델(372)에 의한 기계 학습을 진행한 영상에 대해 각 플레이어 별로 관련 영상(얼굴 영상, 동작 영상 및 대응하는 터치 정보 영상)을 추출하는 단계; 추출된 영상과 제1 센서부(130a)에 의해 제공된 플레이어들의 위치 정보를 기초로 각각의 터치 정보들과 대응하는 플레이어들을 검사하는 단계; 및 각각의 터치 정보별 플레이어를 결정하는 단계를 수행한다.Also, when a plurality of players play a content game, the determination unit 307 may recognize and determine touch information input by each player. The determination unit 307 separates the player image provided from the second sensor unit 130b and the fourth sensor unit 130d into a player's face image and a player's motion image; converting the separated player's face image and motion image into an image capable of machine learning by a learning model 372; converting touch information input to the display area DA into an image capable of machine learning by a learning model 372; performing machine learning on the converted face image, motion image, and touch information image by the learning model 372; Extracting related images (face images, motion images, and corresponding touch information images) for each player with respect to the images subjected to machine learning by the learning model 372; inspecting players corresponding to each touch information based on the extracted image and the location information of the players provided by the first sensor unit 130a; and determining a player for each touch information.

표시영역(DA)에 입력되는 복수의 터치 정보들에 대응하는 플레이어는 전술한 바와 같이, 디스플레이 유닛(100a)의 측면 둘레를 따라 배치된 제1 센서부(130a)에 의해 플레이어들의 위치는 디스플레이 유닛(100a)의 좌우측 또는 상하측(전방과 후방)에 위치하는지를 판단할 수 있다. 또한, 좌우측 또는 상하측에 위치한 플레이어 중 어느 한 명이 망치(도구)를 사용하여 반대편 영역의 버블을 터트릴 경우, 버블을 터트리는 플레이어의 위치가 반대편에 위치한 플레이어보다 더 디스플레이 유닛(100a)에 가깝게 위치한다.As described above, the players corresponding to the plurality of pieces of touch information input to the display area DA are positioned by the first sensor unit 130a disposed along the circumference of the side of the display unit 100a. It can be determined whether it is located on the left and right sides or up and down (front and rear) of (100a). In addition, when one of the players located on the left and right or up and down uses a hammer (tool) to burst the bubble in the opposite area, the player who burst the bubble is located closer to the display unit 100a than the player located on the opposite side. .

만약, 좌우측 또는 상하측에 위치한 한쌍의 플레이어와 디스플레이 유닛(100a)의 거리가 비슷할 경우, 제2 센서부(130b)와 제4 센서부(130d)에 의해 촬영된 플레이어의 얼굴 영상 및 플레이어의 동작 영상을 추가적으로 고려하여 플레이어를 결정할 수 있다.If the distance between a pair of players located on the left and right sides or up and down and the display unit 100a is similar, the player's face image and the player's motion captured by the second sensor unit 130b and the fourth sensor unit 130d The player may be determined by additionally considering the video.

또한, 표시영역(DA)의 특정 영역에 적어도 하나 이상의 터치 정보가 입력되는 경우(예를 들어, 복수의 플레이어가 자신의 망치로 특정 영역을 터치한 경우), 표시영역(DA)에 입력되는 터치 정보의 터치 시간과 플레이어의 얼굴, 동작 영상 및 플레이어의 위치 정보를 함께 고려하여 결정할 수 있다. In addition, when at least one touch information is input to a specific area of the display area DA (for example, when a plurality of players touch a specific area with their hammers), the touch input to the display area DA It can be determined by considering the touch time of the information, the player's face, motion image, and the player's location information.

이와 같이, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 치매 환자 또는 인지 능력이 낮은 환자에게 시각, 청각 및 물리적 움직임과 같은 다양한 인지 훈련 및 인지 자극을 제공할 수 있는 효과가 있다.As such, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention provides various cognitive training and cognitive stimulation such as visual, auditory, and physical movements to dementia patients or patients with low cognitive abilities. There are effects that can be done.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 복수의 치매 환자 또는 인지 능력이 낮은 환자들이 동시에 협동하는 방식으로 인지 훈련 및 인지 자극을 제공받을 수 있는 효과가 있다.In addition, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention can provide cognitive training and cognitive stimulation in a manner in which a plurality of dementia patients or patients with low cognitive abilities cooperate at the same time It works.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 딥러닝에 의한 학습 모델을 통해 플레이어들이 컨텐츠 게임을 플레이하면서 표시영역에 입력한 다양한 터치패턴들을 분석한 후, 터치패턴을 입력하는 객체 또는 플레이어를 정확히 인식할 수 있는 효과가 있다.In addition, the content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention analyzes various touch patterns input to the display area while players play the content game through a learning model based on deep learning. After that, there is an effect of accurately recognizing an object or a player inputting a touch pattern.

또한, 본 발명에 따른 인공지능을 이용한 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스 및 방법은 컨텐츠 게임을 플레이하는 플레이어의 동작과 표시영역에 입력된 패턴들을 기초로 컨텐츠 게임에서 터치 입력을 제공하는 플레이어들을 구별할 수 있는 효과가 있다.In addition, a content game-based cognitive training device and method for multiple players using artificial intelligence according to the present invention provides touch input in the content game based on the motion of the player playing the content game and patterns input to the display area It has the effect of distinguishing players.

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler. A hardware device may be modified with one or more software modules to perform processing according to the present invention and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the present invention are examples and do not limit the scope of the present invention in any way. For brevity of the specification, description of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection of lines or connecting members between the components shown in the drawings are examples of functional connections and / or physical or circuit connections, which can be replaced in actual devices or additional various functional connections, physical connection, or circuit connections. In addition, if there is no specific reference such as “essential” or “important”, it may not be a component necessarily required for the application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, the detailed description of the present invention described has been described with reference to preferred embodiments of the present invention, but those skilled in the art or those having ordinary knowledge in the art will find the spirit of the present invention described in the claims to be described later. And it will be understood that the present invention can be variously modified and changed without departing from the technical scope. Therefore, the technical scope of the present invention is not limited to the contents described in the detailed description of the specification, but should be defined by the claims.

100: 멀티 인지 훈련 장치
100a: 디스플레이 유닛
100b: 베이스 유닛
120: 제1 지지부
121: 제2 지지부
123: 이동수단
130a: 제1 센서부
130b: 제2 센서부
130c: 제3 센서부
130d: 제4 센서부
301: 입력부
302: 저장부
303: 구동부
304: 컨텐츠 제공부
305: 제어부
306: 인식부
307: 판단부
308: 표시부
TP: 터치 포인트
TA: 터치면적
CP: 터치패턴
TD: 터치포인트의 방향
100: multi-cognitive training device
100a: display unit
100b: base unit
120: first support
121: second support
123: means of transportation
130a: first sensor unit
130b: second sensor unit
130c: third sensor unit
130d: fourth sensor unit
301: input unit
302: storage unit
303: driving unit
304: content provision unit
305: control unit
306: recognition unit
307: judgment unit
308: display unit
TP: touch point
TA: touch area
CP: Touch pattern
TD: direction of touchpoint

Claims (11)

컨텐츠 게임을 표시하고, 상기 컨텐츠 게임에 대한 터치입력을 감지하는 디스플레이 유닛; 및
상기 디스플레이 유닛을 제어하는 관리시스템을 포함하고,
상기 관리시스템은,
상기 감지된 터치입력을 수신하고, 상기 컨텐츠 게임을 표시하도록 상기 디스플레이 유닛을 제어하는 표시부;
상기 컨텐츠 게임에 관한 정보 및 상기 컨텐츠 게임을 플레이하는 유저에 대한 정보를 저장하는 저장부;
상기 표시부에서 수신된 터치입력에 대한 터치 패턴을 인식하는 인식부;
상기 인식부에서 인식된 터치 패턴에 대응되는 객체 정보를 결정하는 판단부; 및
상기 판단부에서 결정된 객체 정보에 따라서 상기 컨텐츠 게임에 대한 특정 입력 또는 상기 터치입력의 주체를 결정하는 제어부를 포함하고,
상기 표시부는, 마커에 부착된 적어도 하나 이상의 터치 포인트에 따른 터치입력을 감지하고,
상기 인식부는, 상기 터치 포인트의 크기, 모양, 위치 및 개수 중 적어도 하나의 파라미터에 따른 터치 패턴을 인식하고,
상기 판단부는, 상기 인식된 터치 포인트의 터치 패턴에 따라서 상기 마커에 대한 사용자 또는 도구를 객체 정보로 결정하는
복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스.
a display unit that displays a content game and senses a touch input for the content game; and
Includes a management system for controlling the display unit,
The management system,
a display unit that receives the sensed touch input and controls the display unit to display the content game;
a storage unit for storing information about the content game and information about a user playing the content game;
a recognition unit recognizing a touch pattern for a touch input received from the display unit;
a determination unit determining object information corresponding to the touch pattern recognized by the recognition unit; and
A control unit for determining a specific input for the content game or a subject of the touch input according to the object information determined by the determination unit;
The display unit senses a touch input according to at least one touch point attached to the marker,
The recognizing unit recognizes a touch pattern according to at least one parameter among the size, shape, location, and number of the touch points;
The determination unit determines a user or a tool for the marker as object information according to the touch pattern of the recognized touch point.
A cognitive training device based on content games for multiple players.
삭제delete 제 1 항에 있어서,
상기 제어부는, 상기 컨텐츠 게임을 진행하는 복수의 사용자 중 상기 판단부에서 결정된 상기 마커에 대한 사용자를 상기 터치입력의 주체인 사용자로 결정하는
복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스.
According to claim 1,
The control unit determines the user for the marker determined by the determination unit among the plurality of users playing the content game as the user who is the subject of the touch input.
A cognitive training device based on content games for multiple players.
제 1 항에 있어서,
상기 제어부는, 상기 컨텐츠 게임을 진행하기 위한 복수의 도구 중 상기 판단부에서 결정된 상기 마커에 대한 도구를 기초로 상기 컨텐츠 게임을 진행하도록 제어하는
복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스.
According to claim 1,
The control unit controls to proceed with the content game based on a tool for the marker determined by the determination unit among a plurality of tools for playing the content game.
A cognitive training device based on content games for multiple players.
제 4 항에 있어서,
상기 저장부는, 복수의 도구 종류 별 매칭된 마커의 터치 포인트의 정보를 리스트로 저장하고,
상기 판단부는, 상기 인식된 터치 패턴과 매칭되는 마커의 터치 포인트를 검출하고, 상기 검출된 마커의 터치 포인트에 매칭된 도구를 결정하고,
상기 제어부는, 상기 결정된 도구가 상기 터치입력 위치에 배치된 것을 기초로 상기 컨텐츠 게임을 진행하는
복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스.
According to claim 4,
The storage unit stores information on touch points of markers matched by a plurality of tool types as a list,
The determination unit detects a touch point of a marker that matches the recognized touch pattern, determines a tool matched to the detected touch point of the marker,
The control unit proceeds with the content game based on the determined tool being disposed at the touch input location.
A cognitive training device based on content games for multiple players.
제 5 항에 있어서,
상기 컨텐츠 게임으로 체스 게임이고,
상기 저장부는, 체스의 말의 종류 별 하측에 배치된 마커에 대한 터치 포인트의 정보를 리스트로 저장하고,
상기 판단부는, 상기 리스트에서 상기 인식된 터치 패턴에 매칭된 터치 포인트 정보를 검출하고,
상기 제어부는, 상기 검출된 터치 포인트에 매칭된 체스의 말 종류가 상기 터치입력에 대응되는 위치에 배치된 것으로 판단하여 상기 체스 게임을 진행하도록 제어하는
복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스.
According to claim 5,
The content game is a chess game,
The storage unit stores information on touch points for markers disposed below each type of chess piece in a list,
The determination unit detects touch point information matched to the recognized touch pattern from the list;
The control unit determines that the type of chess piece matched with the detected touch point is disposed at a position corresponding to the touch input and controls the chess game to proceed.
A cognitive training device based on content games for multiple players.
제 1 항에 있어서,
상기 제어부는, 상기 디스플레이 유닛의 전체 표시영역에 대해 하나의 컨텐츠 게임을 표시하도록 제어하고,
상기 표시부는, 상기 컨텐츠 게임에 대해 터치입력을 수신하고,
상기 판단부는, 상기 터치입력에 대한 사용자를 결정하는
복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스.
According to claim 1,
The control unit controls to display one content game on the entire display area of the display unit;
The display unit receives a touch input for the content game,
The determination unit determines a user for the touch input.
A cognitive training device based on content games for multiple players.
컨텐츠 게임을 표시하고, 상기 컨텐츠 게임에 대한 터치입력을 감지하는 디스플레이 유닛; 및
상기 디스플레이 유닛을 제어하는 관리시스템을 포함하고,
상기 관리시스템은,
상기 감지된 터치입력을 수신하고, 상기 컨텐츠 게임을 표시하도록 상기 디스플레이 유닛을 제어하는 표시부;
상기 컨텐츠 게임에 관한 정보 및 상기 컨텐츠 게임을 플레이하는 유저에 대한 정보를 저장하는 저장부;
상기 표시부에서 수신된 터치입력에 대한 터치 패턴을 인식하는 인식부;
상기 인식부에서 인식된 터치 패턴에 대응되는 객체 정보를 결정하는 판단부; 및
상기 판단부에서 결정된 객체 정보에 따라서 상기 컨텐츠 게임에 대한 특정 입력 또는 상기 터치입력의 주체를 결정하는 제어부를 포함하고,
상기 컨텐츠 게임은 복수의 사용자에게 주어진 각각의 도구로 터치입력하여 진행하는 게임이고,
상기 복수의 사용자의 각각의 도구에는 서로 다른 마커가 배치되고,
상기 판단부는, 상기 터치입력의 터치 패턴에 따른 마커를 구비한 도구 정보를 결정하고,
상기 제어부는, 상기 도구 정보를 가진 사용자를 상기 터치입력에 주체로 결정하여 상기 컨텐츠 게임을 진행하도록 제어하는
복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 디바이스.
a display unit that displays a content game and senses a touch input for the content game; and
Includes a management system for controlling the display unit,
The management system,
a display unit that receives the sensed touch input and controls the display unit to display the content game;
a storage unit for storing information about the content game and information about a user playing the content game;
a recognition unit recognizing a touch pattern for a touch input received from the display unit;
a determination unit determining object information corresponding to the touch pattern recognized by the recognition unit; and
A control unit for determining a specific input for the content game or a subject of the touch input according to the object information determined by the determination unit;
The content game is a game played by touch input with each tool given to a plurality of users,
Different markers are disposed on each tool of the plurality of users,
The determination unit determines tool information having a marker according to a touch pattern of the touch input;
The control unit determines the user having the tool information as the subject of the touch input and controls the content game to proceed.
A cognitive training device based on content games for multiple players.
컨텐츠 게임을 표시하고, 상기 컨텐츠 게임에 대한 터치입력을 감지하는 디스플레이 유닛과, 상기 디스플레이 유닛을 제어하는 관리시스템을 포함하는 멀티 인지 훈련 장치에서 제공하는 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 방법으로서,
상기 컨텐츠 게임을 표시하도록 상기 디스플레이 유닛을 제어하는 단계;
상기 표시된 컨텐츠 게임에 대한 터치입력을 수신하는 단계;
표시부에서 수신된 터치입력에 대한 터치 패턴을 인식하는 단계;
기 저장된 리스트에서 상기 인식된 터치 패턴에 대응되는 객체 정보를 결정하는 단계; 및
상기 결정된 객체 정보에 따라서 상기 컨텐츠 게임에 대한 특정 입력 또는 상기 터치입력의 주체를 결정하여 상기 컨텐츠 게임을 진행하는 단계를 포함하고,
기 저장된 리스트에서 상기 인식된 터치 패턴에 대응되는 객체 정보를 결정하는 단계는,
상기 인식된 터치 패턴과 매칭되는 마커의 터치 포인트를 검출하고, 상기 검출된 마커의 터치 포인트에 매칭된 도구를 결정하는 단계를 포함하는
복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 방법.
A content game-based cognitive training method for multiple players provided by a multi-cognitive training device including a display unit that displays a content game and detects a touch input for the content game, and a management system that controls the display unit. ,
controlling the display unit to display the content game;
Receiving a touch input for the displayed content game;
Recognizing a touch pattern for a touch input received from a display unit;
determining object information corresponding to the recognized touch pattern from a pre-stored list; and
Determining a specific input for the content game or a subject of the touch input according to the determined object information and proceeding with the content game;
The step of determining object information corresponding to the recognized touch pattern from a pre-stored list,
Detecting a touch point of a marker that matches the recognized touch pattern, and determining a tool matched to the detected touch point of the marker.
Content game-based cognitive training method for multiple players.
삭제delete 컨텐츠 게임을 표시하고, 상기 컨텐츠 게임에 대한 터치입력을 감지하는 디스플레이 유닛과, 상기 디스플레이 유닛을 제어하는 관리시스템을 포함하는 멀티 인지 훈련 장치에서 제공하는 복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 방법으로서,
상기 컨텐츠 게임을 표시하도록 상기 디스플레이 유닛을 제어하는 단계;
상기 표시된 컨텐츠 게임에 대한 터치입력을 수신하는 단계;
표시부에서 수신된 터치입력에 대한 터치 패턴을 인식하는 단계;
기 저장된 리스트에서 상기 인식된 터치 패턴에 대응되는 객체 정보를 결정하는 단계; 및
상기 결정된 객체 정보에 따라서 상기 컨텐츠 게임에 대한 특정 입력 또는 상기 터치입력의 주체를 결정하여 상기 컨텐츠 게임을 진행하는 단계를 포함하고,
상기 컨텐츠 게임을 표시하도록 상기 디스플레이 유닛을 제어하는 단계는, 상기 디스플레이 유닛의 전체 표시영역에 대해 하나의 컨텐츠 게임을 표시하도록 제어하는 단계와, 상기 컨텐츠 게임에 대해 복수의 사용자에 대한 터치입력을 수신하는 단계를 포함하고,
기 저장된 리스트에서 상기 인식된 터치 패턴에 대응되는 객체 정보를 결정하는 단계는,
상기 복수의 사용자 중 상기 컨텐츠 게임에 대해 수신된 터치입력에 대한 사용자를 결정하는 단계를 포함하는
복수 플레이어에 대한 컨텐츠 게임 기반의 인지 훈련 방법.
A content game-based cognitive training method for multiple players provided by a multi-cognitive training device including a display unit that displays a content game and detects a touch input for the content game, and a management system that controls the display unit. ,
controlling the display unit to display the content game;
Receiving a touch input for the displayed content game;
Recognizing a touch pattern for a touch input received from a display unit;
determining object information corresponding to the recognized touch pattern from a pre-stored list; and
Determining a specific input for the content game or a subject of the touch input according to the determined object information and proceeding with the content game;
Controlling the display unit to display the content game may include controlling the display unit to display one content game on the entire display area of the display unit, and receiving touch inputs for the content game from a plurality of users. including the steps of
The step of determining object information corresponding to the recognized touch pattern from a pre-stored list,
Determining a user for a touch input received for the content game from among the plurality of users
A cognitive training method based on content games for multiple players.
KR1020210057716A 2021-02-22 2021-05-04 multi cognitive training device using artificial intelligence and method for player cognition using the same KR102564072B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210057716A KR102564072B1 (en) 2021-02-22 2021-05-04 multi cognitive training device using artificial intelligence and method for player cognition using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210023526A KR102272850B1 (en) 2021-02-22 2021-02-22 multi table type cognitive training device using artificial intelligence and method for player cognition using the same
KR1020210057716A KR102564072B1 (en) 2021-02-22 2021-05-04 multi cognitive training device using artificial intelligence and method for player cognition using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210023526A Division KR102272850B1 (en) 2021-02-22 2021-02-22 multi table type cognitive training device using artificial intelligence and method for player cognition using the same

Publications (2)

Publication Number Publication Date
KR20220120408A KR20220120408A (en) 2022-08-30
KR102564072B1 true KR102564072B1 (en) 2023-08-07

Family

ID=76899596

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210023526A KR102272850B1 (en) 2021-02-22 2021-02-22 multi table type cognitive training device using artificial intelligence and method for player cognition using the same
KR1020210057716A KR102564072B1 (en) 2021-02-22 2021-05-04 multi cognitive training device using artificial intelligence and method for player cognition using the same

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210023526A KR102272850B1 (en) 2021-02-22 2021-02-22 multi table type cognitive training device using artificial intelligence and method for player cognition using the same

Country Status (1)

Country Link
KR (2) KR102272850B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102577906B1 (en) * 2021-11-01 2023-09-14 주식회사 오픈링크시스템 Dementia diagnosis aid system using cognitive fuction test and method thereof

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090067578A (en) 2007-12-21 2009-06-25 주식회사 비트컴퓨터 Cognition enhancement system and method for dementia prevention
KR101349406B1 (en) * 2012-05-15 2014-01-09 엘지이노텍 주식회사 Display apparatus and power saving method
KR101413649B1 (en) * 2012-11-07 2014-07-09 (주)아바비젼 Touch table top display apparatus for multi-user
KR101499793B1 (en) * 2013-01-04 2015-03-09 김완기 electronic table for possible viewing on omni-direction
KR20180045278A (en) * 2016-10-25 2018-05-04 포항공과대학교 산학협력단 Virtual Reality Recognition Rehabilitation System based on Bio Sensors
KR102280581B1 (en) * 2017-03-21 2021-07-22 엘지전자 주식회사 Mobile terminal and method for controlling the same

Also Published As

Publication number Publication date
KR102272850B1 (en) 2021-07-05
KR20220120408A (en) 2022-08-30

Similar Documents

Publication Publication Date Title
US9539500B2 (en) Biometric recognition
JP3904562B2 (en) Image display system, recording medium, and program
EP2642451B1 (en) Apparatus and method of augmented reality interaction
US20090258703A1 (en) Motion Assessment Using a Game Controller
EP2521097B1 (en) System and Method of Input Processing for Augmented Reality
WO2018035821A1 (en) Billiard ball striking assistance method, billiard ball striking assistance system, and portable electronic device
US20160314620A1 (en) Virtual reality sports training systems and methods
CN105413198A (en) AR children early education building block system
US9189918B1 (en) Camera for player authentication and monitoring of wagering game tables
WO2005077479A1 (en) Image display system, image processing system, and a video game system
US20170100661A1 (en) Vision system for monitoring board games and method thereof
WO2017047182A1 (en) Information processing device, information processing method, and program
JP6058101B1 (en) GAME DEVICE AND PROGRAM
US20210170230A1 (en) Systems and methods for training players in a sports contest using artificial intelligence
WO2016056317A1 (en) Information processor and information-processing method
US20190126145A1 (en) Exercise motion system and method
KR102564072B1 (en) multi cognitive training device using artificial intelligence and method for player cognition using the same
KR102564071B1 (en) Method and apparatus for providing a content game for cognitive training to a plurality of players
KR20240038933A (en) Apparatus, methods, and computer program for providing billiards training using a projector and a robot arm
JP5219114B2 (en) Card game device having card arrangement direction recognition means
KR102272837B1 (en) multi table type cognitive training device using artificial intelligence and method for driving the same
JP2006122407A (en) Game program, game apparatus and game method
KR101289325B1 (en) Baseball game device using augmented reality
JP4422695B2 (en) Image display system, recording medium, and program
KR101759631B1 (en) Method for providing user interface for card game, and server and computer-readable recording media using the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant