KR101160868B1 - System for animal assisted therapy using gesture control and method for animal assisted therapy - Google Patents

System for animal assisted therapy using gesture control and method for animal assisted therapy Download PDF

Info

Publication number
KR101160868B1
KR101160868B1 KR1020100015137A KR20100015137A KR101160868B1 KR 101160868 B1 KR101160868 B1 KR 101160868B1 KR 1020100015137 A KR1020100015137 A KR 1020100015137A KR 20100015137 A KR20100015137 A KR 20100015137A KR 101160868 B1 KR101160868 B1 KR 101160868B1
Authority
KR
South Korea
Prior art keywords
animal
therapist
treatment
input
response
Prior art date
Application number
KR1020100015137A
Other languages
Korean (ko)
Other versions
KR20110095588A (en
Inventor
김희경
Original Assignee
(주) 엔투유
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 엔투유 filed Critical (주) 엔투유
Priority to KR1020100015137A priority Critical patent/KR101160868B1/en
Publication of KR20110095588A publication Critical patent/KR20110095588A/en
Application granted granted Critical
Publication of KR101160868B1 publication Critical patent/KR101160868B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Biomedical Technology (AREA)
  • Computer Graphics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Molecular Biology (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 3차원 공간에서 움직임을 감지하는 제스처 컨트롤러 기술과 3D 입체 영상 기술, 그리고 게임 3D 개발 기술을 혼합한 3차원 공간 상에 구현되는 디지털 애완동물 시스템으로써 행동이 불편한 장애우나 정서 장애 및 행동 장애 아동들의 동물 매개 치료용으로 사용되는 제스처 제어를 이용한 동물 매개 치료 시스템 및 그의 동작 방법에 관한 것이다. 동물 매개 치료 시스템을 이용한 동물 매개 치료 방법은 (a) 치료자의 등록 정보에 상응하는 치료 동물을 디스플레이 하는 단계; (b) 치료사는 상기 치료 동물과 상기 치료자의 상호 행동을 관찰하며 대기하다가 개입하여 상기 치료 동물의 행동을 제어하고 해당 상황을 디스플레이 하는 단계; (c) 상기 치료자로부터 입력된 행동 패턴을 분석하여 상기 행동에 따른 상기 치료 동물의 반응을 디스플레이 하는 단계; 및 (d) 치료자로부터 입력된 음성 패턴을 분석하여 상기 음성에 따른 상기 치료 동물의 반응을 디스플레이 하는 단계를 포함한다.The present invention is a digital pet system implemented in a three-dimensional space that combines gesture controller technology, 3D stereoscopic image technology, and game 3D development technology to detect motion in a three-dimensional space. The present invention relates to an animal mediated treatment system using gesture control used for animal mediated treatment of children and a method of operation thereof. An animal mediated treatment method using an animal mediated treatment system comprises the steps of: (a) displaying a treated animal corresponding to the registered information of the therapist; (b) a therapist observing and interacting with the treatment animal and the therapist, intervening to control the behavior of the treatment animal and display the situation; (c) analyzing a behavioral pattern input from the therapist to display a response of the treated animal according to the behavior; And (d) analyzing the voice pattern input from the therapist and displaying the response of the treated animal according to the voice.

Description

제스처 제어를 이용한 동물 매개 치료 시스템 및 동물 매개 치료 방법{System for animal assisted therapy using gesture control and method for animal assisted therapy}System for animal assisted therapy using gesture control and method for animal assisted therapy}

본 발명은 3차원 공간에서 움직임을 감지하는 제스처 컨트롤러 기술과 3D 입체 영상 기술, 그리고 게임 3D 개발 기술을 혼합한 3차원 공간 상에 구현되는 디지털 애완동물 시스템으로써 행동이 불편한 장애우나 정서 장애 및 행동 장애 아동들의 동물 매개 치료용으로 사용되는 제스처 제어를 이용한 동물 매개 치료 시스템 및 그의 동작 방법에 관한 것이다.The present invention is a digital pet system implemented in a three-dimensional space that combines gesture controller technology, 3D stereoscopic image technology, and game 3D development technology to detect motion in a three-dimensional space. The present invention relates to an animal mediated treatment system using gesture control used for animal mediated treatment of children and a method of operation thereof.

현재 선진국에서 많이 사용되고 있는 동물 매개 치료(animal assisted therapy)에 활용되고 있는 매개 치료용 동물들이 수요에 많이 미치지 못하고 있으며, 실제 생명체인 동물들을 사용함으로써 질병, 공격성, 스트레스에 의한 동물 병력 등의 문제점이 발생할 수 있다.Animals used in animal assisted therapy, which are widely used in developed countries, are currently under demand, and the use of animals, which are actual living things, causes problems such as animal history due to disease, aggression, and stress. May occur.

치료견의 경우 미국에서 운영되는 델타 협회의 공식 인증 조항의 항목만 몇 페이지에 걸친 까다로운 평가를 받게 되며, 선발 및 교육에 드는 시간, 그리고 치료견으로 활동하면서 받게 되는 스트레스 등에 의해 지속적인 활동이 어려운 것이 현실이다.In the case of dogs, only the items of the official certification clause of the Delta Association operating in the United States are subject to a few pages of difficult evaluations, and ongoing activities are difficult due to the time spent on selection and training, and the stress of being a dog. .

이러한 환경에 의해 국제 치료견 협회 등이 적극적으로 나서서 환경을 개선하고자 하지만 현실적으로 그 가능성이 낮다. In this environment, the International Association of Dog Treaties actively seeks to improve the environment, but the possibility is low.

이러한 문제점을 해결할 수 있는 방안으로 RAT(robot assisted therapy) 등 다른 매체를 이용한 방법이 연구되고 있는 만큼 디지털 가상 현실에서도 이러한 노력이 필요하다.In order to solve this problem, such a method using other media such as robot assisted therapy (RAT) has been studied. Therefore, such an effort is required in digital virtual reality.

본 발명이 해결하고자 하는 기술적인 3차원 공간에서 움직임을 감지하는 제스처 컨트롤러 기술과 3D 입체 영상 기술, 그리고 게임 3D 개발 기술을 혼합한 3차원 공간 상에 구현되는 디지털 애완동물을 행동이 불편한 장애우나 정서 장애 및 행동 장애 아동들의 동물 매개 치료용으로 사용할 수 있는 제스처 제어를 이용한 동물 매개 치료 시스템 및 그의 동작 방법을 제공하는데 있다.The present invention aims to solve a digital pet implemented in a three-dimensional space in which a gesture controller technology, a 3D stereoscopic image technology, and a game 3D development technology, which detects motion in a technical three-dimensional space, is to be solved for the disabled or emotionally uncomfortable. The present invention provides an animal mediated treatment system using gesture control and a method of operation thereof which can be used for animal mediated treatment of children with disabilities and behavioral disorders.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제스처 제어를 이용한 동물 매개 치료 시스템 가상 치료 동물을 디스플레이 하는 디스플레이부; 인식범위 내에 있는 치료자의 3차원 제스처를 인식하여 처리하는 제스처 컨트롤러; 상기 치료자의 음성 명령어를 수신하는 음성 입/출력부; 상기 치료자의 행동 관찰에 따른 보상 및 패널티 정보를 입력하는 치료사 입력부; 및 상기 치료자의 제스처 또는 음성 명령에 따라 상기 디스플레이된 치료 동물의 가상 반응 정보를 생성하여 디스플레이 되도록 하고, 상기 치료사의 입력 정보를 상기 치료 동물의 가상 반응 정보와 연계하여 디스플레이 되도록 처리하는 메인 프로그램 처리부를 포함하는 것이 바람직하다.Display unit for displaying the animal-mediated treatment system virtual treatment animal using gesture control to solve the technical problem to be achieved by the present invention; A gesture controller for recognizing and processing a three-dimensional gesture of a therapist within a recognition range; A voice input / output unit configured to receive a voice command of the therapist; A therapist input unit configured to input compensation and penalty information according to the therapist's behavior observation; And a main program processor configured to generate and display virtual response information of the displayed treatment animal according to a gesture or a voice command of the therapist, and to process the input information of the therapist to be displayed in association with the virtual response information of the treatment animal. It is preferable to include.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제스처 제어를 이용한 동물 매개 치료 시스템을 이용한 동물 매개 치료 방법은 (a) 치료자의 등록 정보에 상응하는 치료 동물을 디스플레이 하는 단계; (b) 치료사는 상기 치료 동물과 상기 치료자의 상호 행동을 관찰하며 대기하다가 개입하여 상기 치료 동물의 행동을 제어하고 해당 상황을 디스플레이 하는 단계; (c) 상기 치료자로부터 입력된 행동 패턴을 분석하여 상기 행동에 따른 상기 치료 동물의 반응을 디스플레이 하는 단계; 및 (d) 치료자로부터 입력된 음성 패턴을 분석하여 상기 음성에 따른 상기 치료 동물의 반응을 디스플레이 하는 단계를 포함하는 것이 바람직하다.An animal-mediated treatment method using an animal-mediated treatment system using gesture control for solving the technical problem to be achieved by the present invention comprises the steps of: (a) displaying a treatment animal corresponding to the registered information of the therapist; (b) a therapist observing and interacting with the treatment animal and the therapist, intervening to control the behavior of the treatment animal and display the situation; (c) analyzing a behavioral pattern input from the therapist to display a response of the treated animal according to the behavior; And (d) analyzing the voice pattern input from the therapist and displaying the response of the treated animal according to the voice.

본 발명에 있어서, (e) 공던지기 메뉴가 선택되면, 상기 치료자는 화면으로 공을 던지는 행동을 연출하고, 상기 치료 동물이 공을 주워오는 반응을 디스플레이 하는 단계를 더 포함할 수 있다.In the present invention, (e) when the ball throwing menu is selected, the therapist may direct a ball throwing action on the screen, and may further include displaying a response of the treatment animal picking up the ball.

본 발명에 있어서, (f) 산책 메뉴가 선택되면 화면의 배경이 산책로에 맞게 변경되고, 상기 치료자 및 치료 동물이 함께 산책하면서 상기 치료 동물의 이상 행동 및 반응에 상기 치료자가 대응하는 상황을 디스플레이 하는 단계를 더 포함할 수 있다.In the present invention, when the (f) walking menu is selected, the background of the screen is changed to match the trail, and the therapist and the treating animal walk together to display a situation in which the therapist responds to the abnormal behavior and response of the treating animal. It may further comprise a step.

본 발명에 있어서, 상기 (b) 단계는 (b-1) 상기 치료사가 입력한 상기 치료 동물의 행동을 요청 신호에 따라 상기 치료 동물이 정의된 행동을 수행하도록 하며 이를 디스플레이 하는 단계; (b-2) 상기 치료사가 입력한 상기 치료 동물 호응도 증가 신호에 따라 상기 치료자의 입력 신호에 대해 상기 치료 동물이 적극적/긍정적 반응을 수행하도록 하며 이를 디스플레이 하는 단계; 및 (b-3) 상기 치료사가 입력한 상기 치료 동물 호응도 감소 신호에 따라 상기 치료자의 입력 신호에 대해 상기 치료 동물이 소극적/부정적 반응을 수행하도록 하며 이를 디스플레이 하는 단계를 포함할 수 있다.In the present invention, the step (b) may include (b-1) allowing the treated animal to perform a defined action according to a request signal based on the action of the treated animal input by the therapist; (b-2) allowing the therapeutic animal to perform an active / positive response to the therapist's input signal according to the therapeutic animal response increase signal input by the therapist; And (b-3) allowing the treatment animal to perform a passive / negative response to the input signal of the therapist according to the treatment animal response reduction signal input by the therapist.

본 발명에 있어서, 상기 (c) 단계는 (c-1) 상기 치료자의 움직임에 대한 좌표 값을 분석하여 3차원 공간에서 분석하는 단계; 및 (c-2) 상기 분석에 의한 상기 치료자의 행동과 상기 치료 동물의 위치 및 좌표를 연동하여 상기 치료자의 행동을 상기 치료 동물에 적용한 내용으로 디스플레이 하는 단계를 포함할 수 있다.In the present invention, the step (c) comprises the steps of (c-1) analyzing the coordinate values of the movement of the therapist in three-dimensional space; And (c-2) displaying the application of the therapist's behavior as the content applied to the therapeutic animal by linking the action of the therapist with the position and coordinates of the treatment animal.

본 발명에 있어서, 상기 (d) 단계는 (d-1) 상기 치료자로부터 입력된 음성신호를 데이터베이스에 저장된 음성 명령어와 비교하는 단계; 및 (d-2) 상기 음성신호와 동일한 음성 명령어를 상기 치료 동물에 전달하여 상기 음성신호에 상기 치료동물이 반응하는 내용으로 디스플레이 하는 단계를 포함할 수 있다.In the present invention, the step (d) may include (d-1) comparing a voice signal input from the therapist with a voice command stored in a database; And (d-2) transmitting a voice command identical to the voice signal to the treated animal and displaying the voice animal in response to the voice signal.

상술한 바와 같이 본 발명에 따르면, 치료 동물을 디지털화 하고 3차원 입체 영상과 제스처 컨트롤러를 이용하여 좀 더 현실적으로 치료 동물과 이를 이용하는 치료자의 교감을 이끌어 낼 수 있다.As described above, according to the present invention, the treatment animal can be digitized and a sympathy between the treatment animal and the therapist using the same can be derived more realistically by using a 3D stereoscopic image and a gesture controller.

도 1은 본 발명에 따른 제스처 제어를 이용한 동물 매개 치료 시스템의 외관도 이다.
도 2는 도 1에 개시된 제스처 제어를 이용한 동물 매개 치료 시스템의 내부 구성도 이다.
도 3은 본 발명에 따른 제스처 제어를 이용한 동물 매개 치료 시스템을 이용한 동물 매개 치료 방법을 보이는 흐름도 이다.
도 4는 도 3 중 치료사의 입력 행동 처리 방법의 상세 흐름도 이다.
도 5는 도 3 중 사용자의 행동 패턴에 따른 치료 동물의 반응 표시 방법의 상세 흐름도 이다.
도 6은 도 3 중 사용자의 음성 인식에 따른 치료 동물의 반응 표시 방법의 상세 흐름도 이다.
도 7은 도 3 중 메뉴 선택에 따른 치료 동물의 반응 표시 방법의 상세 흐름도 이다.
1 is an external view of an animal mediated treatment system using gesture control according to the present invention.
FIG. 2 is an internal configuration diagram of an animal mediated treatment system using gesture control disclosed in FIG. 1.
3 is a flowchart illustrating an animal mediated treatment method using an animal mediated treatment system using gesture control according to the present invention.
4 is a detailed flowchart of an input behavior processing method of a therapist in FIG. 3.
FIG. 5 is a detailed flowchart of a method of displaying a response of a treated animal according to a behavioral pattern of the user of FIG. 3.
FIG. 6 is a detailed flowchart of a method of displaying a response of a treated animal according to voice recognition of a user of FIG. 3.
7 is a detailed flowchart illustrating a method of displaying a response of a treated animal according to a menu selection of FIG. 3.

이하 첨부된 도면을 참조하여 본 발명의 실시 예들을 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 수 있다.Hereinafter, exemplary embodiments will be described with reference to the accompanying drawings. In the following description, only parts necessary for understanding the operation according to the present invention will be described, and descriptions of other parts may be omitted so as not to distract from the gist of the present invention.

또한, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명을 가잔 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개면으로 해석되어야 한다.In addition, the terms or words used in the specification and claims described below are not to be construed as being limited to the ordinary or dictionary meanings, meanings consistent with the technical spirit of the present invention so that the present invention may be appropriately expressed. It should be interpreted in terms of and.

도 1은 본 발명에 따른 제스처 제어를 이용한 동물 매개 치료 시스템의 외관도로서, 인식용 카메라(110)를 포함하는 제스처 컨트롤러(100), 디스플레이부(200), 음성 입/출력부(400), 치료사 리모트 컨트롤러(500)을 포함한다.1 is an external view of an animal-mediated treatment system using gesture control according to the present invention, which includes a gesture controller 100 including a camera 110 for recognition, a display unit 200, a voice input / output unit 400, A therapist remote controller 500.

도 2는 도 1에 개시된 제스처 제어를 이용한 동물 매개 치료 시스템의 내부 구성도로서, 제스처 컨트롤러(100), 디스플레이부(200), 음성 입/출력부(400), 치료사 입력용 리모트 수신부(600), 데이터베이스를 포함하는 메인 프로그램 처리부(700) 및 전원 공급부(800)를 포함한다.2 is an internal configuration diagram of the animal-mediated treatment system using the gesture control disclosed in FIG. 1, the gesture controller 100, the display unit 200, the voice input / output unit 400, and the therapist input remote receiver 600. , A main program processor 700 including a database, and a power supply 800.

치료자가 제스처 컨트롤러(100)의 인식범위(300) 안에 위치하게 되면, 제스처 컨트롤러(100)가 치료자에 대한 정보를 인식용 카메라(110)를 통해 인식하게 된다. 3차원 인식용 카메라(110)를 포함하는 제스처 컨트롤러(100)는 치료자 등록 후 치료자의 움직임을 인식하게 되는데, 인식범위(300) 안에 있는 공간을 향해 움직이는 손동작은 3차원 공간에서 X, Y, Z 축 값으로 분할 인식하여 그 변화값을 이용하여 이동성 및 속도를 인식하여 메인 프로그램 처리부(700)에 전송한다.When the therapist is located in the recognition range 300 of the gesture controller 100, the gesture controller 100 recognizes the information about the therapist through the recognition camera 110. The gesture controller 100 including the 3D recognition camera 110 recognizes the movement of the therapist after registering the therapist. The hand movement toward the space within the recognition range 300 is X, Y, Z in the 3D space. It recognizes the segmentation by the axis value and recognizes the mobility and speed using the change value and transmits it to the main program processor 700.

메인 프로그램 처리부(700)는 이 입력 값에 근거하여 3D 입체 영상을 출력하는 디스플레이부(200) 상의 매개 동물과 치료자 간의 행동을 연계하여 가상의 반응을 만들어 내게 된다.The main program processor 700 creates a virtual response by linking the action between the mediator and the healer on the display unit 200 that outputs the 3D stereoscopic image based on the input value.

음성 인식 장치로 구성된 음성/입출력부(400)는 치료자의 음성을 반복하여 입력하여 매개 동물을 호칭하는 치료자의 입력을 수신하고, 간단한 명령 동작을 반복적으로 음성과 매칭시켜 일정값 이상이 입력된 후 데이터베이스 상의 명령어로 등록한다. 추후 동일한 입력 값에 대해서는 명령으로 인식하여 합당한 반응을 하게 된다.The voice / input / output unit 400 configured as a speech recognition device repeatedly inputs the voice of the therapist to receive the input of the therapist who calls each animal, and repeatedly matches a simple command operation with the voice to input a predetermined value or more. Register with a command on the database. In the future, the same input value will be recognized as a command and will respond reasonably.

음성 명령은 행동에 관련한 명령들로 주로 게임에서 사용되는 반복 행동에 대한 명령어들로 구성된다. 예를 들어 '손'이라는 명령이나 '앉아'와 같은 행동명령 패턴을 정의하고 그에 따른 움직임을 반복적으로 성공 시 치료자가 매개 동물에게 제스처를 통한 접촉 등을 통해 애정을 표현함으로써 반복되는 명령에 대한 인공지능 상에서의 정의를 내릴 수 있도록 한다.Voice commands consist of commands for repetitive actions that are mainly used in games. For example, if you define a pattern of behavioral commands such as 'hand' or 'sit,' and repeat the success of the movement, the therapist expresses affection through repeated gestures, such as contacting each animal. Allow definitions in intelligence.

사용자(치료자) 입력 외에 치료사 입력 장치는 별도의 리모트 컨트롤러(500)를 이용하여 입력하게 된다. 시스템 내부에는 이 입력을 수신하는 치료사 입력용 리모트 수신부(600)가 사용된다. 치료사는 사용자의 행동을 주시하다가 매개 동물의 특정 반응이 갑자기 필요한 시점이나, 사용자가 잘한 행동에 대한 보상 및 잘못된 행동에 대한 패널티를 리모트 컨트롤러(500)에 적용시켜 치료자의 행동 및 반응을 유도한다.In addition to the user (therapist) input, the therapist input device may be input using a separate remote controller 500. Inside the system, a therapist input remote receiver 600 for receiving this input is used. The therapist observes the user's behavior and suddenly requires a specific response of the animal, or applies the penalty for the user's good behavior and a penalty for the wrong behavior to the remote controller 500 to induce the therapist's behavior and response.

이하, 도 3 내지 도 7을 참조하여 본 발명에 따른 제스처 제어를 이용한 동물 매개 치료 시스템을 이용한 동물 매개 치료 방법을 상세히 설명한다. 본 발명에 따른 동물 매개 치료 방법은 도 2에 도시된 바와 같이 동물 매개 치료 시스템의 내부에서 수행될 수 있다.Hereinafter, an animal-mediated treatment method using an animal-mediated treatment system using gesture control according to the present invention will be described in detail with reference to FIGS. 3 to 7. The animal mediated treatment method according to the invention can be carried out inside an animal mediated treatment system as shown in FIG. 2.

먼저, 도 3을 참조하여 본 발명에 따른 동물 매개 치료 방법을 설명한다.First, the animal-mediated treatment method according to the present invention will be described with reference to FIG.

제스처 제어를 이용한 동물 매개 치료 시스템의 전원을 켜고 사용자 로그인을 하게 되면(S301), 내부 데이터베이스에 저장된 사용자 정보와 비교를 통해 등록된 사용자인지 판단한다(S303).When the user logs in after turning on the animal-mediated treatment system using gesture control (S301), it is determined whether the user is a registered user by comparing with the user information stored in the internal database (S303).

등록된 사용자가 아닌 경우, 신규 사용자 등록(S305)을 통해 치료 동물을 등록하고, 치료 동물의 이름 및 종류를 선택 및 저장한다(S307). 각 사용자마다 음성 명령과 치료 동물의 호칭 등의 입력이 다르기 때문에 별도로 저장한다. 이후, 등록된 사용자가 원하는 치료 동물의 종류를 고르고 이름을 저장하여 호칭할 때 사용하게 된다.If the user is not a registered user, the treatment animal is registered through the new user registration (S305), and the name and type of the treatment animal are selected and stored (S307). Since each user has different inputs such as voice commands and names of the treated animals, they are stored separately. Thereafter, the registered user selects the desired type of the treated animal and stores the name and uses the name.

등록된 사용자의 로그인이 정상적으로 수행되고, 신규 가입자의 등록이 완료되면, 사용자의 치료 동물 데이터가 로딩되어 디스플레이부(200)로 출력된다(S309). 디스플레이부(200)에 출력된 치료 동물은 사용자의 동작이나 음성 등의 외부 입력 신호를 받기 전까지는 기본적인 대기 인공지능이 적용되어 일상적인 행동을 하며 대기하게 된다.When the login of the registered user is normally performed and the registration of the new subscriber is completed, the treatment animal data of the user is loaded and output to the display unit 200 (S309). The treated animal output to the display unit 200 is applied with basic atmospheric artificial intelligence until it receives an external input signal such as a user's motion or voice, and performs a normal action.

이어서 치료사의 입력이 수신되었는지 판단한다(S311). 치료사는 치료 동물과 환자의 상호 행동을 관찰하며 대기하다가 개입이 필요하다고 판단되면 리모트 컨트롤러(500)를 이용하여 특정상태를 입력하게 된다. 치료사의 입력이 발생한 경우 프로그램은 이를 감지하여 치료 동물의 일반 인공지능 동작을 중지하고 치료사의 입력 행동을 처리한다(S313). 치료사의 입력 행동 처리 방법은 도 4를 참조하여 하기에 설명하기로 한다.Next, it is determined whether an input of a therapist is received (S311). The therapist waits while observing the behavior of the treatment animal and the patient, and enters a specific state using the remote controller 500 when it is determined that the intervention is necessary. When the input of the therapist occurs, the program detects this and stops the general AI operation of the treated animal and processes the input behavior of the therapist (S313). The input behavior processing method of the therapist will be described below with reference to FIG. 4.

치료사의 입력이 수신되지 않은 경우, 사용자의 행동 입력이 수신되었는지 판단한다(S315). 사용자의 행동 입력이 수신된 경우, 사용자의 행동 패턴과 디스플레이부(200)에 표시된 치료 동물의 위치를 연동하여 치료 동물의 반응을 디스플레이부(200)에 출력한다(S315). 사용자의 행동 패턴에 따른 치료 동물의 반응 표시 방법을 도 5를 참조하여 하기에 설명하기로 한다.If the therapist's input is not received, it is determined whether the user's behavioral input is received (S315). When the user's behavior input is received, the response of the treatment animal is output to the display unit 200 by linking the behavior pattern of the user with the position of the treatment animal displayed on the display unit 200 (S315). A method of displaying a response of a treated animal according to a user's behavior pattern will be described below with reference to FIG. 5.

사용자의 행동 입력이 수신되지 않은 경우, 사용자의 음성 입력이 수신되었는지 판단한다(S319). 사용자의 음성 입력이 수신된 경우, 사용자 음성인식을 통하여 사용자의 음성에 연동하여 치료 동물의 반응을 디스플레이부(200)에 출력한다(S321). 사용자의 음성 인식에 따른 치료 동물의 반응 표시 방법을 도 6을 참조하여 하기에 설명하기로 한다.If the user's action input is not received, it is determined whether the user's voice input is received (S319). When the user's voice input is received, the response of the treated animal is output to the display unit 200 in association with the user's voice through the user's voice recognition (S321). A method of displaying a response of a treated animal according to a voice recognition of a user will be described below with reference to FIG. 6.

치료사의 입력, 사용자의 행동 입력 및 음성 입력이 없을 경우, 별도의 메뉴 입력이 수신되었는지 판단한다(S323). 공던지기(S325) 또는 산책(S327) 메뉴 선택에 따라 사용자의 제스처와 연동하여 치료 동물의 반응을 디스플레이부(200)에 출력한다(329단계). 메뉴 선택에 따른 치료 동물의 반응 표시 방법을 도 7을 참조하여 하기에 설명하기로 한다.If there is no input of a therapist, a user's action input, and a voice input, it is determined whether a separate menu input is received (S323). In response to the ball throwing (S325) or the walking (S327) menu selection, in response to the user's gesture, the response of the treated animal is output to the display unit 200 (step 329). A method of displaying a response of the treated animal according to the menu selection will be described below with reference to FIG. 7.

치료사의 입력 행동 처리 후, 사용자의 행동에 따른 치료 동물의 반응 표시 후, 사용자의 음성 인식에 따른 치료 동물의 반응 표시 후, 또는 메뉴 입력 처리 후 별다른 입력이 없을 경우, 대기 상태로 전환하여 치료 동물에는 인공 지능이 적용되어 반응하게 된다(S331).After processing the input behavior of the therapist, displaying the response of the treatment animal according to the user's behavior, displaying the response of the treatment animal according to the voice recognition of the user, or if there is no input after processing the menu input, the treatment animal is switched to the standby state. Artificial intelligence is applied to the reaction (S331).

이후 전원 오프 신호가 수신되면(S333), 제스처 제어를 이용한 동물 매개 치료 시스템의 전원이 오프되면서 종료되고 모든 프로그램 데이터는 자동 저장된다. Then, when the power-off signal is received (S333), the animal-mediated treatment system using gesture control is turned off while ending and all program data are automatically stored.

이어서 도 4를 참조하여 치료사의 입력 행동 처리 방법(S313)을 상세히 설명한다.Next, referring to FIG. 4, the therapist's input behavior processing method (S313) will be described in detail.

치료사는 치료 동물과 환자의 상호 행동을 관찰하며 대기하다가 개입이 필요하다고 판단되면 리모트 컨트롤러(500)를 이용하여 특정상태를 입력하게 되는데, 치료사의 입력이 치료 동물의 행동을 요청하는 입력인지 판단하여(S401), 치료 동물의 행동을 요청하는 입력인 경우 정의된 행동 처리, 예를 들면 치료 동물이 꼬리치기, 짓기, 달아나기를 수행한다(S403). 여기서 정의된 행동은 사용자(예를 들어 환자)의 행동에 제재 또는 관심을 유발하기 위한 치료 동물의 행동으로, 상기 예시에 국한되지 않는다. The therapist waits while observing the behavior of the treatment animal and the patient, and if it is determined that the intervention is necessary, the therapist inputs a specific state by using the remote controller 500. In operation S401, when the input is a request for the behavior of the treatment animal, a defined behavioral process, for example, the treatment animal performs a tail, build, or run away (S403). The behavior defined herein is the behavior of the treated animal to cause sanction or interest in the behavior of the user (eg patient), and is not limited to this example.

그 외에 사용자의 행동 유도를 위해 치료 동물과의 관계를 잘 유지할 시에는 호응도를 높여(S405) 치료 동물의 인공 지능상의 호응도를 증가시킨 후(S407) 사용자에게 좀 더 긍정적이거나 적극적인 반응을 보이게 한다(S409).In addition, when maintaining the relationship with the treated animal to induce the user's behavior well (S405) to increase the artificial intelligence response of the treated animal (S407) and then give a more positive or positive response to the user ( S409).

그러나 사용자와 치료 동물과의 관계가 폭력적으로 진행되거나 부정적 또는 소극적인 행동이 계속될 때에는 호응도를 낮추어(S411), 치료 동물의 인공 지능상의 호응도를 감소시킨 후(S413) 사용자의 행동에 거부하거나 소극적인 반응을 보이게 한다(S415).However, when the relationship between the user and the treated animal is violent or negative or passive behavior continues, the response rate is lowered (S411) and the artificial animal's AI response is reduced (S413). To show (S415).

이어서, 도 5를 참조하여 행동 패턴에 따른 치료 동물의 반응 표시 방법(S317)을 상세히 설명한다.Next, the method of displaying a response of the treated animal according to the behavior pattern (S317) will be described in detail with reference to FIG. 5.

사용자의 행동 입력이 있을 경우 카메라(110)를 통하여 제스처 컨트롤러(100)로 입력되는 사용자의 움직임 좌표값을 분석하여(S501), 사용자의 행동을 3차원 공간(X,Y,Z축)에서의 속도값으로 분석한다(S503).When there is a user's action input, the user's motion coordinate value input to the gesture controller 100 through the camera 110 is analyzed (S501), and the user's action is measured in a three-dimensional space (X, Y, Z axes). Analyze by speed value (S503).

이후, 사용자 행동 패턴을 정의하여 사용자 행동과 출력중인 치료 동물과 위치값 및 좌표값을 연동하여(S505), 사용자의 행동을 치료 동물에 적용한 내용을 디스플레이부(200)에 출력한다(S507). Thereafter, the user's behavior pattern is defined to link the user's behavior with the treatment animal being output, the position value and the coordinate value (S505), and output the content to which the user's behavior is applied to the treatment animal (S507).

디스플레이부(200)를 향하여 손을 내밀거나 치료 동물의 위치를 향해 쓰다듬는 등의 행동 패턴을 인식하여 치료 동물의 호감도에 반영한다(S509). 이에 따라 치료 동물은 사용자의 행동 패턴에 맞추어 반응을 보이게 된다. 치료 동물의 반응은 사전에 제작된 인공지능 패턴에 따라 규정된다.Recognizing behavior patterns such as reaching out to the display unit 200 or stroking toward the location of the treatment animal is reflected in the likelihood of the treatment animal (S509). As a result, the treated animal responds to the user's behavioral pattern. The response of the treated animal is defined according to a pre-made AI pattern.

이어서, 도 6을 참조하여 사용자의 음성 인식에 따른 치료 동물의 반응 표시 방법(S321)을 상세히 설명한다.Subsequently, a method of displaying a response of the treated animal according to the voice recognition of the user (S321) will be described in detail with reference to FIG. 6.

사용자가 음성 입출력부(400)를 통하여 음성을 입력하게 되면(S601), 아날로그 음성 신호를 디지털로 변환한 후, 데이터베이스에 저장된 음성 명령어와 비교 분석한다(S603). When the user inputs the voice through the voice input / output unit 400 (S601), the analog voice signal is converted into digital and then compared with the voice command stored in the database (S603).

입력된 음성 데이터와 데이터베이스에 저장된 음성 명령어와 동일한 값이 있는지 판단하여(S605), 동일한 음성 명령어가 존재하는 경우 치료 동물의 인공지능으로 전달되어 치료 동물의 행동 패턴을 결정하고 반응하게 하며(S607), 그 결과가 디스플레이부(200)로 출력된다.It is determined whether there is the same value as the input voice data and the voice command stored in the database (S605), and if the same voice command exists, it is transmitted to the artificial intelligence of the treated animal to determine and respond to the behavior pattern of the treated animal (S607). The result is output to the display unit 200.

이어서, 도 7을 참조하여 메뉴 선택에 따른 치료 동물의 반응 표시 방법(S325, S327)을 상세히 설명한다.Next, the method of displaying the response of the treated animal according to the menu selection (S325 and S327) will be described in detail with reference to FIG. 7.

메뉴가 선택되면, 메뉴 바가 디스플레이부(200)에 표시되고 메뉴는 크게 2가지로 구성되는데, 공던지기 메뉴와 산책 메뉴이다. 해당 메뉴가 선택되면 디스플레이부(200)의 배경은 선택된 메뉴를 즐길 수 있는 배경으로 전환된다.When a menu is selected, a menu bar is displayed on the display unit 200 and the menu is largely composed of two types, a ball throwing menu and a walking menu. When the corresponding menu is selected, the background of the display 200 is switched to a background for enjoying the selected menu.

공던지기 메뉴가 선택되면(S701), 제스처 컨트롤러(100)를 통한 3차원 공간(X,Y,Z축)에서의 이동량값 및 속도값을 수신 및 분석하고(S703), 디스플레이부(200)의 화면으로 공을 던지는 행동을 연출하고(S705), 치료 동물이 공을 주워오는 반응을 하도록 하여 호감을 상승하여(S707), 공 놀이를 통한 운동 및 치료 효과를 획득한다.When the ball throw menu is selected (S701), the movement amount value and the velocity value in the three-dimensional space (X, Y, Z axis) through the gesture controller 100 are received and analyzed (S703), and the display unit 200 Directing the action of throwing the ball to the screen (S705), and raises the crush by allowing the treated animal to pick up the ball (S707), to obtain the exercise and therapeutic effect through the ball play.

산책 메뉴가 선택되면(S709), 디스플레이부(200)에 산책로 리스트가 출력되고, 원하는 산책로를 선택한다(S711)When the walking menu is selected (S709), a list of trails is output on the display unit 200, and a desired trail is selected (S711).

산책로가 선택되면 디스플레이부(200)의 배경이 선택된 산책로에 맞추어 변경되고, 사용자는 치료 동물과 함께 산책을 즐기면서 치료 동물의 이상 행동 및 반응에 적절하게 대응한다(S713). 이를 통하여 사용자는 사회성과 관계 형성에 도움이 되는 학습을 수행하게 된다.When the trail is selected, the background of the display unit 200 is changed to match the selected trail, and the user appropriately responds to abnormal behaviors and reactions of the treated animal while enjoying a walk with the treated animal (S713). Through this, the user performs learning to help form social relations.

상기에 개시된 바와 같이 본 발명은 기존의 동물 매개 치료의 효과가 좋은 것으로 입증되었으나, 치료 동물 확보에 어려움이 많아 활성화 되지 못하는 점에서 착안하여, 치료 동물을 디지털화하고, 3차원 입체 영상과 제스처 컨트롤러를 이용하여 좀 더 현실적으로 치료 동물과의 교감을 이끌어 낼 수 있게 된다.As described above, the present invention has been proved to have good effect of the conventional animal mediated treatment, but it is difficult to secure the treatment animal, so it is not easy to activate, digitizing the treatment animal, and the 3D stereoscopic image and gesture controller This can lead to a more realistic interaction with the treated animal.

기본 동물 매개 치료의 치료견들이 갖는 현실적인 문제점 중 공격에 대한 부분과 생명체로써의 스트레스 문제, 그리고 치료 동물 선발 자격에 대한 높은 요구 사항 등에 의해 동물 매개 치료가 활성화 되기 힘든 상황이다. 이와 같은 문제점을 손쉽게 해결하고, 치료 동물과 좀 더 나은 교감을 느낄 수 있게 하기 위해 최신 기술인 제스처 컨트롤러와 3D 입체 영상 출력 장치를 활용하여 첨단의 치료용 매개 동물을 개발한 것이다. 그 외에 디지털 화가 가지는 장점은 다양한 변형과 반응의 추가가 용이하다는 것이다. 이런 장점들과 필요성이 결합하여 본 발명은 동물 매개 치료에 큰 역할을 담당하게 될 것이다.Among the practical problems that the treatment dogs of basic animal-mediated treatment have, the animal-mediated treatment is difficult to activate due to the part of attack, the stress of life, and the high requirements for the selection of the treatment animal. In order to solve this problem easily, and to feel a better connection with the treatment animal, the state-of-the-art treatment media animal was developed using the latest technology gesture controller and 3D stereoscopic image output device. Another advantage of digitalization is that it is easy to add various transformations and responses. Combined with these advantages and needs, the present invention will play a large role in animal mediated treatment.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

Claims (7)

가상 치료 동물을 디스플레이 하는 디스플레이부;
인식범위 내에 있는 치료자의 3차원 제스처를 인식하여 처리하는 제스처 컨트롤러;
상기 치료자의 음성 명령어를 수신하는 음성 입/출력부;
상기 치료자의 행동 관찰에 따른 보상 및 패널티 정보를 입력하는 치료사 입력부; 및
상기 치료자의 제스처 또는 음성 명령에 따라 상기 디스플레이된 치료 동물의 가상 반응 정보를 생성하여 디스플레이 되도록 하고, 상기 치료사의 입력 정보를 상기 치료 동물의 가상 반응 정보와 연계하여 디스플레이 되도록 처리하는 메인 프로그램 처리부를 포함하는 제스처 제어를 이용한 동물 매개 치료 시스템.
A display unit displaying a virtual therapeutic animal;
A gesture controller for recognizing and processing a three-dimensional gesture of a therapist within a recognition range;
A voice input / output unit configured to receive a voice command of the therapist;
A therapist input unit configured to input compensation and penalty information according to the therapist's behavior observation; And
A main program processor configured to generate and display virtual response information of the displayed treatment animal according to a gesture or voice command of the therapist, and to process the input information of the therapist to be displayed in association with the virtual response information of the treatment animal. Animal-mediated treatment system using gesture control.
(a) 치료자의 등록 정보에 상응하는 치료 동물을 디스플레이 하는 단계;
(b) 치료사는 상기 치료 동물과 상기 치료자의 상호 행동을 관찰하며 대기하다가 개입하여 상기 치료 동물의 행동을 제어하고 해당 상황을 디스플레이 하는 단계;
(c) 상기 치료자로부터 입력된 행동 패턴을 분석하여 상기 행동에 따른 상기 치료 동물의 반응을 디스플레이 하는 단계; 및
(d) 치료자로부터 입력된 음성 패턴을 분석하여 상기 음성에 따른 상기 치료 동물의 반응을 디스플레이 하는 단계를 포함하는 동물 매개 치료 방법.
(a) displaying a treated animal corresponding to the registered information of the therapist;
(b) a therapist observing and interacting with the treatment animal and the therapist, intervening to control the behavior of the treatment animal and display the situation;
(c) analyzing a behavioral pattern input from the therapist to display a response of the treated animal according to the behavior; And
(d) analyzing the voice pattern input from the therapist and displaying the response of the treated animal according to the voice.
제 2항에 있어서,
(e) 공던지기 메뉴가 선택되면, 상기 치료자는 화면으로 공을 던지는 행동을 연출하고, 상기 치료 동물이 공을 주워오는 반응을 디스플레이 하는 단계를 더 포함하는 것을 특징으로 하는 동물 매개 치료 방법.
The method of claim 2,
(e) when the ball throwing menu is selected, the therapist directs the ball throwing action on the screen, and the animal-mediated treatment method further comprises the step of displaying the response of the treatment animal picking up the ball.
제 2항에 있어서,
(f) 산책 메뉴가 선택되면 화면의 배경이 산책로에 맞게 변경되고, 상기 치료자 및 치료 동물이 함께 산책하면서 상기 치료 동물의 이상 행동 및 반응에 상기 치료자가 대응하는 상황을 디스플레이 하는 단계를 더 포함하는 것을 특징으로 하는 동물 매개 치료 방법.
The method of claim 2,
(F) when the walking menu is selected, the background of the screen is changed to match the trail, and further including displaying the situation in which the therapist responds to the abnormal behavior and reaction of the therapeutic animal while the therapist and the treatment animal walk together. Animal-mediated treatment method characterized in that.
제 2항에 있어서, 상기 (b) 단계는
(b-1) 상기 치료사가 입력한 상기 치료 동물의 행동을 요청 신호에 따라 상기 치료 동물이 정의된 행동을 수행하도록 하며 이를 디스플레이 하는 단계;
(b-2) 상기 치료사가 입력한 상기 치료 동물 호응도 증가 신호에 따라 상기 치료자의 입력 신호에 대해 상기 치료 동물이 적극적/긍정적 반응을 수행하도록 하며 이를 디스플레이 하는 단계; 및
(b-3) 상기 치료사가 입력한 상기 치료 동물 호응도 감소 신호에 따라 상기 치료자의 입력 신호에 대해 상기 치료 동물이 소극적/부정적 반응을 수행하도록 하며 이를 디스플레이 하는 단계를 포함하는 것을 특징으로 하는 동물 매개 치료 방법.
The method of claim 2, wherein step (b)
(b-1) causing the treatment animal to perform a defined action according to a request signal and display the behavior of the treatment animal input by the therapist;
(b-2) allowing the therapeutic animal to perform an active / positive response to the therapist's input signal according to the therapeutic animal response increase signal input by the therapist; And
(b-3) causing the treated animal to perform a passive / negative response to the therapist's input signal according to the treatment animal's response reduction signal input by the therapist, and displaying the same. Method of treatment.
제 2항에 있어서, 상기 (c) 단계는
(c-1) 상기 치료자의 움직임에 대한 좌표 값을 분석하여 3차원 공간에서 분석하는 단계; 및
(c-2) 상기 분석에 의한 상기 치료자의 행동과 상기 치료 동물의 위치 및 좌표를 연동하여 상기 치료자의 행동을 상기 치료 동물에 적용한 내용으로 디스플레이 하는 단계를 포함하는 것을 특징으로 하는 동물 매개 치료 방법.
The method of claim 2, wherein step (c)
(c-1) analyzing coordinate values of the movement of the therapist in three-dimensional space; And
(c-2) interlocking the action of the healer by the analysis with the position and coordinates of the healed animal, and displaying the action of the healer as applied to the healed animal. .
제 2항에 있어서, 상기 (d) 단계는
(d-1) 상기 치료자로부터 입력된 음성신호를 데이터베이스에 저장된 음성 명령어와 비교하는 단계; 및
(d-2) 상기 음성신호와 동일한 음성 명령어를 상기 치료 동물에 전달하여 상기 음성신호에 상기 치료동물이 반응하는 내용으로 디스플레이 하는 단계를 포함하는 것을 특징으로 하는 동물 매개 치료 방법.
The method of claim 2, wherein step (d)
(d-1) comparing the voice signal input from the therapist with a voice command stored in a database; And
(d-2) transmitting a voice command identical to the voice signal to the treated animal and displaying the voice signal in response to the voice signal.
KR1020100015137A 2010-02-19 2010-02-19 System for animal assisted therapy using gesture control and method for animal assisted therapy KR101160868B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100015137A KR101160868B1 (en) 2010-02-19 2010-02-19 System for animal assisted therapy using gesture control and method for animal assisted therapy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100015137A KR101160868B1 (en) 2010-02-19 2010-02-19 System for animal assisted therapy using gesture control and method for animal assisted therapy

Publications (2)

Publication Number Publication Date
KR20110095588A KR20110095588A (en) 2011-08-25
KR101160868B1 true KR101160868B1 (en) 2012-07-12

Family

ID=44931195

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100015137A KR101160868B1 (en) 2010-02-19 2010-02-19 System for animal assisted therapy using gesture control and method for animal assisted therapy

Country Status (1)

Country Link
KR (1) KR101160868B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150124561A (en) * 2014-04-28 2015-11-06 포항공과대학교 산학협력단 Speech therapy game system with social and phisical activites and driving method thereof

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101276097B1 (en) * 2012-11-16 2013-06-18 (주) 피디케이리미티드 Simulator and simulation method for treating adhd
KR101817583B1 (en) * 2015-11-30 2018-01-12 한국생산기술연구원 System and method for analyzing behavior pattern using depth image
KR102346682B1 (en) * 2019-12-30 2022-01-03 제이에스씨(주) System for providing contents for disabled child based on virtual reality
KR102344402B1 (en) * 2021-02-24 2021-12-29 (주)메디테리안 Cognitive behavioral treatment method and User terminal storing cognitive behavioral treatment method
KR20230029423A (en) 2021-08-24 2023-03-03 원광대학교산학협력단 Method for Providing Animal-Assisted Intervention Program for Person With Intellectual Disabilities

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171424A (en) 1996-12-13 1998-06-26 Dentsu Tec:Kk Display device
KR100281878B1 (en) 1997-12-09 2001-02-15 윤종용 TV with the function for processing artificial life

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171424A (en) 1996-12-13 1998-06-26 Dentsu Tec:Kk Display device
KR100281878B1 (en) 1997-12-09 2001-02-15 윤종용 TV with the function for processing artificial life

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150124561A (en) * 2014-04-28 2015-11-06 포항공과대학교 산학협력단 Speech therapy game system with social and phisical activites and driving method thereof
KR101598955B1 (en) * 2014-04-28 2016-03-03 포항공과대학교 산학협력단 Speech therapy game device and game method

Also Published As

Publication number Publication date
KR20110095588A (en) 2011-08-25

Similar Documents

Publication Publication Date Title
US11907848B2 (en) Method and apparatus for training pose recognition model, and method and apparatus for image recognition
KR101160868B1 (en) System for animal assisted therapy using gesture control and method for animal assisted therapy
Avola et al. An interactive and low-cost full body rehabilitation framework based on 3D immersive serious games
CN102331840B (en) User selection and navigation based on looped motions
CN106708261A (en) Brain-computer interaction-based attention training method and system
CN106599853B (en) Method and equipment for correcting body posture in remote teaching process
CN105451829A (en) Personal digital trainer for physiotheraputic and rehabilitative video games
CN105224069A (en) The device of a kind of augmented reality dummy keyboard input method and use the method
CN104200417A (en) Rehabilitation training system based on cloud computing
CN106377228B (en) Unmanned plane operator Stateful Inspection and hierarchical control method based on Kinect
CN104766503A (en) cardiopulmonary resuscitation teaching system and method
CN102918518A (en) Cloud-based personal trait profile data
CN108899081B (en) Man-machine interaction system for assisted rehabilitation of autism
WO2018084170A1 (en) Autonomous robot that identifies persons
CN107491648A (en) Hand recovery training method based on Leap Motion motion sensing control devices
CN102525800A (en) Network intelligent massaging device
Nguyen et al. Sensorimotor representation learning for an “active self” in robots: a model survey
Kilian et al. The unfolding space glove: A wearable spatio-visual to haptic sensory substitution device for blind people
CN112230777A (en) Cognitive training system based on non-contact interaction
CN110197103B (en) Method, device, equipment and storage medium for human-animal interaction
JP6966038B2 (en) Animal behavior estimation device, animal behavior estimation method and program
JP2022032362A (en) System, method, and information processing device
CN114768246B (en) Game man-machine interaction method and system
Perrin Semi-autonomous navigation of an assistive robot using low throughput interfaces
Fraiwan et al. Therapy central: On the development of computer games for physiotherapy

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
N231 Notification of change of applicant
FPAY Annual fee payment

Payment date: 20150608

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160622

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee