KR20220125850A - Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof - Google Patents

Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof Download PDF

Info

Publication number
KR20220125850A
KR20220125850A KR1020210028657A KR20210028657A KR20220125850A KR 20220125850 A KR20220125850 A KR 20220125850A KR 1020210028657 A KR1020210028657 A KR 1020210028657A KR 20210028657 A KR20210028657 A KR 20210028657A KR 20220125850 A KR20220125850 A KR 20220125850A
Authority
KR
South Korea
Prior art keywords
unit
face
medical service
subject
medical
Prior art date
Application number
KR1020210028657A
Other languages
Korean (ko)
Other versions
KR102552174B1 (en
Inventor
윤상석
Original Assignee
신라대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 신라대학교 산학협력단 filed Critical 신라대학교 산학협력단
Priority to KR1020210028657A priority Critical patent/KR102552174B1/en
Publication of KR20220125850A publication Critical patent/KR20220125850A/en
Application granted granted Critical
Publication of KR102552174B1 publication Critical patent/KR102552174B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Primary Health Care (AREA)
  • Mechanical Engineering (AREA)
  • Epidemiology (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Manipulator (AREA)

Abstract

The present invention relates to a method by which a medical service robot performs face-to-face interaction with the human and a medical service robot system capable of performing remote monitoring by using the same and, more specifically, to a medical service assist robot, which can provide medical knowledge and measured medical information by controlling the position and creating a conversation so that a patient and a display unit mounted on the medical service assist robot can face each other or perform optimal recognition. According to the present invention, a medical service robot system capable of performing remote monitoring comprises: an autonomous driving unit (100) which extracts RSSI data for the ID of each of beacons installed in a hospital room and a patient and controls autonomous driving to a requested location; a position control unit (200) which estimates body information of the patient in a 3D space to locate the patient and controls the position so that the located patient and the display unit (32) mounted on the medical service assist robot (2) can face each other or perform optimal recognition; a conversation generating unit (300) which evaluates an observation service for the patient through conversations; an audio-video (A-V) recognizing unit (400) which recognizes the motion of the patient and the sounds generated by the patient according to content provided by the medical service assist robot (2) by using an A-V module; and a medical information providing unit (500) which measures predetermined medical information from the patient and provides the information so that medical staff can monitor the same. Therefore, a medical environment can be improved.

Description

의료서비스로봇의 인간과 면대면 상호작용 수행 방법 및 이를 이용한 원격 모니터링이 가능한 의료서비스 로봇 시스템{METHOD FOR OMNIDIRECTIONAL ROBOT OF FACE-TO-FACE INTERACTION WITH HUMAN AND MEDICAL SERVICE ASSISTANT ROBOT CAPABLE OF REMOTE MONITORING THEREOF}A method for performing face-to-face interaction with humans of a medical service robot and a medical service robot system capable of remote monitoring using the same

본 발명은 의료서비스로봇의 인간과 면대면 상호작용 수행 방법 및 이를 이용한 원격 모니터링이 가능한 의료서비스 로봇 시스템에 관한 것으로, 더욱 상세하게는 대상자와 의료서비스로봇에 장착된 디스플레이부가 대면 혹은 최적의 인식을 수행하도록 자세를 제어하고 대화를 생성하여 의료지식 및 측정된 의료 정보를 제공하도록 마련된 의료서비스용 보조 로봇에 관한 것이다. The present invention relates to a method of performing face-to-face interaction with a human of a medical service robot and a medical service robot system capable of remote monitoring using the same, and more particularly, a display unit mounted on the subject and the medical service robot provides face-to-face or optimal recognition. It relates to an assistive robot for medical services prepared to provide medical knowledge and measured medical information by controlling a posture to perform and generating a dialogue.

최근, 인간과 공존하면서 서비스를 제공하는 부분에서 사회적 역할이 강조되는 서비스용 로봇이 급격히 성장하고 있다. 특히, 인간과 교류 하며 일상적인 소통과 교감을 나누는 형태의 사회적 상호작용 수행이 가능한 소셜 로봇이 등장한 이후로 인간과 로봇의 사회적 상호작용은 최근 로봇 기술 중 가장 활발한 연구 분야로 떠오르고 있다. Recently, service robots that emphasize social roles in providing services while coexisting with humans are rapidly growing. In particular, social interaction between humans and robots has recently emerged as the most active research field among robot technologies since social robots that can perform social interactions in the form of interacting with humans and sharing daily communication and communion appeared.

인간과 교류하기 위해 필요한 기술들 중 하나는 로봇이 실시간으로 상호작용 대상자를 응시 추적하는 것이다. 하지만 대부분의 로봇베이스는 2륜 구동 방식이다. 이는 축 방향의 이동제약으로 인하여 실시간으로 대상자를 면대면으로 관찰하면서 추적하기에 여러 한계 상황이 존재하므로 본 발명은 전방향 이동이 가능한 로봇을 사용하여 인간과의 지속적인 면대면 상호작용을 수행하는 로봇을 제안하고자 한다.One of the skills needed to interact with humans is for robots to gaze and track the person they interact with in real time. However, most robot bases are two-wheel drive. This is because there are several limiting situations to follow while observing and tracking the subject in real time due to movement restrictions in the axial direction. Therefore, the present invention uses a robot capable of omnidirectional movement to perform continuous face-to-face interaction with humans. would like to propose

한편, 인간-로봇 간 대면 상호작용 수행하기 위해 로봇 혹은 외부환경에 설치된 RGB-D 센서를 통해 3차원 공간상에 위치한 사용자의 관절위치 데이터를 추출하고, 로봇 좌표계로 좌표 변환을 수행한다. 변환된 좌표를 통해 사용자가 향하는 바디포즈 정보를 추출한 후, 사용자와 사회적 상호작용을 수행할 수 있는 위치로 로봇이 이동 가능하도록 의료서비스로봇(2)베이스의 위치제어를 수행한다. 여기서, 사용자-로봇 간 상호작용을 지속적으로 유지하기 위해서 사용자의 자세가 실시간으로 변하더라도 지속적인 대면 및 거리 유지를 수행할 수 있는 추적메커니즘을 제안한다.Meanwhile, to perform human-robot face-to-face interaction, the user's joint position data is extracted in 3D space through the RGB-D sensor installed in the robot or external environment, and coordinates are converted into the robot coordinate system. After extracting the body pose information that the user is facing through the converted coordinates, the position control of the base of the medical service robot 2 is performed so that the robot can move to a position where social interaction with the user can be performed. Here, in order to continuously maintain user-robot interaction, we propose a tracking mechanism that can perform continuous face-to-face and distance maintenance even when the user's posture changes in real time.

한국공개특허 제10-2002-0015621호(2002.02.28)호Korean Patent Laid-Open No. 10-2002-0015621 (2002.02.28)

본 발명은 상기의 문제점을 해결하기 위해서 안출된 것으로서, 본 발명의 목적은 의료 종사 근무자의 수가 부족하여 업무 스트레스 증가 및 효율 저하 현상에 따른 헬스케어 업무 보조용 의료 로봇을 제공하는 것이다. The present invention has been devised to solve the above problems, and an object of the present invention is to provide a medical robot for assisting health care work due to an increase in work stress and a decrease in efficiency due to insufficient number of medical workers.

발명이 해결하고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be solved by the invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

본 발명에 따른 원격 모니터링이 가능한 의료서비스 로봇 시스템은,A medical service robot system capable of remote monitoring according to the present invention,

병실 및 대상자에 장착된 비콘의 ID별 RSSI 데이터를 추출하여 요청 된 위치로 자율 주행을 제어하는 자율주행부(100);An autonomous driving unit 100 for controlling autonomous driving to a requested location by extracting RSSI data for each ID of a beacon mounted in a hospital room and subject;

3차원 공간에서 대상자의 신체정보를 추정하여 위치를 확인하고, 상기 확인 된 대상자와 의료서비스로봇(2)에 장착된 디스플레이부(32)가 대면 혹은 A-V인식을 수행할 수 있도록 자세를 제어하는 자세제어부(200);Position of estimating the subject's body information in three-dimensional space to confirm the position, and controlling the posture so that the identified subject and the display unit 32 mounted on the medical service robot 2 can perform face-to-face or A-V recognition control unit 200;

대화를 통해 환자의 상태를 관찰하고 보조하는 대화생성부(300);a dialogue generating unit 300 for observing and assisting the patient's condition through dialogue;

의료서비스로봇(2)에서 제공되는 콘텐츠에 따른 대상자의 수행동작 및 대상자가 생성하는 소리를 오디오(Audio)-비디오(Video) 모듈을 이용하여 인식하는 A-V인식부(400); 및A-V recognition unit 400 for recognizing a subject's performance and sound generated by the subject according to the contents provided by the medical service robot 2 using an Audio-Video module; and

대상자로부터 기설정된 의료 정보를 측정하여 의료진이 모니터링하고, 의료진이 대상자의 정보를 확인할 수 있도록 제공하는 의료정보제공부(500);로 구성되는 것을 특징으로 한다. It is characterized in that it consists of a; medical information providing unit 500 that measures preset medical information from the subject, monitors the medical staff, and provides the medical staff to check the information of the subject.

상기 자세제어부(200)는,The posture control unit 200,

RGB-D센서 데이터를 이용하여 대상자의 신체정보를 추출하는 위치데이터추출부(210);a location data extraction unit 210 for extracting body information of a subject using RGB-D sensor data;

상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정하는 위치데이터보정부(220);a position data correction unit 220 that converts the extracted joint data into distance information based on the coordinate system of the camera unit 31 and corrects it using a moving average equation;

상기 보정된 위치 좌표를 이용하여 이동 명령을 수행하는 이동명령부(230);a movement command unit 230 for performing a movement command using the corrected position coordinates;

대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지하는 거리유지부(240); 및a distance maintaining unit 240 for maintaining the face-to-face distance or angle between the subject and the medical service robot 2 at a preset value; and

대상자의 얼굴을 지속적으로 응시하는 대면추적부;로 구성되어 대상자와 로봇에 장착된 디스플레이부(32)가 면대면 인식을 수행할 수 있도록 자세를 제어하는 것을 특징으로 한다. It is composed of a face-to-face tracking unit that continuously gazes at the subject's face; characterized in that it controls the posture so that the display unit 32 mounted on the subject and the robot can perform face-to-face recognition.

상기 A-V인식부(400)는,The A-V recognition unit 400,

상기 콘텐츠 제공에 따른 상기 대상자의 수행동작을 인식하는 비디오인식부(410); 및a video recognition unit 410 for recognizing the action performed by the subject according to the content provision; and

상기 대상자가 생성하는 소리를 인식하는 오디오인식부(420);로 구성되는 것을 특징으로 한다. and an audio recognition unit 420 for recognizing the sound generated by the subject.

상기 의료서비스로봇(2)은,The medical service robot (2),

상기 자세제어부(200)에 의해 대상자와 상기 디스플레이부(32)가 대면 혹은 A-V인식을 수행할 수 있도록 자세를 조절하는 대면상호작용부(20);a face-to-face interaction unit 20 for adjusting the posture so that the subject and the display unit 32 can perform face-to-face or A-V recognition by the posture control unit 200;

콘텐츠 영상을 제공하는 상기 디스플레이부(32)와 카메라부(31)를 포함하는 모니터부(30); 및a monitor unit 30 including the display unit 32 and a camera unit 31 providing a content image; and

상기 자율주행부(100)에 의해 요청 된 위치로 주행하는 전방향이동부(50);를 포함하는 것을 특징으로 한다. and an omnidirectional movement unit 50 that travels to a position requested by the autonomous driving unit 100 .

또한, 본 발명에 따른 의료서비스로봇의 인간과 면대면 상호작용 수행 방법은, In addition, the method for performing face-to-face interaction with a human of the medical service robot according to the present invention,

RGB-D센서 데이터를 이용하여 대상자의 관절 데이터를 추출하는 제1단계;A first step of extracting the subject's joint data using RGB-D sensor data;

상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정하는 제2단계;a second step of converting the extracted joint data into distance information based on the coordinate system of the camera unit 31 and then correcting it using a Moving Average formula;

상기 보정된 위치 좌표를 이용하여 이동 명령을 수행하는 제3단계;a third step of performing a movement command using the corrected position coordinates;

대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지하는 제4단계;a fourth step of maintaining a face-to-face distance or angle between the subject and the medical service robot (2) at a preset value;

대상자의 얼굴을 지속적으로 추적하는 제5단계;를 이용하여 수행하는 것을 특징으로 한다.It is characterized in that it is performed using; a fifth step of continuously tracking the subject's face.

이동 평균(Moving Average, MA) 식은 아래 [수학식 1]에 의해 수행되는 것을 특징으로 한다.The moving average (MA) formula is characterized in that it is performed by the following [Equation 1].

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

(여기서, Pd는 human의 좌표값, n은 측정횟수의 크기이다).(Where P d is the human coordinate value, and n is the size of the number of measurements).

상기 제3단계에서 이동 명령을 수행하는 것은 아래 [수학식 4]를 이용하여 위치를 제어하는 것을 특징으로 한다.Executing the movement command in the third step is characterized in that the position is controlled using the following [Equation 4].

[수학식 4][Equation 4]

Figure pat00002
Figure pat00002

(여기서, R은 의료서비스로봇(2) 중심에서 휠 중심까지의 거리, r는 휠의 반경, vi는 각 휠의 선속도, wi는 의료서비스로봇(2) 중심의 각속도, θ는 전역좌표계 X축을 기준으로 xrob 축이 반시계 방향으로 회전한 각).(Here, R is the distance from the center of the medical service robot 2 to the center of the wheel, r is the radius of the wheel, v i is the linear velocity of each wheel, w i is the angular velocity of the center of the medical service robot 2, θ is the global The angle the x rob axis rotates counterclockwise about the coordinate system x axis).

상기 제5단계에서 대상자의 얼굴 추적은,In the fifth step, the subject's face tracking is,

아래 [수학식 5]인 상체부 응시각 추정모듈을 이용하여 추적하는 것을 특징으로 한다.It is characterized in that the tracking is performed using the upper body gaze angle estimation module as shown in Equation 5 below.

[수학식 5][Equation 5]

Figure pat00003
Figure pat00003

(여기서, Ψ는 의료서비스로봇의 회전각이다).(Here, Ψ is the rotation angle of the medical service robot).

상기 과제의 해결 수단에 의해, 본 발명은 병원환경에서 헬스케어 업무를 보조하는 IoT 연계형 간호용 의료 로봇을 제공할 수 있다. By means of solving the above problems, the present invention can provide an IoT-linked nursing medical robot that assists in healthcare work in a hospital environment.

또한, 본 발명은 의료 환경을 개선하고 환자와 의료인 만족도를 향상할 수 있는 의료 서비스 의료서비스로봇(2)을 제공할 수 있다. In addition, the present invention can provide a medical service medical service robot (2) that can improve the medical environment and improve the satisfaction of patients and medical personnel.

또한, 본 발명은 HRI(인간 로봇 상호작용) 기술을 가진 로봇으로, 문진 내용을 기반으로 대화관리자를 이용하여 사용자가 제공하는개인정보 혹은 관찰업무를 기록할 수 있고, 상황에 따라 로봇이 환자와 의료진을 실시간 원격으로 연결하고 필요한 생체신호 정보를 동시에 제공할 수 있는 의료 서비스 의료서비스로봇(2)을 제공할 수 있다. In addition, the present invention is a robot with HRI (human-robot interaction) technology. Based on the questionnaire, personal information or observation tasks provided by the user can be recorded using a conversation manager, and depending on the situation, the robot can interact with the patient. It is possible to provide a medical service medical service robot 2 that can remotely connect medical staff in real time and provide necessary biosignal information at the same time.

또한, 본 발명은 로봇이 IoT 디바이스로부터 환자 Vital 신호 및 의료환경(낙상, 욕창, 공기오염도, 온습도 등) 정보를 추출할 수 있고, 수액, 유린백 상태 측정 및 교체 시기 자동 알람을 제공할 수 있다. In addition, according to the present invention, the robot can extract patient vital signals and medical environment (falls, bedsores, air pollution, temperature and humidity, etc.) information from the IoT device, measure the status of fluids, and can provide an automatic alarm for replacement time .

또한, 본 발명은 주기적 환자 방문 체크, 콜벨 업무에 선제적 대응할 수 있고, 낙상 위험측정도구와 욕창측정도구를 이용하여 위험도가 높은 환자별로 간호업무 중요도를 조절할 수 있어 안전 간호를 할 수 있다. In addition, the present invention can preemptively respond to periodic patient visit check and call-bell work, and by using the fall risk measuring tool and the pressure sore measuring tool, the importance of nursing work can be adjusted for each high-risk patient, so that safe nursing can be performed.

도 1은 본 발명인 원격 모니터링이 가능한 의료서비스 로봇 시스템의 구성도이다. 도 2는 본 발명의 일실시예에 따른 의료서비스로봇(2)를 나타낸 사진이다. 도 3은 본 발명인 의료서비스로봇의 인간과 면대면 상호작용 수행 방법을 나타낸 순서도이다. 도 4는 본 발명의 일실시예에 따른 대면상호작용의 실험적 구성을 나타낸 도면이다. 도 5는 본 발명의 일실시예에 따른 의료서비스로봇의 바퀴 구조를 나타낸 도면이다. 도 6은 본 발명의 일실시예에 따라 대상자와 로봇간의 거리에 따른 상호작용 영역 분류를 나타낸 도면이다. 도 7은 본 발명의 일실시예에 따라 인체 자세 각도에 따른 실험 결과를 나타낸 그래프이다. 도 8은 본 발명의 일실시예에 따라 원격 모니터링이 가능한 의료서비스 로봇 시스템의 제어구성도이다. 도 9는 본 발명의 일실시예에 따라 의료정보제공부(500)에서 수행하는 스케줄등록부(510)의 실행 방법을 나타낸 구성도이다. 도 10은 본 발명의 일실시예에 따라 의료정보제공부(500)에서 수행하는 스케줄등록부(510)의 실행 방법을 나타낸 순서도이다. 도 11은 본 발명의 일실시예에 따라 의료서비스로봇(2)에서 수행하는 스케줄실행부의 실행 방법을 나타낸 순서도이다. 도 12는 본 발명의 일실시예에 따라 스케줄등록부(510) 및 스케줄실행부의 작업명령 순서도이다. 도 13은 본 발명의 일실시예에 따라 도 12의 스케줄등록부(510) 및 스케줄실행부의 작업명령 순서에 따른 구체적인 실시예이다. 도 14는 본 발명의 일실시예에 따라 자율주행부(100)에서 자율 주행을 제어하도록 비콘의 위치를 인식하는 실시예이다. 도 15는 본 발명의 일실시예에 따라 자율주행부(100)에서 자율 주행을 수행하는 방법을 나타낸 순서도이다. 도 16은 본 발명의 일실시예에 따라 대화생성부(300)에서 수행하는 실행 방법을 나타낸 구성도이다. 도 17은 본 발명의 일실시예에 따라 대화생성부(300)에서 수행하는 방법을 나타낸 순서도이다. 도 18은 본 발명의 일실시예에 따라 대화생성부(300)에서 심리 상태 평가 후 총점의 점수 분포에 따라 발화멘트를 제공하는 실시예이다. 도 19는 본 발명의 일실시예에 따라 비디오인식부(410)에서 수행하는 실행 방법을 나타낸 구성도이다. 도 20은 본 발명의 일실시예에 따라 폐활량측정부에서 수행하는 방법을 나타낸 순서도이다. 도 21은 본 발명의 일실시예에 따라 폐활량계 콘텐츠를 재생하는 단계를 나타내는 순서도이다. 도 22는 본 발명의 일실시예에 따라 상지근력측정부에서 수행하는 방법을 나타낸 순서도이다. 도 23은 상지근력측정부가 도 22의 상지 방향 계산 단계(S431-3)에서 상지 방향을 인지하는 관절 위치를 표시한 도면이다. 도 24는 상지근력측정부가 도 22의 로컬 좌표계 생성 단계(S431-5)에서 상지 관절의 좌표계 인지를 위한 관절 위치를 표시한 도면이다. 도 25는 상지근력측정부가 도 22의 앞으로 들기 판단 단계(S432-1) 내지 동작 번호 판단 단계(S438)에서 앞으로 들기, 위로 들기, 옆으로 들기 및 팔 접기를 인지하는 관절 위치를 표시한 도면이다. 도 26은 본 발명의 일실시예에 따라 상지근력 콘텐츠를 재생하는 단계를 나타내는 순서도이다. 도 27은 본 발명의 일실시예에 따라 보행동작측정부에서 수행하는 방법을 나타낸 순서도이다. 도 28은 본 발명의 일실시예에 따라 보행동작 콘텐츠를 재생하는 단계를 나타내는 순서도이다. 도 29는 본 발명의 일실시예에 따라 기침인식부에서 수행하는 실행 방법을 나타낸 구성도이다. 도 30은 본 발명의 일실시예에 따라 기침인식부에서 수행하는 방법을 나타낸 순서도이다.1 is a block diagram of a medical service robot system capable of remote monitoring according to the present invention. 2 is a photograph showing a medical service robot 2 according to an embodiment of the present invention. 3 is a flowchart illustrating a method of performing face-to-face interaction with a human of the present invention, a medical service robot. 4 is a diagram showing an experimental configuration of face-to-face interaction according to an embodiment of the present invention. 5 is a view showing the wheel structure of the medical service robot according to an embodiment of the present invention. 6 is a diagram illustrating an interaction area classification according to a distance between a subject and a robot according to an embodiment of the present invention. 7 is a graph showing experimental results according to a human body posture angle according to an embodiment of the present invention. 8 is a control configuration diagram of a medical service robot system capable of remote monitoring according to an embodiment of the present invention. 9 is a block diagram illustrating an execution method of the schedule registration unit 510 performed by the medical information providing unit 500 according to an embodiment of the present invention. 10 is a flowchart illustrating an execution method of the schedule registration unit 510 performed by the medical information providing unit 500 according to an embodiment of the present invention. 11 is a flowchart illustrating an execution method of the schedule execution unit performed by the medical service robot 2 according to an embodiment of the present invention. 12 is a flowchart of a work command of the schedule registration unit 510 and the schedule execution unit according to an embodiment of the present invention. 13 is a detailed embodiment according to the sequence of work commands of the schedule registration unit 510 and the schedule execution unit of FIG. 12 according to an embodiment of the present invention. 14 is an embodiment in which the autonomous driving unit 100 recognizes a position of a beacon to control autonomous driving according to an embodiment of the present invention. 15 is a flowchart illustrating a method of performing autonomous driving in the autonomous driving unit 100 according to an embodiment of the present invention. 16 is a block diagram illustrating an execution method performed by the dialog generating unit 300 according to an embodiment of the present invention. 17 is a flowchart illustrating a method performed by the dialog generating unit 300 according to an embodiment of the present invention. 18 is an embodiment in which the dialogue generating unit 300 provides a speech message according to the distribution of the total score after the evaluation of the psychological state according to an embodiment of the present invention. 19 is a block diagram illustrating an execution method performed by the video recognition unit 410 according to an embodiment of the present invention. 20 is a flowchart illustrating a method performed by a spirometry unit according to an embodiment of the present invention. 21 is a flowchart illustrating a step of reproducing spirometer content according to an embodiment of the present invention. 22 is a flowchart illustrating a method performed by the upper extremity muscle strength measurement unit according to an embodiment of the present invention. 23 is a view showing the joint position at which the upper extremity muscle strength measurement unit recognizes the upper extremity direction in the upper extremity direction calculation step S431-3 of FIG. 22 . 24 is a view showing the joint position for the upper extremity muscle force measurement unit to recognize the coordinate system of the upper extremity joint in the local coordinate system generation step (S431-5) of FIG. 22 . 25 is a view showing the joint position at which the upper extremity muscle strength measurement unit recognizes the forward lifting, lifting, side lifting, and arm folding in the forward lifting determination step (S432-1) to the operation number determination step (S438) of FIG. . 26 is a flowchart illustrating a step of reproducing upper limb muscle strength content according to an embodiment of the present invention. 27 is a flowchart illustrating a method performed by a gait motion measurement unit according to an embodiment of the present invention. 28 is a flowchart illustrating a step of reproducing walking motion content according to an embodiment of the present invention. 29 is a block diagram illustrating an execution method performed by a cough recognition unit according to an embodiment of the present invention. 30 is a flowchart illustrating a method performed by the cough recognition unit according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.In the entire specification, when a part “includes” a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the embodiments of the present invention. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein.

본 발명에 대한 해결하고자 하는 과제, 과제의 해결 수단, 발명의 효과를 포함한 구체적인 사항들은 다음에 기재할 실시 예 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다.Specific details including the problem to be solved for the present invention, the means for solving the problem, and the effect of the invention are included in the embodiments and drawings to be described below. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.

이하, 첨부된 도면을 참조하여 본 발명을 보다 상세히 설명하기로 한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

본 발명인 원격 모니터링이 가능한 의료서비스 로봇 시스템은, 도 1에 나타난 바와 같이 자율주행부(100), 자세제어부(200), 대화생성부(300), A-V인식부(400) 및 의료정보제공부(500)로 구성된다. 또한, 본 발명인 의료서비스로봇의 인간과 면대면 상호작용 수행 방법은 도 3에 나타난 단계에 의해 수행된다. The present inventor's medical service robot system capable of remote monitoring, as shown in FIG. 1, includes an autonomous driving unit 100, a posture control unit 200, a dialogue generating unit 300, an A-V recognition unit 400, and a medical information providing unit ( 500) consists of In addition, the method for performing face-to-face interaction with a human of the medical service robot of the present invention is performed by the steps shown in FIG. 3 .

즉, 본 발명은 의료서비스로봇의 인간과 면대면 상호작용 수행 방법에 의해 원격 모니터링이 가능한 의료서비스 로봇 시스템이 실행될 수 있다. 본 발명과 EMR 연계 서버의 전체 시스템은 도 8에 나타난 바와 같이 구성될 수 있다. That is, according to the present invention, a medical service robot system capable of remote monitoring can be executed by a method of performing face-to-face interaction with a human of the medical service robot. The entire system of the present invention and the EMR-associated server may be configured as shown in FIG. 8 .

먼저, 의료서비스로봇의 인간과 면대면 상호작용 수행 방법은, 도 3에 나타난 바와 같이, 제1단계(S100) 내지 제5단계(S500)에 의해 수행된다. First, the method for performing face-to-face interaction with a human of the medical service robot is performed by the first step (S100) to the fifth step (S500), as shown in FIG. 3 .

먼저, 제1단계(S100)는 RGB-D센서 데이터를 이용하여 대상자의 관절 데이터를 추출한다. 보다 구체적으로, 구성된 시스템의 RGB-D센서 데이터를 이용하여 OpenPose 인식기로부터 관절 데이터를 추출한다.First, the first step (S100) extracts the subject's joint data using RGB-D sensor data. More specifically, joint data is extracted from the OpenPose recognizer using the RGB-D sensor data of the configured system.

다음으로, 제2단계(S200)는 상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정한다. 보다 구체적으로, depth 정보를 이용하여 추출된 관절 데이터를 카메라 좌표계 기준으로 거리 정보로 변환한다. 그런 다음, 사용자의 신체 포즈 추정에 필요한 관절 데이터의 위치 오차를 최소화 하기 위해 아래 [수학식 1]인 이동 평균(Moving average, MA) 식을 통해 보정한다.Next, in the second step (S200), the extracted joint data is converted into distance information based on the coordinate system of the camera unit 31, and then corrected using a moving average equation. More specifically, joint data extracted using depth information is converted into distance information based on the camera coordinate system. Then, in order to minimize the position error of the joint data required for estimating the user's body pose, the following [Equation 1] is corrected through the moving average (MA) equation.

Figure pat00004
Figure pat00004

(여기서, Pd는 human의 좌표값, n은 측정횟수의 크기이다).(Where P d is the human coordinate value, and n is the size of the number of measurements).

다음으로, 제3단계(S300)는 상기 보정된 위치 좌표를 이용하여 이동 명령을 수행한다. 보다 구체적으로, 의료서비스로봇(2) 베이스는 보정된 추정위치에서 사회적 상호작용을 유지하기 위한 목표위치 좌표로 이동 명령을 수행한다. Next, in the third step ( S300 ), a movement command is performed using the corrected position coordinates. More specifically, the base of the medical service robot 2 performs a movement command from the corrected estimated position to the target position coordinates for maintaining social interaction.

의료서비스로봇의 바퀴 구조는 도 5와 같다. 도 5는 3륜 전방향 이동로봇의 좌표계와 속도를 보여준다. 여기서 R은 의료서비스로봇(2) 중심에서 휠 중심까지의 거리, r은 휠의 반경, V 및 ω는 의료서비스로봇(2) 중심의 선속도 및 각속도, vi는 각 휠의 선속도, wi는 의료서비스로봇(2) 중심의 각속도, Φ는 xrob 축 기준 선속도 V의 각도, θ는 전역좌표계 X축을 기준으로 xrob 축이 반시계 방향으로 회전한 각이다.The wheel structure of the medical service robot is shown in FIG. 5 . 5 shows the coordinate system and speed of the three-wheeled omnidirectional mobile robot. where R is the distance from the center of the medical service robot (2) to the center of the wheel, r is the radius of the wheel, V and ω are the linear and angular velocity of the center of the medical service robot (2), v i is the linear velocity of each wheel, w i is the angular velocity of the center of the medical service robot (2), Φ is the angle of the linear velocity V based on the x rob axis, and θ is the angle at which the x rob axis rotates counterclockwise with respect to the X axis of the global coordinate system.

이 때, 아래 [수학식 2] 내지 [수학식 4]와 같은 운동학으로 위치 제어를 수행한다. 상기 의료서비스로봇의 전방향이동부(50) 각 바퀴는 30°, 150° 및 270°이기 때문에 [수학식 2]는 다음과 같이 표현할 수 있다. At this time, position control is performed by kinematics as shown in [Equation 2] to [Equation 4] below. Since each wheel of the omnidirectional moving part 50 of the medical service robot is 30°, 150° and 270°, [Equation 2] can be expressed as follows.

Figure pat00005
Figure pat00005

좌표계에 대한 로봇의 속도 P’은 자코비안 행렬 J를 통해 [수학식 3]과 같이 표현된다.The speed P' of the robot with respect to the coordinate system is expressed as [Equation 3] through the Jacobian matrix J.

Figure pat00006
Figure pat00006

[수학식 2]와 [수학식 3]을 합하여 [수학식 4]와 같이 각 바퀴들의 각속도를 구할 수 있으며, 이를 통해 전역 좌표계 상에서 원하는 선속도와 각속도를 얻을 수 있다.By combining [Equation 2] and [Equation 3], the angular velocity of each wheel can be obtained as shown in [Equation 4], and through this, the desired linear velocity and angular velocity in the global coordinate system can be obtained.

Figure pat00007
Figure pat00007

(여기서, R은 의료서비스로봇(2) 중심에서 휠 중심까지의 거리, r는 휠의 반경, vi는 각 휠의 선속도, wi는 의료서비스로봇(2) 중심의 각속도, θ는 전역좌표계 X축을 기준으로 xrob 축이 반시계 방향으로 회전한 각이다).(Here, R is the distance from the center of the medical service robot 2 to the center of the wheel, r is the radius of the wheel, v i is the linear velocity of each wheel, w i is the angular velocity of the center of the medical service robot 2, θ is the global It is the angle by which the x- rob axis is rotated counterclockwise with respect to the x-axis of the coordinate system).

다음으로, 제4단계(S400)는 대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지한다. 보다 구체적으로, 도 6에 나타난 바와 같이, Hall. E(1966)에 따르면, 사회적 거리(Social distance) 중, 0.46-1.2m에서 친근함을 가지는 영역으로 정의하고 있다. 이에, 사용자의 신체 포즈정보를 기반으로 대상자와 사회적 상호작용을 수행하기 위해 일정한 거리를 유지하도록 이동 타겟 좌표를 선정한다.Next, in the fourth step (S400), the face-to-face distance or angle between the subject-medical service robot 2 is maintained at a preset value. More specifically, as shown in Figure 6, Hall. According to E (1966), it is defined as an area with friendliness at 0.46-1.2 m among social distances. Accordingly, the moving target coordinates are selected to maintain a certain distance in order to perform social interaction with the subject based on the user's body pose information.

다음으로, 제5단계(S500)는 대상자의 얼굴을 지속적으로 추적한다. 보다 구체적으로, 의료서비스로봇의 전방향이동부(50)가 목표 위치에 도달하는 동안, 상체부 응시각 추정모듈은 상호작용 대상자의 얼굴을 지속적으로 추적하기 위해 수평(Pan)과 수직(Tilt)정보로 구분하며, 전방향이동부가 사용자와 일정거리 혹은 높이를 유지하지 못하는 경우에는 상체부 링크구조를 통해 사용자에게 일정거리 혹은 높이로 접근할 수 있도록 설계되었다. 의료서비스로봇(2) 전방향이동부(50)가 회전을 병행하면서 이동하기 때문에 수평응시각 모듈은 의료서비스로봇(2)-인간의 수평 회전각도 차이만큼 보정하고, 수직응시각 모듈은 의료서비스로봇의 높이 정보를 기반으로 대상자의 상대거리와 키 정보 의료서비스로봇로 부터 일정거리를 유지하는 대면 응시를 위한 위치로 이동을 수행한다.Next, in the fifth step (S500), the subject's face is continuously tracked. More specifically, while the omnidirectional movement unit 50 of the medical service robot reaches the target position, the upper body gaze angle estimation module performs horizontal (Pan) and vertical (Tilt) functions to continuously track the face of the interaction target. It is classified as information, and when the omnidirectional moving part cannot maintain a certain distance or height with the user, it is designed to approach the user at a certain distance or height through the upper body link structure. Since the omnidirectional movement unit 50 of the medical service robot (2) moves in parallel with rotation, the horizontal gaze module corrects the difference in horizontal rotation angle between the medical service robot (2) and the human, and the vertical gaze module provides medical service Based on the robot's height information, it moves to a position for face-to-face gaze that maintains a certain distance from the subject's relative distance and height information from the medical service robot.

상기 상체부 응시각 추정모듈은 아래 [수학식 5] 이용하여 추정하는 것이 바람직하다. The upper body gaze angle estimation module is preferably estimated using the following [Equation 5].

Figure pat00008
Figure pat00008

(여기서, Ψ는 의료서비스로봇의 회전각이다).(Here, Ψ is the rotation angle of the medical service robot).

상기 자율주행부(100)는 병실 및 대상자에 장착된 비콘의 ID별 RSSI 데이터를 추출하여 요청 된 위치로 자율 주행을 제어한다. The autonomous driving unit 100 controls autonomous driving to a requested location by extracting RSSI data for each ID of a beacon mounted in a hospital room and a subject.

보다 구체적으로, 도 15에 나타난 바와 같이, 상기 자율주행부(100)는 자율 주행을 제어하기 위해 먼저 비콘 ID별 RSSI 데이터 추출 단계(S110), 가우시안 필터링을 수행하는 단계(S120), 거리정보를 환산하는 단계(S130) 및 삼변측량 기반 3위치를 추정 하는 단계(S140)를 통하여 수행된다. More specifically, as shown in FIG. 15 , in order to control autonomous driving, the autonomous driving unit 100 first extracts RSSI data for each beacon ID (S110), performs Gaussian filtering (S120), and obtains distance information. It is performed through the step of converting (S130) and the step of estimating the three positions based on trilateration (S140).

상기 자세제어부(200)는 3차원 공간에서 대상자의 관절을 추정하여 위치를 확인하고, 상기 확인 된 대상자와 의료서비스로봇(2)에 장착된 디스플레이부(32)가 대면할 수 있도록 자세를 제어한다. The posture control unit 200 determines the position by estimating the subject's joints in a three-dimensional space, and controls the posture so that the identified subject and the display unit 32 mounted on the medical service robot 2 face each other. .

보다 구체적으로, 상기 자세제어부(200)는 위치데이터추출부(210), 위치데이터보정부(220), 이동명령부(230), 거리유지부(240), 대면추적부(250)로 구성되어 대상자와 로봇에 장착된 디스플레이부(32)가 대면할 수 있도록 자세를 제어한다. More specifically, the posture control unit 200 includes a position data extraction unit 210 , a position data correction unit 220 , a movement command unit 230 , a distance maintaining unit 240 , and a face-to-face tracking unit 250 . The posture is controlled so that the subject and the display unit 32 mounted on the robot face each other.

상기 위치데이터추출부(210)는 RGB-D센서 데이터를 이용하여 대상자의 관절 데이터를 추출한다. The position data extraction unit 210 extracts the joint data of the subject by using the RGB-D sensor data.

상기 위치데이터보정부(220)는 상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정한다. 보다 구체적으로, 상기 위치데이터보정부에서 상기 이동 평균(Moving Average, MA) 식은 아래 [수학식 1]에 의해 수행되는 것이 바람직하다.The position data correction unit 220 converts the extracted joint data into distance information based on the coordinate system of the camera unit 31, and then corrects it using a moving average equation. More specifically, the Moving Average (MA) equation in the position data correction unit is preferably performed by the following [Equation 1].

[수학식 1][Equation 1]

Figure pat00009
Figure pat00009

(여기서, Pd는 human의 좌표값, n은 부분집합의 크기이다).(Where P d is the human coordinate value, and n is the size of the subset).

상기 이동명령부(230)는 상기 보정된 위치 좌표를 이용하여 이동 명령을 수행한다. 보다 구체적으로, 상기 이동명령부에서 이동 명령을 수행하는 것은 아래 [수학식 4]를 이용하여 위치를 제어하는 것이 바람직하다. The movement command unit 230 performs a movement command using the corrected position coordinates. More specifically, it is preferable to control the position by using the following [Equation 4] to perform the movement command in the movement command unit.

[수학식 4][Equation 4]

Figure pat00010
Figure pat00010

(여기서, R은 의료서비스로봇(2) 중심에서 휠 중심까지의 거리, r는 휠의 반경, vi는 각 휠의 선속도, wi는 의료서비스로봇(2) 중심의 각속도, θ는 전역좌표계 X축을 기준으로 xrob 축이 반시계 방향으로 회전한 각이다).(Here, R is the distance from the center of the medical service robot 2 to the center of the wheel, r is the radius of the wheel, v i is the linear velocity of each wheel, w i is the angular velocity of the center of the medical service robot 2, θ is the global It is the angle by which the x- rob axis is rotated counterclockwise with respect to the x-axis of the coordinate system).

상기 거리유지부(240)는 대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지한다. The distance maintaining unit 240 maintains the face-to-face distance or angle between the subject-medical service robot 2 as a preset value.

상기 대면추적부(250)는 대상자의 얼굴을 지속적으로 응시한다. 보다 구체적으로, 상기 대면추적부는 아래 [수학식 5]인 상체부 응시각 추정모듈을 이용하여 추적하는 것이 바람직하다. The face-to-face tracking unit 250 continuously stares at the subject's face. More specifically, it is preferable to track the face-to-face tracking unit using the upper body gaze angle estimation module as shown in Equation 5 below.

[수학식 5][Equation 5]

Figure pat00011
Figure pat00011

(여기서, Ψ는 의료서비스로봇의 회전각이다).(Here, Ψ is the rotation angle of the medical service robot).

다음으로, 상기 대화생성부(300)는 대화를 통해 환자의 상태 관찰을 보조한다. 보다 구체적으로, 상기 대화생성부(300)는 환자의 의식, 생체기록, 섭취/배설 및 심리상태 등 기설정된 질문 문항에 따른 대상자의 응답을 점수화하여 심리 상태를 평가한 뒤 총점을 계산하고, 상기 총점의 점수 분포에 따라 발화멘트를 제공하는 것이 바람직하다. Next, the dialogue generating unit 300 assists in observing the patient's condition through dialogue. More specifically, the conversation generating unit 300 evaluates the psychological state by scoring the subject's responses according to preset questions such as the patient's consciousness, biorecord, intake/excretion, and psychological state, and then calculates the total score, and the It is preferable to provide speeches according to the distribution of the total scores.

도 17에 나타난 바와 같이, 상기 대화생성부(300)는 질문 순서 결정 단계(S311), 음성 또는 화면으로 질문 출력 단계(S312), 환자 응답 단계(S313), 답변 단계(S314), QA 리스트 기록 단계(S315), 남은 질문 여부를 판단하는 단계(S316), 심리 대화 진단 단계(S317) 및 음성 또는 화면으로 진단을 출력하는 단계(S318)에 의해 수행된다. As shown in FIG. 17 , the conversation generating unit 300 performs a question order determination step (S311), a question output step by voice or screen (S312), a patient response step (S313), an answer step (S314), QA list recording Step S315, determining whether there are remaining questions (S316), diagnosing a psychological conversation (S317), and outputting the diagnosis by voice or screen (S318) are performed.

특히, 도 18에 나타난 바와 같이, 상기 대화생성부(300)는 기설정된 질문 문항에 따른 대상자의 응답을 점수화하여 심리 상태를 평가한 뒤 총점을 계산고, 상기 총점의 점수 분포에 따라 발화멘트를 제공한다. 일실시예로, 상기 총점이 0-2점인 경우 ‘환자분 기분이 괜찮은 것 같아요. 더 좋아질 수 있도록 최선을 다하겠습니다.’의 발화 멘트를 제공한다. 상기 총점이 3-6점인 경우 ‘환자분 입원 스트레스가 좀 있으시군요. 기분 전환을 위해 저와 산책을 하실까요? 아니면 마음이 편안해지는 음악을 틀어드릴까요?’의 발화멘트를 제공한다. 상기 총점이 7-10점인 경우 ‘환자분 입원 스트레스가 상당하시네요. 제가 담당선생님께 전달해 드리겠습니다.’의 발화멘트를 제공한다. In particular, as shown in FIG. 18 , the conversation generating unit 300 scores the response of the subject according to a preset question, evaluates the psychological state, calculates a total score, and provides a speech message according to the score distribution of the total score do. In one embodiment, if the total score is 0-2, ‘I think the patient is in a good mood. We will do our best to make it better.” If the above total score is 3-6, ‘The patient is under some hospitalization stress. Would you like to take a walk with me to refresh yourself? Or would you like me to play some relaxing music?’ If the above total score is 7-10, ‘The patient is under significant hospitalization stress. I will deliver it to the teacher in charge.'

다음으로, 상기 A-V인식부(400)는 의료서비스로봇(2)에서 제공되는 콘텐츠에 따른 대상자의 수행동작 및 대상자가 생성하는 소리를 오디오(Audio)-비디오(Video) 모듈을 이용하여 인식한다. Next, the A-V recognition unit 400 recognizes the subject's performance according to the content provided by the medical service robot 2 and the sound generated by the subject using the Audio-Video module.

보다 구체적으로, 상기 A-V인식부(400)는 비디오인식부(410) 및 오디오인식부(420)로 구성된다. 상기 비디오인식부(410)는 상기 콘텐츠를 제공에 따른 상기 대상자의 수행동작을 인식한다. 상기 오디오인식부(420)는 상기 대상자가 생성하는 소리를 인식한다. More specifically, the A-V recognition unit 400 includes a video recognition unit 410 and an audio recognition unit 420 . The video recognition unit 410 recognizes the operation of the subject according to the provision of the content. The audio recognition unit 420 recognizes the sound generated by the subject.

본 발명에 따른 일실시예로, 상기 비디오인식부(410)는 폐활량측정부, 상지근력측정부 및 보행동작측정부를 포함할 수 있다. 상기 비디오인식부(410)는 상체 관절구조가 비디오 인식이 잘 될 수 있는 위치로 포즈를 취할 수 있는 구조이다. In an embodiment according to the present invention, the video recognition unit 410 may include a spirometry unit, an upper extremity muscle strength measurement unit, and a gait motion measurement unit. The video recognition unit 410 is a structure that can pose a position where the upper body joint structure can be recognized as a video.

상기 폐활량측정부는 상기 의료서비스로봇(2)에서 제공되는 폐활량계 콘텐츠에 따른 대상자의 폐활량을 측정한다. 도 20에 나타난 바와 같이, 상기 폐활량측정부는 색상인식(S411), 콘텐츠 준비 신호 전송(S412), 콘텐츠 시작 신호 수신(S413), 신호 대기(S414), 노란공, 빨간공, 파란공 중 두개의 마커 위치 판별(S415), 호흡인식(S416), 폐활량 전송(S417), 콘텐츠 종료(S418) 및 결과 신호 전송(S419) 단계를 통해 수행된다. The spirometry unit measures the lung capacity of the subject according to the spirometry content provided by the medical service robot (2). 20, the spirometry unit color recognition (S411), content preparation signal transmission (S412), content start signal reception (S413), signal waiting (S414), yellow ball, red ball, two of the blue ball Marker position determination (S415), respiration recognition (S416), lung capacity transmission (S417), content termination (S418) and the result signal transmission (S419) is performed through the steps.

또한, 상기 폐활량계 콘텐츠는 디스플레이부(32)에서 제공되며, 도 21에 나타난 바와 같이, 모듈 실행, 반복횟수 지정(S421), Balls 및 Markers 컬러감지(S422), 콘텐츠 준비 토픽 전송(S423), 콘텐츠 시작 토픽 수신(S424), 콘텐츠 시작(S425), Balls 및 Markers 실시간 위치 인식(S426), Balls의 이동 판별(S427), 실시간 폐활량 토픽 전송(S428), 최종 결과 출력 및 콘텐츠 종료(S429) 및 모듈 종료 토픽 수신(S430) 단계를 통해 수행된다. In addition, the spirometer content is provided by the display unit 32, and as shown in FIG. 21, module execution, repetition number designation (S421), Balls and Markers color detection (S422), content preparation topic transmission (S423), content Start topic reception (S424), content start (S425), Balls and Markers real-time location recognition (S426), Balls movement determination (S427), real-time lung capacity topic transmission (S428), final result output and content end (S429) and module It is performed through the end topic reception (S430) step.

상기 폐활량계 콘텐츠 알고리즘은 RGB 카메라를 통해 입력된 BGR 영상을 색상 인식 범위를 지정하기 위해서 HSV 형식으로 컨버팅, HSV 영상에서 폐활량계의 상하에 미리 부착한 두개의 표식들을 인식하여 폐활량계의 높이를 계산, 폐활량계 내부의 공 3 개의 색상을 인식하여 현재 높이를 계산, 두개 표식 사이의 거리 즉 폐활량계의 높이와 공 3 개의 위치를 기반으로 폐활량(cc) 계산, 실시간 결과 출력 및 지정된 횟수만큼 폐활량 측정 반복 및 최종 결과 출력 및 콘텐츠 종료한다. The spirometer content algorithm converts the BGR image input through the RGB camera into HSV format to designate the color recognition range, recognizes two markers pre-attached above and below the spirometer in the HSV image to calculate the height of the spirometer, inside the spirometer Calculates the current height by recognizing the three colors of the ball, calculates the spirometry (cc) based on the distance between the two markers, that is, the height of the spirometer and the position of the three balls, outputs real-time results, and repeats spirometry for a specified number of times and outputs the final result and end the content.

상기 상지근력측정부는 상기 의료서비스로봇(2)에서 제공되는 상지근력 콘텐츠에 따른 대상자의 상지근력을 측정한다. 도 22에 나타난 바와 같이, 상지근력측정부는 관절인식(S431), 중심 관절 인식 확인(S431-1), 중앙 위치 확인(S431-2), 상지 방향 계산(S431-3), 콘텐츠 준비 신호 전송(S431-4), 로컬 좌표계 생성(S431-5), 콘텐츠 시작 신호 수신(S431-6), 수신 대기(S431-7), 컨텐츠 실행(S431-8), 현재 동작 번호 = 0 (S431-9)의 단계에 의해 수행되며, 앞으로 들기(S432-1), 위로 들기(S432-2), 옆으로 들기(S432-3) 및 팔꿈치 굽히기(S432-4) 단계를 각각 실행 후 각도 계산(S434), 동작 일치 여부 판별 및 정확도 출력(S435), 콘텐츠 종료 혹은 정확도 80% 이상 달성(S436) 현재 동작 번호 +=1(S437)를 수행한 후 동작 번호가 3을 초과하는 경우(S438) 콘텐츠 종료 신호 전송(S439) 단계를 수행한다. The upper extremity strength measurement unit measures the upper extremity muscle strength of the subject according to the contents of the upper extremity strength provided by the medical service robot (2). As shown in Figure 22, the upper extremity muscle strength measurement unit joint recognition (S431), center joint recognition confirmation (S431-1), central position confirmation (S431-2), upper extremity direction calculation (S431-3), content preparation signal transmission ( S431-4), local coordinate system creation (S431-5), content start signal reception (S431-6), reception standby (S431-7), content execution (S431-8), current operation number = 0 (S431-9) Calculating the angle after executing the steps of lifting forward (S432-1), lifting up (S432-2), lifting sideways (S432-3), and bending the elbow (S432-4) respectively (S434), Determining whether the action matches and outputting the accuracy (S435), ending the content or achieving more than 80% accuracy (S436) When the action number exceeds 3 after performing the current action number +=1 (S437) (S438), the content end signal is transmitted (S439) is performed.

도 23은 상지 방향 계산(S431-3) 단계에서 상기 상지근력측정부에서 상지 방향을 인지하는 관절 위치이고, 도 24는 상지근력측정부가 도 22의 로컬 좌표계 생성 단계(S431-5)에서 상지 관절의 좌표계 인지를 위한 관절 위치를 표시한 도면이다. 또한, 도 25는 상지근력측정부가 도 22의 앞으로 들기 판단 단계(S432-1) 내지 동작 번호 판단 단계(S438)에서 앞으로 들기, 위로 들기, 옆으로 들기 및 팔 접기를 인지하는 관절 위치를 표시한 도면이다.23 is a joint position at which the upper extremity muscle force measurement unit recognizes the direction of the upper extremity in the step of calculating the direction of the upper extremity (S431-3), and FIG. 24 is the upper extremity joint in the step (S431-5) of the local coordinate system of FIG. It is a diagram showing the joint position for recognizing the coordinate system of In addition, Fig. 25 shows the joint position at which the upper extremity muscle strength measurement unit recognizes the forward lifting, lifting, side lifting, and arm folding in the forward lifting determination step (S432-1) to the operation number determination step (S438) of FIG. It is a drawing.

또한, 상기 상지근력 콘텐츠는 디스플레이부(32)에서 제공되며, 도 26에 나타난 바와 같이, 모듈 실행(S441), 관절 인식(S442), pelvis 인식 여부 확인(S443), 중앙 정렬(S444), 상체 좌표계 생성(S445), 실시간 방향성 계산(S446), 콘텐츠 준비 토픽 전송(S447), 콘텐츠 시작 토픽 수신(S448), 콘텐츠 시작(S449), front, up, side, bend의 현재 콘텐츠 동작 인덱스 판별(S450), 방향과 roll, pitch 각도 연산(S451), 동작 목표 각도 기반 정확도 percentage 연산(S452), 실시간 정확도 percentage 토픽 전송(S453), 동작 인식 종료 및 다음 동작 콘텐츠 실행(S454) (S449~S452 반복), 최종 결과 출력 및 콘텐츠 종료(S455) 및 모듈 종료 토픽 수신(S456) 단계를 통해 수행된다. In addition, the upper extremity muscle strength content is provided by the display unit 32, and as shown in FIG. 26, module execution (S441), joint recognition (S442), pelvis recognition (S443), center alignment (S444), upper body Coordinate system generation (S445), real-time direction calculation (S446), content preparation topic transmission (S447), content start topic reception (S448), content start (S449), current content operation index determination of front, up, side, bend (S450) ), direction, roll, and pitch angle calculation (S451), motion target angle-based accuracy percentage calculation (S452), real-time accuracy percentage topic transmission (S453), end motion recognition and execution of next motion content (S454) (repeat S449~S452) , the final result output and content end (S455) and module end topic reception (S456) are performed through the steps.

상기 상지근력 콘텐츠 알고리즘은 RGB 카메라와 Depth 센서를 통해 입력된 영상을 학습된 인식 모델과 관절 인식 프로그램을 통해 인식된 사람 객체의 각 관절 3차원 포인트들을 인식하고 좌측, 우측 어깨와 목(쇄골 중앙) 관절 벡터의 외적을 구해 그 두 외적의 평균을 상체의 방향 벡터로 계산, 상체의 방향 벡터를 z축으로 잡고 회전 행렬을 대입하여 각 관절들의 roll, pitch, yaw 3개의 오일러 각과 방향성을 계산, 상체 관절의 오일러 각과 모범 동작의 오일러 각을 비교하여 동작 정확도를 실시간으로 출력 후 현 동작 종료 시, 다음 동작으로 넘어가 동작 측정 반복(현재 4개 동작 앞으로 들기, 위로 들기, 옆으로 들기, 팔 접기)하고 모든 동작 수행 후 최종 결과 출력 및 콘텐츠 종료한다. The upper extremity muscle strength content algorithm recognizes three-dimensional points of each joint of a human object recognized through a recognition model and a joint recognition program learned from the image input through the RGB camera and depth sensor, and the left and right shoulder and neck (center of the clavicle) Calculate the cross product of the joint vectors and calculate the average of the two cross products as the direction vector of the upper body. After comparing the Euler angle of the joint and the Euler angle of the exemplary motion, the motion accuracy is output in real time, and when the current motion is finished, it moves to the next motion and repeats motion measurement (current 4 motions: forward lift, up lift, side lift, arm fold) After performing all operations, output the final result and end the content.

상기 보행동작측정부 상기 의료서비스로봇(2)에서 제공되는 보행동작 콘텐츠에 따른 대상자의 보행동작을 인식한다. 도 27에 나타난 바와 같이, 관절인식(S461), 중심 관절 인식 확인(S461-1), 중앙 위치 확인(S461-2), 하지 방향 계산(S461-3) 및 콘텐츠 준비 신호 전송(S461-4)한다. 상기 하지 방향 계산(S461-3) 후 로컬 좌표계 생성(S461-5), 콘텐츠 시작 신호 수신 판단(S461-6) 후 수신 대기(S461-7) 하거나 컨텐츠 실행(S461-8)한다. 상기 컨텐츠 실행(S461-8) 단계가 시작되면 걷기 동작 판별 실행(S462), 보행 수 출력(S463) 하고 콘텐츠 종료 판별(S464) 한다. 종료된 경우 결과 신호 전송(S465)한다. The gait motion measurement unit recognizes the gait motion of the subject according to the gait motion content provided by the medical service robot (2). 27, joint recognition (S461), center joint recognition confirmation (S461-1), central location confirmation (S461-2), lower extremity direction calculation (S461-3) and content preparation signal transmission (S461-4) do. After the calculation of the lower limb direction (S461-3), the local coordinate system is generated (S461-5), the content start signal reception is determined (S461-6), and the reception waits (S461-7) or the content is executed (S461-8). When the content execution step (S461-8) starts, the walking motion determination is executed (S462), the number of steps is output (S463), and the content end determination is made (S464). When it is finished, the result signal is transmitted (S465).

다만, 상기 걷기 동작 판별 실행(S462) 단계는 보다 구체적으로 다리 관절과 골반 관절 위치 비교(S462-1)하는 단계로, 두 다리 모두 골반 앞 (S463-1), 두 다리 중 하나 골반 앞 (S464-1), 두 다리 모두 골반 뒤 (S465-1)인지 판별하여 위치를 판별한다. However, the step of determining the walking motion (S462) is a step of comparing the position of the leg joint and the pelvic joint (S462-1) more specifically, both legs in front of the pelvis (S463-1) and one of the two legs in front of the pelvis (S464). -1), the position is determined by determining whether both legs are behind the pelvis (S465-1).

또한, 상기 보행동작 콘텐츠는 디스플레이부(32)에서 제공되며, 도 28에 나타난 바와 같이, 모듈 실행(S471), 관절 인식(S472), pelvis 인식 여부 확인(S473), 중앙 정렬(S474), 하체 좌표계 생성(S475), 실시간 방향성 계산(S476), 콘텐츠 준비 토픽 전송(S477), 콘텐츠 시작 토픽 수신(S478), 콘텐츠 시작(S479), 걷기 동작(앞선 다리 측정 및 다리 관절 교차 인식) 판별(S480), 실시간 보폭, 보행 수(steps) 토픽 전송(S481), 최종 결과 출력 및 콘텐츠 종료(S482) 및 모듈 종료 토픽 수신(S483) 단계로 구성된다. In addition, the gait motion content is provided by the display unit 32, and as shown in FIG. 28, module execution (S471), joint recognition (S472), pelvis recognition confirmation (S473), center alignment (S474), lower body Coordinate system generation (S475), real-time direction calculation (S476), content preparation topic transmission (S477), content start topic reception (S478), content start (S479), walking motion (front leg measurement and leg joint cross recognition) determination (S480) ), real-time stride length, steps, topic transmission (S481), final result output and content termination (S482), and module termination topic reception (S483).

상기 보행동작 콘텐츠 알고리즘은 RGB 카메라와 Depth 센서를 통해 입력된 영상을 학습된 인식 모델과 관절 인식 프로그램을 통해 인식된 사람 객체의 각 관절 3차원 포인트들을 인식하고, 좌측, 우측 골반과 척추 관절 벡터의 외적을 구해 그 두 외적의 평균을 하체의 방향 벡터로 계산 후 하체의 방향 벡터를 z축으로 잡고 회전 행렬을 대입하여 각 관절들의 방향성과 두 발목 사이의 거리를 계산한다. 하체 방향성과 두 다리 관절이 뻗은 방향을 비교하고 하체 방향 벡터에 두 다리 관절의 벡터를 투영시켜 현재 어느 다리가 앞서 있는지를 판별 후 실시간으로 동작을 인식하여 두 다리의 교차 지점을 파악 및 기록하여 보행 수 측정하고 지정된 횟수만큼 일정 시간 동안 보행 동작 측정 반복하여 최종 결과 출력 및 콘텐츠 종료한다. The gait motion content algorithm recognizes three-dimensional points of each joint of a human object recognized through a recognition model and a joint recognition program learned from an image input through an RGB camera and a depth sensor, and the left and right pelvis and spine joint vectors After finding the external product, the average of the two external products is calculated as the direction vector of the lower body. Compare the directionality of the lower body with the direction in which the joints of the two legs are stretched, and project the vectors of the joints of the two legs on the vector of the lower body to determine which leg is currently ahead, then recognize the motion in real time to identify and record the intersection of the two legs and walk The number is measured, and the gait motion measurement is repeated for a specified number of times, outputting the final result and ending the content.

또한, 본 발명에 따른 일실시예로, 상기 오디오인식부(420)는 상기 대상자가 생성하는 소리 중 기침 여부를 확인하는 기침인식부를 포함할 수 있다. 도 30에 나타난 바와 같이, 상기 기침인식부는 소리 입력 (S491), 음성 파형/주파수 분석(S492), 기침인가?(S493), 컨텐츠가 실행 중인지 여부 판별(S494) 및 인식 결과 전송(S495) 단계에 의해 수행된다. In addition, according to an embodiment of the present invention, the audio recognition unit 420 may include a cough recognition unit for checking whether or not coughing among the sounds generated by the subject. 30 , the cough recognition unit performs sound input (S491), voice waveform/frequency analysis (S492), cough? (S493), determining whether content is running (S494), and transmitting the recognition result (S495) is performed by

다음으로, 상기 의료정보제공부(500)는 대상자로부터 기설정된 의료 정보를 측정하여 의료진이 모니터링하고, 의료진이 대상자의 정보를 확인할 수 있도록 제공한다. Next, the medical information providing unit 500 measures preset medical information from the subject, monitors the medical staff, and provides the medical information so that the medical staff can check the patient's information.

본 발명에 따른 일실시예로, 상기 의료정보제공부(500)는 스케줄등록부(510)를 포함할 수 있다. 도 9에 나타난 바와 같이, 상기 스케줄등록부(510)는 공공의료정보시스템(Public Health Information System, PHIS)과 연동하여 환자의 정보를 확인하여 환자 정보에 따른 일정을 등록할 수 있고 상기 의료서비스로봇(2)이 일정을 수행할 수 있도록 요청한다. In an embodiment according to the present invention, the medical information providing unit 500 may include a schedule registration unit 510 . As shown in FIG. 9 , the schedule registration unit 510 may check patient information by interworking with a Public Health Information System (PHIS) to register a schedule according to the patient information, and the medical service robot ( 2) Request to be able to carry out this schedule.

도 10은 본 발명의 일실시예에 따라 의료정보제공부(500)에서 수행하는 스케줄등록부(510)의 실행 방법을 나타낸 순서도로, PHIS 스케줄 등록 단계(S511), 작업 명령 송신 단계(S512), 작업 결과 확인 단계(S513), 해당 작업이 완료 되었는지 여부를 판단하는 단계(S514), DB 결과 저장 단계(S515), 음성 또는 텍스트로 완료 알림 출력 단계(S516), 모든 스케줄이 완료 되었는지 여부를 판단하는 단계(S517)에 의해 수행된다. 10 is a flowchart illustrating an execution method of the schedule registration unit 510 performed by the medical information providing unit 500 according to an embodiment of the present invention. A PHIS schedule registration step (S511), a work command transmission step (S512), Job result confirmation step (S513), step of determining whether the corresponding job has been completed (S514), step of storing DB result (S515), step of outputting a notification of completion by voice or text (S516), determining whether all schedules have been completed It is performed by the step (S517).

도 11은 본 발명의 일실시예에 따라 의료서비스로봇(2)에서 수행하는 스케줄실행부의 실행 방법을 나타낸 순서도로, 작업 명령 수신 단계(S521), 로봇 이동 단계(S522), 의료서비스 수행 단계(S523), 작업 결과 송신 단계(S524), 모든 컨텐츠가 종료 되었는지 판단하는 단계(S525), 모든 스케줄이 완료 되었는지 판단하는 단계(S526)에 의해 수행된다. 11 is a flowchart illustrating an execution method of the schedule execution unit performed by the medical service robot 2 according to an embodiment of the present invention, in which the operation command reception step (S521), the robot movement step (S522), the medical service execution step ( S523), the operation result transmission step (S524), the step of determining whether all contents are finished (S525), and the step of determining whether all schedules are completed (S526) are performed.

도 12는 본 발명의 일실시예에 따라 스케줄등록부(510) 및 스케줄실행부의 작업명령 순서도이고, 도 13은 본 발명의 일실시예에 따라 도 12의 스케줄등록부(510) 및 스케줄실행부의 작업명령 순서에 따른 구체적인 실시예이다.12 is a flowchart of a work command of the schedule registration unit 510 and the schedule execution unit according to an embodiment of the present invention, and FIG. It is a specific example according to the order.

한편, 본 발명인 원격 모니터링이 가능한 의료서비스 로봇 시스템은 의료서비스로봇(2)에 의해 수행된다. 도 2에 나타난 바와 같이, 상기 의료서비스로봇(2)은 걸림부(10), 대면상호작용부(20), 모니터부(30), 손잡이부(40) 및 전방향이동부(50)로 구성될 수 있다. On the other hand, the present invention, a medical service robot system capable of remote monitoring is performed by the medical service robot (2). As shown in FIG. 2 , the medical service robot 2 is composed of a locking part 10 , a face-to-face interaction part 20 , a monitor part 30 , a handle part 40 , and a forward movement part 50 . can be

상기 걸림부(10)는, 도 2에 나타난 바와 같이, 수액을 거치할 수 있는 수액걸이부(11) 및 상기 수액걸이부(11)의 높이를 조절할 수 있는 길이조절부(12)로 구성된다. As shown in FIG. 2 , the locking part 10 is composed of an infusion holder 11 that can hold an infusion and a length adjustment part 12 that can adjust the height of the infusion hanger 11 . .

상기 대면상호작용부(20)는 디스플레이부(32) 및 카메라부(31)로 구성된다. 보다 구체적으로, 상기 디스플레이부(32)는 상기 폐활량계 콘텐츠, 상지근력 콘텐츠 및 보행동작 콘텐츠 등을 포함하는 콘텐츠 영상을 출력하고, 상기 카메라부(31)는 상기 비디오인식부(410)에서 상기 콘텐츠를 제공에 따른 상기 대상자의 수행동작을 인식할 수 있도록 측정한다. The face-to-face interaction unit 20 includes a display unit 32 and a camera unit 31 . More specifically, the display unit 32 outputs a content image including the spirometry content, upper extremity muscle strength content, gait motion content, and the like, and the camera unit 31 receives the content from the video recognition unit 410 . Measure so that the subject's performance can be recognized according to the provision.

상기 손잡이부(40)는 상기 의료서비스로봇(2)을 수동으로 이동시키는 손잡이부(40)로 구성된다. The handle portion 40 is composed of a handle portion 40 for manually moving the medical service robot (2).

상기 전방향이동부(50)는 상기 자율주행부(100)에 의해 요청 된 위치로 주행하도록 3륜 전방향 바퀴를 마련하고 있다. 상기 자율주행부(100)의 각 바퀴는 30°, 150° 및 270°로 마련되는 것이 바람직하다. The omnidirectional movement unit 50 is provided with three-wheeled omnidirectional wheels to travel to a position requested by the autonomous driving unit 100 . Each wheel of the autonomous driving unit 100 is preferably provided at 30°, 150° and 270°.

아래는 대상자 포즈 정확도 및 로봇 위치 및 방향 정확성을 측정한 실험예를 수행하였다.Below, an experimental example in which the subject's pose accuracy and robot position and orientation accuracy were measured was performed.

본 실험예 1 및 2를 수행하기 위한 시스템은 60H*49.5V*73D의 화각을 가지는 Orbbec사의 Astra 카메라와 Pan-Tilt모듈이 장착된 전방향 로봇 플랫폼으로 구성하였다. 실내 환경에서의 카메라 위치(x1, y1, z1, θ, Ψ)는 의료서비스로봇의 map좌표계 기준 (0, 0, 1.88m, -1.57, -0.35rad)이며, 대상자(xh, yh, zh)는 (2, 0., Height)m 에 위치하고 정면과 ±45°를 바라본다.The system for carrying out Experimental Examples 1 and 2 consisted of an omnidirectional robot platform equipped with Orbbec's Astra camera and Pan-Tilt module having an angle of view of 60H*49.5V*73D. The camera position (x 1 , y 1 , z 1 , θ, Ψ) in the indoor environment is based on the map coordinate system of the medical service robot (0, 0, 1.88m, -1.57, -0.35rad), and the subject (x h , y h , z h ) is located at (2, 0., Height)m and faces the front and ±45°.

그리고, 이동 로봇의 헤드 위치(0, 0, 1.26m)에 사용자를 지속적으로 응시하기 위한 180°의 수평 및 수직 각도로 제어가 가능한 상체부 응시각 추정모듈을 장착하였다.In addition, an upper body gaze angle estimation module that can be controlled at 180° horizontal and vertical angles to continuously gaze at the user at the head position (0, 0, 1.26 m) of the mobile robot was mounted.

실험예 1 : 대상자 포즈 정확도Experimental Example 1: Subject Pose Accuracy

본 발명에 따른 실험예 1은 대상자가 정해진 각도로 포즈를 취했을 때, 관절 좌표값을 통해 추출된 각도의 오차를 분석함으로써, 상호작용 대상자의 포즈 정확도를 확인하였다. 본 실험예 1은 1,500개의 데이터(5명*포즈2곳*위치 3곳*좌표 당 50개)를 추출한다.Experimental Example 1 according to the present invention confirmed the pose accuracy of the interaction subject by analyzing the error of the angle extracted through the joint coordinate value when the subject took a pose at a predetermined angle. This Experimental Example 1 extracts 1,500 pieces of data (5 people * 2 poses * 3 locations * 50 pieces per coordinate).

각 포즈 별 측정된 데이터는 도 7과 같이 나타났다. The measured data for each pose is shown in FIG. 7 .

실험예 2 : 로봇 위치 및 방향 정확성Experimental Example 2: Robot Position and Direction Accuracy

다음으로, 의료서비스로봇의 위치 및 방향 정확도를 검증하기 위한 실험예 2는 실시간으로 변화하는 인간의 자세에 대해 민첩하고 정확한 위치로 이동하는 것을 목표로 한다. 이 때, 의료서비스로봇(2)은 인간으로부터 0.8m 떨어진 곳에 위치하면서 사용자를 응시하도록 한다. 여기서 실험예 2는 3,000개의 데이터(포즈 3곳*위치 2곳*좌표 당 100개*5회)를 추출한다. 각 실험의 성공 여부는 각도 오차가 ±5° 이내에 위치하는 것으로 하고, 실험예 2의 경우 거리 유지 조건에서 ±0.1m이내에 위치하는 것을 목표로 한다. Next, Experimental Example 2 for verifying the position and direction accuracy of the medical service robot aims to move to an agile and accurate position with respect to the human posture changing in real time. At this time, the medical service robot 2 is positioned at a distance of 0.8 m from the human to gaze at the user. Here, in Experimental Example 2, 3,000 pieces of data (3 poses * 2 locations * 100 pieces per coordinate * 5 times) are extracted. The success or failure of each experiment is to be located within ±5° of the angular error, and in the case of Experimental Example 2, it aims to be located within ±0.1m under the distance maintenance condition.

면대면 상호작용을 수행할 때, 의료서비스로봇(2)이 인간을 바라보는 각도의 표준편차는 5°이내에 위치하였으나, 각도 오차는 성공률이 66.7%로 비교적 낮게 위치함을 확인하였다. 오차가 크게 발생한 경우는 인간-로봇 간 거리가 멀어질 때, 의료서비스로봇(2)이 이동하며 생기는 바퀴의 마찰력으로 인해 미끄럼이 발생에 기인한 것으로 판단된다.When performing face-to-face interaction, the standard deviation of the angle at which the medical service robot 2 looks at humans was located within 5°, but it was confirmed that the angle error was located relatively low with a success rate of 66.7%. In the case of a large error, when the distance between the human and the robot increases, it is determined that the medical service robot 2 moves and the slip occurs due to the frictional force of the wheels.

상기 과제의 해결 수단에 의해, 본 발명은 병원환경에서 헬스케어 업무를 보조하는 IoT 연계형 간호용 의료 로봇을 제공할 수 있다. By means of solving the above problems, the present invention can provide an IoT-linked nursing medical robot that assists in healthcare work in a hospital environment.

또한, 본 발명은 의료 환경을 개선하고 환자와 의료인 만족도를 향상할 수 있는 의료 서비스 의료서비스로봇(2)을 제공할 수 있다. In addition, the present invention can provide a medical service medical service robot (2) that can improve the medical environment and improve the satisfaction of patients and medical personnel.

또한, 본 발명은 HRI(인간 로봇 상호작용) 기술을 가진 로봇으로, 대화관리자를 이용하여 문진 내용을 기반으로 정보를 제공하고 관련 내용을 기록할 수 있고, 상황에 따라 로봇이 환자와 의료진을 실시간 원격으로 연결하고 필요한 생체신호 정보를 동시에 제공할 수 있는 의료 서비스 의료서비스로봇(2)을 제공할 수 있다. In addition, the present invention is a robot with HRI (Human-Robot Interaction) technology, which can provide information based on the questionnaire and record related contents using a dialog manager, and the robot can communicate with patients and medical staff in real time depending on the situation. It is possible to provide a medical service medical service robot 2 that can connect remotely and simultaneously provide necessary biosignal information.

또한, 본 발명은 IoT 디바이스를 이용한 환자 Vital 신호 및 의료환경(공기오염도, 온습도) 정보를 추출할 수 있고, 수액, 유린백 상태 측정 및 교체 시기 자동 알람을 제공할 수 있다. In addition, the present invention can extract the patient vital signal and medical environment (air pollution, temperature and humidity) information using the IoT device, and can provide an automatic alarm for measuring the state of the infusion, Yurinbag and replacement time.

또한, 본 발명은 주기적 환자 방문 체크, 콜벨 업무에 선제적 대응할 수 있고, 낙상 위험측정도구와 욕창측정도구를 이용하여 위험도가 높은 환자별로 간호업무 중요도를 조절할 수 있어 안전 간호를 할 수 있다. In addition, the present invention can preemptively respond to periodic patient visit check and call-bell work, and can control the importance of nursing work for each high-risk patient by using a fall risk measuring tool and a pressure sore measuring tool, so that safe nursing can be performed.

이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, those skilled in the art to which the present invention pertains will understand that the above-described technical configuration of the present invention may be implemented in other specific forms without changing the technical spirit or essential characteristics of the present invention.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above are to be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the following claims rather than the above detailed description, and the meaning and scope of the claims and their All changes or modifications derived from the concept of equivalents should be construed as being included in the scope of the present invention.

1. 의료서비스 로봇시스템 100. 자율주행부 200. 자세제어부 210. 위치데이터추출부 220. 위치데이터보정부 230. 이동명령부 240. 거리유지부 300. 대화생성부 400. A-V인식부 410. 비디오인식부 420. 오디오인식부 500. 의료정보제공부 510. 스케줄등록부 2. 의료서비스로봇 10. 걸림부 11. 수액걸이부 12. 길이조절부 20. 대면상호작용부 30. 모니터부 31. 카메라부 32. 디스플레이부 40. 손잡이부 50. 전방향이동부 S100. RGB-D센서 데이터를 이용하여 대상자의 관절 데이터를 추출하는 제1단계 S200. 상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정하는 제2단계 S300. 상기 보정된 위치 좌표를 이용하여 이동 명령을 수행하는 제3단계 S400. 대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지하는 제4단계 S500. 대상자의 얼굴을 지속적으로 추적하는 제5단계1. Medical service robot system 100. Autonomous Driving Department 200. Posture control unit 210. Location data extraction unit 220. Location data correction unit 230. Move command unit 240. Distance Maintenance Department 300. Conversation Generator 400. A-V recognition unit 410. Video Recognition Unit 420. Audio Recognition Unit 500. Department of Medical Information 510. Schedule Register 2. Medical service robot 10. catch 11. Sap holder 12. Length adjustment part 20. Face-to-face interaction 30. Monitor unit 31. Camera part 32. Display unit 40. Handle 50. Forward moving part S100. The first step of extracting the subject's joint data using RGB-D sensor data S200. The second step of converting the extracted joint data into distance information based on the coordinate system of the camera unit 31 and then correcting it using a Moving Average formula S300. A third step of performing a movement command using the corrected position coordinates S400. The fourth step of maintaining the face-to-face distance or angle between the subject and the medical service robot (2) at a preset value S500. Step 5 to continuously track the subject's face

Claims (11)

병실 및 대상자에 장착된 비콘의 ID별 RSSI 데이터를 추출하여 요청 된 위치로 자율 주행을 제어하는 자율주행부(100);3차원 공간에서 대상자의 신체정보를 추정하여 위치를 확인하고, 상기 확인 된 대상자와 의료서비스로봇(2)에 장착된 디스플레이부(32)가 대면 혹은 A-V인식을 수행할 수 있도록 자세를 제어하는 자세제어부(200);대화를 통해 환자의 상태를 관찰하고 보조하는 대화생성부(300);의료서비스로봇(2)에서 제공되는 콘텐츠에 따른 대상자의 수행동작 및 대상자가 생성하는 소리를 오디오(Audio)-비디오(Video) 모듈을 이용하여 인식하는 A-V인식부(400); 및대상자로부터 기설정된 의료 정보를 측정하여 의료진이 모니터링하고, 의료진이 대상자의 정보를 확인할 수 있도록 제공하는 의료정보제공부(500);로 구성되는 것을 특징으로 하는 원격 모니터링이 가능한 의료서비스 로봇 시스템.Autonomous driving unit 100 for controlling autonomous driving to the requested location by extracting RSSI data for each ID of beacon mounted on the patient's room and subject; Confirming the location by estimating the subject's body information in three-dimensional space, and Posture control unit 200 for controlling the posture so that the display unit 32 mounted on the subject and the medical service robot 2 can perform face-to-face or A-V recognition; Conversation generating unit for observing and assisting the patient's condition through conversation (300); A-V recognition unit 400 for recognizing a subject's performance and sound generated by the subject according to the content provided by the medical service robot (2) using an Audio-Video module; and a medical information providing unit 500 that measures preset medical information from the subject, monitors the medical staff, and provides the medical information so that the medical staff can check the subject's information. 제 1항에 있어서,상기 자세제어부(200)는,RGB-D센서 데이터를 이용하여 대상자의 신체정보를 추출하는 위치데이터추출부(210);상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정하는 위치데이터보정부(220);상기 보정된 위치 좌표를 이용하여 이동 명령을 수행하는 이동명령부(230);대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지하는 거리유지부(240); 및대상자의 얼굴을 지속적으로 응시하는 대면추적부;로 구성되어 대상자와 로봇에 장착된 디스플레이부(32)가 면대면 인식을 수행할 수 있도록 자세를 제어하는 것을 특징으로 하는 원격 모니터링이 가능한 의료서비스 로봇 시스템.According to claim 1, The posture control unit 200, Position data extraction unit 210 for extracting the subject's body information using RGB-D sensor data; The extracted joint data to the camera unit 31 coordinate system After conversion into distance information as a reference, the position data correction unit 220 that corrects using a moving average formula; The movement command unit 230 that performs a movement command using the corrected position coordinates; Subject- a distance maintaining unit 240 for maintaining a face-to-face distance or angle between the medical service robots 2 at a preset value; and a face-to-face tracking unit that continuously gazes at the subject's face; a remote monitoring capable medical service comprising: a display unit 32 mounted on the subject and the robot to control the posture to perform face-to-face recognition robot system. 제 1항에 있어서,상기 대화생성부(300)는,기설정된 질문 문항에 따른 대상자의 응답을 점수화하여 상기 대상자의 상태를 평가한 뒤 총점을 계산하고,상기 총점의 점수 분포에 따라 발화멘트를 제공하는 것을 특징으로 하는 원격 모니터링이 가능한 의료서비스 로봇 시스템.According to claim 1, The dialogue generator 300, Scores the response of the subject according to the preset question, evaluates the state of the subject, and then calculates a total score, and generates an utterance according to the score distribution of the total score. Medical service robot system capable of remote monitoring, characterized in that it provides. 제 1항에 있어서,상기 A-V인식부(400)는,상기 콘텐츠를 제공에 따른 상기 대상자의 수행동작을 인식하는 비디오인식부(410); 및상기 대상자가 생성하는 소리를 인식하는 오디오인식부(420);로 구성되는 것을 특징으로 하는 의료서비스 로봇 시스템.According to claim 1, The A-V recognition unit 400, A video recognition unit 410 for recognizing the operation of the subject according to the provision of the content; and an audio recognition unit 420 for recognizing the sound generated by the subject. 제 4항에 있어서,상기 비디오인식부(410)는,상기 의료서비스로봇(2)에서 제공되는 폐활량계 콘텐츠에 따른 대상자의 폐활량을 측정하는 폐활량측정부;상기 의료서비스로봇(2)에서 제공되는 상지근력 콘텐츠에 따른 대상자의 상지근력을 측정하는 상지근력측정부;상기 의료서비스로봇(2)에서 제공되는 보행동작 콘텐츠에 따른 대상자의 보행동작을 인식하는 보행동작측정부;를 포함하는 것을 특징으로 하는 의료서비스 로봇 시스템.According to claim 4, The video recognition unit (410), Spirometry unit for measuring the lung capacity of the subject according to the spirometry content provided by the medical service robot (2); Upper limb provided by the medical service robot (2) An upper extremity muscle strength measuring unit for measuring the upper extremity muscle strength of the subject according to the muscular strength content; A gait motion measuring unit recognizing the gait motion of the subject according to the gait motion content provided by the medical service robot (2); characterized by comprising: Medical service robot system. 제 4항에 있어서,상기 오디오인식부(420)는,상기 대상자가 생성하는 소리 중 기침 여부를 확인하는 기침인식부;를 포함하는 것을 특징으로 하는 의료서비스 로봇 시스템.The medical service robot system of claim 4 , wherein the audio recognition unit 420 includes a cough recognition unit that checks whether the subject coughs among the sounds generated by the subject. 제 1항에 있어서,상기 의료서비스로봇(2)은,상기 자세제어부(200)에 의해 대상자와 상기 디스플레이부(32)가 대면 혹은 A-V인식을 수행할 수 있도록 자세를 조절하는 대면상호작용부(20);콘텐츠 영상을 제공하는 상기 디스플레이부(32)와 카메라부(31)를 포함하는 모니터부(30); 및상기 자율주행부(100)에 의해 요청 된 위치로 주행하는 전방향이동부(50);를 포함하는 것을 특징으로 하는 의료서비스 로봇 시스템.According to claim 1, The medical service robot (2), Face-to-face interaction unit ( 20); a monitor unit 30 including the display unit 32 and a camera unit 31 for providing a content image; And Medical service robot system comprising a; omnidirectional movement unit (50) that travels to the position requested by the autonomous driving unit (100). 제 5항에 있어서,상기 폐활량계 콘텐츠는,영상에서 폐활량계의 상하에 미리 부착한 두개의 표식들을 인식하여 폐활량계의 높이를 계산하고, 폐활량계 내부의 공 세 개의 색상을 인식하여 현재 높이를 계산한 뒤, 상기 폐활량계의 높이와 공 세 개의 위치를 기반으로 폐활량(cc)을 계산하는 것을 특징으로 하는 의료서비스 로봇 시스템.According to claim 5, The spirometer content, The height of the spirometer is calculated by recognizing two marks previously attached to the top and bottom of the spirometer in the image, and the current height is calculated by recognizing the colors of three balls inside the spirometer, A medical service robot system, characterized in that it calculates the spirometry (cc) based on the height of the spirometer and the positions of the three balls. 제 5항에 있어서,상기 상지근력 콘텐츠는,객체의 각 관절 3차원 포인트들을 인식하고, 상체의 방향 벡터를 z축으로 잡고 회전 행렬을 대입하여 각 관절들의 오일러 각과 방향성을 계산한 후, 상기 상체 관절의 오일러 각과 모범 동작의 오일러 각을 비교하여 동작 정확도를 판단하는 것을 특징으로 하는 의료서비스 로봇 시스템.The upper body according to claim 5, wherein the upper extremity muscle force content recognizes three-dimensional points of each joint of the object, holds the direction vector of the upper body as the z-axis, and calculates the Euler angle and direction of each joint by substituting a rotation matrix, and then the upper body A medical service robot system, characterized in that the motion accuracy is determined by comparing the Euler angle of the joint with the Euler angle of the exemplary motion. 제 5항에 있어서,상기 보행동작 콘텐츠는,객체의 각 관절 3차원 포인트들을 인식하고, 하체의 방향 벡터를 z축으로 잡고 회전 행렬을 대입하여 하체의 각 관절들의 방향성과 두 발목 사이의 거리를 계산 후, 상기 하체의 각 관절들의 방향성과 두 다리 관절이 뻗은 방향을 비교하고 하체 방향 벡터에 두 다리 관절의 벡터를 투영시켜 현재 어느 다리가 앞서 있는지를 판별 후 실시간으로 동작을 인식하여 두 다리의 교차 지점을 파악하는 것을 특징으로 하는 의료서비스 로봇 시스템.According to claim 5, The gait motion content, Recognizes three-dimensional points of each joint of the object, holding the direction vector of the lower body as the z-axis and substituting a rotation matrix to determine the directionality of each joint of the lower body and the distance between the two ankles After calculation, the direction of the joints of the lower body and the direction in which the joints of the two legs are stretched are compared, and the vector of the joints of the two legs is projected on the vector of the lower body to determine which leg is in front, and then the motion is recognized in real time to determine the movement of the two legs. Medical service robot system, characterized in that it identifies the intersection point. RGB-D센서 데이터를 이용하여 대상자의 관절 데이터를 추출하는 제1단계;상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정하는 제2단계;상기 보정된 위치 좌표를 이용하여 이동 명령을 수행하는 제3단계;대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지하는 제4단계;대상자의 얼굴을 지속적으로 추적하는 제5단계;를 이용하여 수행하는 것을 특징으로 하는 의료서비스로봇의 인간과 면대면 상호작용 수행 방법.A first step of extracting the subject's joint data using RGB-D sensor data; After converting the extracted joint data into distance information based on the coordinate system of the camera unit 31, using a Moving Average formula A second step of correcting; A third step of performing a movement command using the corrected position coordinates; A fourth step of maintaining the face-to-face distance or angle between the subject-medical service robot 2 at a preset value; The subject's face A method of performing face-to-face interaction with a human of a medical service robot, characterized in that it is performed using a fifth step of continuously tracking
KR1020210028657A 2021-03-04 2021-03-04 Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof KR102552174B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210028657A KR102552174B1 (en) 2021-03-04 2021-03-04 Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210028657A KR102552174B1 (en) 2021-03-04 2021-03-04 Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof

Publications (2)

Publication Number Publication Date
KR20220125850A true KR20220125850A (en) 2022-09-15
KR102552174B1 KR102552174B1 (en) 2023-07-06

Family

ID=83281440

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210028657A KR102552174B1 (en) 2021-03-04 2021-03-04 Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof

Country Status (1)

Country Link
KR (1) KR102552174B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102590041B1 (en) * 2022-12-01 2023-10-13 박란희 Medical service robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020015621A (en) 2000-08-22 2002-02-28 홍영표 Communication system for aiding in conducting a medical service, computer system used therein and data transmission method using it
KR101751760B1 (en) * 2016-10-31 2017-06-28 주식회사 모셔넥스 Method for estimating gait parameter form low limb joint angles
KR102106193B1 (en) * 2014-04-17 2020-04-29 소프트뱅크 로보틱스 유럽 Methods and systems for managing dialogs of a robot
KR102113999B1 (en) * 2019-10-04 2020-05-22 (주)지에이치이노텍 A portable respiration measuring apparatus
KR20200081520A (en) * 2018-12-14 2020-07-08 신라대학교 산학협력단 Robot system for health care service and method thereof
KR20200104025A (en) * 2019-02-26 2020-09-03 한국과학기술원 Muscle synergy measurement system and method for analysis using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020015621A (en) 2000-08-22 2002-02-28 홍영표 Communication system for aiding in conducting a medical service, computer system used therein and data transmission method using it
KR102106193B1 (en) * 2014-04-17 2020-04-29 소프트뱅크 로보틱스 유럽 Methods and systems for managing dialogs of a robot
KR101751760B1 (en) * 2016-10-31 2017-06-28 주식회사 모셔넥스 Method for estimating gait parameter form low limb joint angles
KR20200081520A (en) * 2018-12-14 2020-07-08 신라대학교 산학협력단 Robot system for health care service and method thereof
KR20200104025A (en) * 2019-02-26 2020-09-03 한국과학기술원 Muscle synergy measurement system and method for analysis using the same
KR102113999B1 (en) * 2019-10-04 2020-05-22 (주)지에이치이노텍 A portable respiration measuring apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102590041B1 (en) * 2022-12-01 2023-10-13 박란희 Medical service robot

Also Published As

Publication number Publication date
KR102552174B1 (en) 2023-07-06

Similar Documents

Publication Publication Date Title
US20220331028A1 (en) System for Capturing Movement Patterns and/or Vital Signs of a Person
Bajones et al. Hobbit: providing fall detection and prevention for the elderly in the real world
KR102261797B1 (en) Robot system for health care service and method thereof
Ma et al. Autonomous flexible endoscope for minimally invasive surgery with enhanced safety
US10176725B2 (en) System and method of pervasive developmental disorder interventions
WO2021068542A1 (en) Force feedback technology-based robot system for active and passive rehabilitation training of upper limbs
KR20180068336A (en) Surgical system with training or auxiliary functions
CN106456263A (en) Methods and devices for tele-surgical table registration
CN102902271A (en) Binocular vision-based robot target identifying and gripping system and method
US20230110890A1 (en) Systems and methods for entering and exiting a teleoperational state
US20130144440A1 (en) Robot apparatus, control method thereof, and computer program
CN105943162A (en) Method and device for controlling/compensating movement of surgical robot
CN106355010A (en) Self-service cognition evaluation apparatus and method
KR102552174B1 (en) Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof
JP7157424B2 (en) INTERACTIVE INFORMATION TRANSMISSION SYSTEM AND INTERACTIVE INFORMATION TRANSMISSION METHOD AND INFORMATION TRANSMISSION SYSTEM
US20220108561A1 (en) System for capturing the movement pattern of a person
CN113611388B (en) Intelligent sports rehabilitation and training system based on exoskeleton
Zheng et al. A novel respiratory follow-up robotic system for thoracic-abdominal puncture
JP3979141B2 (en) Autonomous mobile robot for guidance and its control method
Son et al. Crosswalk guidance system for the blind
Dayananda et al. An interconnected architecture for an emergency medical response unmanned aerial system
Li et al. An egocentric computer vision based co-robot wheelchair
TW201006635A (en) In situ robot which can be controlled remotely
CN116945156A (en) Intelligent elderly accompanying system based on computer vision technology
CN114260919B (en) Intelligent robot

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant