KR20220125850A - Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof - Google Patents
Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof Download PDFInfo
- Publication number
- KR20220125850A KR20220125850A KR1020210028657A KR20210028657A KR20220125850A KR 20220125850 A KR20220125850 A KR 20220125850A KR 1020210028657 A KR1020210028657 A KR 1020210028657A KR 20210028657 A KR20210028657 A KR 20210028657A KR 20220125850 A KR20220125850 A KR 20220125850A
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- face
- medical service
- subject
- medical
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/20—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/40—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Robotics (AREA)
- Primary Health Care (AREA)
- Mechanical Engineering (AREA)
- Epidemiology (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 의료서비스로봇의 인간과 면대면 상호작용 수행 방법 및 이를 이용한 원격 모니터링이 가능한 의료서비스 로봇 시스템에 관한 것으로, 더욱 상세하게는 대상자와 의료서비스로봇에 장착된 디스플레이부가 대면 혹은 최적의 인식을 수행하도록 자세를 제어하고 대화를 생성하여 의료지식 및 측정된 의료 정보를 제공하도록 마련된 의료서비스용 보조 로봇에 관한 것이다. The present invention relates to a method of performing face-to-face interaction with a human of a medical service robot and a medical service robot system capable of remote monitoring using the same, and more particularly, a display unit mounted on the subject and the medical service robot provides face-to-face or optimal recognition. It relates to an assistive robot for medical services prepared to provide medical knowledge and measured medical information by controlling a posture to perform and generating a dialogue.
최근, 인간과 공존하면서 서비스를 제공하는 부분에서 사회적 역할이 강조되는 서비스용 로봇이 급격히 성장하고 있다. 특히, 인간과 교류 하며 일상적인 소통과 교감을 나누는 형태의 사회적 상호작용 수행이 가능한 소셜 로봇이 등장한 이후로 인간과 로봇의 사회적 상호작용은 최근 로봇 기술 중 가장 활발한 연구 분야로 떠오르고 있다. Recently, service robots that emphasize social roles in providing services while coexisting with humans are rapidly growing. In particular, social interaction between humans and robots has recently emerged as the most active research field among robot technologies since social robots that can perform social interactions in the form of interacting with humans and sharing daily communication and communion appeared.
인간과 교류하기 위해 필요한 기술들 중 하나는 로봇이 실시간으로 상호작용 대상자를 응시 추적하는 것이다. 하지만 대부분의 로봇베이스는 2륜 구동 방식이다. 이는 축 방향의 이동제약으로 인하여 실시간으로 대상자를 면대면으로 관찰하면서 추적하기에 여러 한계 상황이 존재하므로 본 발명은 전방향 이동이 가능한 로봇을 사용하여 인간과의 지속적인 면대면 상호작용을 수행하는 로봇을 제안하고자 한다.One of the skills needed to interact with humans is for robots to gaze and track the person they interact with in real time. However, most robot bases are two-wheel drive. This is because there are several limiting situations to follow while observing and tracking the subject in real time due to movement restrictions in the axial direction. Therefore, the present invention uses a robot capable of omnidirectional movement to perform continuous face-to-face interaction with humans. would like to propose
한편, 인간-로봇 간 대면 상호작용 수행하기 위해 로봇 혹은 외부환경에 설치된 RGB-D 센서를 통해 3차원 공간상에 위치한 사용자의 관절위치 데이터를 추출하고, 로봇 좌표계로 좌표 변환을 수행한다. 변환된 좌표를 통해 사용자가 향하는 바디포즈 정보를 추출한 후, 사용자와 사회적 상호작용을 수행할 수 있는 위치로 로봇이 이동 가능하도록 의료서비스로봇(2)베이스의 위치제어를 수행한다. 여기서, 사용자-로봇 간 상호작용을 지속적으로 유지하기 위해서 사용자의 자세가 실시간으로 변하더라도 지속적인 대면 및 거리 유지를 수행할 수 있는 추적메커니즘을 제안한다.Meanwhile, to perform human-robot face-to-face interaction, the user's joint position data is extracted in 3D space through the RGB-D sensor installed in the robot or external environment, and coordinates are converted into the robot coordinate system. After extracting the body pose information that the user is facing through the converted coordinates, the position control of the base of the
본 발명은 상기의 문제점을 해결하기 위해서 안출된 것으로서, 본 발명의 목적은 의료 종사 근무자의 수가 부족하여 업무 스트레스 증가 및 효율 저하 현상에 따른 헬스케어 업무 보조용 의료 로봇을 제공하는 것이다. The present invention has been devised to solve the above problems, and an object of the present invention is to provide a medical robot for assisting health care work due to an increase in work stress and a decrease in efficiency due to insufficient number of medical workers.
발명이 해결하고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be solved by the invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able
본 발명에 따른 원격 모니터링이 가능한 의료서비스 로봇 시스템은,A medical service robot system capable of remote monitoring according to the present invention,
병실 및 대상자에 장착된 비콘의 ID별 RSSI 데이터를 추출하여 요청 된 위치로 자율 주행을 제어하는 자율주행부(100);An
3차원 공간에서 대상자의 신체정보를 추정하여 위치를 확인하고, 상기 확인 된 대상자와 의료서비스로봇(2)에 장착된 디스플레이부(32)가 대면 혹은 A-V인식을 수행할 수 있도록 자세를 제어하는 자세제어부(200);Position of estimating the subject's body information in three-dimensional space to confirm the position, and controlling the posture so that the identified subject and the
대화를 통해 환자의 상태를 관찰하고 보조하는 대화생성부(300);a dialogue generating
의료서비스로봇(2)에서 제공되는 콘텐츠에 따른 대상자의 수행동작 및 대상자가 생성하는 소리를 오디오(Audio)-비디오(Video) 모듈을 이용하여 인식하는 A-V인식부(400); 및A-V
대상자로부터 기설정된 의료 정보를 측정하여 의료진이 모니터링하고, 의료진이 대상자의 정보를 확인할 수 있도록 제공하는 의료정보제공부(500);로 구성되는 것을 특징으로 한다. It is characterized in that it consists of a; medical
상기 자세제어부(200)는,The posture control unit 200,
RGB-D센서 데이터를 이용하여 대상자의 신체정보를 추출하는 위치데이터추출부(210);a location data extraction unit 210 for extracting body information of a subject using RGB-D sensor data;
상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정하는 위치데이터보정부(220);a position data correction unit 220 that converts the extracted joint data into distance information based on the coordinate system of the
상기 보정된 위치 좌표를 이용하여 이동 명령을 수행하는 이동명령부(230);a movement command unit 230 for performing a movement command using the corrected position coordinates;
대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지하는 거리유지부(240); 및a distance maintaining unit 240 for maintaining the face-to-face distance or angle between the subject and the
대상자의 얼굴을 지속적으로 응시하는 대면추적부;로 구성되어 대상자와 로봇에 장착된 디스플레이부(32)가 면대면 인식을 수행할 수 있도록 자세를 제어하는 것을 특징으로 한다. It is composed of a face-to-face tracking unit that continuously gazes at the subject's face; characterized in that it controls the posture so that the
상기 A-V인식부(400)는,The
상기 콘텐츠 제공에 따른 상기 대상자의 수행동작을 인식하는 비디오인식부(410); 및a
상기 대상자가 생성하는 소리를 인식하는 오디오인식부(420);로 구성되는 것을 특징으로 한다. and an audio recognition unit 420 for recognizing the sound generated by the subject.
상기 의료서비스로봇(2)은,The medical service robot (2),
상기 자세제어부(200)에 의해 대상자와 상기 디스플레이부(32)가 대면 혹은 A-V인식을 수행할 수 있도록 자세를 조절하는 대면상호작용부(20);a face-to-
콘텐츠 영상을 제공하는 상기 디스플레이부(32)와 카메라부(31)를 포함하는 모니터부(30); 및a monitor unit 30 including the
상기 자율주행부(100)에 의해 요청 된 위치로 주행하는 전방향이동부(50);를 포함하는 것을 특징으로 한다. and an
또한, 본 발명에 따른 의료서비스로봇의 인간과 면대면 상호작용 수행 방법은, In addition, the method for performing face-to-face interaction with a human of the medical service robot according to the present invention,
RGB-D센서 데이터를 이용하여 대상자의 관절 데이터를 추출하는 제1단계;A first step of extracting the subject's joint data using RGB-D sensor data;
상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정하는 제2단계;a second step of converting the extracted joint data into distance information based on the coordinate system of the
상기 보정된 위치 좌표를 이용하여 이동 명령을 수행하는 제3단계;a third step of performing a movement command using the corrected position coordinates;
대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지하는 제4단계;a fourth step of maintaining a face-to-face distance or angle between the subject and the medical service robot (2) at a preset value;
대상자의 얼굴을 지속적으로 추적하는 제5단계;를 이용하여 수행하는 것을 특징으로 한다.It is characterized in that it is performed using; a fifth step of continuously tracking the subject's face.
이동 평균(Moving Average, MA) 식은 아래 [수학식 1]에 의해 수행되는 것을 특징으로 한다.The moving average (MA) formula is characterized in that it is performed by the following [Equation 1].
[수학식 1][Equation 1]
(여기서, Pd는 human의 좌표값, n은 측정횟수의 크기이다).(Where P d is the human coordinate value, and n is the size of the number of measurements).
상기 제3단계에서 이동 명령을 수행하는 것은 아래 [수학식 4]를 이용하여 위치를 제어하는 것을 특징으로 한다.Executing the movement command in the third step is characterized in that the position is controlled using the following [Equation 4].
[수학식 4][Equation 4]
(여기서, R은 의료서비스로봇(2) 중심에서 휠 중심까지의 거리, r는 휠의 반경, vi는 각 휠의 선속도, wi는 의료서비스로봇(2) 중심의 각속도, θ는 전역좌표계 X축을 기준으로 xrob 축이 반시계 방향으로 회전한 각).(Here, R is the distance from the center of the
상기 제5단계에서 대상자의 얼굴 추적은,In the fifth step, the subject's face tracking is,
아래 [수학식 5]인 상체부 응시각 추정모듈을 이용하여 추적하는 것을 특징으로 한다.It is characterized in that the tracking is performed using the upper body gaze angle estimation module as shown in
[수학식 5][Equation 5]
(여기서, Ψ는 의료서비스로봇의 회전각이다).(Here, Ψ is the rotation angle of the medical service robot).
상기 과제의 해결 수단에 의해, 본 발명은 병원환경에서 헬스케어 업무를 보조하는 IoT 연계형 간호용 의료 로봇을 제공할 수 있다. By means of solving the above problems, the present invention can provide an IoT-linked nursing medical robot that assists in healthcare work in a hospital environment.
또한, 본 발명은 의료 환경을 개선하고 환자와 의료인 만족도를 향상할 수 있는 의료 서비스 의료서비스로봇(2)을 제공할 수 있다. In addition, the present invention can provide a medical service medical service robot (2) that can improve the medical environment and improve the satisfaction of patients and medical personnel.
또한, 본 발명은 HRI(인간 로봇 상호작용) 기술을 가진 로봇으로, 문진 내용을 기반으로 대화관리자를 이용하여 사용자가 제공하는개인정보 혹은 관찰업무를 기록할 수 있고, 상황에 따라 로봇이 환자와 의료진을 실시간 원격으로 연결하고 필요한 생체신호 정보를 동시에 제공할 수 있는 의료 서비스 의료서비스로봇(2)을 제공할 수 있다. In addition, the present invention is a robot with HRI (human-robot interaction) technology. Based on the questionnaire, personal information or observation tasks provided by the user can be recorded using a conversation manager, and depending on the situation, the robot can interact with the patient. It is possible to provide a medical service
또한, 본 발명은 로봇이 IoT 디바이스로부터 환자 Vital 신호 및 의료환경(낙상, 욕창, 공기오염도, 온습도 등) 정보를 추출할 수 있고, 수액, 유린백 상태 측정 및 교체 시기 자동 알람을 제공할 수 있다. In addition, according to the present invention, the robot can extract patient vital signals and medical environment (falls, bedsores, air pollution, temperature and humidity, etc.) information from the IoT device, measure the status of fluids, and can provide an automatic alarm for replacement time .
또한, 본 발명은 주기적 환자 방문 체크, 콜벨 업무에 선제적 대응할 수 있고, 낙상 위험측정도구와 욕창측정도구를 이용하여 위험도가 높은 환자별로 간호업무 중요도를 조절할 수 있어 안전 간호를 할 수 있다. In addition, the present invention can preemptively respond to periodic patient visit check and call-bell work, and by using the fall risk measuring tool and the pressure sore measuring tool, the importance of nursing work can be adjusted for each high-risk patient, so that safe nursing can be performed.
도 1은 본 발명인 원격 모니터링이 가능한 의료서비스 로봇 시스템의 구성도이다.
도 2는 본 발명의 일실시예에 따른 의료서비스로봇(2)를 나타낸 사진이다.
도 3은 본 발명인 의료서비스로봇의 인간과 면대면 상호작용 수행 방법을 나타낸 순서도이다.
도 4는 본 발명의 일실시예에 따른 대면상호작용의 실험적 구성을 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 의료서비스로봇의 바퀴 구조를 나타낸 도면이다.
도 6은 본 발명의 일실시예에 따라 대상자와 로봇간의 거리에 따른 상호작용 영역 분류를 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따라 인체 자세 각도에 따른 실험 결과를 나타낸 그래프이다.
도 8은 본 발명의 일실시예에 따라 원격 모니터링이 가능한 의료서비스 로봇 시스템의 제어구성도이다.
도 9는 본 발명의 일실시예에 따라 의료정보제공부(500)에서 수행하는 스케줄등록부(510)의 실행 방법을 나타낸 구성도이다.
도 10은 본 발명의 일실시예에 따라 의료정보제공부(500)에서 수행하는 스케줄등록부(510)의 실행 방법을 나타낸 순서도이다.
도 11은 본 발명의 일실시예에 따라 의료서비스로봇(2)에서 수행하는 스케줄실행부의 실행 방법을 나타낸 순서도이다.
도 12는 본 발명의 일실시예에 따라 스케줄등록부(510) 및 스케줄실행부의 작업명령 순서도이다.
도 13은 본 발명의 일실시예에 따라 도 12의 스케줄등록부(510) 및 스케줄실행부의 작업명령 순서에 따른 구체적인 실시예이다.
도 14는 본 발명의 일실시예에 따라 자율주행부(100)에서 자율 주행을 제어하도록 비콘의 위치를 인식하는 실시예이다.
도 15는 본 발명의 일실시예에 따라 자율주행부(100)에서 자율 주행을 수행하는 방법을 나타낸 순서도이다.
도 16은 본 발명의 일실시예에 따라 대화생성부(300)에서 수행하는 실행 방법을 나타낸 구성도이다.
도 17은 본 발명의 일실시예에 따라 대화생성부(300)에서 수행하는 방법을 나타낸 순서도이다.
도 18은 본 발명의 일실시예에 따라 대화생성부(300)에서 심리 상태 평가 후 총점의 점수 분포에 따라 발화멘트를 제공하는 실시예이다.
도 19는 본 발명의 일실시예에 따라 비디오인식부(410)에서 수행하는 실행 방법을 나타낸 구성도이다.
도 20은 본 발명의 일실시예에 따라 폐활량측정부에서 수행하는 방법을 나타낸 순서도이다.
도 21은 본 발명의 일실시예에 따라 폐활량계 콘텐츠를 재생하는 단계를 나타내는 순서도이다.
도 22는 본 발명의 일실시예에 따라 상지근력측정부에서 수행하는 방법을 나타낸 순서도이다.
도 23은 상지근력측정부가 도 22의 상지 방향 계산 단계(S431-3)에서 상지 방향을 인지하는 관절 위치를 표시한 도면이다.
도 24는 상지근력측정부가 도 22의 로컬 좌표계 생성 단계(S431-5)에서 상지 관절의 좌표계 인지를 위한 관절 위치를 표시한 도면이다.
도 25는 상지근력측정부가 도 22의 앞으로 들기 판단 단계(S432-1) 내지 동작 번호 판단 단계(S438)에서 앞으로 들기, 위로 들기, 옆으로 들기 및 팔 접기를 인지하는 관절 위치를 표시한 도면이다.
도 26은 본 발명의 일실시예에 따라 상지근력 콘텐츠를 재생하는 단계를 나타내는 순서도이다.
도 27은 본 발명의 일실시예에 따라 보행동작측정부에서 수행하는 방법을 나타낸 순서도이다.
도 28은 본 발명의 일실시예에 따라 보행동작 콘텐츠를 재생하는 단계를 나타내는 순서도이다.
도 29는 본 발명의 일실시예에 따라 기침인식부에서 수행하는 실행 방법을 나타낸 구성도이다.
도 30은 본 발명의 일실시예에 따라 기침인식부에서 수행하는 방법을 나타낸 순서도이다.1 is a block diagram of a medical service robot system capable of remote monitoring according to the present invention.
2 is a photograph showing a
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.In the entire specification, when a part “includes” a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the embodiments of the present invention. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein.
본 발명에 대한 해결하고자 하는 과제, 과제의 해결 수단, 발명의 효과를 포함한 구체적인 사항들은 다음에 기재할 실시 예 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다.Specific details including the problem to be solved for the present invention, the means for solving the problem, and the effect of the invention are included in the embodiments and drawings to be described below. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.
이하, 첨부된 도면을 참조하여 본 발명을 보다 상세히 설명하기로 한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.
본 발명인 원격 모니터링이 가능한 의료서비스 로봇 시스템은, 도 1에 나타난 바와 같이 자율주행부(100), 자세제어부(200), 대화생성부(300), A-V인식부(400) 및 의료정보제공부(500)로 구성된다. 또한, 본 발명인 의료서비스로봇의 인간과 면대면 상호작용 수행 방법은 도 3에 나타난 단계에 의해 수행된다. The present inventor's medical service robot system capable of remote monitoring, as shown in FIG. 1, includes an
즉, 본 발명은 의료서비스로봇의 인간과 면대면 상호작용 수행 방법에 의해 원격 모니터링이 가능한 의료서비스 로봇 시스템이 실행될 수 있다. 본 발명과 EMR 연계 서버의 전체 시스템은 도 8에 나타난 바와 같이 구성될 수 있다. That is, according to the present invention, a medical service robot system capable of remote monitoring can be executed by a method of performing face-to-face interaction with a human of the medical service robot. The entire system of the present invention and the EMR-associated server may be configured as shown in FIG. 8 .
먼저, 의료서비스로봇의 인간과 면대면 상호작용 수행 방법은, 도 3에 나타난 바와 같이, 제1단계(S100) 내지 제5단계(S500)에 의해 수행된다. First, the method for performing face-to-face interaction with a human of the medical service robot is performed by the first step (S100) to the fifth step (S500), as shown in FIG. 3 .
먼저, 제1단계(S100)는 RGB-D센서 데이터를 이용하여 대상자의 관절 데이터를 추출한다. 보다 구체적으로, 구성된 시스템의 RGB-D센서 데이터를 이용하여 OpenPose 인식기로부터 관절 데이터를 추출한다.First, the first step (S100) extracts the subject's joint data using RGB-D sensor data. More specifically, joint data is extracted from the OpenPose recognizer using the RGB-D sensor data of the configured system.
다음으로, 제2단계(S200)는 상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정한다. 보다 구체적으로, depth 정보를 이용하여 추출된 관절 데이터를 카메라 좌표계 기준으로 거리 정보로 변환한다. 그런 다음, 사용자의 신체 포즈 추정에 필요한 관절 데이터의 위치 오차를 최소화 하기 위해 아래 [수학식 1]인 이동 평균(Moving average, MA) 식을 통해 보정한다.Next, in the second step (S200), the extracted joint data is converted into distance information based on the coordinate system of the
(여기서, Pd는 human의 좌표값, n은 측정횟수의 크기이다).(Where P d is the human coordinate value, and n is the size of the number of measurements).
다음으로, 제3단계(S300)는 상기 보정된 위치 좌표를 이용하여 이동 명령을 수행한다. 보다 구체적으로, 의료서비스로봇(2) 베이스는 보정된 추정위치에서 사회적 상호작용을 유지하기 위한 목표위치 좌표로 이동 명령을 수행한다. Next, in the third step ( S300 ), a movement command is performed using the corrected position coordinates. More specifically, the base of the
의료서비스로봇의 바퀴 구조는 도 5와 같다. 도 5는 3륜 전방향 이동로봇의 좌표계와 속도를 보여준다. 여기서 R은 의료서비스로봇(2) 중심에서 휠 중심까지의 거리, r은 휠의 반경, V 및 ω는 의료서비스로봇(2) 중심의 선속도 및 각속도, vi는 각 휠의 선속도, wi는 의료서비스로봇(2) 중심의 각속도, Φ는 xrob 축 기준 선속도 V의 각도, θ는 전역좌표계 X축을 기준으로 xrob 축이 반시계 방향으로 회전한 각이다.The wheel structure of the medical service robot is shown in FIG. 5 . 5 shows the coordinate system and speed of the three-wheeled omnidirectional mobile robot. where R is the distance from the center of the medical service robot (2) to the center of the wheel, r is the radius of the wheel, V and ω are the linear and angular velocity of the center of the medical service robot (2), v i is the linear velocity of each wheel, w i is the angular velocity of the center of the medical service robot (2), Φ is the angle of the linear velocity V based on the x rob axis, and θ is the angle at which the x rob axis rotates counterclockwise with respect to the X axis of the global coordinate system.
이 때, 아래 [수학식 2] 내지 [수학식 4]와 같은 운동학으로 위치 제어를 수행한다. 상기 의료서비스로봇의 전방향이동부(50) 각 바퀴는 30°, 150° 및 270°이기 때문에 [수학식 2]는 다음과 같이 표현할 수 있다. At this time, position control is performed by kinematics as shown in [Equation 2] to [Equation 4] below. Since each wheel of the omnidirectional moving
좌표계에 대한 로봇의 속도 P’은 자코비안 행렬 J를 통해 [수학식 3]과 같이 표현된다.The speed P' of the robot with respect to the coordinate system is expressed as [Equation 3] through the Jacobian matrix J.
[수학식 2]와 [수학식 3]을 합하여 [수학식 4]와 같이 각 바퀴들의 각속도를 구할 수 있으며, 이를 통해 전역 좌표계 상에서 원하는 선속도와 각속도를 얻을 수 있다.By combining [Equation 2] and [Equation 3], the angular velocity of each wheel can be obtained as shown in [Equation 4], and through this, the desired linear velocity and angular velocity in the global coordinate system can be obtained.
(여기서, R은 의료서비스로봇(2) 중심에서 휠 중심까지의 거리, r는 휠의 반경, vi는 각 휠의 선속도, wi는 의료서비스로봇(2) 중심의 각속도, θ는 전역좌표계 X축을 기준으로 xrob 축이 반시계 방향으로 회전한 각이다).(Here, R is the distance from the center of the
다음으로, 제4단계(S400)는 대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지한다. 보다 구체적으로, 도 6에 나타난 바와 같이, Hall. E(1966)에 따르면, 사회적 거리(Social distance) 중, 0.46-1.2m에서 친근함을 가지는 영역으로 정의하고 있다. 이에, 사용자의 신체 포즈정보를 기반으로 대상자와 사회적 상호작용을 수행하기 위해 일정한 거리를 유지하도록 이동 타겟 좌표를 선정한다.Next, in the fourth step (S400), the face-to-face distance or angle between the subject-
다음으로, 제5단계(S500)는 대상자의 얼굴을 지속적으로 추적한다. 보다 구체적으로, 의료서비스로봇의 전방향이동부(50)가 목표 위치에 도달하는 동안, 상체부 응시각 추정모듈은 상호작용 대상자의 얼굴을 지속적으로 추적하기 위해 수평(Pan)과 수직(Tilt)정보로 구분하며, 전방향이동부가 사용자와 일정거리 혹은 높이를 유지하지 못하는 경우에는 상체부 링크구조를 통해 사용자에게 일정거리 혹은 높이로 접근할 수 있도록 설계되었다. 의료서비스로봇(2) 전방향이동부(50)가 회전을 병행하면서 이동하기 때문에 수평응시각 모듈은 의료서비스로봇(2)-인간의 수평 회전각도 차이만큼 보정하고, 수직응시각 모듈은 의료서비스로봇의 높이 정보를 기반으로 대상자의 상대거리와 키 정보 의료서비스로봇로 부터 일정거리를 유지하는 대면 응시를 위한 위치로 이동을 수행한다.Next, in the fifth step (S500), the subject's face is continuously tracked. More specifically, while the
상기 상체부 응시각 추정모듈은 아래 [수학식 5] 이용하여 추정하는 것이 바람직하다. The upper body gaze angle estimation module is preferably estimated using the following [Equation 5].
(여기서, Ψ는 의료서비스로봇의 회전각이다).(Here, Ψ is the rotation angle of the medical service robot).
상기 자율주행부(100)는 병실 및 대상자에 장착된 비콘의 ID별 RSSI 데이터를 추출하여 요청 된 위치로 자율 주행을 제어한다. The
보다 구체적으로, 도 15에 나타난 바와 같이, 상기 자율주행부(100)는 자율 주행을 제어하기 위해 먼저 비콘 ID별 RSSI 데이터 추출 단계(S110), 가우시안 필터링을 수행하는 단계(S120), 거리정보를 환산하는 단계(S130) 및 삼변측량 기반 3위치를 추정 하는 단계(S140)를 통하여 수행된다. More specifically, as shown in FIG. 15 , in order to control autonomous driving, the
상기 자세제어부(200)는 3차원 공간에서 대상자의 관절을 추정하여 위치를 확인하고, 상기 확인 된 대상자와 의료서비스로봇(2)에 장착된 디스플레이부(32)가 대면할 수 있도록 자세를 제어한다. The posture control unit 200 determines the position by estimating the subject's joints in a three-dimensional space, and controls the posture so that the identified subject and the
보다 구체적으로, 상기 자세제어부(200)는 위치데이터추출부(210), 위치데이터보정부(220), 이동명령부(230), 거리유지부(240), 대면추적부(250)로 구성되어 대상자와 로봇에 장착된 디스플레이부(32)가 대면할 수 있도록 자세를 제어한다. More specifically, the posture control unit 200 includes a position data extraction unit 210 , a position data correction unit 220 , a movement command unit 230 , a distance maintaining unit 240 , and a face-to-face tracking unit 250 . The posture is controlled so that the subject and the
상기 위치데이터추출부(210)는 RGB-D센서 데이터를 이용하여 대상자의 관절 데이터를 추출한다. The position data extraction unit 210 extracts the joint data of the subject by using the RGB-D sensor data.
상기 위치데이터보정부(220)는 상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정한다. 보다 구체적으로, 상기 위치데이터보정부에서 상기 이동 평균(Moving Average, MA) 식은 아래 [수학식 1]에 의해 수행되는 것이 바람직하다.The position data correction unit 220 converts the extracted joint data into distance information based on the coordinate system of the
[수학식 1][Equation 1]
(여기서, Pd는 human의 좌표값, n은 부분집합의 크기이다).(Where P d is the human coordinate value, and n is the size of the subset).
상기 이동명령부(230)는 상기 보정된 위치 좌표를 이용하여 이동 명령을 수행한다. 보다 구체적으로, 상기 이동명령부에서 이동 명령을 수행하는 것은 아래 [수학식 4]를 이용하여 위치를 제어하는 것이 바람직하다. The movement command unit 230 performs a movement command using the corrected position coordinates. More specifically, it is preferable to control the position by using the following [Equation 4] to perform the movement command in the movement command unit.
[수학식 4][Equation 4]
(여기서, R은 의료서비스로봇(2) 중심에서 휠 중심까지의 거리, r는 휠의 반경, vi는 각 휠의 선속도, wi는 의료서비스로봇(2) 중심의 각속도, θ는 전역좌표계 X축을 기준으로 xrob 축이 반시계 방향으로 회전한 각이다).(Here, R is the distance from the center of the
상기 거리유지부(240)는 대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지한다. The distance maintaining unit 240 maintains the face-to-face distance or angle between the subject-
상기 대면추적부(250)는 대상자의 얼굴을 지속적으로 응시한다. 보다 구체적으로, 상기 대면추적부는 아래 [수학식 5]인 상체부 응시각 추정모듈을 이용하여 추적하는 것이 바람직하다. The face-to-face tracking unit 250 continuously stares at the subject's face. More specifically, it is preferable to track the face-to-face tracking unit using the upper body gaze angle estimation module as shown in
[수학식 5][Equation 5]
(여기서, Ψ는 의료서비스로봇의 회전각이다).(Here, Ψ is the rotation angle of the medical service robot).
다음으로, 상기 대화생성부(300)는 대화를 통해 환자의 상태 관찰을 보조한다. 보다 구체적으로, 상기 대화생성부(300)는 환자의 의식, 생체기록, 섭취/배설 및 심리상태 등 기설정된 질문 문항에 따른 대상자의 응답을 점수화하여 심리 상태를 평가한 뒤 총점을 계산하고, 상기 총점의 점수 분포에 따라 발화멘트를 제공하는 것이 바람직하다. Next, the
도 17에 나타난 바와 같이, 상기 대화생성부(300)는 질문 순서 결정 단계(S311), 음성 또는 화면으로 질문 출력 단계(S312), 환자 응답 단계(S313), 답변 단계(S314), QA 리스트 기록 단계(S315), 남은 질문 여부를 판단하는 단계(S316), 심리 대화 진단 단계(S317) 및 음성 또는 화면으로 진단을 출력하는 단계(S318)에 의해 수행된다. As shown in FIG. 17 , the
특히, 도 18에 나타난 바와 같이, 상기 대화생성부(300)는 기설정된 질문 문항에 따른 대상자의 응답을 점수화하여 심리 상태를 평가한 뒤 총점을 계산고, 상기 총점의 점수 분포에 따라 발화멘트를 제공한다. 일실시예로, 상기 총점이 0-2점인 경우 ‘환자분 기분이 괜찮은 것 같아요. 더 좋아질 수 있도록 최선을 다하겠습니다.’의 발화 멘트를 제공한다. 상기 총점이 3-6점인 경우 ‘환자분 입원 스트레스가 좀 있으시군요. 기분 전환을 위해 저와 산책을 하실까요? 아니면 마음이 편안해지는 음악을 틀어드릴까요?’의 발화멘트를 제공한다. 상기 총점이 7-10점인 경우 ‘환자분 입원 스트레스가 상당하시네요. 제가 담당선생님께 전달해 드리겠습니다.’의 발화멘트를 제공한다. In particular, as shown in FIG. 18 , the
다음으로, 상기 A-V인식부(400)는 의료서비스로봇(2)에서 제공되는 콘텐츠에 따른 대상자의 수행동작 및 대상자가 생성하는 소리를 오디오(Audio)-비디오(Video) 모듈을 이용하여 인식한다. Next, the
보다 구체적으로, 상기 A-V인식부(400)는 비디오인식부(410) 및 오디오인식부(420)로 구성된다. 상기 비디오인식부(410)는 상기 콘텐츠를 제공에 따른 상기 대상자의 수행동작을 인식한다. 상기 오디오인식부(420)는 상기 대상자가 생성하는 소리를 인식한다. More specifically, the
본 발명에 따른 일실시예로, 상기 비디오인식부(410)는 폐활량측정부, 상지근력측정부 및 보행동작측정부를 포함할 수 있다. 상기 비디오인식부(410)는 상체 관절구조가 비디오 인식이 잘 될 수 있는 위치로 포즈를 취할 수 있는 구조이다. In an embodiment according to the present invention, the
상기 폐활량측정부는 상기 의료서비스로봇(2)에서 제공되는 폐활량계 콘텐츠에 따른 대상자의 폐활량을 측정한다. 도 20에 나타난 바와 같이, 상기 폐활량측정부는 색상인식(S411), 콘텐츠 준비 신호 전송(S412), 콘텐츠 시작 신호 수신(S413), 신호 대기(S414), 노란공, 빨간공, 파란공 중 두개의 마커 위치 판별(S415), 호흡인식(S416), 폐활량 전송(S417), 콘텐츠 종료(S418) 및 결과 신호 전송(S419) 단계를 통해 수행된다. The spirometry unit measures the lung capacity of the subject according to the spirometry content provided by the medical service robot (2). 20, the spirometry unit color recognition (S411), content preparation signal transmission (S412), content start signal reception (S413), signal waiting (S414), yellow ball, red ball, two of the blue ball Marker position determination (S415), respiration recognition (S416), lung capacity transmission (S417), content termination (S418) and the result signal transmission (S419) is performed through the steps.
또한, 상기 폐활량계 콘텐츠는 디스플레이부(32)에서 제공되며, 도 21에 나타난 바와 같이, 모듈 실행, 반복횟수 지정(S421), Balls 및 Markers 컬러감지(S422), 콘텐츠 준비 토픽 전송(S423), 콘텐츠 시작 토픽 수신(S424), 콘텐츠 시작(S425), Balls 및 Markers 실시간 위치 인식(S426), Balls의 이동 판별(S427), 실시간 폐활량 토픽 전송(S428), 최종 결과 출력 및 콘텐츠 종료(S429) 및 모듈 종료 토픽 수신(S430) 단계를 통해 수행된다. In addition, the spirometer content is provided by the
상기 폐활량계 콘텐츠 알고리즘은 RGB 카메라를 통해 입력된 BGR 영상을 색상 인식 범위를 지정하기 위해서 HSV 형식으로 컨버팅, HSV 영상에서 폐활량계의 상하에 미리 부착한 두개의 표식들을 인식하여 폐활량계의 높이를 계산, 폐활량계 내부의 공 3 개의 색상을 인식하여 현재 높이를 계산, 두개 표식 사이의 거리 즉 폐활량계의 높이와 공 3 개의 위치를 기반으로 폐활량(cc) 계산, 실시간 결과 출력 및 지정된 횟수만큼 폐활량 측정 반복 및 최종 결과 출력 및 콘텐츠 종료한다. The spirometer content algorithm converts the BGR image input through the RGB camera into HSV format to designate the color recognition range, recognizes two markers pre-attached above and below the spirometer in the HSV image to calculate the height of the spirometer, inside the spirometer Calculates the current height by recognizing the three colors of the ball, calculates the spirometry (cc) based on the distance between the two markers, that is, the height of the spirometer and the position of the three balls, outputs real-time results, and repeats spirometry for a specified number of times and outputs the final result and end the content.
상기 상지근력측정부는 상기 의료서비스로봇(2)에서 제공되는 상지근력 콘텐츠에 따른 대상자의 상지근력을 측정한다. 도 22에 나타난 바와 같이, 상지근력측정부는 관절인식(S431), 중심 관절 인식 확인(S431-1), 중앙 위치 확인(S431-2), 상지 방향 계산(S431-3), 콘텐츠 준비 신호 전송(S431-4), 로컬 좌표계 생성(S431-5), 콘텐츠 시작 신호 수신(S431-6), 수신 대기(S431-7), 컨텐츠 실행(S431-8), 현재 동작 번호 = 0 (S431-9)의 단계에 의해 수행되며, 앞으로 들기(S432-1), 위로 들기(S432-2), 옆으로 들기(S432-3) 및 팔꿈치 굽히기(S432-4) 단계를 각각 실행 후 각도 계산(S434), 동작 일치 여부 판별 및 정확도 출력(S435), 콘텐츠 종료 혹은 정확도 80% 이상 달성(S436) 현재 동작 번호 +=1(S437)를 수행한 후 동작 번호가 3을 초과하는 경우(S438) 콘텐츠 종료 신호 전송(S439) 단계를 수행한다. The upper extremity strength measurement unit measures the upper extremity muscle strength of the subject according to the contents of the upper extremity strength provided by the medical service robot (2). As shown in Figure 22, the upper extremity muscle strength measurement unit joint recognition (S431), center joint recognition confirmation (S431-1), central position confirmation (S431-2), upper extremity direction calculation (S431-3), content preparation signal transmission ( S431-4), local coordinate system creation (S431-5), content start signal reception (S431-6), reception standby (S431-7), content execution (S431-8), current operation number = 0 (S431-9) Calculating the angle after executing the steps of lifting forward (S432-1), lifting up (S432-2), lifting sideways (S432-3), and bending the elbow (S432-4) respectively (S434), Determining whether the action matches and outputting the accuracy (S435), ending the content or achieving more than 80% accuracy (S436) When the action number exceeds 3 after performing the current action number +=1 (S437) (S438), the content end signal is transmitted (S439) is performed.
도 23은 상지 방향 계산(S431-3) 단계에서 상기 상지근력측정부에서 상지 방향을 인지하는 관절 위치이고, 도 24는 상지근력측정부가 도 22의 로컬 좌표계 생성 단계(S431-5)에서 상지 관절의 좌표계 인지를 위한 관절 위치를 표시한 도면이다. 또한, 도 25는 상지근력측정부가 도 22의 앞으로 들기 판단 단계(S432-1) 내지 동작 번호 판단 단계(S438)에서 앞으로 들기, 위로 들기, 옆으로 들기 및 팔 접기를 인지하는 관절 위치를 표시한 도면이다.23 is a joint position at which the upper extremity muscle force measurement unit recognizes the direction of the upper extremity in the step of calculating the direction of the upper extremity (S431-3), and FIG. 24 is the upper extremity joint in the step (S431-5) of the local coordinate system of FIG. It is a diagram showing the joint position for recognizing the coordinate system of In addition, Fig. 25 shows the joint position at which the upper extremity muscle strength measurement unit recognizes the forward lifting, lifting, side lifting, and arm folding in the forward lifting determination step (S432-1) to the operation number determination step (S438) of FIG. It is a drawing.
또한, 상기 상지근력 콘텐츠는 디스플레이부(32)에서 제공되며, 도 26에 나타난 바와 같이, 모듈 실행(S441), 관절 인식(S442), pelvis 인식 여부 확인(S443), 중앙 정렬(S444), 상체 좌표계 생성(S445), 실시간 방향성 계산(S446), 콘텐츠 준비 토픽 전송(S447), 콘텐츠 시작 토픽 수신(S448), 콘텐츠 시작(S449), front, up, side, bend의 현재 콘텐츠 동작 인덱스 판별(S450), 방향과 roll, pitch 각도 연산(S451), 동작 목표 각도 기반 정확도 percentage 연산(S452), 실시간 정확도 percentage 토픽 전송(S453), 동작 인식 종료 및 다음 동작 콘텐츠 실행(S454) (S449~S452 반복), 최종 결과 출력 및 콘텐츠 종료(S455) 및 모듈 종료 토픽 수신(S456) 단계를 통해 수행된다. In addition, the upper extremity muscle strength content is provided by the
상기 상지근력 콘텐츠 알고리즘은 RGB 카메라와 Depth 센서를 통해 입력된 영상을 학습된 인식 모델과 관절 인식 프로그램을 통해 인식된 사람 객체의 각 관절 3차원 포인트들을 인식하고 좌측, 우측 어깨와 목(쇄골 중앙) 관절 벡터의 외적을 구해 그 두 외적의 평균을 상체의 방향 벡터로 계산, 상체의 방향 벡터를 z축으로 잡고 회전 행렬을 대입하여 각 관절들의 roll, pitch, yaw 3개의 오일러 각과 방향성을 계산, 상체 관절의 오일러 각과 모범 동작의 오일러 각을 비교하여 동작 정확도를 실시간으로 출력 후 현 동작 종료 시, 다음 동작으로 넘어가 동작 측정 반복(현재 4개 동작 앞으로 들기, 위로 들기, 옆으로 들기, 팔 접기)하고 모든 동작 수행 후 최종 결과 출력 및 콘텐츠 종료한다. The upper extremity muscle strength content algorithm recognizes three-dimensional points of each joint of a human object recognized through a recognition model and a joint recognition program learned from the image input through the RGB camera and depth sensor, and the left and right shoulder and neck (center of the clavicle) Calculate the cross product of the joint vectors and calculate the average of the two cross products as the direction vector of the upper body. After comparing the Euler angle of the joint and the Euler angle of the exemplary motion, the motion accuracy is output in real time, and when the current motion is finished, it moves to the next motion and repeats motion measurement (current 4 motions: forward lift, up lift, side lift, arm fold) After performing all operations, output the final result and end the content.
상기 보행동작측정부 상기 의료서비스로봇(2)에서 제공되는 보행동작 콘텐츠에 따른 대상자의 보행동작을 인식한다. 도 27에 나타난 바와 같이, 관절인식(S461), 중심 관절 인식 확인(S461-1), 중앙 위치 확인(S461-2), 하지 방향 계산(S461-3) 및 콘텐츠 준비 신호 전송(S461-4)한다. 상기 하지 방향 계산(S461-3) 후 로컬 좌표계 생성(S461-5), 콘텐츠 시작 신호 수신 판단(S461-6) 후 수신 대기(S461-7) 하거나 컨텐츠 실행(S461-8)한다. 상기 컨텐츠 실행(S461-8) 단계가 시작되면 걷기 동작 판별 실행(S462), 보행 수 출력(S463) 하고 콘텐츠 종료 판별(S464) 한다. 종료된 경우 결과 신호 전송(S465)한다. The gait motion measurement unit recognizes the gait motion of the subject according to the gait motion content provided by the medical service robot (2). 27, joint recognition (S461), center joint recognition confirmation (S461-1), central location confirmation (S461-2), lower extremity direction calculation (S461-3) and content preparation signal transmission (S461-4) do. After the calculation of the lower limb direction (S461-3), the local coordinate system is generated (S461-5), the content start signal reception is determined (S461-6), and the reception waits (S461-7) or the content is executed (S461-8). When the content execution step (S461-8) starts, the walking motion determination is executed (S462), the number of steps is output (S463), and the content end determination is made (S464). When it is finished, the result signal is transmitted (S465).
다만, 상기 걷기 동작 판별 실행(S462) 단계는 보다 구체적으로 다리 관절과 골반 관절 위치 비교(S462-1)하는 단계로, 두 다리 모두 골반 앞 (S463-1), 두 다리 중 하나 골반 앞 (S464-1), 두 다리 모두 골반 뒤 (S465-1)인지 판별하여 위치를 판별한다. However, the step of determining the walking motion (S462) is a step of comparing the position of the leg joint and the pelvic joint (S462-1) more specifically, both legs in front of the pelvis (S463-1) and one of the two legs in front of the pelvis (S464). -1), the position is determined by determining whether both legs are behind the pelvis (S465-1).
또한, 상기 보행동작 콘텐츠는 디스플레이부(32)에서 제공되며, 도 28에 나타난 바와 같이, 모듈 실행(S471), 관절 인식(S472), pelvis 인식 여부 확인(S473), 중앙 정렬(S474), 하체 좌표계 생성(S475), 실시간 방향성 계산(S476), 콘텐츠 준비 토픽 전송(S477), 콘텐츠 시작 토픽 수신(S478), 콘텐츠 시작(S479), 걷기 동작(앞선 다리 측정 및 다리 관절 교차 인식) 판별(S480), 실시간 보폭, 보행 수(steps) 토픽 전송(S481), 최종 결과 출력 및 콘텐츠 종료(S482) 및 모듈 종료 토픽 수신(S483) 단계로 구성된다. In addition, the gait motion content is provided by the
상기 보행동작 콘텐츠 알고리즘은 RGB 카메라와 Depth 센서를 통해 입력된 영상을 학습된 인식 모델과 관절 인식 프로그램을 통해 인식된 사람 객체의 각 관절 3차원 포인트들을 인식하고, 좌측, 우측 골반과 척추 관절 벡터의 외적을 구해 그 두 외적의 평균을 하체의 방향 벡터로 계산 후 하체의 방향 벡터를 z축으로 잡고 회전 행렬을 대입하여 각 관절들의 방향성과 두 발목 사이의 거리를 계산한다. 하체 방향성과 두 다리 관절이 뻗은 방향을 비교하고 하체 방향 벡터에 두 다리 관절의 벡터를 투영시켜 현재 어느 다리가 앞서 있는지를 판별 후 실시간으로 동작을 인식하여 두 다리의 교차 지점을 파악 및 기록하여 보행 수 측정하고 지정된 횟수만큼 일정 시간 동안 보행 동작 측정 반복하여 최종 결과 출력 및 콘텐츠 종료한다. The gait motion content algorithm recognizes three-dimensional points of each joint of a human object recognized through a recognition model and a joint recognition program learned from an image input through an RGB camera and a depth sensor, and the left and right pelvis and spine joint vectors After finding the external product, the average of the two external products is calculated as the direction vector of the lower body. Compare the directionality of the lower body with the direction in which the joints of the two legs are stretched, and project the vectors of the joints of the two legs on the vector of the lower body to determine which leg is currently ahead, then recognize the motion in real time to identify and record the intersection of the two legs and walk The number is measured, and the gait motion measurement is repeated for a specified number of times, outputting the final result and ending the content.
또한, 본 발명에 따른 일실시예로, 상기 오디오인식부(420)는 상기 대상자가 생성하는 소리 중 기침 여부를 확인하는 기침인식부를 포함할 수 있다. 도 30에 나타난 바와 같이, 상기 기침인식부는 소리 입력 (S491), 음성 파형/주파수 분석(S492), 기침인가?(S493), 컨텐츠가 실행 중인지 여부 판별(S494) 및 인식 결과 전송(S495) 단계에 의해 수행된다. In addition, according to an embodiment of the present invention, the audio recognition unit 420 may include a cough recognition unit for checking whether or not coughing among the sounds generated by the subject. 30 , the cough recognition unit performs sound input (S491), voice waveform/frequency analysis (S492), cough? (S493), determining whether content is running (S494), and transmitting the recognition result (S495) is performed by
다음으로, 상기 의료정보제공부(500)는 대상자로부터 기설정된 의료 정보를 측정하여 의료진이 모니터링하고, 의료진이 대상자의 정보를 확인할 수 있도록 제공한다. Next, the medical
본 발명에 따른 일실시예로, 상기 의료정보제공부(500)는 스케줄등록부(510)를 포함할 수 있다. 도 9에 나타난 바와 같이, 상기 스케줄등록부(510)는 공공의료정보시스템(Public Health Information System, PHIS)과 연동하여 환자의 정보를 확인하여 환자 정보에 따른 일정을 등록할 수 있고 상기 의료서비스로봇(2)이 일정을 수행할 수 있도록 요청한다. In an embodiment according to the present invention, the medical
도 10은 본 발명의 일실시예에 따라 의료정보제공부(500)에서 수행하는 스케줄등록부(510)의 실행 방법을 나타낸 순서도로, PHIS 스케줄 등록 단계(S511), 작업 명령 송신 단계(S512), 작업 결과 확인 단계(S513), 해당 작업이 완료 되었는지 여부를 판단하는 단계(S514), DB 결과 저장 단계(S515), 음성 또는 텍스트로 완료 알림 출력 단계(S516), 모든 스케줄이 완료 되었는지 여부를 판단하는 단계(S517)에 의해 수행된다. 10 is a flowchart illustrating an execution method of the
도 11은 본 발명의 일실시예에 따라 의료서비스로봇(2)에서 수행하는 스케줄실행부의 실행 방법을 나타낸 순서도로, 작업 명령 수신 단계(S521), 로봇 이동 단계(S522), 의료서비스 수행 단계(S523), 작업 결과 송신 단계(S524), 모든 컨텐츠가 종료 되었는지 판단하는 단계(S525), 모든 스케줄이 완료 되었는지 판단하는 단계(S526)에 의해 수행된다. 11 is a flowchart illustrating an execution method of the schedule execution unit performed by the
도 12는 본 발명의 일실시예에 따라 스케줄등록부(510) 및 스케줄실행부의 작업명령 순서도이고, 도 13은 본 발명의 일실시예에 따라 도 12의 스케줄등록부(510) 및 스케줄실행부의 작업명령 순서에 따른 구체적인 실시예이다.12 is a flowchart of a work command of the
한편, 본 발명인 원격 모니터링이 가능한 의료서비스 로봇 시스템은 의료서비스로봇(2)에 의해 수행된다. 도 2에 나타난 바와 같이, 상기 의료서비스로봇(2)은 걸림부(10), 대면상호작용부(20), 모니터부(30), 손잡이부(40) 및 전방향이동부(50)로 구성될 수 있다. On the other hand, the present invention, a medical service robot system capable of remote monitoring is performed by the medical service robot (2). As shown in FIG. 2 , the
상기 걸림부(10)는, 도 2에 나타난 바와 같이, 수액을 거치할 수 있는 수액걸이부(11) 및 상기 수액걸이부(11)의 높이를 조절할 수 있는 길이조절부(12)로 구성된다. As shown in FIG. 2 , the locking
상기 대면상호작용부(20)는 디스플레이부(32) 및 카메라부(31)로 구성된다. 보다 구체적으로, 상기 디스플레이부(32)는 상기 폐활량계 콘텐츠, 상지근력 콘텐츠 및 보행동작 콘텐츠 등을 포함하는 콘텐츠 영상을 출력하고, 상기 카메라부(31)는 상기 비디오인식부(410)에서 상기 콘텐츠를 제공에 따른 상기 대상자의 수행동작을 인식할 수 있도록 측정한다. The face-to-
상기 손잡이부(40)는 상기 의료서비스로봇(2)을 수동으로 이동시키는 손잡이부(40)로 구성된다. The
상기 전방향이동부(50)는 상기 자율주행부(100)에 의해 요청 된 위치로 주행하도록 3륜 전방향 바퀴를 마련하고 있다. 상기 자율주행부(100)의 각 바퀴는 30°, 150° 및 270°로 마련되는 것이 바람직하다. The
아래는 대상자 포즈 정확도 및 로봇 위치 및 방향 정확성을 측정한 실험예를 수행하였다.Below, an experimental example in which the subject's pose accuracy and robot position and orientation accuracy were measured was performed.
본 실험예 1 및 2를 수행하기 위한 시스템은 60H*49.5V*73D의 화각을 가지는 Orbbec사의 Astra 카메라와 Pan-Tilt모듈이 장착된 전방향 로봇 플랫폼으로 구성하였다. 실내 환경에서의 카메라 위치(x1, y1, z1, θ, Ψ)는 의료서비스로봇의 map좌표계 기준 (0, 0, 1.88m, -1.57, -0.35rad)이며, 대상자(xh, yh, zh)는 (2, 0., Height)m 에 위치하고 정면과 ±45°를 바라본다.The system for carrying out Experimental Examples 1 and 2 consisted of an omnidirectional robot platform equipped with Orbbec's Astra camera and Pan-Tilt module having an angle of view of 60H*49.5V*73D. The camera position (x 1 , y 1 , z 1 , θ, Ψ) in the indoor environment is based on the map coordinate system of the medical service robot (0, 0, 1.88m, -1.57, -0.35rad), and the subject (x h , y h , z h ) is located at (2, 0., Height)m and faces the front and ±45°.
그리고, 이동 로봇의 헤드 위치(0, 0, 1.26m)에 사용자를 지속적으로 응시하기 위한 180°의 수평 및 수직 각도로 제어가 가능한 상체부 응시각 추정모듈을 장착하였다.In addition, an upper body gaze angle estimation module that can be controlled at 180° horizontal and vertical angles to continuously gaze at the user at the head position (0, 0, 1.26 m) of the mobile robot was mounted.
실험예 1 : 대상자 포즈 정확도Experimental Example 1: Subject Pose Accuracy
본 발명에 따른 실험예 1은 대상자가 정해진 각도로 포즈를 취했을 때, 관절 좌표값을 통해 추출된 각도의 오차를 분석함으로써, 상호작용 대상자의 포즈 정확도를 확인하였다. 본 실험예 1은 1,500개의 데이터(5명*포즈2곳*위치 3곳*좌표 당 50개)를 추출한다.Experimental Example 1 according to the present invention confirmed the pose accuracy of the interaction subject by analyzing the error of the angle extracted through the joint coordinate value when the subject took a pose at a predetermined angle. This Experimental Example 1 extracts 1,500 pieces of data (5 people * 2 poses * 3 locations * 50 pieces per coordinate).
각 포즈 별 측정된 데이터는 도 7과 같이 나타났다. The measured data for each pose is shown in FIG. 7 .
실험예 2 : 로봇 위치 및 방향 정확성Experimental Example 2: Robot Position and Direction Accuracy
다음으로, 의료서비스로봇의 위치 및 방향 정확도를 검증하기 위한 실험예 2는 실시간으로 변화하는 인간의 자세에 대해 민첩하고 정확한 위치로 이동하는 것을 목표로 한다. 이 때, 의료서비스로봇(2)은 인간으로부터 0.8m 떨어진 곳에 위치하면서 사용자를 응시하도록 한다. 여기서 실험예 2는 3,000개의 데이터(포즈 3곳*위치 2곳*좌표 당 100개*5회)를 추출한다. 각 실험의 성공 여부는 각도 오차가 ±5° 이내에 위치하는 것으로 하고, 실험예 2의 경우 거리 유지 조건에서 ±0.1m이내에 위치하는 것을 목표로 한다. Next, Experimental Example 2 for verifying the position and direction accuracy of the medical service robot aims to move to an agile and accurate position with respect to the human posture changing in real time. At this time, the
면대면 상호작용을 수행할 때, 의료서비스로봇(2)이 인간을 바라보는 각도의 표준편차는 5°이내에 위치하였으나, 각도 오차는 성공률이 66.7%로 비교적 낮게 위치함을 확인하였다. 오차가 크게 발생한 경우는 인간-로봇 간 거리가 멀어질 때, 의료서비스로봇(2)이 이동하며 생기는 바퀴의 마찰력으로 인해 미끄럼이 발생에 기인한 것으로 판단된다.When performing face-to-face interaction, the standard deviation of the angle at which the
상기 과제의 해결 수단에 의해, 본 발명은 병원환경에서 헬스케어 업무를 보조하는 IoT 연계형 간호용 의료 로봇을 제공할 수 있다. By means of solving the above problems, the present invention can provide an IoT-linked nursing medical robot that assists in healthcare work in a hospital environment.
또한, 본 발명은 의료 환경을 개선하고 환자와 의료인 만족도를 향상할 수 있는 의료 서비스 의료서비스로봇(2)을 제공할 수 있다. In addition, the present invention can provide a medical service medical service robot (2) that can improve the medical environment and improve the satisfaction of patients and medical personnel.
또한, 본 발명은 HRI(인간 로봇 상호작용) 기술을 가진 로봇으로, 대화관리자를 이용하여 문진 내용을 기반으로 정보를 제공하고 관련 내용을 기록할 수 있고, 상황에 따라 로봇이 환자와 의료진을 실시간 원격으로 연결하고 필요한 생체신호 정보를 동시에 제공할 수 있는 의료 서비스 의료서비스로봇(2)을 제공할 수 있다. In addition, the present invention is a robot with HRI (Human-Robot Interaction) technology, which can provide information based on the questionnaire and record related contents using a dialog manager, and the robot can communicate with patients and medical staff in real time depending on the situation. It is possible to provide a medical service
또한, 본 발명은 IoT 디바이스를 이용한 환자 Vital 신호 및 의료환경(공기오염도, 온습도) 정보를 추출할 수 있고, 수액, 유린백 상태 측정 및 교체 시기 자동 알람을 제공할 수 있다. In addition, the present invention can extract the patient vital signal and medical environment (air pollution, temperature and humidity) information using the IoT device, and can provide an automatic alarm for measuring the state of the infusion, Yurinbag and replacement time.
또한, 본 발명은 주기적 환자 방문 체크, 콜벨 업무에 선제적 대응할 수 있고, 낙상 위험측정도구와 욕창측정도구를 이용하여 위험도가 높은 환자별로 간호업무 중요도를 조절할 수 있어 안전 간호를 할 수 있다. In addition, the present invention can preemptively respond to periodic patient visit check and call-bell work, and can control the importance of nursing work for each high-risk patient by using a fall risk measuring tool and a pressure sore measuring tool, so that safe nursing can be performed.
이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, those skilled in the art to which the present invention pertains will understand that the above-described technical configuration of the present invention may be implemented in other specific forms without changing the technical spirit or essential characteristics of the present invention.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above are to be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the following claims rather than the above detailed description, and the meaning and scope of the claims and their All changes or modifications derived from the concept of equivalents should be construed as being included in the scope of the present invention.
1. 의료서비스 로봇시스템
100. 자율주행부
200. 자세제어부
210. 위치데이터추출부
220. 위치데이터보정부
230. 이동명령부
240. 거리유지부
300. 대화생성부
400. A-V인식부
410. 비디오인식부
420. 오디오인식부
500. 의료정보제공부
510. 스케줄등록부
2. 의료서비스로봇
10. 걸림부
11. 수액걸이부
12. 길이조절부
20. 대면상호작용부
30. 모니터부
31. 카메라부
32. 디스플레이부
40. 손잡이부
50. 전방향이동부
S100. RGB-D센서 데이터를 이용하여 대상자의 관절 데이터를 추출하는 제1단계
S200. 상기 추출된 관절 데이터를 카메라부(31) 좌표계를 기준으로 거리 정보로 변환 후, 이동 평균(Moving Average) 식을 이용하여 보정하는 제2단계
S300. 상기 보정된 위치 좌표를 이용하여 이동 명령을 수행하는 제3단계
S400. 대상자-의료서비스로봇(2)간의 대면 거리 또는 각도를 기설정된 값으로 유지하는 제4단계
S500. 대상자의 얼굴을 지속적으로 추적하는 제5단계1. Medical
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210028657A KR102552174B1 (en) | 2021-03-04 | 2021-03-04 | Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210028657A KR102552174B1 (en) | 2021-03-04 | 2021-03-04 | Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220125850A true KR20220125850A (en) | 2022-09-15 |
KR102552174B1 KR102552174B1 (en) | 2023-07-06 |
Family
ID=83281440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210028657A KR102552174B1 (en) | 2021-03-04 | 2021-03-04 | Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102552174B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102590041B1 (en) * | 2022-12-01 | 2023-10-13 | 박란희 | Medical service robot |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020015621A (en) | 2000-08-22 | 2002-02-28 | 홍영표 | Communication system for aiding in conducting a medical service, computer system used therein and data transmission method using it |
KR101751760B1 (en) * | 2016-10-31 | 2017-06-28 | 주식회사 모셔넥스 | Method for estimating gait parameter form low limb joint angles |
KR102106193B1 (en) * | 2014-04-17 | 2020-04-29 | 소프트뱅크 로보틱스 유럽 | Methods and systems for managing dialogs of a robot |
KR102113999B1 (en) * | 2019-10-04 | 2020-05-22 | (주)지에이치이노텍 | A portable respiration measuring apparatus |
KR20200081520A (en) * | 2018-12-14 | 2020-07-08 | 신라대학교 산학협력단 | Robot system for health care service and method thereof |
KR20200104025A (en) * | 2019-02-26 | 2020-09-03 | 한국과학기술원 | Muscle synergy measurement system and method for analysis using the same |
-
2021
- 2021-03-04 KR KR1020210028657A patent/KR102552174B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020015621A (en) | 2000-08-22 | 2002-02-28 | 홍영표 | Communication system for aiding in conducting a medical service, computer system used therein and data transmission method using it |
KR102106193B1 (en) * | 2014-04-17 | 2020-04-29 | 소프트뱅크 로보틱스 유럽 | Methods and systems for managing dialogs of a robot |
KR101751760B1 (en) * | 2016-10-31 | 2017-06-28 | 주식회사 모셔넥스 | Method for estimating gait parameter form low limb joint angles |
KR20200081520A (en) * | 2018-12-14 | 2020-07-08 | 신라대학교 산학협력단 | Robot system for health care service and method thereof |
KR20200104025A (en) * | 2019-02-26 | 2020-09-03 | 한국과학기술원 | Muscle synergy measurement system and method for analysis using the same |
KR102113999B1 (en) * | 2019-10-04 | 2020-05-22 | (주)지에이치이노텍 | A portable respiration measuring apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102590041B1 (en) * | 2022-12-01 | 2023-10-13 | 박란희 | Medical service robot |
Also Published As
Publication number | Publication date |
---|---|
KR102552174B1 (en) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220331028A1 (en) | System for Capturing Movement Patterns and/or Vital Signs of a Person | |
Bajones et al. | Hobbit: providing fall detection and prevention for the elderly in the real world | |
KR102261797B1 (en) | Robot system for health care service and method thereof | |
Ma et al. | Autonomous flexible endoscope for minimally invasive surgery with enhanced safety | |
US10176725B2 (en) | System and method of pervasive developmental disorder interventions | |
WO2021068542A1 (en) | Force feedback technology-based robot system for active and passive rehabilitation training of upper limbs | |
KR20180068336A (en) | Surgical system with training or auxiliary functions | |
CN106456263A (en) | Methods and devices for tele-surgical table registration | |
CN102902271A (en) | Binocular vision-based robot target identifying and gripping system and method | |
US20230110890A1 (en) | Systems and methods for entering and exiting a teleoperational state | |
US20130144440A1 (en) | Robot apparatus, control method thereof, and computer program | |
CN105943162A (en) | Method and device for controlling/compensating movement of surgical robot | |
CN106355010A (en) | Self-service cognition evaluation apparatus and method | |
KR102552174B1 (en) | Method for omnidirectional robot of face-to-face interaction with human and medical service assistant robot capable of remote monitoring thereof | |
JP7157424B2 (en) | INTERACTIVE INFORMATION TRANSMISSION SYSTEM AND INTERACTIVE INFORMATION TRANSMISSION METHOD AND INFORMATION TRANSMISSION SYSTEM | |
US20220108561A1 (en) | System for capturing the movement pattern of a person | |
CN113611388B (en) | Intelligent sports rehabilitation and training system based on exoskeleton | |
Zheng et al. | A novel respiratory follow-up robotic system for thoracic-abdominal puncture | |
JP3979141B2 (en) | Autonomous mobile robot for guidance and its control method | |
Son et al. | Crosswalk guidance system for the blind | |
Dayananda et al. | An interconnected architecture for an emergency medical response unmanned aerial system | |
Li et al. | An egocentric computer vision based co-robot wheelchair | |
TW201006635A (en) | In situ robot which can be controlled remotely | |
CN116945156A (en) | Intelligent elderly accompanying system based on computer vision technology | |
CN114260919B (en) | Intelligent robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |