KR20230154362A - System and method for providing drug transport service using robot based on xtended reality - Google Patents

System and method for providing drug transport service using robot based on xtended reality Download PDF

Info

Publication number
KR20230154362A
KR20230154362A KR1020220053640A KR20220053640A KR20230154362A KR 20230154362 A KR20230154362 A KR 20230154362A KR 1020220053640 A KR1020220053640 A KR 1020220053640A KR 20220053640 A KR20220053640 A KR 20220053640A KR 20230154362 A KR20230154362 A KR 20230154362A
Authority
KR
South Korea
Prior art keywords
robot
information
server
user
extended reality
Prior art date
Application number
KR1020220053640A
Other languages
Korean (ko)
Inventor
오인수
Original Assignee
(주)제스엔지니어링
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제스엔지니어링 filed Critical (주)제스엔지니어링
Priority to KR1020220053640A priority Critical patent/KR20230154362A/en
Publication of KR20230154362A publication Critical patent/KR20230154362A/en

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medicinal Chemistry (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)

Abstract

확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템 및 방법이 개시된다. 본 발명의 일 측면에 따른 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템은, 의약품을 운반하는 순서 및 배치 위치 좌표값에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇의 비전정보 및 움직임 정보에 대한 동작 모델을 학습하는 서버, 촬영장치를 구비하고, 동작제어신호에 따라 의약품을 운반하는 동작을 수행하는 로봇 시스템, 및 사용자의 머리에 착용된 확장현실 디스플레이 장치를 통해 촬영장치에서 촬영된 영상을 표시하고, 사용자의 음성 및 움직임에 따른 제어명령을 서버로 전송하는 사용자 시스템을 포함하되, 서버는, 동작 모델에 기초하여 제어명령에 따른 로봇의 비전정보 또는 움직임 정보를 획득하여 동작제어신호를 생성하고, 동작제어신호를 로봇 시스템으로 전송할 수 있다. A system and method for providing medicine transport services using an extended reality-based robot is disclosed. According to one aspect of the present invention, a medicine transport service providing system using an extended reality-based robot includes at least one scenario regarding the order of transporting medicine and arrangement position coordinate values, and vision information and movement information of a robot performing each scenario. A server that learns a motion model for It includes a user system that displays and transmits control commands according to the user's voice and movement to the server, where the server acquires vision information or movement information of the robot according to the control command based on the operation model and sends a movement control signal. It can generate and transmit motion control signals to the robot system.

Description

확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템 및 방법{SYSTEM AND METHOD FOR PROVIDING DRUG TRANSPORT SERVICE USING ROBOT BASED ON XTENDED REALITY}System and method for providing pharmaceutical transport services using extended reality-based robots {SYSTEM AND METHOD FOR PROVIDING DRUG TRANSPORT SERVICE USING ROBOT BASED ON XTENDED REALITY}

본 발명은 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템 및 방법에 관한 것으로서, 보다 상세하게는 의료기관에서 로봇을 이용하여 의약품 운반 시 확장현실 기술을 이용하여 사용자가 로봇을 제어 및 모니터링할 수 있도록 하는 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for providing a medicine transport service using an extended reality-based robot. More specifically, the present invention relates to a system and method for providing medicine transport service using a robot in a medical institution, so that the user can control and monitor the robot using extended reality technology when transporting medicine using a robot in a medical institution. It relates to a system and method for providing medicine transport services using an extended reality-based robot.

병원에서 진통제로 사용되는 몰핀과 같은 마약류 의약품은 자물쇠 등의 시건장치를 사용하여 도난을 방지하고, 출입카드 등의 신원조회수단을 소지한 특정 담당자에 의해서만 반출입 가능하도록 관리하고 있으나, 해당 담당자가 의약품 반출량을 허위로 기재하거나 필요 이상의 의약품을 반출할 경우, 이와 같은 부적법한 반출사실 및 그 수량을 정확히 파악하기 어려운 문제점이 있었다.Narcotic drugs such as morphine, which are used as painkillers in hospitals, are prevented from being stolen by using locking devices such as locks, and are managed so that they can only be brought in and out by a specific person in possession of an identity verification tool such as an access card. When the amount exported was falsely stated or more medicines than needed were exported, there was a problem in that it was difficult to accurately determine the fact of such illegal export and the quantity.

이러한 문제를 해결하기 위하여, 의약품의 반출입을 감시하는 관리자를 별도로 배치하는 경우도 있으나, 상기 경우, 실시간으로 의약품의 수량 파악이 어려워 의약품의 유효기간 및 재고 관리가 원활하게 이루어지지 않았을 뿐만이 아니라, 필요로 하는 의약품이 아니 다른 의약품을 반출하거나 사용량 이상을 반출하는 경우가 생겨도 반출자가 이를 즉시 인지하기 어려워 반출된 의약품의 오사용으로 인한 의료사고가 발생될 수 있는 위험이 있었다.In order to solve this problem, there are cases where a separate manager is assigned to monitor the import and export of medicines. However, in this case, it is difficult to determine the quantity of medicines in real time, so not only is the expiration date and inventory management of medicines not done smoothly, but it is also necessary. Even in cases where medicines other than those prescribed by the law were taken out or more than the amount used was taken out, it was difficult for the exporter to immediately recognize this, so there was a risk that a medical accident could occur due to misuse of the exported medicines.

따라서, 의약품은 유통과정을 비롯하여 취급과정에 대한 관리가 자동적으로 이루어지면서 이와 동시에 그 취급과정을 임의의 시간에 또는 실시간으로 확인 관리할 수 있는 방법이 필요한 실정이다.Therefore, there is a need for a method that can automatically manage the handling process, including the distribution process, of pharmaceuticals and at the same time check and manage the handling process at any time or in real time.

본 발명의 배경기술은 대한민국 공개특허공보 제10-2014-0011726호(2014.01.29. 공개)의 '약품 관리 시스템 및 그의 약품 관리 방법'에 개시되어 있다.The background technology of the present invention is disclosed in 'Drug management system and drug management method thereof' in Korean Patent Publication No. 10-2014-0011726 (published on January 29, 2014).

본 발명은 전술한 문제점을 개선하기 위하여 인출된 것으로, 본 발명의 목적은 의료기관에서 로봇을 이용하여 의약품 운반 시, 확장현실 기술을 이용하여 사용자가 로봇을 제어 및 모니터링할 수 있도록 하는 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템 및 방법을 제공하는 것이다. The present invention was brought out to improve the above-mentioned problems, and the purpose of the present invention is to provide an extended reality-based system that allows users to control and monitor the robot using extended reality technology when transporting medicines using robots in medical institutions. To provide a system and method for providing pharmaceutical transport services using robots.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and other problem(s) not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 일 측면에 따른 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템은, 의약품을 운반하는 순서 및 배치 위치 좌표값에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇의 비전정보 및 움직임 정보에 대한 동작 모델을 학습하는 서버, 촬영장치를 구비하고, 동작제어신호에 따라 의약품을 운반하는 동작을 수행하는 로봇 시스템, 및 사용자의 머리에 착용된 확장현실 디스플레이 장치를 통해 상기 촬영장치에서 촬영된 영상을 표시하고, 상기 사용자의 음성 및 움직임에 따른 제어명령을 상기 서버로 전송하는 사용자 시스템을 포함하되, 상기 서버는, 상기 동작 모델에 기초하여 상기 제어명령에 따른 로봇의 비전정보 또는 움직임 정보를 획득하여 상기 동작제어신호를 생성하고, 상기 동작제어신호를 상기 로봇 시스템으로 전송할 수 있다. According to one aspect of the present invention, a medicine transport service providing system using an extended reality-based robot includes at least one scenario regarding the order of transporting medicine and arrangement position coordinate values, and vision information and movement information of a robot performing each scenario. A server that learns a motion model for It includes a user system that displays an image and transmits a control command according to the user's voice and movement to the server, wherein the server provides vision information or movement information of the robot according to the control command based on the operation model. By obtaining the motion control signal, the motion control signal can be transmitted to the robot system.

본 발명에서 상기 로봇 시스템은, 통신회로, 상기 확장현실 디스플레이 장치의 움직임에 따라 동작하여 영상을 촬영하는 촬영장치, 상기 동작제어신호에 따라 의약품을 해당 배치 위치 좌표값으로 운반하는 동작을 수행하는 로봇, 및 상기 촬영장치를 통해 촬영된 영상을 상기 통신회로를 통해 상기 서버로 전송하고, 상기 서버로부터의 동작제어신호를 상기 로봇 또는 촬영장치로 전송하여, 상기 로봇 또는 촬영장치가 상기 동작제어신호에 따라 동작하도록 하는 제어장치를 포함할 수 있다. In the present invention, the robot system includes a communication circuit, a photographing device that operates according to the movement of the extended reality display device to capture images, and a robot that carries the medicine to the corresponding placement position coordinate value according to the operation control signal. , and transmitting the image captured through the imaging device to the server through the communication circuit, and transmitting an operation control signal from the server to the robot or imaging device, so that the robot or imaging device responds to the operation control signal. It may include a control device that operates accordingly.

본 발명에서 상기 사용자 시스템은, 통신회로, 상기 사용자의 머리에 착용되고, 상기 촬영장치를 통해 촬영된 영상을 확장현실로 표시하는 확장현실 디스플레이 장치, 상기 사용자의 음성을 인식하는 음성인식장치, 상기 사용자의 촉각 정보를 인식하는 햅틱 센서, 및 상기 음성인식장치에서 인식된 음성데이터 또는 상기 햅틱 센서를 통해 인식된 촉각 정보로부터 상기 로봇의 움직임에 대한 사용자의 의도를 파악하고, 상기 파악된 의도에 따라 상기 로봇을 제어하기 위한 제어명령을 상기 서버로 전송하며, 상기 로봇 시스템으로부터 수신된 영상을 상기 확장현실 디스플레이 장치를 통해 출력하는 제어장치를 포함할 수 있다. In the present invention, the user system includes a communication circuit, an extended reality display device worn on the user's head and displaying images captured through the photographing device in extended reality, a voice recognition device that recognizes the user's voice, and A haptic sensor that recognizes the user's tactile information, and the user's intention for the movement of the robot from the voice data recognized by the voice recognition device or the tactile information recognized through the haptic sensor, and according to the identified intention It may include a control device that transmits control commands for controlling the robot to the server and outputs images received from the robot system through the extended reality display device.

본 발명에서 상기 서버는, 상기 동작제어신호에 따라 수행한 상기 로봇의 비전정보 또는 움직임 정보를 상기 로봇 시스템으로부터 수신하고, 상기 수신한 로봇의 비전정보 또는 움직임 정보가 학습되지 않은 정보인 경우 상기 수신한 로봇의 비전정보 또는 움직임 정보를 학습하여 상기 동작 모델을 업데이트할 수 있다. In the present invention, the server receives vision information or movement information of the robot performed according to the motion control signal from the robot system, and if the received vision information or movement information of the robot is unlearned information, the server receives the vision information or movement information of the robot performed according to the motion control signal. The motion model can be updated by learning the vision information or movement information of one robot.

본 발명의 다른 측면에 따른 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 방법은, 사용자 시스템이, 사용자의 머리에 착용된 확장현실 디스플레이 장치를 통해 로봇 시스템의 촬영장치를 통해 촬영된 영상을 디스플레이하는 상태에서 상기 사용자의 음성데이터 또는 움직임 정보가 획득되면, 상기 음성데이터 또는 움직임 정보를 포함하는 제어명령을 서버로 전송하는 단계, 상기 서버가, 기 학습된 동작 모델을 기초로 상기 제어명령에 따른 로봇 구성요소들의 좌표를 획득하여 동작제어신호를 생성하고, 상기 생성된 동작제어신호를 로봇 시스템으로 전송하는 단계, 및 상기 로봇 시스템이 동작제어신호에 따라 의약품을 운반하는 동작을 수행하는 단계를 포함한다. According to another aspect of the present invention, a method of providing a medicine transport service using an extended reality-based robot includes a user system displaying images captured through an imaging device of the robot system through an extended reality display device worn on the user's head. When the user's voice data or motion information is obtained in this state, transmitting a control command including the voice data or motion information to a server, the server, a robot according to the control command based on a previously learned motion model It includes obtaining the coordinates of the components to generate a motion control signal, transmitting the generated motion control signal to a robot system, and performing an operation of the robot system transporting medicine according to the motion control signal. .

본 발명은 상기 서버가, 의약품을 운반하는 순서 및 배치 위치 좌표값에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇의 비전정보 및 움직임 정보에 대한 동작 모델을 학습하는 단계를 더 포함하고, 상기 의약품을 운반하는 동작을 수행하는 단계 이후, 상기 서버가, 상기 의약품 운반에 따라 로봇이 수행한 비전정보 및 움직임 정보를 상기 로봇 시스템으로부터 수신하고, 상기 수신한 로봇의 비전정보 및 움직임 정보가 학습되지 않은 정보인 경우 상기 수신한 로봇의 비전정보 및 움직임 정보를 학습하여 상기 동작 모델을 업데이트하는 단계를 더 포함할 수 있다. The present invention further includes the step of the server learning at least one scenario for the order of transporting medicines and arrangement position coordinates, and a motion model for vision information and movement information of a robot performing each scenario, After performing the operation of transporting the medicine, the server receives vision information and movement information performed by the robot according to the transport of the medicine from the robot system, and the received vision information and movement information of the robot are not learned. If the information is not available, the step of updating the motion model by learning the received vision information and movement information of the robot may be further included.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 더 제공될 수 있다.In addition to this, other methods for implementing the present invention, other systems, and computer programs for executing the methods may be further provided.

본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템 및 방법은, 의료기관에서 로봇을 이용하여 의약품 운반 시, 확장현실 기술을 이용하여 사용자가 로봇을 제어 및 모니터링할 수 있다. The system and method for providing a medicine transport service using an extended reality-based robot according to an embodiment of the present invention allows the user to control and monitor the robot using extended reality technology when transporting medicine using a robot in a medical institution. .

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다. Meanwhile, the effects of the present invention are not limited to the effects mentioned above, and various effects may be included within the range apparent to those skilled in the art from the contents described below.

도 1은 본 발명의 일 실시예에 따른 확장 현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 시스템의 구성을 개략적으로 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 확장현실 디스플레이 장치를 통해 디스플레이되는 화면을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 로봇 시스템의 구성을 개략적으로 나타낸 블록도이다.
도 5는 본 발명의 일 실시예에 따른 확장 현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 방법을 설명하기 위한 도면이다.
Figure 1 is a diagram for explaining a system for providing medicine transport services using an extended reality-based robot according to an embodiment of the present invention.
Figure 2 is a block diagram schematically showing the configuration of a user system according to an embodiment of the present invention.
Figure 3 is an example diagram illustrating a screen displayed through an extended reality display device according to an embodiment of the present invention.
Figure 4 is a block diagram schematically showing the configuration of a robot system according to an embodiment of the present invention.
Figure 5 is a diagram for explaining a method of providing a medicine transport service using an extended reality-based robot according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템 및 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, a system and method for providing a medicine transport service using an extended reality-based robot according to an embodiment of the present invention will be described with reference to the attached drawings. In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation.

또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Additionally, implementations described herein may be implemented as, for example, a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device that includes a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Additionally, the terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof. Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by these terms. The above terms are used only for the purpose of distinguishing one component from another.

명세서 전체에서 "확장 현실(XR: eXtended Reality)"이라 함은, 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다. MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나 AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.Throughout the specification, “extended reality (XR)” refers to virtual reality (VR), augmented reality (AR), and mixed reality (MR). VR technology provides objects and backgrounds in the real world only as CG images, AR technology provides virtual CG images on top of images of real objects, and MR technology provides computer technology that mixes and combines virtual objects in the real world. It is a graphic technology. MR technology is similar to AR technology in that it shows real objects and virtual objects together. However, in AR technology, virtual objects are used to complement real objects, whereas in MR technology, virtual objects and real objects are used equally.

이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, identical or corresponding components are assigned the same drawing numbers and duplicate descriptions thereof are omitted. I decided to do it.

도 1은 본 발명의 일 실시예에 따른 확장 현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템을 설명하기 위한 도면, 도 2는 본 발명의 일 실시예에 따른 사용자 시스템의 구성을 개략적으로 나타낸 블록도, 도 3은 본 발명의 일 실시예에 따른 확장현실 디스플레이 장치를 통해 디스플레이되는 화면을 설명하기 위한 예시도, 도 4는 본 발명의 일 실시예에 따른 로봇 시스템의 구성을 개략적으로 나타낸 블록도이다. FIG. 1 is a diagram illustrating a system for providing medicine transport services using an extended reality-based robot according to an embodiment of the present invention, and FIG. 2 is a block diagram schematically showing the configuration of a user system according to an embodiment of the present invention. , FIG. 3 is an example diagram for explaining a screen displayed through an extended reality display device according to an embodiment of the present invention, and FIG. 4 is a block diagram schematically showing the configuration of a robot system according to an embodiment of the present invention. .

도 1을 참조하면, 본 발명의 일 실시예에 따른 확장 현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템은 서버(100), 사용자 시스템(200) 및 로봇 시스템(300)을 포함한다.Referring to FIG. 1, the extended reality-based medicine transport service providing system using a robot according to an embodiment of the present invention includes a server 100, a user system 200, and a robot system 300.

서버(100)는 의약품을 운반하는 순서 및 배치 위치 좌표값에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇(330)의 비전정보 및 움직임 정보에 대한 동작 모델을 학습할 수 있다. 여기서, 동작 모델은 의약품을 잡기, 밀기, 이동하기 등의 움직임 정보를 포함할 수 있고, 움직임 정보는 로봇(330)을 구성하는 구성요소들(예, 구동부, 몸체, 링크, 엔드 이펙터 등)의 회전력, 회전 범위, 구동 범위, 파지력, 흡착력 등을 포함할 수 있다. 이때, 서버(100)는 전문가가 주어진 동작을 수행한 데이터(전문가 데이터 또는 빅데이터)를 이용하여 인공 신경망으로 구성된 동작 모델을 학습시킬 수 있다.The server 100 may learn at least one scenario for the order of transporting medicines and the coordinate values of the placement positions, and a motion model for vision information and movement information of the robot 330 performing each scenario. Here, the motion model may include movement information such as grasping, pushing, and moving the medicine, and the motion information may be related to the components constituting the robot 330 (e.g., driving unit, body, link, end effector, etc.). It may include rotational force, rotation range, driving range, gripping force, adsorption force, etc. At this time, the server 100 can learn a motion model composed of an artificial neural network using data (expert data or big data) in which an expert performs a given motion.

서버(100)는 확장현실 환경에서 전문가가 의약품을 운반하는 동작을 수행한 데이터(비전, 움직임 정보, 각 시나리오당 100개 이상)를 받아서 실제 로봇(330)이 의약품을 운반하는 동작을 수행할 수 있도록 비전정보(CNN), 움직임 정보(NN) 등을 포함하는 동작모델(인공신경망 모델)을 학습시키고, 학습된 동작모델을 로봇(330)의 입력으로 활용할 수 있다. The server 100 receives data (vision, movement information, more than 100 for each scenario) on the expert's action to transport medicine in an extended reality environment, and allows the actual robot 330 to perform the action to transport medicine. A motion model (artificial neural network model) including vision information (CNN), motion information (NN), etc. can be trained and the learned motion model can be used as an input to the robot 330.

서버(100)는 확장현실 환경에서 의약품 운반 동작을 반복하는 움직임 정보를 획득하고, 확장현실 디스플레이 장치(220)를 장착한 사용자의 끝단 손 움직임을 기반으로 팔 움직임 및 양팔 움직임 동작을 추론함으로써, 사용자의 움직임 의도를 판단하고, 그 판단된 의도에 따라 로봇(330)이 동작하도록 하는 동작모델을 학습할 수 있다. 이때, 서버(100)는 model-based inverse reinforcement learning 알고리즘을 이용하여 동작모델을 학습할 수 있다. The server 100 obtains movement information that repeats the medicine transport operation in an extended reality environment, and infers the arm movement and both arm movement movements based on the end hand movements of the user equipped with the extended reality display device 220, so that the user It is possible to determine the movement intention and learn a motion model that causes the robot 330 to operate according to the determined intention. At this time, the server 100 can learn the motion model using a model-based inverse reinforcement learning algorithm.

사용자 시스템(200)의 햅틱 센서(240)를 통해 감지된 힘/촉각 정보를 활용하여 의약품을 운반하는 작업(파지, 밀기 등)을 수행하기 위해서는 로봇(330)의 kinematic 정보와 함께 사용해야 하고, 의약품과 안정적인 상호작용을 위해서 힘의 평형 관계를 맞춰야 한다. 이에, 서버(100)는 behavior cloning/inverse reinforcement learning 알고리즘을 사용해서 policy와 목적함수 모델에 힘의 평형 관계를 활용할 수 있다. In order to perform tasks (grasping, pushing, etc.) to transport medicines using the force/tactile information detected through the haptic sensor 240 of the user system 200, it must be used together with the kinematic information of the robot 330, and the medicines For stable interaction, the balance of forces must be maintained. Accordingly, the server 100 can utilize the balance of power relationship in the policy and objective function model using the behavior cloning/inverse reinforcement learning algorithm.

서버(100)는 의약품 운반에 따라 로봇(330)이 수행한 비전정보 및 움직임 정보를 로봇 시스템(300)으로부터 수신하고, 수신한 로봇(330)의 비전정보 및 움직임 정보가 학습되지 않은 정보인 경우 수신한 로봇(330)의 비전정보 및 움직임 정보를 학습하여 동작 모델을 업데이트할 수 있다. The server 100 receives vision information and movement information performed by the robot 330 according to the transport of medicine from the robot system 300, and when the received vision information and movement information of the robot 330 are unlearned information. The motion model can be updated by learning the received vision information and movement information of the robot 330.

서버(100)는 사용자 시스템(200)으로부터 제어명령 수신 시, 동작 모델에 기초하여 제어명령에 따른 로봇(330)의 비전정보 및 움직임 정보를 획득하여 동작제어신호를 생성하고, 동작제어신호를 로봇 시스템(300)으로 전송할 수 있다. 여기서, 동작제어신호는 로봇(330)의 비전정보 및 움직임 정보를 포함할 수 있다. When receiving a control command from the user system 200, the server 100 acquires vision information and movement information of the robot 330 according to the control command based on the motion model, generates a motion control signal, and sends the motion control signal to the robot. It can be transmitted to system 300. Here, the motion control signal may include vision information and movement information of the robot 330.

제어명령은 사용자의 비전정보 및 움직임 정보를 포함하고, 비전정보 및 움직임 정보는 좌표값을 포함하므로, 서버(100)는 사용자의 비전정보 및 움직임 정보를 로봇(330)의 비전정보 및 움직임 정보로 변환하여 로봇 시스템(300)으로 전송할 수도 있다.Since the control command includes the user's vision information and movement information, and the vision information and movement information include coordinate values, the server 100 converts the user's vision information and movement information into the vision information and movement information of the robot 330. It can also be converted and transmitted to the robot system 300.

이러한 서버(100)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. This server 100 may refer to a device that trains an artificial neural network using a machine learning algorithm or uses a learned artificial neural network.

서버(100)는 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치일 수 있다. 서버(100)는 클라우드 서버를 의미할 수도 있다. 일 실시예로, 서버(100)는 플랫폼과 혼용되어 사용될 수 있다. Server 100 may be a computing device including at least one processor. Server 100 may also mean a cloud server. In one embodiment, the server 100 may be used interchangeably with a platform.

사용자 시스템(200)은 사용자의 머리에 착용된 확장현실 디스플레이 장치(220)를 통해 촬영장치(320)에서 촬영된 영상을 표시하고, 사용자의 음성 및 움직임에 따른 제어명령을 서버(100)로 전송할 수 있다. The user system 200 displays the image captured by the photographing device 320 through the extended reality display device 220 worn on the user's head, and transmits control commands according to the user's voice and movement to the server 100. You can.

사용자 시스템(200)은 로봇 시스템(300)의 촬영장치(320)를 통해 촬영된 영상을 VR/AR/MR 영상으로 제공받을 수 있다. The user system 200 can receive images captured through the imaging device 320 of the robot system 300 as VR/AR/MR images.

사용자 시스템(200)은 로봇 시스템(300)의 이동/모션/움직임, 카메라 각도 등을 조작하기 위한 제어명령을 서버(100)를 통해 로봇 시스템(300)으로 전송할 수 있으며, 로봇 시스템(300)은 사용자 시스템(200)으로부터 수신한 제어명령에 대응하는 동작제어신호에 따라 이동/모션/움직임이 제어되어 확장현실 영상을 실시간 전송할 수 있다.The user system 200 can transmit control commands for manipulating the movement/motion/movement, camera angle, etc. of the robot system 300 to the robot system 300 through the server 100, and the robot system 300 Movement/motion/movement is controlled according to the operation control signal corresponding to the control command received from the user system 200, and extended reality images can be transmitted in real time.

이러한 사용자 시스템(200)은 도 2에 도시된 바와 같이 통신회로(210), 확장현실 디스플레이 장치(220), 음성인식장치(230), 햅틱 센서(240) 및 제어장치(250)를 포함할 수 있다. As shown in FIG. 2, this user system 200 may include a communication circuit 210, an extended reality display device 220, a voice recognition device 230, a haptic sensor 240, and a control device 250. there is.

통신회로(210)는 통신망과 연동하여 사용자 시스템(200)과 서버(100) 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공할 수 있다. 특히, 통신회로(210)는 서버(100)로부터 로봇 시스템(300)에서 촬영된 영상을 수신하고, 로봇(330)을 제어하기 위한 제어명령을 서버(100)로 전송하는 역할을 수행할 수 있다. 또한 통신회로(210)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. 또한, 통신회로(210)는 근거리 통신모듈, 무선 통신모듈, 이동통신 모듈, 유선 통신모듈 등 다양한 형태로 구현될 수 있다.The communication circuit 210 can provide a communication interface necessary to provide transmission and reception signals between the user system 200 and the server 100 in the form of packet data in conjunction with a communication network. In particular, the communication circuit 210 may receive images captured in the robot system 300 from the server 100 and transmit control commands for controlling the robot 330 to the server 100. . Additionally, the communication circuit 210 may be a device that includes hardware and software necessary to transmit and receive signals such as control signals or data signals through wired or wireless connections with other network devices. Additionally, the communication circuit 210 may be implemented in various forms such as a short-distance communication module, wireless communication module, mobile communication module, and wired communication module.

확장현실 디스플레이 장치(220)는 사용자의 머리에 착용되고, 로봇 시스템(300)의 촬영장치(320)를 통해 촬영된 영상을 확장현실로 디스플레이할 수 있다. The extended reality display device 220 is worn on the user's head and can display images captured through the imaging device 320 of the robot system 300 in extended reality.

확장현실 디스플레이 장치(220)는 사용자의 양측 눈에 대응하는 위치에 머리 착용 디스플레이(HMD, Head Mounted Display)와 같은 형태로 구현될 수 있다. 또한, 확장현실 디스플레이 장치(220)는 VR 헤드셋(virtual reality headset), 홀로렌즈(HoloLens), AR/MR 글래스 등의 형태로 구현될 수 있다.The extended reality display device 220 may be implemented in the form of a head mounted display (HMD) at a location corresponding to both eyes of the user. Additionally, the extended reality display device 220 may be implemented in the form of a virtual reality headset, HoloLens, AR/MR glasses, etc.

확장현실 디스플레이 장치(220)는 적어도 하나의 방향/자이로/각도/가속도 센서를 구비하여 사용자의 헤드 방향/각도를 센싱하고, 센싱한 결과를 제어장치(250)를 통해 로봇 시스템(300)으로 전송할 수 있다. 그러면, 로봇 시스템(300)의 촬영장치(320)는 확장현실 디스플레이 장치(220)의 방향/각도에 대응되는 방향/각도로 동작할 수 있다. 확장현실 디스플레이 장치(220)는 로봇 시스템(300)으로부터 전송받은 영상을 확장현실 영상으로 디스플레이할 수 있다.The extended reality display device 220 is equipped with at least one direction/gyro/angle/acceleration sensor to sense the direction/angle of the user's head, and transmits the sensed results to the robot system 300 through the control device 250. You can. Then, the imaging device 320 of the robot system 300 may operate in a direction/angle corresponding to the direction/angle of the extended reality display device 220. The extended reality display device 220 can display the image transmitted from the robot system 300 as an extended reality image.

따라서, 사용자는 확장현실 디스플레이 장치(220)를 통해 로봇 시스템(300)의 촬영장치(320)에서 촬영되는 영상정보를 실시간으로 확인하면서 의약품을 운반하는 동작을 진행할 수 있다.Accordingly, the user can carry out the operation of transporting medicine while checking the image information captured by the imaging device 320 of the robot system 300 in real time through the extended reality display device 220.

음성인식장치(230)는 사용자의 음성을 인식하여, 제어장치(250)로 전송할 수 있다. The voice recognition device 230 can recognize the user's voice and transmit it to the control device 250.

음성인식장치(230)는 확장현실 디스플레이 장치(220) 일측에 착탈가능하게 구비되거나 확장현실 디스플레이 장치(220)에 일체로 구비된 마이크로폰(microphone)의 형태로 구현될 수 있다.The voice recognition device 230 may be detachably provided on one side of the extended reality display device 220 or may be implemented in the form of a microphone integrally provided in the extended reality display device 220.

햅틱 센서(240)는 사용자의 힘/촉각을 인식하고 인식된 촉각 정보를 제어장치(250)로 전송할 수 있다. The haptic sensor 240 can recognize the user's force/tactile sensation and transmit the recognized tactile information to the control device 250.

제어장치(250)는 음성인식장치(230)에서 인식된 음성데이터 또는 햅틱 센서(240)를 통해 인식된 촉각 정보로부터 로봇(330)의 움직임에 대한 사용자의 의도를 파악하고, 파악된 의도에 따라 로봇(330)을 제어하기 위한 제어명령을 생성하여 서버(100)로 전송할 수 있다.The control device 250 determines the user's intention regarding the movement of the robot 330 from voice data recognized by the voice recognition device 230 or tactile information recognized through the haptic sensor 240, and performs the operation according to the identified intention. Control commands for controlling the robot 330 can be generated and transmitted to the server 100.

또한, 제어장치(250)는 로봇 시스템(300)으로부터 수신된 영상을 확장현실 디스플레이 장치(220)를 통해 출력할 수 있다. 즉, 제어장치(250)는 로봇 시스템(300)으로부터 수신된 영상을 VR/AR/MR 영상으로 렌더링하여 확장현실 디스플레이 장치(220)를 통해 출력되도록 할 수 있다. 이때, 제어장치(250)는 확장현실 디스플레이 장치(220) 상에 복수의 가상화면을 구성하여 로봇(330)이 의약품을 운반하는 과정을 제어 및 모니터링할 수 있다. Additionally, the control device 250 may output the image received from the robot system 300 through the extended reality display device 220. That is, the control device 250 can render the image received from the robot system 300 into a VR/AR/MR image and output it through the extended reality display device 220. At this time, the control device 250 can configure a plurality of virtual screens on the extended reality display device 220 to control and monitor the process of the robot 330 transporting medicine.

예를 들면, 제어장치(250)는 도 3에 도시된 바와 같이 5개의 가상화면을 확장현실 디스플레이 장치(220) 상에 디스플레이되도록 할 수 있다. 사용자가 정면을 바라볼 때는 정면화면이 디스플레이되도록 하고, 사용자가 고개를 좌측으로 돌리면 좌측화면이 디스플레이되도록 하며, 사용자가 우측으로 고개를 돌리면 우측화면이 디스플레이되도록 하고, 사용자가 위를 보면 상단화면이 디스플레이되도록 하며, 사용자가 아래를 보면 하단화면이 디스플레이되도록 할 수 있다. For example, the control device 250 can display five virtual screens on the extended reality display device 220 as shown in FIG. 3. When the user looks straight ahead, the front screen is displayed, when the user turns his head to the left, the left screen is displayed, when the user turns his head to the right, the right screen is displayed, and when the user looks up, the top screen is displayed. It can be displayed, and the bottom screen can be displayed when the user looks down.

이처럼 제어장치(250)는 로봇(330)이 보는 환경(visual 정보)과 사용자가 사용하는 확장현실 환경을 연동시킬 수 있다. In this way, the control device 250 can link the environment (visual information) seen by the robot 330 with the extended reality environment used by the user.

또한, 제어장치(250)는 확장현실 디스플레이 장치(220)를 장착한 사용자의 끝단 손 움직임을 햅틱 센서(240)를 통해 획득하고, 획득된 사용자의 손 움직임을 기반으로 팔 움직임 및 양팔 움직임 동작을 추론하며, 추론된 팔 움직임 및 양팔 움직임에 기초하여 사용자의 의도를 파악하고, 파악된 사용자의 의도에 따른 제어명령을 생성하여 서버(100)로 전송할 수 있다. In addition, the control device 250 acquires the end hand movements of the user equipped with the extended reality display device 220 through the haptic sensor 240, and performs arm movements and both arm movement actions based on the acquired hand movements of the user. Inferring, the user's intention can be determined based on the inferred arm movement and both arm movements, and a control command according to the identified user's intention can be generated and transmitted to the server 100.

로봇 시스템(300)은 촬영장치(320)를 구비하고, 서버(100)로부터의 동작제어신호에 따라 의약품을 운반하는 동작을 수행할 수 있다.The robot system 300 is equipped with an imaging device 320 and can perform an operation of transporting medicines according to an operation control signal from the server 100.

이러한 로봇 시스템(300)은 도 4에 도시된 바와 같이 통신회로(310), 촬영장치(320), 로봇(330) 및 제어장치(340)를 포함할 수 있다. This robot system 300 may include a communication circuit 310, an imaging device 320, a robot 330, and a control device 340, as shown in FIG. 4.

통신회로(310)는 통신망과 연동하여 로봇 시스템(300)과 서버(100) 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공할 수 있다. 특히, 통신회로(310)는 서버(100)로부터 동작제어신호를 수신하고, 촬영장치(320)를 통해 촬영된 영상을 서버(100)로 전송하는 역할을 수행할 수 있다. 또한 통신회로(310)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. 또한, 통신회로(310)는 근거리 통신모듈, 무선 통신모듈, 이동통신 모듈, 유선 통신모듈 등 다양한 형태로 구현될 수 있다.The communication circuit 310 can provide a communication interface necessary to provide transmission and reception signals between the robot system 300 and the server 100 in the form of packet data in conjunction with a communication network. In particular, the communication circuit 310 may receive an operation control signal from the server 100 and transmit an image captured through the photographing device 320 to the server 100. Additionally, the communication circuit 310 may be a device that includes hardware and software necessary to transmit and receive signals such as control signals or data signals through wired or wireless connections with other network devices. Additionally, the communication circuit 310 may be implemented in various forms such as a short-distance communication module, wireless communication module, mobile communication module, and wired communication module.

촬영장치(320)는 사용자(즉, 확장현실 디스플레이 장치(220))의 움직임에 따라 동작하여 영상을 촬영할 수 있다. 즉, 촬영장치(320)는 로봇(330)이 보는 비전정보와 사용자가 사용하는 확장현실 환경을 연동시킬 수 있다. 이러한 촬영장치(320)는 예컨대, PTZ 카메라로 구현될 수 있다.The photographing device 320 can capture images by operating according to the movement of the user (i.e., the extended reality display device 220). In other words, the imaging device 320 can link the vision information seen by the robot 330 with the extended reality environment used by the user. This imaging device 320 may be implemented as, for example, a PTZ camera.

로봇(330)은 서버(100)로부터의 동작제어신호에 따라 의약품을 해당 배치 위치 좌표값으로 운반하는 동작을 수행할 수 있다. The robot 330 may perform an operation of transporting medicines to the corresponding placement position coordinates according to an operation control signal from the server 100.

로봇(330)은 액츄에이터 또는 모터를 포함하는 구동부(미도시)를 구비하여 로봇(330) 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇(330)은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.The robot 330 is equipped with a driving unit (not shown) including an actuator or motor and can perform various physical movements, such as moving the joints of the robot 330. In addition, the movable robot 330 includes wheels, brakes, propellers, etc. in the driving part, and can travel on the ground or fly in the air through the driving part.

로봇(330)에는 스마트 센서(미도시)가 장착될 수 있다. 스마트 센서는 로봇(330)의 팔에 장착되어, 로봇(330)의 촉각 정보를 사용자의 촉각 정보와 연동시킬 수 있다. The robot 330 may be equipped with a smart sensor (not shown). The smart sensor is mounted on the arm of the robot 330 and can link the tactile information of the robot 330 with the user's tactile information.

한편, 본 발명의 실시예에서는 로봇(330)으로 설명하였으나, 로봇(330)은 로봇 팔일 수 있다. 로봇(330) 및 로봇 팔은 종래의 구성과 동일하므로 이에 대한 설명은 생략하기로 한다. Meanwhile, although the embodiment of the present invention is described as a robot 330, the robot 330 may be a robot arm. Since the robot 330 and the robot arm have the same configuration as the conventional one, their description will be omitted.

제어장치(340)는 촬영장치(320)를 통해 촬영된 영상을 통신회로(310)를 통해 서버(100)로 전송하고, 서버(100)로부터의 동작제어신호를 로봇(330) 및 촬영장치(320)로 전송하여, 로봇(330) 및 촬영장치(320)가 동작제어신호에 따라 동작하도록 제어할 수 있다. The control device 340 transmits the image captured through the imaging device 320 to the server 100 through the communication circuit 310, and transmits the operation control signal from the server 100 to the robot 330 and the imaging device ( 320), the robot 330 and the imaging device 320 can be controlled to operate according to the operation control signal.

도 5는 본 발명의 일 실시예에 따른 확장 현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 방법을 설명하기 위한 도면이다. Figure 5 is a diagram for explaining a method of providing a medicine transport service using an extended reality-based robot according to an embodiment of the present invention.

도 5를 참조하면, 사용자 시스템(200)은 사용자의 음성데이터 또는 움직임 정보가 획득되면(S510), 음성데이터 또는 움직임 정보를 포함하는 제어명령을 서버(100)로 전송한다(S520). Referring to FIG. 5, when the user's voice data or motion information is acquired (S510), the user system 200 transmits a control command including the voice data or motion information to the server 100 (S520).

S520 단계가 수행되면, 서버(100)는 동작 모델에 기초하여 제어명령에 따른 로봇 구성요소들의 좌표를 획득하여 동작제어신호를 생성하고(S530), 생성된 동작제어신호를 로봇 시스템(300)으로 전송한다(S540). 여기서, 제어명령은 사용자의 비전정보 및 움직임 정보를 포함하고, 비전정보 및 움직임 정보는 좌표값을 포함하므로, 서버(100)는 사용자의 비전정보 및 움직임 정보를 로봇(330)의 비전정보 및 움직임 정보로 변환하고, 변환된 비전정보 및 움직임 정보를 포함하는 동작제어신호를 로봇 시스템(300)으로 전송할 수 있다.When step S520 is performed, the server 100 acquires the coordinates of robot components according to the control command based on the motion model, generates a motion control signal (S530), and sends the generated motion control signal to the robot system 300. Transmit (S540). Here, the control command includes the user's vision information and movement information, and the vision information and movement information include coordinate values, so the server 100 combines the user's vision information and movement information with the vision information and movement of the robot 330. It can be converted into information, and a motion control signal including the converted vision information and movement information can be transmitted to the robot system 300.

S540 단계가 수행되면, 로봇 시스템(300)은 동작제어신호에 따라 의약품을 운반하는 동작을 수행한다(S550).When step S540 is performed, the robot system 300 performs an operation to transport medicine according to the operation control signal (S550).

이후, 로봇 시스템(300)은 의약품 운반에 따라 로봇(330)이 수행한 비전정보 및 움직임 정보를 서버(100)로 전송하고, 서버(100)는 로봇(330)의 비전정보 및 움직임 정보가 학습되지 않은 정보인 경우 수신한 로봇(330)의 비전정보 및 움직임 정보를 학습하여 동작 모델을 업데이트할 수 있다. Afterwards, the robot system 300 transmits the vision information and movement information performed by the robot 330 according to the transport of medicine to the server 100, and the server 100 learns the vision information and movement information of the robot 330. If the information is not available, the motion model can be updated by learning the vision information and movement information of the received robot 330.

상술한 바와 같이 본 발명의 일 실시예에 따른 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템 및 방법은, 의료기관에서 로봇을 이용하여 의약품 운반 시, 확장현실 기술을 이용하여 사용자가 로봇을 제어 및 모니터링할 수 있다. As described above, the system and method for providing a medicine transport service using an extended reality-based robot according to an embodiment of the present invention allows the user to control the robot and use extended reality technology when transporting medicine using a robot in a medical institution. It can be monitored.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art will recognize that various modifications and other equivalent embodiments are possible therefrom. You will understand. Therefore, the true technical protection scope of the present invention should be determined by the scope of the patent claims below.

100 : 서버
200 : 사용자 시스템
210, 310 : 통신회로
220 : 확장현실 디스플레이 장치
230 : 음성인식장치
240 : 햅틱 센서
250, 340 : 제어장치
300 : 로봇 시스템
320 : 촬영장치
330 : 로봇
100: Server
200: user system
210, 310: Communication circuit
220: Extended reality display device
230: Voice recognition device
240: Haptic sensor
250, 340: Control device
300: Robot system
320: filming device
330: robot

Claims (6)

의약품을 운반하는 순서 및 배치 위치 좌표값에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇의 비전정보 및 움직임 정보에 대한 동작 모델을 학습하는 서버;
촬영장치를 구비하고, 동작제어신호에 따라 의약품을 운반하는 동작을 수행하는 로봇 시스템; 및
사용자의 머리에 착용된 확장현실 디스플레이 장치를 통해 상기 촬영장치에서 촬영된 영상을 표시하고, 상기 사용자의 음성 및 움직임에 따른 제어명령을 상기 서버로 전송하는 사용자 시스템을 포함하되,
상기 서버는,
상기 동작 모델에 기초하여 상기 제어명령에 따른 로봇의 비전정보 또는 움직임 정보를 획득하여 상기 동작제어신호를 생성하고, 상기 동작제어신호를 상기 로봇 시스템으로 전송하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템.
A server that learns at least one scenario for the order of transporting medicines and arrangement position coordinates, and a motion model for vision information and movement information of a robot performing each scenario;
A robot system equipped with an imaging device and performing an operation of transporting medicine according to a motion control signal; and
It includes a user system that displays images captured by the photographing device through an extended reality display device worn on the user's head and transmits control commands according to the user's voice and movement to the server,
The server is,
Based on the motion model, the vision information or movement information of the robot according to the control command is acquired, the motion control signal is generated, and the motion control signal is transmitted to the robot system. A pharmaceutical transportation service provision system used.
제1항에 있어서,
상기 로봇 시스템은,
통신회로;
상기 확장현실 디스플레이 장치의 움직임에 따라 동작하여 영상을 촬영하는 촬영장치;
상기 동작제어신호에 따라 의약품을 해당 배치 위치 좌표값으로 운반하는 동작을 수행하는 로봇; 및
상기 촬영장치를 통해 촬영된 영상을 상기 통신회로를 통해 상기 서버로 전송하고, 상기 서버로부터의 동작제어신호를 상기 로봇 또는 촬영장치로 전송하여, 상기 로봇 또는 촬영장치가 상기 동작제어신호에 따라 동작하도록 하는 제어장치를 포함하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템.
According to paragraph 1,
The robot system is,
communication circuit;
a photographing device that operates according to the movement of the extended reality display device to capture images;
A robot that carries out the operation of transporting medicines to the corresponding placement position coordinates according to the operation control signal; and
The image captured through the imaging device is transmitted to the server through the communication circuit, and an operation control signal from the server is transmitted to the robot or imaging device, so that the robot or imaging device operates according to the operation control signal. A system for providing medicine transport services using an extended reality-based robot, characterized in that it includes a control device that allows the drug to be transported.
제1항에 있어서,
상기 사용자 시스템은,
통신회로;
상기 사용자의 머리에 착용되고, 상기 촬영장치를 통해 촬영된 영상을 확장현실로 표시하는 확장현실 디스플레이 장치;
상기 사용자의 음성을 인식하는 음성인식장치;
상기 사용자의 촉각 정보를 인식하는 햅틱 센서; 및
상기 음성인식장치에서 인식된 음성데이터 또는 상기 햅틱 센서를 통해 인식된 촉각 정보로부터 상기 로봇의 움직임에 대한 사용자의 의도를 파악하고, 상기 파악된 의도에 따라 상기 로봇을 제어하기 위한 제어명령을 상기 서버로 전송하며, 상기 로봇 시스템으로부터 수신된 영상을 상기 확장현실 디스플레이 장치를 통해 출력하는 제어장치를 포함하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템.
According to paragraph 1,
The user system is,
communication circuit;
an extended reality display device worn on the user's head and displaying images captured through the photographing device in extended reality;
A voice recognition device that recognizes the user's voice;
A haptic sensor that recognizes the user's tactile information; and
The server determines the user's intention for the movement of the robot from voice data recognized by the voice recognition device or tactile information recognized through the haptic sensor, and sends a control command to control the robot according to the identified intention. A system for providing a medicine transport service using an extended reality-based robot, comprising a control device that transmits the image received from the robot system and outputs the image received from the robot system through the extended reality display device.
제1항에 있어서,
상기 서버는,
상기 동작제어신호에 따라 수행한 상기 로봇의 비전정보 또는 움직임 정보를 상기 로봇 시스템으로부터 수신하고, 상기 수신한 로봇의 비전정보 또는 움직임 정보가 학습되지 않은 정보인 경우 상기 수신한 로봇의 비전정보 또는 움직임 정보를 학습하여 상기 동작 모델을 업데이트하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 시스템.
According to paragraph 1,
The server is,
Vision information or movement information of the robot performed according to the motion control signal is received from the robot system, and if the received vision information or movement information of the robot is unlearned information, the received vision information or movement information of the robot A medicine transport service providing system using an extended reality-based robot, characterized in that the motion model is updated by learning information.
사용자 시스템이, 사용자의 머리에 착용된 확장현실 디스플레이 장치를 통해 로봇 시스템의 촬영장치를 통해 촬영된 영상을 디스플레이하는 상태에서 상기 사용자의 음성데이터 또는 움직임 정보가 획득되면, 상기 음성데이터 또는 움직임 정보를 포함하는 제어명령을 서버로 전송하는 단계;
상기 서버가, 기 학습된 동작 모델을 기초로 상기 제어명령에 따른 로봇 구성요소들의 좌표를 획득하여 동작제어신호를 생성하고, 상기 생성된 동작제어신호를 로봇 시스템으로 전송하는 단계; 및
상기 로봇 시스템이 동작제어신호에 따라 의약품을 운반하는 동작을 수행하는 단계
를 포함하는 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 방법.
When the user's voice data or motion information is acquired while the user system is displaying an image captured through the imaging device of the robot system through the extended reality display device worn on the user's head, the voice data or motion information is Transmitting a control command including a control command to a server;
The server generates a motion control signal by acquiring coordinates of robot components according to the control command based on a previously learned motion model, and transmitting the generated motion control signal to the robot system; and
A step in which the robot system performs an operation of transporting medicine according to a motion control signal.
A method of providing medicine transport service using an extended reality-based robot including.
제5항에 있어서,
상기 서버가, 의약품을 운반하는 순서 및 배치 위치 좌표값에 대한 적어도 하나의 시나리오 및 각 시나리오를 수행하는 로봇의 비전정보 및 움직임 정보에 대한 동작 모델을 학습하는 단계를 더 포함하고,
상기 의약품을 운반하는 동작을 수행하는 단계 이후,
상기 서버가, 상기 의약품 운반에 따라 로봇이 수행한 비전정보 및 움직임 정보를 상기 로봇 시스템으로부터 수신하고, 상기 수신한 로봇의 비전정보 및 움직임 정보가 학습되지 않은 정보인 경우 상기 수신한 로봇의 비전정보 및 움직임 정보를 학습하여 상기 동작 모델을 업데이트하는 단계를 더 포함하는 것을 특징으로 하는 확장현실 기반의 로봇을 이용한 의약품 운반 서비스 제공 방법.
According to clause 5,
The server further includes a step of learning a motion model for at least one scenario for the order of transporting medicines and placement position coordinates, and vision information and movement information of a robot performing each scenario,
After performing the operation of transporting the medicine,
The server receives vision information and movement information performed by the robot according to the transport of the medicine from the robot system, and when the received vision information and movement information of the robot are unlearned information, the received vision information of the robot And a method of providing a medicine transport service using an extended reality-based robot, further comprising the step of updating the motion model by learning motion information.
KR1020220053640A 2022-04-29 2022-04-29 System and method for providing drug transport service using robot based on xtended reality KR20230154362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220053640A KR20230154362A (en) 2022-04-29 2022-04-29 System and method for providing drug transport service using robot based on xtended reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220053640A KR20230154362A (en) 2022-04-29 2022-04-29 System and method for providing drug transport service using robot based on xtended reality

Publications (1)

Publication Number Publication Date
KR20230154362A true KR20230154362A (en) 2023-11-08

Family

ID=88746150

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220053640A KR20230154362A (en) 2022-04-29 2022-04-29 System and method for providing drug transport service using robot based on xtended reality

Country Status (1)

Country Link
KR (1) KR20230154362A (en)

Similar Documents

Publication Publication Date Title
US10384348B2 (en) Robot apparatus, method for controlling the same, and computer program
US11003307B1 (en) Artificial reality systems with drawer simulation gesture for gating user interface elements
US20190142613A1 (en) Hybrid augmented reality multimodal operation neural integration environment
JP7213899B2 (en) Gaze-Based Interface for Augmented Reality Environments
WO2019139783A1 (en) Providing body-anchored mixed-reality experiences
CN107646098A (en) System for tracking portable equipment in virtual reality
KR101671320B1 (en) Virtual network training processing unit included client system of immersive virtual training system that enables recognition of respective virtual training space and collective and organizational cooperative training in shared virtual workspace of number of trainees through multiple access and immersive virtual training method using thereof
CN113892074A (en) Arm gaze driven user interface element gating for artificial reality systems
US20190240573A1 (en) Method for controlling characters in virtual space
US11086475B1 (en) Artificial reality systems with hand gesture-contained content window
CN105051650A (en) Three-dimensional unlocking device, three-dimensional unlocking method and program
CN113841110A (en) Artificial reality system with personal assistant elements for gating user interface elements
CN114651238A (en) Artificial reality system with inter-processor communication (IPC)
US10852839B1 (en) Artificial reality systems with detachable personal assistant for gating user interface elements
CN111937045A (en) Information processing apparatus, information processing method, and recording medium
CN110187720A (en) Unmanned plane guidance method, device, system, medium and electronic equipment
CN114651435A (en) Artificial reality system with virtual wireless channel
KR20230154362A (en) System and method for providing drug transport service using robot based on xtended reality
JP6564484B1 (en) Same room communication system
Hagiwara et al. Cloud VR system with immersive interfaces to collect human gaze-controls and interpersonal-behaviors
KR20210007774A (en) How to display on a robot simulator panel
KR20230154363A (en) System and method for controlling dangerousness tasks using robot based on xtended reality
WO2021020143A1 (en) Image-processing device, image-processing method, and recording medium
WO2023281819A1 (en) Information processing device for determining retention of object
Kamezaki et al. Video presentation based on multiple-flying camera to provide continuous and complementary images for teleoperation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal