KR101380596B1 - Meal assistance robot using a camera - Google Patents

Meal assistance robot using a camera Download PDF

Info

Publication number
KR101380596B1
KR101380596B1 KR1020120043067A KR20120043067A KR101380596B1 KR 101380596 B1 KR101380596 B1 KR 101380596B1 KR 1020120043067 A KR1020120043067 A KR 1020120043067A KR 20120043067 A KR20120043067 A KR 20120043067A KR 101380596 B1 KR101380596 B1 KR 101380596B1
Authority
KR
South Korea
Prior art keywords
tableware
food
image
border
generated
Prior art date
Application number
KR1020120043067A
Other languages
Korean (ko)
Other versions
KR20130120081A (en
Inventor
류대우
Original Assignee
대한민국(국립재활원장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(국립재활원장) filed Critical 대한민국(국립재활원장)
Priority to KR1020120043067A priority Critical patent/KR101380596B1/en
Publication of KR20130120081A publication Critical patent/KR20130120081A/en
Application granted granted Critical
Publication of KR101380596B1 publication Critical patent/KR101380596B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F4/00Methods or devices enabling patients or disabled persons to operate an apparatus or a device not forming part of the body 
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use

Abstract

카메라를 이용한 식사 보조 로봇이 개시된다. 식기의 상면을 촬상하여 식기 이미지를 생성하는 카메라부; 상기 카메라부가 생성한 식기 이미지의 경계 영역을 추출하여 식기 경계 이미지를 생성하는 영상 처리부; 상기 생성된 식기 경계 이미지를 미리 저장된 복수의 기준 식기 경계 이미지와 비교하여 상기 생성된 식기 경계 이미지가 상기 기준 식기 경계 이미지와 동일한지 여부를 판단하고, 상기 생성된 식기 경계 이미지가 상기 기준 식기 경계 이미지와 상이한 경우 상기 생성된 식기 경계 이미지를 신규 기준 식기 경계 이미지로 등록하는 등록 여부 결정부; 및 상기 복수의 기준 식기 경계 이미지를 저장하는 정보 저장부를 포함하는 식사 보조 로봇은 노약자, 환자, 장애우 등 식사 보조가 필요한 자를 돕기 위한 로봇이 식기의 정확한 위치 및 구성을 인식하며 식사 보조시 정확한 음식물 제공을 위해 서비스 제공자의 위치를 정확히 판별하며, 식기에 남은 음식물이 있는지 여부를 판별할 수 있는 효과가 있다.A meal assistance robot using a camera is disclosed. A camera unit for photographing an upper surface of the tableware to generate a tableware image; An image processor configured to extract a boundary area of the tableware image generated by the camera unit to generate a tableware border image; The generated tableware border image is compared with a plurality of stored reference tableware border images to determine whether the generated tableware border image is the same as the reference tableware border image, and the generated tableware border image is the reference tableware border image. A registration determining unit that registers the generated tableware border image as a new reference tableware border image when it is different from each other; And an information storage unit for storing the plurality of reference table boundary images, wherein the robot for helping the elderly, the sick, the disabled, and the like needs the food, and recognizes the exact location and composition of the tableware and provides the correct food when the meal is assisted. To accurately determine the location of the service provider, there is an effect that can determine whether there is food left in the tableware.

Description

카메라를 이용한 식사 보조 로봇{Meal assistance robot using a camera}Meal assistance robot using a camera}

본 발명은 로봇에 관한 것으로, 특히 카메라를 이용한 식사 보조 로봇에 관한 것이다.
The present invention relates to a robot, and more particularly to a meal aid robot using a camera.

전자 산업이 발전하면서 다양한 분야에서 로봇이 인간을 대체하여 사용되고 있다. 예를 들면, 제품 생산을 위한 산업 로봇, 인체를 수술하기 위한 의료 로봇, 간단한 서비스를 수행하기 위한 서비스 로봇 등 현대 사회에서는 다양한 로봇이 개발되어 사용되고 있다. 또한, 노약자, 환자, 장애우 등의 식사를 보조하기 위한 다양한 기구가 로봇에 의해 구현되어 사용되고 있다. As the electronics industry develops, robots are used to replace humans in various fields. For example, various robots have been developed and used in modern society, such as industrial robots for producing products, medical robots for operating the human body, and service robots for performing simple services. In addition, various mechanisms for assisting meals of the elderly, the patient, the disabled and the like are implemented and used by the robot.

식사 보조 로봇은 음식을 떠서 사용자의 입에 전달함으로써 사용자가 쉽게 식사를 할 수 있도록 도와주는 로봇이다. 이와 관련된 종래 기술은, 미국 공개특허 US2009/0104004에 개시된 내용과 같이 지지대, 음식용기, 음식을 떠 올릴 수 있는 수저 및 음식을 입 근처로 이동 시킬 수 있는 기구부로 구성된다.Meal assistant robot is a robot that helps the user to eat easily by scooping food and delivering it to the user's mouth. The related art, as disclosed in US Patent Publication No. US2009 / 0104004, consists of a support, a food container, a cutlery capable of raising food, and a mechanism part capable of moving food near the mouth.

하지만, 종래 기술에 따르면, 식사 보조 로봇이 이용하는 식기의 위치, 형태, 구조를 등록하는 절차가 제시되지 않고, 사용자에게 정확하게 음식물을 제공하는 기능이 제시되지 않아서 실제 사용하는데 불편한 문제점이 있다.However, according to the related art, a procedure for registering a location, a form, and a structure of a tableware used by a meal assisting robot is not presented, and a function of providing food to a user accurately is not presented.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
The above-described background technology is technical information that the inventor holds for the derivation of the present invention or acquired in the process of deriving the present invention, and can not necessarily be a known technology disclosed to the general public prior to the filing of the present invention.

본 발명은 노약자, 환자, 장애우 등 식사 보조가 필요한 자를 돕기 위한 로봇이 식기의 정확한 위치 및 구성을 인식하기 위한 카메라를 이용한 식사 보조 로봇을 제공한다. The present invention provides a meal assistance robot using a camera for recognizing the exact position and composition of the tableware robot for helping the elderly, patients, persons with a disability, such as disabled.

또한, 본 발명은 식사 보조시 정확한 음식물 제공을 위해 서비스 제공자의 위치를 정확히 판별하며, 식기에 남은 음식물이 있는지 여부를 판별할 수 있는 카메라를 이용한 식사 보조 로봇을 제공한다. In addition, the present invention provides a meal assistance robot using a camera that can accurately determine the location of the service provider to provide accurate food when meal assistance, and whether there is food left in the tableware.

본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.
The technical problems other than the present invention can be easily understood from the following description.

본 발명의 일 측면에 따르면, 식기의 상면을 촬상하여 식기 이미지를 생성하는 카메라부; 상기 카메라부가 생성한 식기 이미지의 경계 영역을 추출하여 식기 경계 이미지를 생성하는 영상 처리부; 상기 생성된 식기 경계 이미지를 미리 저장된 복수의 기준 식기 경계 이미지와 비교하여 상기 생성된 식기 경계 이미지가 상기 기준 식기 경계 이미지와 동일한지 여부를 판단하고, 상기 생성된 식기 경계 이미지가 상기 기준 식기 경계 이미지와 상이한 경우 상기 생성된 식기 경계 이미지를 신규 기준 식기 경계 이미지로 등록하는 등록 여부 결정부; 및 상기 복수의 기준 식기 경계 이미지를 저장하는 정보 저장부를 포함하는 식사 보조 로봇이 제공된다.According to an aspect of the invention, the camera unit for imaging the upper surface of the tableware to generate a tableware image; An image processor configured to extract a boundary area of the tableware image generated by the camera unit to generate a tableware border image; The generated tableware border image is compared with a plurality of stored reference tableware border images to determine whether the generated tableware border image is the same as the reference tableware border image, and the generated tableware border image is the reference tableware border image. A registration determining unit that registers the generated tableware border image as a new reference tableware border image when it is different from each other; And an information storage unit for storing the plurality of reference tableware boundary images.

여기서, 상기 영상 처리부는 상기 식기 이미지의 픽셀값 중 명도 차이를 이용하여 상기 식기 이미지의 경계 영역을 추출할 수 있다. The image processor may extract a boundary area of the tableware image by using brightness differences among pixel values of the tableware image.

또한, 상기 등록 여부 결정부는 상기 생성된 식기 경계 이미지가 상기 기준 식기 경계 이미지와 동일한 경우 동일한 식기임을 나타내는 동일 식기 신호를 생성할 수 있다. In addition, the registration determination unit may generate the same table signal indicating that the same tableware when the generated tableware border image is the same as the reference tableware border image.

또한, 본 실시예는 일단에 스푼의 손잡이가 결합하는 로봇암; 및 상기 로봇암을 제어하여, 음식물이 올려진 상기 스푼의 음식물 수용부를 음식물 섭취자의 입 위치에 상응하여 미리 저장된 위치 정보에 이동시키는 암 제어부를 포함하되, 상기 카메라부는 음식물 섭취자의 얼굴을 촬상하여 얼굴 이미지를 생성하고, 상기 영상 처리부는 상기 카메라부가 생성한 얼굴 이미지의 경계 영역을 추출하여 얼굴 경계 이미지를 생성한 후 상기 입 위치에 상응하는 위치 정보를 생성할 수 있다. In addition, the present embodiment is a robot arm coupled to the handle of the spoon at one end; And an arm controller for controlling the robot arm to move the food receiving portion of the spoon on which the food is placed, to the prestored position information corresponding to the mouth position of the food ingestor, wherein the camera unit captures the face of the food ingestor. The image processor may generate the face boundary image by extracting a boundary region of the face image generated by the camera unit, and then generate position information corresponding to the mouth position.

또한, 본 실시예는 상기 음식물 섭취자가 식사하는 도중 상기 카메라부가 상기 음식물이 담긴 식기를 촬영하여 생성한 음식물이 담긴 식기 이미지를 상기 기준 식기 경계 이미지와 비교하여 서로 다른 부분을 음식물로 판별하는 음식물 판별부를 포함하되, 상기 암 제어부는 상기 스푼의 음식물 수용부가 상기 판별된 음식물로 이동하도록 상기 로봇암을 제어할 수 있다. In addition, the present embodiment is to determine the food to determine the different portions as the food by comparing the tableware image containing the food generated by the camera photographing the tableware containing the food while the food intake of the food intake the meal. Including a portion, the arm control unit may control the robot arm to move the food container of the spoon to the determined food.

또한, 본 실시예는 상기 음식물 섭취자의 음식 제공 순서에 상응하는 음성을 인식하는 음성 인식부를 더 포함하되, 상기 암 제어부는 상기 로봇암에 결합한 상기 스푼의 음식물 수용부에 상기 인식된 음성에 상응하는 음식물을 올리고 상기 스푼의 음식물 수용부를 상기 음식물 섭취자의 입 위치에 상응하여 미리 저장된 위치 정보에 이동시킬 수 있다. In addition, the embodiment further comprises a voice recognition unit for recognizing the voice corresponding to the food intake order of the food intake, the cancer control unit corresponding to the recognized voice of the food receiving portion of the spoon coupled to the robot arm The food may be raised and the food container of the spoon may be moved to previously stored location information corresponding to the mouth location of the food intake user.

또한, 본 실시예는 상기 인식된 음성의 내용에 상응하여 복수의 모드를 수행하는 모드 처리부를 더 포함하되, 상기 정보 저장부는 상기 식판의 구획된 영역과 상기 영역에 수용된 음식물을 대응시켜 저장할 수 있다. In addition, the embodiment further comprises a mode processing unit for performing a plurality of modes in accordance with the content of the recognized voice, the information storage unit may store the partitioned area of the food plate and the food accommodated in the area correspondingly. .

여기서, 상기 복수의 모드는 상기 음성이 음식물의 종류를 나타내는 경우 상기 암 제어부가 상기 스푼의 음식물 수용부에 상기 인식된 음성에 상응하는 음식물을 올리는 반자동 모드, 상기 암 제어부가 상기 스푼의 음식물 수용부에 미리 설정된 순서대로 음식물을 올리는 자동 모드, 상기 복수의 모드는 상기 음성이 방향을 나타내는 경우 상기 암 제어부가 상기 로봇암을 제어하여 상기 스푼의 음식물 수용부를 상기 인식된 음성에 상응하는 방향으로 이동시키는 수동 모드를 포함할 수 있다. Here, the plurality of modes is a semi-automatic mode in which the cancer control unit puts food corresponding to the recognized voice in the food container of the spoon, when the voice indicates the type of food, the cancer control unit in the food container of the spoon In the automatic mode for raising food in a preset order to the plurality of modes, when the voice indicates a direction, the arm control unit controls the robot arm to move the food container of the spoon in a direction corresponding to the recognized voice. It may include a manual mode.

또한, 본 실시예는 일단에 스푼의 손잡이가 결합하는 로봇암; 및 상기 로봇암을 제어하여, 음식물이 올려진 상기 스푼의 음식물 수용부를 음식물 섭취자의 입 위치에 상응하여 미리 저장된 위치 정보에 이동시키는 암 제어부를 포함하되, 상기 카메라부는 음식물 섭취자의 입 주위에 부착된 적외선 테이프 또는 자외선 테이프를 촬상하여 상기 입 위치에 상응하는 위치 정보를 생성할 수 있다. In addition, the present embodiment is a robot arm coupled to the handle of the spoon at one end; And an arm controller for controlling the robot arm to move the food receiving portion of the spoon on which the food is placed to pre-stored position information corresponding to the mouth position of the food intake user, wherein the camera unit is attached around the mouth of the food intake user. The infrared tape or the ultraviolet tape may be photographed to generate position information corresponding to the mouth position.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명에 따른 카메라를 이용한 식사 보조 로봇은 노약자, 환자, 장애우 등 식사 보조가 필요한 자를 돕기 위한 로봇이 식기의 정확한 위치 및 구성을 인식하며 식사 보조시 정확한 음식물 제공을 위해 서비스 제공자의 위치를 정확히 판별하며, 식기에 남은 음식물이 있는지 여부를 판별할 수 있는 효과가 있다.
In the meal assistance robot using a camera according to the present invention, the robot for helping the elderly, the patient, the disabled, and the need for meal assistance recognizes the exact position and composition of the tableware and accurately determines the position of the service provider to provide accurate foods during meal assistance. And, there is an effect that can determine whether there is food left in the tableware.

도 1은 본 발명의 실시예에 따른 카메라를 이용한 식사 보조 로봇의 블록 구성도.
도 2는 본 발명의 실시예에 따른 카메라를 이용한 식사 보조 로봇이 생성한 식기 이미지를 도시한 도면.
도 3은 본 발명의 실시예에 따른 카메라를 이용한 식사 보조 로봇이 생성한 음식물 위치 식별 포인트를 도시한 도면.
1 is a block diagram of a meal assistance robot using a camera according to an embodiment of the present invention.
2 is a view showing a tableware image generated by the meal assistance robot using a camera according to an embodiment of the present invention.
3 is a view showing a food location identification point generated by the meal assistance robot using a camera according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

또한, 명세서에 기재된 "…부", "…모듈", "…수단" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.The term " part, "" module," " means, "or the like, which is described in the specification, refers to a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software .

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1은 본 발명의 실시예에 따른 카메라를 이용한 식사 보조 로봇의 블록 구성도이다. 도 1을 참조하면, 식기 등록 장치(100), 카메라부(110), 영상 처리부(120), 등록 여부 결정부(130), 메뉴 선택부(140), 정보 저장부(150), 제어부(160)가 도시된다. 1 is a block diagram of a meal assistance robot using a camera according to an embodiment of the present invention. Referring to FIG. 1, the tableware registration device 100, the camera unit 110, the image processing unit 120, the registration determination unit 130, the menu selection unit 140, the information storage unit 150, and the controller 160 ) Is shown.

본 실시예는 식사 보조 로봇이 이용하는 식기의 위치, 형태, 구조를 카메라를 이용하여 데이터베이스에 등록하여 식사 보조 로봇이 음식물을 제공할 때 음식물의 종류를 그 위치에 맞게 판별하여 제공하는 특징이 있다.This embodiment is characterized in that the position, form, and structure of the tableware used by the meal assisting robot are registered in a database using a camera to identify and provide types of food according to the position when the meal assisting robot provides food.

카메라부(110)는 식기의 상면을 촬상하여 식기 이미지를 생성한다. 카메라부(110)는 이미지를 촬영하기 위한 수단이며, 디지털 이미지 파일을 생성할 수 있다.The camera unit 110 photographs the upper surface of the tableware to generate a tableware image. The camera unit 110 is a means for capturing an image and may generate a digital image file.

영상 처리부(120)는 카메라부(110)가 생성한 식기 이미지의 경계 영역을 추출하여 식기 경계 이미지를 생성한다. 영상 처리부(120)는 식기 이미지의 픽셀값 중 명도, 채도 및 색상 중 어느 하나 이상값의 차이를 이용하여 식기 이미지의 경계 영역을 추출할 수 있다. 여기서 차이는 소정의 임계치를 이용하여 판별할 수 있다. 즉, 식기 이미지의 각 그릇의 경계 영역은 경계가 아닌 영역보다 그 픽셀값의 성질이 서로 다를 수 있으므로, 이러한 성질을 이용하여 연속된 픽셀의 픽셀값이 임계치 이상만큼 차이가 나는 경우 해당 픽셀을 경계 영역의 픽셀로 판별할 수 있다.The image processor 120 extracts a boundary area of the tableware image generated by the camera unit 110 to generate a tableware border image. The image processor 120 may extract the boundary area of the tableware image by using a difference between at least one of brightness, saturation, and color among the pixel values of the tableware image. The difference may be determined using a predetermined threshold. In other words, the boundary region of each dish of the tableware image may have different properties of the pixel value than the non-boundary region. It can be determined by the pixel of the area.

등록 여부 결정부(130)는 생성된 식기 경계 이미지를 미리 저장된 복수의 기준 식기 경계 이미지와 비교하여 생성된 식기 경계 이미지가 기준 식기 경계 이미지와 동일한지 여부를 판단하고, 생성된 식기 경계 이미지가 기준 식기 경계 이미지와 상이한 경우 생성된 식기 경계 이미지를 신규 기준 식기 경계 이미지로 등록한다. 이 경우 등록 여부 결정부(130)는 생성된 식기 경계 이미지가 기준 식기 경계 이미지와 상이함을 나타내는 차별 식기 신호를 생성할 수 있다. The registration determination unit 130 compares the generated tableware border image with a plurality of stored reference tableware border images to determine whether the generated tableware border image is the same as the reference tableware border image, and the generated tableware border image is a reference. If it is different from the tableware border image, the created tableware border image is registered as a new reference tableware border image. In this case, the registration determination unit 130 may generate a differential table signal indicating that the generated tableware border image is different from the reference tableware border image.

또한, 등록 여부 결정부(130)는 생성된 식기 경계 이미지가 기준 식기 경계 이미지와 동일한 경우 동일한 식기임을 나타내는 동일 식기 신호를 생성할 수 있다. In addition, the registration determination unit 130 may generate the same table signal indicating that the same tableware when the generated tableware border image is the same as the reference tableware border image.

본 실시예는 차별 식기 신호 또는 동일 식기 신호에 상응하는 표출 신호를 출력하는 신호 출력부를 더 포함할 수 있다. 신호 출력부는 소리, 문자, 이미지, 색상, 진동 등의 수단을 이용하여 등록 여부 결정 결과를 출력할 수 있으며, 예를 들면, 신규 식기를 등록하는 경우 신호 출력부는 신규 식기 등록 메시지를 출력하거나 또는 특정 음(제1 음)을 표출할 수 있으며, 역으로 기존의 식기라고 판단되는 경우 신호 출력부는 등록 불가 메시지를 출력하거나 또는 상술한 음과 다른 음(제2 음)을 출력할 수 있다.The present exemplary embodiment may further include a signal output unit configured to output an expression signal corresponding to the differential table signal or the same table signal. The signal output unit may output a result of determining whether to register using a means such as sound, text, image, color, and vibration. For example, when registering a new tableware, the signal output unit outputs a new tableware registration message or specifies a specific table. When the sound is determined to be an existing dish, the signal output unit may output an unregisterable message or may output a different sound (second sound) than the above-described sound.

메뉴 선택부(140)는 식기 등록 모드로의 진입 및 해제를 선택하는 수단이다. 즉, 사용자가 새로운 식기를 등록하려고 하는 경우 메뉴 선택부(140)를 통해 등록 모드로 진입할 수 있다. 본 실시예에 다른 식사 보조 로봇은 등록 모드로 진입하는 경우 상술한 카메라부(110)의 대기 모드가 개시되고, 영상 처리부(120)는 카메라부(110)가 생성한 식기 이미지의 경계 영역을 추출하기 위해 작동을 준비할 수 있다.The menu selection unit 140 is a means for selecting entry and release into the dish registration mode. That is, when the user tries to register a new tableware, the user may enter the registration mode through the menu selection unit 140. When the meal assistance robot according to the present embodiment enters the registration mode, the standby mode of the camera unit 110 described above is started, and the image processing unit 120 extracts the boundary area of the tableware image generated by the camera unit 110. Can be prepared for operation.

정보 저장부(150)는 복수의 기준 식기 경계 이미지를 저장한다. 등록 여부 결정부(130)는 상술한 바와 같이 생성된 식기 경계 이미지가 기준 식기 경계 이미지와 상이한 경우 생성된 식기 경계 이미지를 정보 저장부(150)에 신규 기준 식기 경계 이미지로 직접 등록할 수 있다.The information storage unit 150 stores a plurality of reference table border images. The registration determining unit 130 may directly register the generated tableware border image as the new reference tableware border image in the information storage unit 150 when the tableware border image generated as described above is different from the standard tableware border image.

제어부(160)는 상술한 카메라부(110), 영상 처리부(120), 등록 여부 결정부(130), 메뉴 선택부(140), 정보 저장부(150)가 서로 연동하면서 자신의 고유한 기능을 수행하도록 각 기능부를 제어한다. The controller 160 may operate the camera unit 110, the image processor 120, the registration determiner 130, the menu selection unit 140, and the information storage unit 150 to interoperate with each other. Control each function to perform.

또한, 다른 실시예에 의하면, 카메라부(110)는 음식물 섭취자의 얼굴을 촬상하여 얼굴 이미지를 생성하고, 영상 처리부(120)는 카메라부(110)가 생성한 얼굴 이미지의 경계 영역을 추출하여 얼굴 경계 이미지를 생성한 후 입 위치에 상응하는 위치 정보를 생성할 수 있다. In addition, according to another embodiment, the camera unit 110 generates a face image by capturing the face of the food intake, the image processing unit 120 extracts the boundary area of the face image generated by the camera unit 110 to face After generating the boundary image, location information corresponding to the mouth location may be generated.

즉, 카메라부(110)는 실시간으로 음식물 섭취자의 얼굴을 촬상하여 얼굴 이미지를 생성하며, 영상 처리부(120)는 카메라부(110)가 생성한 얼굴 이미지의 경계 영역을 추출하여 얼굴 경계 이미지를 생성한 후 입 위치에 상응하는 위치 정보를 생성할 수 있다. 영상 처리부(120)는 얼굴 라인의 하단부에 위치한 경계 영역을 입이라고 인식할 수 있다. That is, the camera unit 110 generates a face image by capturing a face of a food intake user in real time, and the image processor 120 extracts a boundary region of the face image generated by the camera unit 110 to generate a face boundary image. After that, location information corresponding to the mouth location may be generated. The image processor 120 may recognize the boundary area positioned at the lower end of the face line as the mouth.

영상 처리부(120)는 얼굴 이미지의 픽셀값 중 명도, 채도 및 색상 중 어느 하나 이상값의 차이를 이용하여 얼굴 이미지의 경계 영역을 추출할 수 있다. 상술한 바와 같이 차이는 소정의 임계치를 이용하여 판별할 수 있다. 즉, 얼굴 이미지의 경계 영역은 경계가 아닌 영역보다 그 픽셀값의 성질이 서로 다를 수 있으므로, 이러한 성질을 이용하여 연속된 픽셀의 픽셀값이 임계치 이상만큼 차이가 나는 경우 해당 픽셀을 경계 영역의 픽셀로 판별할 수 있다.The image processor 120 may extract a boundary area of the face image by using a difference between at least one of brightness, saturation, and color among pixel values of the face image. As described above, the difference may be determined using a predetermined threshold. In other words, the boundary area of the face image may have different properties of the pixel value than the non-boundary area. Therefore, if the pixel values of consecutive pixels differ by more than a threshold value by using this property, the corresponding pixel is divided into pixels of the boundary area. Can be determined by

이 경우 식사 보조 로봇은 일단에 스푼의 손잡이가 결합하는 로봇암과, 로봇암을 제어하여 음식물이 올려진 상기 스푼의 음식물 수용부를 음식물 섭취자의 입 위치에 상응하여 미리 저장된 위치 정보에 이동시키는 암 제어부를 더 포함할 수 있다. 본 실시예의 로봇암은 스푼뿐만 아니라, 포크, 컵 등 다양한 식사 도구를 음식물 섭취자의 입 위치에 상응하여 이동시킬 수 있다.In this case, the meal assistance robot has a robot arm to which the handle of the spoon is coupled at one end, and an arm controller for controlling the robot arm to move the food container of the spoon on which the food is placed to the prestored position information corresponding to the mouth position of the food intake user. It may further include. The robot arm of the present embodiment can move not only a spoon but also various eating tools such as a fork and a cup corresponding to the mouth position of the food intake.

이러한 실시예에 따르면, 식사 보조 로봇은 음식물 섭취자의 입의 위치를 카메라를 이용하여 식별한 후 음식물 섭취자가 편리하게 음식물을 섭취할 수 있도록 음식물을 음식물 섭취자의 입에 제공하는 장점이 있다.According to this embodiment, the meal assistance robot has an advantage of providing food to the food intake mouth so that the food intake user can conveniently eat food after identifying the location of the food intake mouth by the camera.

또한, 다른 실시예에 따르면, 적외선이나 자외선 테이프를 음식물 섭취자의 얼굴, 특히 입 둘레에 부착하여 음식물 섭취자의 입 위치를 쉽게 판단할 수도 있다. 즉, 카메라를 이용하여 적외선 또는 자외선 테이프를 촬영하고 명암의 경계치를 이용하여 음식물 섭취자의 입의 위치를 찾을 수 있다. 이 경우 카메라는 적외선 카메라 또는 자외선 카메라가 될 수 있다. Further, according to another embodiment, the infrared or ultraviolet tape may be attached to the food intake face, particularly around the mouth, to easily determine the food intake mouth position. That is, the camera may be photographed using an infrared or ultraviolet tape, and the location of the mouth of the food intake may be found by using the threshold of contrast. In this case, the camera may be an infrared camera or an ultraviolet camera.

이러한 실시예에 따르면, 사람마다 입의 위치가 다르거나 카메라 인식률이 낮은 경우 간단한 방법에 의하여 음식물 섭취자의 입 위치를 보다 효과적이면서도 빠르고 정확하게 파악할 수 있는 특징이 있다.
According to this embodiment, if the position of the mouth is different for each person or the camera recognition rate is low, there is a feature that can determine the mouth position of the food intake by a simple method more effectively, quickly and accurately.

또한, 다른 실시예에 따르면, 식사 보조 로봇은 음식물 섭취자가 식사하는 도중 카메라부(110)가 음식물이 담긴 식기를 촬영하여 생성한 음식물이 담긴 식기 이미지를 기준 식기 경계 이미지와 비교하여 서로 다른 부분을 음식물로 판별하는 음식물 판별부를 더 포함할 수 있다. 이 경우 암 제어부는 스푼의 음식물 수용부가 판별된 음식물로 이동하도록 로봇암을 제어할 수 있다.In addition, according to another embodiment, the meal aid robot compares the tableware image containing the food produced by the camera unit 110 by photographing the tableware containing the food while eating a different portion compared to the reference table border image The food determination unit may further include a food discrimination unit. In this case, the arm control unit may control the robot arm to move the food container of the spoon to the determined food.

이러한 실시예에 따르면, 식기에 음식물이 남아 있는지 여부를 자동으로 판별하여 남은 음식을 음식물 섭취자에게 제공할 수 있는 장점이 있다.
According to this embodiment, it is possible to automatically determine whether food remains in the tableware and provide the remaining food to the food intake user.

도 2는 본 발명의 실시예에 따른 카메라를 이용한 식사 보조 로봇이 생성한 식기 이미지를 도시한 도면이고, 도 3은 본 발명의 실시예에 따른 카메라를 이용한 식사 보조 로봇이 생성한 음식물 위치 식별 포인트를 도시한 도면이다.2 is a view showing a table image generated by the meal aid robot using a camera according to an embodiment of the present invention, Figure 3 is a food location identification point generated by the meal aid robot using a camera according to an embodiment of the present invention Figure is a diagram.

도 2를 참조하면, 카메라부(110)는 식기 등록 모드에서 식기를 촬상하여 식기 이미지(200)를 생성한다. 여기서, 식기는 음식물이 섹션별로 담긴 그릇이며, 식판이라고 지칭될 수도 있다.Referring to FIG. 2, the camera unit 110 generates a tableware image 200 by photographing a tableware in a tableware registration mode. Here, the tableware is a bowl containing food in sections and may be referred to as a plate.

도 3을 참조하면, 식기 배치도(300)는 제1 반찬그릇(310), 제2 반찬그릇(320), 제3 반찬그릇(330), 제4 반찬그릇(340), 밥그릇(350), 국그릇(360)을 포함하며, 각 반찬그릇은 4개의 서브 섹션으로 나뉠 수 있다.Referring to FIG. 3, the table arrangement diagram 300 includes a first side dish bowl 310, a second side dish bowl 320, a third side dish bowl 330, a fourth side dish bowl 340, a rice bowl 350, Soup bowl 360, each side dish may be divided into four subsections.

종래 기술에 따르면, 일일이 식기마다 수동으로 밥의 위치나 반찬의 위치 등을 티칭을 통해 인식하여야 하지만, 본 실시예에 따르면, 카메라부(110)를 통해 자동으로 식기의 각 부분을 인식하여 티칭포인트를 생성할 수 있다. 즉, 등록 여부 결정부(130)는 각 기준 식기 경계 이미지에서 상단의 그릇, 예를 들면, 4개의 그릇은 반찬그릇으로 인식하고, 하부 좌측 그릇은 밥그릇으로 인식하며, 하부 우측 그릇은 국그릇으로 인식할 수 있다. According to the related art, the position of the rice or the side of the side dishes must be manually recognized for each dish through teaching, but according to the present embodiment, each portion of the dish is automatically recognized through the camera unit 110 to teach the teaching point. Can be generated. That is, the registration determination unit 130 recognizes the upper bowl, for example, four bowls as a side dish, the lower left bowl as a rice bowl, and the lower right bowl as a soup bowl in each reference table boundary image. I can recognize it.

본 실시예에 따른 식사 보조 로봇은 각 그릇에 있다고 인식된 음식물을 로봇암의 스푼을 이용하여 떠서 음식물 섭취자에게 제공할 수 있다. The meal assistance robot according to the present embodiment may provide food intake to the food intake by using a spoon of the robot arm to recognize the food in each bowl.

만약, 상술한 기술과 달리, 카메라 없이 등록하지 않은 새로운 식판을 운영할 때에는 새로운 식판을 사용할 때마다 티칭을 해서 식판을 별도로 식사 보조 로봇에 등록해야 한다. 이 작업을 하지 않으면, 식사 보조 로봇은 식판의 반찬이 몇가지인지 알 수 없으며, 반찬, 밥, 국이 어느 위치에 있는지 알 수 없고, 로봇암에 결합한 스푼, 포크, 집게 등은 반찬 또는 밥이 없는 부분, 예를 들면, 반찬통 안에서 반찬이 없는 부분 또는 반찬이 없는 공간인 반찬통 사이에서 반찬을 집을 수도 있다. 또한, 식판마다 사이즈가 다르기 때문에 별도로 등록을 시키지 않으면 반찬, 밥, 국물을 정확히 집거나 떠 올릴 수 없는 문제점이 있다. Unlike the above-described technology, when operating a new plate that is not registered without a camera, each time a new plate is used, teaching is required to register the plate separately to the meal assistant robot. Without this task, the meal assistant robot will not know how many side dishes are on the plate, where the side dishes, rice, or soup will be, and the spoons, forks, and tongs attached to the robot arm will have no side dishes or rice. A side dish may be picked up between portions, for example, a side dish without a side dish or a side dish without a side dish. In addition, since the size is different for each plate, if you do not register separately, there is a problem that you can not pick up or recall the side dishes, rice, soup.

또한, 카메라부를 이용하여 식판을 인식하며 현재 등록하지 않은 새로운 식판을 사용하는 경우, 식사 보조 로봇은 현재 식판을 새로운 식판으로 인식하여 등록할 것인지 여부를 물어보는 메뉴를 출력하며, 사용자가 등록을 선택하는 경우 등록 결과를 소정의 디스플레이어, 예를 들면, LCD 화면에 등록되어 인식된 식판에 관한 정보를 출력할 수 있다. 이 경우 식사 보조 로봇은 등록 여부를 선택하기 위한 선택 수단, 예를 들면, 선택 버튼과 다양한 정보를 출력하는 디스플레이어, 예를 들면, LCD를 포함할 수 있다. In addition, when using a new plate that recognizes the plate using the camera unit and is not currently registered, the meal assistant robot outputs a menu asking whether to recognize and register the current plate as a new plate, and the user selects registration. In this case, the registration result may be output to a predetermined displayer, for example, information on a recognized plate registered on the LCD screen. In this case, the meal assistance robot may include selection means for selecting whether to register, for example, a selection button and a displayer for outputting various information, for example, an LCD.

여기서, 식사 보조 로봇은 좌측 하단 블록을 밥을 담는 그릇으로 인식하고, 우측 하단 블록을 국 또는 씻는 물을 담는 그릇으로 인식할 수 있다. 또한, 상단 블록은 상술한 바와 같이 복수의 반찬그릇으로 설정될 수 있다. 또한, 각 그릇의 내부는 소정의 하부 섹션으로 나뉠 수 있으며, 예를 들면, 도시된 바와 같이 밥그릇은 12등분으로, 반찬그릇은 각각 상단에서 하단을 따라 4등분으로 나뉠 수 있다. Here, the meal assistance robot may recognize the lower left block as a bowl for rice, and the lower right block as a bowl for soup or washing water. In addition, the upper block may be set to a plurality of side dishes as described above. In addition, the interior of each bowl may be divided into a predetermined lower section, for example, as shown, the rice bowl may be divided into 12 equal parts, and the side dish bowls may be divided into four equal parts from the top to the bottom.

또한, 카메라부를 사용하지 않고 등록된 식판을 사용할 경우에는, 어떤 식판을 사용하는지 관한 정보를 식사 보조 로봇에 저장할 수 있다. 예를 들면, 사용되는 식판이 바뀔 때마다, 식사 보조 로봇의 환경설정 메뉴에서 현재 사용되는 식판이 등록된 식판 중 어느 식판인지 설정한다. In addition, when using a registered plate without using a camera unit, information about which plate is used can be stored in the meal assistance robot. For example, each time the food plate used is changed, the food plate currently used in the environment setting menu of a meal assistance robot is set which plate among registered plates.

또한, 카메라부를 통해 식판을 인식하고, 등록된 식판을 사용하는 경우 식사 보조 로봇은 통신 채널 및/또는 디스플레이부에 사용하는 식판을 나타내고, 해당 식판의 등록 정보에 상응하여 동작할 수 있다. In addition, when the meal plate is recognized through the camera unit and the registered plate is used, the meal assistance robot may indicate a plate to be used for the communication channel and / or the display unit, and may operate according to the registration information of the plate.

예를 들면, 식사 보조 로봇은 자동, 수동, 반자동 모드의 3가지 모드로 움직일 수 있으며, 자동일 경우, 밥->반찬1-1->밥->반찬2-1->밥->반찬3-1->밥->반찬1-2->밥->반찬2-2->밥->반찬3-2->밥->반찬1-3->밥->반찬2-3->밥->반찬3-3->밥->반찬1-4->밥->반찬2-4->밥->반찬3-4의 순서로 음식 섭취자에게 음식을 제공할 수 있다. 이 경우, 제공되는 반찬의 순서가 정해질 수 있으며, 밥과 반찬을 제공하는 시간 간격이 조절될 수 있다. 본 실시예의 식사 보조 로봇은 밥과 반찬을 제공하는 시간 간격을 조절하기 위해서 소정의 수단, 예를 들면, 시간 간격을 크게 하거나 작게 하는 버튼 또는 조이스틱을 포함할 수 있다. For example, the meal assistant robot can move in three modes: automatic, manual and semi-automatic mode, and if it is automatic, Bob-> Side dish 1-1-> Rice-> Side dish 2-1-> Bob-> Side dish 3 -1-> Bob-> Dish 1-2-> Bob-> Dish 2-2-> Bob-> Dish 3-2-> Bob-> Dish 1-3-> Bob-> Dish 2-3-> Bob -> Side dish 3-3-> Bob-> Side dish 1-4-> Rice-> Side dish 2-4-> Bob-> Side dish 3-4. In this case, the order of the side dishes provided may be determined, and the time interval for providing the rice and the side dishes may be adjusted. The meal assistance robot of the present embodiment may include a predetermined means, for example, a button or a joystick for increasing or decreasing the time interval in order to adjust the time interval for providing rice and side dishes.

또한, 식사 보조 로봇이 수동일 경우, 반찬, 밥의 제공 순서는 정해지지 않으며, 각 음식의 제공 순서 및 제공 시간 간격 등이 사용자의 수동에 의해 선택될 수 있다. In addition, when the meal assistance robot is manual, the order of providing the side dishes and rice is not determined, and the order of providing each food and the time interval for providing the food may be selected by the user.

또한, 식사 보조 로봇이 반자동일 경우, 특정 기능은 자동으로 운영되고, 그 외의 다른 기능은 수동으로 운영될 수 있다. 예를 들면, 먹는 반찬이나 밥의 종류를 수동으로 선택하면, 식사 보조 로봇은 선택된 음식을 제공하기 위해 미리 설정된 순서 및 간격 시간에 상응하여 음식물을 제공할 수 있다. In addition, when the meal assistance robot is semi-automatic, certain functions may be automatically operated, and other functions may be manually operated. For example, by manually selecting the type of side dish or rice to be eaten, the meal assistance robot may provide food according to a preset order and interval time to provide the selected food.

또한, 다른 실시예에 따르면, 사용자, 즉, 음식물 섭취자 또는 로봇 관리자의 음식 제공 순서에 상응하는 음성을 인식하는 음성 인식부가 구현될 수 있다. 즉, 음성 인식부는 음식물 섭취자 또는 로봇 관리자의 음성을 인식하고 해당 내용을 미리 저장된 음성 내용과 비교하여 특정 음성임을 인식할 수 있다. 이 경우 암 제어부는 로봇암에 결합한 스푼의 음식물 수용부에, 인식된 음성에 상응하는 음식물을 올리고 스푼의 음식물 수용부를 음식물 섭취자의 입 위치로 이동시킬 수 있다. In addition, according to another embodiment, a voice recognition unit for recognizing a voice corresponding to a food providing sequence of a user, that is, a food intake or a robot manager may be implemented. That is, the voice recognition unit may recognize the voice of the food intake or the robot manager and recognize the specific voice by comparing the corresponding content with the prestored voice content. In this case, the cancer control unit may raise the food corresponding to the recognized voice to the food container of the spoon coupled to the robot arm and move the food container of the spoon to the mouth position of the food intake.

이 경우 음성을 인식하여 처리하는 모드는 다양하게 구현될 수 있으며, 이를 위하여 본 실시예는 인식된 음성의 내용에 상응하여 복수의 모드를 수행하는 모드 처리부를 더 포함할 수 있다. 이 경우 정보 저장부(150)는 식판의 구획된 영역과 각 영역에 수용된 음식물을 대응시켜 저장할 수 있다. In this case, various modes of recognizing and processing a voice may be implemented. For this purpose, the present embodiment may further include a mode processor configured to perform a plurality of modes corresponding to the contents of the recognized voice. In this case, the information storage unit 150 may store the partitioned area of the plate and the food accommodated in each area.

구체적으로 복수의 모드는 크게 반자동 모드, 자동 모드, 수동 모드로 구분될 수 있다. 예를 들면, 반자동 모드는 음성이 음식물의 종류를 나타내는 경우 암 제어부가 스푼의 음식물 수용부에 인식된 음성에 상응하는 음식물을 올리는 모드가 될 수 있다. 예를 들면, 반자동 모드에서 사용자가 “반찬1”, “밥”, “물” 등과 같은 말을 하면, 암 제어부는 정보 저장부(150)에 저장된 각 음식물의 위치로 스푼의 음식물 수용부를 이동시킬 수 있다. In more detail, the plurality of modes may be classified into semi-automatic mode, automatic mode, and manual mode. For example, the semi-automatic mode may be a mode in which the cancer controller raises the food corresponding to the voice recognized by the food container of the spoon when the voice indicates the type of food. For example, in a semi-automatic mode, when the user speaks "side dishes 1", "rice", "water", etc., the cancer control unit moves the spoon food receiving unit to each food location stored in the information storage unit 150. Can be.

자동 모드는 암 제어부가 스푼의 음식물 수용부에 미리 설정된 순서대로 음식물을 올리는 모드가 될 수 있다. 제공될 음식의 미리 설정된 순서는 정보 저장부(150)에 저장될 수 있다. 또한, 자동 모드에서 사용자가 “밥”, “반찬”, “다음” 등의 말을 순서대로 하면, “다음”이라는 말에 상응하여 미리 설정된 순서에 따라 음식물이 제공되도록 암 제어부는 스푼의 음식물 수용부를 이동시킬 수 있다. The automatic mode may be a mode in which the arm controller raises food in a predetermined order in the food container of the spoon. The preset order of food to be provided may be stored in the information storage unit 150. In addition, in the automatic mode, when the user says the words "bap", "side dish", "next", etc., the cancer control unit accepts the food of the spoon so that food is provided in a preset order corresponding to the word "next". You can move wealth.

또한, 수동 모드는 음성이 방향을 나타내는 경우 암 제어부가 로봇암을 제어하여 스푼의 음식물 수용부를 인식된 음성에 상응하는 방향으로 이동시키는 모드가 될 수 있다. 예를 들면, 수동 모드에서 사용자가 "상", "하", "좌", "우", "정지", "위", "아래", "왼쪽", "오른쪽" 등의 말을 하면 암 제어부는 해당 음성에 상응하여 음식물 수용부를 이동시킬 수 있다. In addition, the manual mode may be a mode in which the arm controller controls the robot arm to move the spoon food receiving portion in a direction corresponding to the recognized voice when the voice indicates a direction. For example, in manual mode, if the user says "up", "down", "left", "right", "stop", "up", "down", "left", "right" The controller may move the food container in response to the corresponding voice.

모드 처리부는 사용자가 복수의 모드 중 어느 하나의 모드를 선택하기 위한 모드 선택부(미도시)를 더 포함할 수 있다. 모드 선택부는 예를 들면, 버튼 형상, 스위치 형상 등 다양한 형상으로 구현될 수 있다. The mode processor may further include a mode selector (not shown) for the user to select any one of the plurality of modes. The mode selector may be implemented in various shapes such as a button shape and a switch shape.

또한, 모드 선택부는 상술한 바와 같이 음성 인식을 통해 구현될 수도 있다. 이 경우 사용자가 특정 모드를 말하면, 모드 선택부는 이러한 음성을 인식하여 음성에 상응하는 모드를 개시할 수 있다.
In addition, the mode selector may be implemented through voice recognition as described above. In this case, when the user speaks a specific mode, the mode selector may recognize the voice and start a mode corresponding to the voice.

또한, 본 실시예에 따른 식사 보조 로봇은 잔반을 처리하는 잔반 모드에 따라 동작될 수도 있다. 예를 들면, 식사 보조를 하기 위해 밥이나 반찬을 떠 올리는 과정에서 각 그릇에 음식물이 남아 있거나 다른 자리에 떨어지는 경우가 발생할 수 있는데, 잔반 모드는 남아 있는 음식물을 떠서 음식물 섭취자에게 제공하기 위한 모드이다. 잔반 모드에서는 로봇암의 스푼이 각 그릇의 모든 부분을 긁어서 음식물을 떠 올리거나 또는 로봇암의 포크 또는 집게가 각 그릇의 모든 부분을 차례대로 집어서 음식물을 올린 후 음식물 섭취자에게 제공할 수 있다.
In addition, the meal assistance robot according to the present embodiment may be operated according to the remaining mode for processing the remaining. For example, there may be food left in each bowl or a different place in the process of recalling a meal or side dish to assist meals. The remaining mode is a mode for floating left food and providing it to a food user. to be. In Remnant mode, a spoon of robotic arms can scrape all parts of each bowl to float food, or a fork or tongs of robotic arms can pick up all parts of each bowl in turn to raise food and provide it to the food consumer. .

또한, 다른 실시예에 따르면, 다양한 기능과 향후의 부가되는 확장성을 보장하기 위하여, 상술한 로봇의 각 보드간 통신용 프로토콜을 공통으로 사용할 수 있다. 즉, 본 실시예에 따른 패킷은 0xff, 0xff의 두 바이트로 시작하고, 송수신 ID 주소, 명령어, 데이터 및 이들의 전송 에러를 검출하기 위한 체크섬으로 구성될 수 있다.In addition, according to another embodiment, in order to ensure various functions and added scalability in the future, the above-described communication protocols for each board of the robot may be commonly used. That is, the packet according to the present embodiment starts with two bytes of 0xff and 0xff, and may be composed of a transmission / reception ID address, an instruction, data, and a checksum for detecting a transmission error thereof.

예를 들면, 표 1은 입력장치에 수신되는 패킷이며, 표 2는 입력장치가 응답하는 패킷이다. 여기서 입력장치는 상술한 로봇을 제어하기 위한 입력장치가 될 수 있다.For example, Table 1 is a packet received at the input device, and Table 2 is a packet to which the input device responds. Here, the input device may be an input device for controlling the above-described robot.

입력장치에 수신되는 패킷Packets received at input device 00 1One 22 33 44 55 66 77 Header0Header0 Header1Header1 idid 길이Length 명령어command 주소address 수신 바이트Received bytes check sumcheck sum 0xFF0xFF 0xFF0xFF 1010 33 22 00 22 eded

표 1에서와 같이 입력장치에 수신되는 패킷은 다음과 같이 구성될 수 있다.As shown in Table 1, the packet received by the input device may be configured as follows.

checksum = buf[ 2 ] + buf[ 3 ] + buf[ 4 ] + buf[ 5 ] + buf[ 6 ];checksum = buf [2] + buf [3] + buf [4] + buf [5] + buf [6];

checksum = ( INT8U )( ~checksum & 0x00ff );checksum = (INT8U) (~ checksum &0x00ff);

입력장치에서 송신하는 패킷Packets sent from the input device 00 1One 22 33 44 55 66 77 stxstx stxstx idid lenlen errorerror switch selswitch sel valuevalue check sumcheck sum 0xFF0xFF 0xFF0xFF 1010 44 00 xx xx xx

표 2에서와 같이 입력장치에서 송신하는 패킷은 다음과 같이 구성될 수 있다.As shown in Table 2, a packet transmitted from an input device may be configured as follows.

checksum = buf[ 2 ] + buf[ 3 ] + buf[ 4 ] + buf[ 5 ] + buf[ 6 ];checksum = buf [2] + buf [3] + buf [4] + buf [5] + buf [6];

checksum = ( INT8U )( ~checksum & 0x00ff );
checksum = (INT8U) (~ checksum &0x00ff);

이 경우, 메인보드에서 해당 입력장치에 요청시에만, 입력장치(버튼, 조이스틱, 센서 등)의 현재 값을 패킷으로 출력할 수 있다.
In this case, only when the main board requests the corresponding input device, the current value of the input device (button, joystick, sensor, etc.) may be output as a packet.

그 외 본 발명의 실시예에 따른 카메라를 이용한 식사 보조 로봇에 대한 구체적인 작동 방식, 임베디드 시스템, O/S 등의 공통 플랫폼 기술과 통신 프로토콜, I/O 인터페이스 등 인터페이스 표준화 기술 및 엑추에이터, 배터리, 카메라, 센서 등 부품 표준화 기술 등에 대한 구체적인 설명은 본 발명이 속하는 기술 분야의 통상의 지식을 가진자에게 자명한 사항이므로 생략하기로 한다.In addition, a specific operation method for a meal assistance robot using a camera according to an embodiment of the present invention, a common platform technology such as embedded system, O / S, communication protocol, interface standardization technology such as I / O interface, actuator, battery, camera Details of parts standardization technology such as sensors and the like will be omitted since it is obvious to those skilled in the art.

본 발명에 따른 카메라를 이용한 식사 보조 로봇의 동작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 즉, 기록 매체는 컴퓨터에 상술한 각 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.The operation method of the meal assisting robot using the camera according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. That is, the recording medium may be a computer-readable recording medium having recorded thereon a program for causing a computer to execute the steps described above.

상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합한 형태로 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.The computer readable medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as a hard disk, a floppy disk and a magnetic tape, optical recording media such as CD-ROM and DVD, magnetic recording media such as a floppy disk Optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

상기 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다. The medium may be a transmission medium such as an optical or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, or the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention.

또한, 상술한 각 구성 요소는 물리적으로 인접한 하나의 부품으로 구현되거나 서로 다른 부품으로 구현될 수도 있다. 후자의 경우 각 구성 요소는 인접하거나 또는 서로 다른 구역에 위치하여 제어될 수 있으며, 이 경우 본 발명은 각 구성 요소를 제어하는 별도의 제어수단 또는 제어실을 구비하여 유선 또는 무선으로 각 구성요소를 제어할 수도 있다. In addition, each of the above-described components may be embodied as one physically adjacent component or may be implemented as a different component. In the latter case, each component can be controlled to be located adjacent to or in a different zone. In this case, the present invention can include a separate control means or control room for controlling each component to control each component in a wired or wireless manner You may.

상기한 바에서, 각 실시예에서 설명한 각 구성요소 및/또는 기능은 서로 복합적으로 결합하여 구현될 수 있으며, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
In the above description, the respective components and / or functions described in the embodiments may be combined and combined, and those skilled in the art will understand that the present invention It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.

100 : 식기 등록 장치 110 : 카메라부
120 : 영상 처리부 130 : 등록 여부 결정부
140 : 메뉴 선택부 150 : 정보 저장부
160 : 제어부 200 : 식기 이미지
300 : 식기 배치도 310 : 제1 반찬그릇
320 : 제2 반찬그릇 330 : 제3 반찬그릇
340 : 제4 반찬그릇 350 : 밥그릇
360 : 국그릇
100: tableware registration device 110: camera unit
120: image processing unit 130: registration determination unit
140: menu selection unit 150: information storage unit
160: control unit 200: tableware image
300: tableware arrangement 310: first side dish
320: second side dishes 330: third side dishes
340: fourth side dish bowl 350: rice bowl
360: soup bowl

Claims (12)

식기의 상면을 촬상하여 식기 이미지를 생성하는 카메라부;
상기 카메라부가 생성한 식기 이미지의 경계 영역을 추출하여 식기 경계 이미지를 생성하는 영상 처리부;
상기 생성된 식기 경계 이미지를 미리 저장된 복수의 기준 식기 경계 이미지와 비교하여 상기 생성된 식기 경계 이미지가 상기 기준 식기 경계 이미지와 동일한지 여부를 판단하고, 상기 생성된 식기 경계 이미지가 상기 기준 식기 경계 이미지와 상이한 경우 상기 생성된 식기 경계 이미지를 신규 기준 식기 경계 이미지로 등록하는 등록 여부 결정부; 및
상기 복수의 기준 식기 경계 이미지를 저장하는 정보 저장부를 포함하는 식사 보조 로봇.
A camera unit for photographing an upper surface of the tableware to generate a tableware image;
An image processor configured to extract a boundary area of the tableware image generated by the camera unit to generate a tableware border image;
The generated tableware border image is compared with a plurality of stored reference tableware border images to determine whether the generated tableware border image is the same as the reference tableware border image, and the generated tableware border image is the reference tableware border image. A registration determining unit that registers the generated tableware border image as a new reference tableware border image when it is different from each other; And
And an information storage unit for storing the plurality of reference tableware boundary images.
청구항 1에 있어서,
상기 카메라부는 하나의 식판 또는 복수의 식판을 촬상하는 것을 특징으로 하는 식사 보조 로봇.
The method according to claim 1,
The camera unit is a meal assistance robot, characterized in that for imaging a single plate or a plurality of plate.
청구항 1에 있어서,
상기 영상 처리부는 상기 식기 이미지의 픽셀값 중 명도 차이를 이용하여 상기 식기 이미지의 경계 영역을 추출하는 것을 특징으로 하는 식사 보조 로봇.
The method according to claim 1,
And the image processor extracts a boundary area of the tableware image by using brightness differences among pixel values of the tableware image.
청구항 1에 있어서,
상기 등록 여부 결정부는 상기 생성된 식기 경계 이미지가 상기 기준 식기 경계 이미지와 동일한 경우 동일한 식기임을 나타내는 동일 식기 신호를 생성하는 것을 특징으로 하는 식사 보조 로봇.
The method according to claim 1,
And the registration determining unit generates the same tableware signal indicating that the tableware is the same when the generated tableware border image is the same as the reference tableware border image.
청구항 1에 있어서,
일단에 스푼의 손잡이가 결합하는 로봇암; 및
상기 로봇암을 제어하여, 음식물이 올려진 상기 스푼의 음식물 수용부를 음식물 섭취자의 입 위치에 상응하여 미리 저장된 위치 정보에 이동시키는 암 제어부를 포함하되,
상기 카메라부는 음식물 섭취자의 얼굴을 촬상하여 얼굴 이미지를 생성하고, 상기 영상 처리부는 상기 카메라부가 생성한 얼굴 이미지의 경계 영역을 추출하여 얼굴 경계 이미지를 생성한 후 상기 입 위치에 상응하는 위치 정보를 생성하는 것을 특징으로 하는 식사 보조 로봇.
The method according to claim 1,
Robot arm to which the handle of the spoon is coupled to one end; And
And controlling the robot arm to move the food container of the spoon on which the food is placed to a prestored position information corresponding to the mouth position of the food intake user,
The camera unit generates a face image by capturing a face of a food intake user, and the image processor generates a face boundary image by extracting a boundary area of the face image generated by the camera unit, and generates position information corresponding to the mouth position. Meal assistant robot, characterized in that.
청구항 5에 있어서,
상기 음식물 섭취자가 식사하는 도중 상기 카메라부가 상기 음식물이 담긴 식기를 촬영하여 생성한 음식물이 담긴 식기 이미지를 상기 기준 식기 경계 이미지와 비교하여 서로 다른 부분을 음식물로 판별하는 음식물 판별부를 포함하되,
상기 암 제어부는 상기 스푼의 음식물 수용부가 상기 판별된 음식물로 이동하도록 상기 로봇암을 제어하는 것을 특징으로 하는 식사 보조 로봇.
The method of claim 5,
And a food discrimination unit for discriminating different portions as food by comparing the tableware image containing food generated by photographing the tableware containing the food while the food intake is being eaten by the camera unit to the reference table boundary image.
And the arm controller controls the robot arm so that the food container of the spoon moves to the determined food.
청구항 5에 있어서,
상기 음식물 섭취자의 음식 제공 순서에 상응하는 음성을 인식하는 음성 인식부를 더 포함하되,
상기 암 제어부는 상기 로봇암에 결합한 상기 스푼의 음식물 수용부에 상기 인식된 음성에 상응하는 음식물을 올리고 상기 스푼의 음식물 수용부를 상기 음식물 섭취자의 입 위치에 상응하여 미리 저장된 위치 정보에 이동시키는 것을 특징으로 하는 식사 보조 로봇.
The method of claim 5,
Further comprising a voice recognition unit for recognizing the voice corresponding to the food providing order of the food intake,
The arm control unit raises food corresponding to the recognized voice to the food receiving unit of the spoon coupled to the robot arm and moves the food receiving unit of the spoon to prestored position information corresponding to the mouth position of the food intake user. Meal Assistant Robot.
청구항 7에 있어서,
상기 인식된 음성의 내용에 상응하여 복수의 모드를 수행하는 모드 처리부를 더 포함하되,
상기 정보 저장부는 상기 식기의 구획된 영역과 상기 영역에 수용된 음식물을 대응시켜 저장하는 것을 특징으로 하는 식사 보조 로봇.
The method of claim 7,
Further comprising a mode processing unit for performing a plurality of modes in accordance with the content of the recognized voice,
And the information storage unit stores the partitioned area of the tableware and food stored in the area in correspondence with each other.
청구항 8에 있어서,
상기 복수의 모드는 상기 음성이 음식물의 종류를 나타내는 경우 상기 암 제어부가 상기 스푼의 음식물 수용부에 상기 인식된 음성에 상응하는 음식물을 올리는 반자동 모드를 포함하는 것을 특징으로 하는 식사 보조 로봇.
The method of claim 8,
And the plurality of modes includes a semi-automatic mode in which the cancer control unit raises food corresponding to the recognized voice to the food container of the spoon when the voice indicates the type of food.
청구항 8에 있어서,
상기 복수의 모드는 상기 암 제어부가 상기 스푼의 음식물 수용부에 미리 설정된 순서대로 음식물을 올리는 자동 모드를 포함하는 것을 특징으로 하는 식사 보조 로봇.
The method of claim 8,
The plurality of modes is a meal assistance robot, characterized in that the arm control includes an automatic mode for raising food in a predetermined order in the food receiving portion of the spoon.
청구항 8에 있어서,
상기 복수의 모드는 상기 음성이 방향을 나타내는 경우 상기 암 제어부가 상기 로봇암을 제어하여 상기 스푼의 음식물 수용부를 상기 인식된 음성에 상응하는 방향으로 이동시키는 수동 모드를 포함하는 것을 특징으로 하는 식사 보조 로봇.
The method of claim 8,
The plurality of modes may include a manual mode in which the arm controller controls the robot arm to move the food container of the spoon in a direction corresponding to the recognized voice when the voice indicates a direction. robot.
청구항 1에 있어서,
일단에 스푼의 손잡이가 결합하는 로봇암; 및
상기 로봇암을 제어하여, 음식물이 올려진 상기 스푼의 음식물 수용부를 음식물 섭취자의 입 위치에 상응하여 미리 저장된 위치 정보에 이동시키는 암 제어부를 포함하되,
상기 카메라부는 음식물 섭취자의 입 주위에 부착된 적외선 테이프 또는 자외선 테이프를 촬상하여 상기 입 위치에 상응하는 위치 정보를 생성하는 것을 특징으로 하는 식사 보조 로봇.
The method according to claim 1,
Robot arm to which the handle of the spoon is coupled to one end; And
And controlling the robot arm to move the food container of the spoon on which the food is placed to a prestored position information corresponding to the mouth position of the food intake user,
And the camera unit photographs an infrared tape or an ultraviolet tape attached around a mouth of a food intake user to generate position information corresponding to the mouth position.
KR1020120043067A 2012-04-25 2012-04-25 Meal assistance robot using a camera KR101380596B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120043067A KR101380596B1 (en) 2012-04-25 2012-04-25 Meal assistance robot using a camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120043067A KR101380596B1 (en) 2012-04-25 2012-04-25 Meal assistance robot using a camera

Publications (2)

Publication Number Publication Date
KR20130120081A KR20130120081A (en) 2013-11-04
KR101380596B1 true KR101380596B1 (en) 2014-04-11

Family

ID=49850839

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120043067A KR101380596B1 (en) 2012-04-25 2012-04-25 Meal assistance robot using a camera

Country Status (1)

Country Link
KR (1) KR101380596B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102307112B1 (en) * 2019-12-16 2021-10-01 한국전자기술연구원 Robot apparatus to obtain food customized according to food type and remaining amount of food and method for same
KR102429231B1 (en) * 2020-08-28 2022-08-04 한국생산기술연구원 Method and Apparatus for Meal Assistance Using Wearable Apparatus
KR102417457B1 (en) * 2020-08-28 2022-07-06 한국생산기술연구원 Method and Apparatus for Meal Assistance Using Interactive Interface
KR102357507B1 (en) * 2020-09-23 2022-02-07 한국생산기술연구원 Meal assistance robot based on deep learning and meal assistance method using the same
CN113146650B (en) * 2021-03-25 2023-03-17 哈尔滨工程大学 Meal-assisting robot based on image processing and meal taking method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006000428A (en) 2004-06-18 2006-01-05 Secom Co Ltd Meal support apparatus
JP2008125696A (en) 2006-11-20 2008-06-05 Yamaguchi Univ Meal support system
KR20110112690A (en) * 2010-04-07 2011-10-13 대한민국(국립재활원장) Eating assistant robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006000428A (en) 2004-06-18 2006-01-05 Secom Co Ltd Meal support apparatus
JP2008125696A (en) 2006-11-20 2008-06-05 Yamaguchi Univ Meal support system
KR20110112690A (en) * 2010-04-07 2011-10-13 대한민국(국립재활원장) Eating assistant robot

Also Published As

Publication number Publication date
KR20130120081A (en) 2013-11-04

Similar Documents

Publication Publication Date Title
KR101380596B1 (en) Meal assistance robot using a camera
WO2016143641A1 (en) Posture detection device and posture detection method
KR101923240B1 (en) Medical device having a multi-function display
CN103502962B (en) The control method of server unit and server unit
JP4701039B2 (en) A device for navigating healthy food intake
WO2015125545A1 (en) Information processing device, information processing method, and program
JP6489117B2 (en) Information processing apparatus, information processing method, and program
JP2008136559A (en) Toilet device
JP2017199239A (en) Monitored person monitoring device, and method and system thereof
WO2016181837A1 (en) Image processing system, image processing device, image processing method, and image processing program
US20160058279A1 (en) System and method for imaging an eye for diagnosis
JPH10176362A (en) Health control device
WO2018131262A1 (en) Information processing device, information processing method, program, screen, and information drawing system
EP3474219A1 (en) Nursing/care item input device, nursing/care item input method, and nursing/care item management system
JP2012196240A (en) Medical treatment apparatus
JP2019220145A (en) Operation terminal, voice input method, and program
CN109346152A (en) A kind of user's eating habit information acquisition system and method
WO2021085369A1 (en) Meal amount measuring device and method
US20190385602A1 (en) Operation terminal, voice inputting method, and computer-readable recording medium
WO2018110294A1 (en) Care plan output device, method and system thereof, and monitored-person monitoring system
KR101333208B1 (en) Meal assistance robot for noodles
JP6541497B2 (en) Communication system, control method thereof and program
KR102307112B1 (en) Robot apparatus to obtain food customized according to food type and remaining amount of food and method for same
CN113380383A (en) Medical monitoring method, device and terminal
JP6335361B1 (en) Elevator destination floor registration method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right