KR20230129866A - 음식섭취 지원 서비스를 제공하는 방법 및 장치 - Google Patents

음식섭취 지원 서비스를 제공하는 방법 및 장치 Download PDF

Info

Publication number
KR20230129866A
KR20230129866A KR1020220027044A KR20220027044A KR20230129866A KR 20230129866 A KR20230129866 A KR 20230129866A KR 1020220027044 A KR1020220027044 A KR 1020220027044A KR 20220027044 A KR20220027044 A KR 20220027044A KR 20230129866 A KR20230129866 A KR 20230129866A
Authority
KR
South Korea
Prior art keywords
user
food intake
sensing data
food
time
Prior art date
Application number
KR1020220027044A
Other languages
English (en)
Inventor
김지희
정세진
김광유
오태양
우동명
Original Assignee
주식회사 효돌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 효돌 filed Critical 주식회사 효돌
Priority to KR1020220027044A priority Critical patent/KR20230129866A/ko
Priority to PCT/KR2023/002284 priority patent/WO2023167450A1/ko
Publication of KR20230129866A publication Critical patent/KR20230129866A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0633Lists, e.g. purchase orders, compilation or processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Human Computer Interaction (AREA)
  • Development Economics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Electromagnetism (AREA)
  • Nutrition Science (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nursing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

본 발명은 음식섭취 지원 서비스를 제공하는 방법 및 장치는, 로봇장치에 포함된 제1 장치 및 제2 장치 중 제2 장치가 기설정된 음식섭취 시각이 도래하면 알람을 출력하는 단계, 제2 장치가 제1 장치로부터 음식섭취와 관련된 복수의 센싱데이터를 수신하는 단계, 제2 장치가 복수의 센싱데이터를 분석하는 단계, 제2 장치가 복수의 센싱데이터를 기반으로 하는 피드백을 출력하는 단계 및 제2 장치가 입력된 음성데이터를 기반으로 실시간 쌍방향 의사소통을 수행하는 단계를 포함하며 다른 실시 예로도 적용이 가능하다.

Description

음식섭취 지원 서비스를 제공하는 방법 및 장치{Method and Apparatus for Providing of Supporting Service about Taking Food}
본 발명은 음식섭취 지원 서비스를 제공하는 방법 및 장치에 관한 것이다.
대한민국은 급속한 고령화로 인해 2019년을 기준으로 65세 이상의 고령자는 20.9%이었으며, 2025년에는 20.3%, 2067년에는 46.5%가 될 것으로 예상되고 있다. 특히, 보건복지부에서 2017년도 노인실태조사에 따르면 독거노인가구의 경우 생활상 어려움이 없다는 응답은 19.6%에 불과했다. 독거노인이 경험하는 큰 어려움은 아플 때 간호해줄 사람이 부족한 것과 심리적 불안감을 지속적으로 느끼는 것으로 나타났다.
노인 인구의 증가는 노인 돌봄 서비스의 수요로 이어지고 있으나, 돌봄 서비스를 제공하기 위한 비용 및 인력이 부족한 실정이다. 최근에는 이를 해소하기 위해 스마트 헬스케어와 자가 건강관리를 지원하는 가정용 스마트 헬스케어 기기 및 반려로봇 등에 대한 기술들이 개발되고 있다.
이러한 종래의 문제점을 해결하기 위한 본 발명의 실시 예들은 사용자의 음식섭취 상태를 확인하여 사용자에게 피드백을 제공하면서 사용자와 자연스러운 대화를 수행할 수 있는 음식섭취 지원 서비스를 제공하는 방법 및 장치를 제공하는 것이다.
본 명세서에 개시된 기술의 기술적 사상에 따른 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제는 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 방법은, 로봇장치에 포함된 제1 장치 및 제2 장치 중 상기 제2 장치가 기설정된 음식섭취 시각이 도래하면 알람을 출력하는 단계, 상기 제2 장치가 상기 제1 장치로부터 음식섭취와 관련된 복수의 센싱데이터를 수신하는 단계, 상기 제2 장치가 상기 복수의 센싱데이터를 분석하는 단계, 상기 제2 장치가 상기 복수의 센싱데이터를 기반으로 하는 피드백을 출력하는 단계 및 상기 제2 장치가 입력된 음성데이터를 기반으로 실시간 쌍방향 의사소통을 수행하는 단계를 포함하는 것을 특징으로 한다.
또한, 알람을 출력하는 단계 이후에, 상기 제2 장치가 상기 로봇장치를 사용하는 사용자에 대한 센싱데이터를 획득하는 단계 및 상기 제2 장치가 상기 제2 장치에서 획득된 상기 센싱데이터를 기반으로 상기 사용자의 기분을 확인하는 단계를 더 포함하는 것을 특징으로 한다.
또한, 실시간 쌍방향 의사소통을 수행하는 단계는, 상기 제2 장치에서 획득된 상기 센싱데이터를 기반으로 확인된 상기 사용자의 기분 및 상기 음성데이터를 기반으로 상기 실시간 쌍방향 의사소통을 수행하는 단계인 것을 특징으로 한다.
또한, 복수의 센싱데이터를 수신하는 단계는, 숟가락을 포함하는 커트러리인 상기 제1 장치에 구비된 모션센서, 염도센서, 가스센서 및 온도센서를 포함하는 복수의 센서로부터 측정된 상기 복수의 센싱데이터를 수신하는 단계인 것을 특징으로 한다.
또한, 피드백을 출력하는 단계는, 상기 복수의 센싱데이터를 기반으로 상기 사용자의 저작속도, 음식에 포함된 염도정도, 상기 음식의 부패여부 및 상기 음식의 온도를 기반으로 상기 피드백을 출력하는 단계인 것을 특징으로 한다.
또한, 제2 장치가 상기 제1 장치로부터 상기 음식섭취의 종료여부를 확인하는 단계 및 상기 제2 장치가 상기 복수의 센싱데이터를 분석한 분석결과를 모니터링 장치로 전송하는 단계를 더 포함하는 것을 특징으로 한다.
또한, 음식섭취의 종료여부를 확인하는 단계 이후에, 상기 제2 장치가 상기 사용자의 건강상태를 고려하여 일정 기간의 식단을 생성하여 출력하는 단계를 더 포함하는 것을 특징으로 한다.
또한, 식단을 생성하여 출력하는 단계 이후에, 상기 제2 장치는 상기 사용자로부터 상기 식단에 필요한 재료 중 적어도 하나에 대한 구매요청신호를 수신하는 단계 및 기설정된 마트서버로 상기 구매요청신호에 따른 재료를 주문하는 단계를 더 포함하는 것을 특징으로 한다.
아울러, 본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 장치는, 복수의 센서를 포함하여 음식섭취와 관련된 복수의 센싱데이터를 획득하는 제1 장치 및 기설정된 음식섭취 시각이 도래하면 알람을 출력하고, 상기 제1 장치로부터 수신된 상기 복수의 센싱데이터를 분석하여 피드백을 출력하고, 사용자로부터 입력된 음성데이터를 기반으로 실시간 쌍방향 의사소통을 수행하는 제2 장치를 포함하는 것을 특징으로 한다.
또한, 제2 장치는, 상기 사용자에 대한 센싱데이터를 기반으로 상기 사용자의 기분을 확인하고, 상기 사용자의 기분 및 상기 음성데이터를 기반으로 상기 실시간 쌍방향 의사소통을 수행하는 것을 특징으로 한다.
또한, 제1 장치는, 숟가락을 포함하는 커트러리로 모션센서, 염도센서, 가스센서 및 온도센서를 포함하는 상기 복수의 센서를 구비하는 것을 특징으로 한다.
또한, 제2 장치는, 상기 복수의 센싱데이터를 기반으로 상기 사용자의 저작속도, 음식에 포함된 염도정도, 상기 음식의 부패여부 및 상기 음식의 온도를 기반으로 상기 피드백을 출력하는 것을 특징으로 한다.
또한, 제2 장치는, 상기 제1 장치로부터 상기 음식섭취의 종료여부를 확인되면 상기 복수의 센싱데이터를 분석한 분석결과를 모니터링 장치로 전송하는 것을 특징으로 한다.
또한, 제2 장치는, 상기 사용자의 건강상태를 고려하여 일정 기간의 식단을 생성하여 출력하는 것을 특징으로 한다.
또한, 제2 장치는, 상기 사용자로부터 수신된 상기 식단에 필요한 재료 중 적어도 하나에 대한 구매요청신호에 따라 기설정된 마트서버로 상기 구매요청신호에 따른 재료를 주문하는 것을 특징으로 한다.
상술한 바와 같이 본 발명에 따른 음식섭취 지원 서비스를 제공하는 방법 및 장치는, 사용자의 음식섭취 상태를 확인하여 사용자에게 피드백을 제공하면서 사용자와 자연스러운 대화를 수행하도록 함으로써, 돌봄 서비스를 위한 인력 없이도 보다 편리하고 정확하게 사용자의 건강관리 서비스를 제공할 수 있는 효과가 있다.
한편, 앞서 기재된 효과는 예시적인 것에 불과하며 당업자의 관점에서 본 발명의 세부 구성으로부터 예측되거나 기대되는 효과들 또한 본원발명 고유의 효과에 추가될 수 있을 것이다.
도 1은 본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 로봇장치를 나타낸 도면이다.
도 3은 본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 로봇장치에 포함된 제2 장치의 주요 구성을 나타낸 도면이다.
도 4는 본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 로봇장치에 포함된 제2 장치에서 음식섭취 지원 서비스를 제공하는 방법을 설명하기 위한 순서도이다.
도 6은 본 발명의 다른 실시 예에 따른 음식섭취 지원 서비스를 제공하는 시스템을 나타낸 도면이다.
도 7은 본 발명의 다른 실시 예에 따른 로봇장치에 포함된 제2 장치에서 음식섭취 지원 서비스를 제공하는 방법을 설명하기 위한 순서도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시내용은 도면 및 이상의 설명에서 상세하게 예시되고 설명되었지만, 본 개시내용은 특성이 제한적인 것이 아니라 예시적인 것으로 고려되어야 하고, 단지 소정의 실시형태가 도시되고 설명되었으며, 본 개시내용의 정신 내에 들어가는 모든 변화와 변형은 보호되는 것이 바람직함이 이해될 것이다.
도 1은 본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 시스템을 나타낸 도면이다.
도 1을 참조하면, 본 발명에 따른 시스템(10)은 로봇장치(100), 모니터링 장치(200) 및 단말장치(300)를 포함할 수 있다.
로봇장치(100)는 제1 장치(110)와 제2 장치(150)를 포함할 수 있고, 제1 장치(110) 및 제2 장치(150)는 하기의 도 2를 이용하여 보다 구체적으로 설명하기로 한다. 도 2는 본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 로봇장치를 나타낸 도면이다.
도 2를 참조하면, 본 발명에 따른 로봇장치(100)는 제1 장치(110)와 제2 장치(150)를 포함할 수 있고, 제1 장치(110)는 음식물을 사용자의 입으로 이동시킬 수 있는 숟가락을 포함하는 커트러리일 수 있다. 또한, 제2 장치(150)는 사용자에게 친밀감을 제공할 수 있게 봉제 인형의 형태로 구현될 수 있다.
제1 장치(110)는 크게 숟가락(110a)과 숟가락 보관함(110b)으로 구현될 수 있으며, 숟가락 보관함(110b)은 숟가락의 충전을 수행하는 충전부를 포함할 수 있다.
숟가락(110a)은 복수의 센서(111)와 LED(112)를 포함할 수 있고, 보관함(110b)에 넣어 충전을 수행할 수 있는 무선충전부(미도시)를 포함할 수 있다. 아울러, 복수의 센서(111)는 염도센서, 온도센서, 가스센서 및 모션센서를 포함할 수 있다.
염도센서는 숟가락(110a)에 얹어진 음식의 염도를 센싱할 수 있는 센서, 온도센서는 숟가락(110a)에 얹어진 음식의 온도를 센싱할 수 있는 센서, 가스센서는 숟가락(110a)에 얹어진 음식에서 배출되는 가스를 센싱할 수 있는 센서, 모션센서는 숟가락(110a)의 움직임을 센싱할 수 있는 센서일 수 있다. 또한, 숟가락(110a)은 음식의 산도, 기름 함유 정도를 센싱할 수 있는 센서를 더 포함할 수 있다.
LED(112)는 숟가락(110a)에 얹어진 음식에서 이상이 발견되지 않는 경우에는 녹색 빛을 발광하고, 숟가락(110a)에 얹어진 음식에서 이상이 발견된 경우, 예컨대, 염도가 임계치 이상, 온도가 임계치 이상, 음식에서 배출되는 가스의 농도가 임계치 이상인 경우에는 붉은 빛을 발광할 수 있다. 이를 통해, 사용자는 숟가락(110a)의 LED(112)를 통해 섭취하고자 하는 음식의 이상 정도를 쉽게 확인할 수 있다. 숟가락(110a)에는 사용자의 건강 상태를 기반으로 1회 식사 당 섭취해야 하는 염도의 임계치, 사용자가 섭취하기에 적합한 온도의 임계치, 음식의 부패정도를 확인하기 위한 가스 농도의 임계치가 저장될 수 있다. 아울러, 하기에서 언급하는 제1 장치(110)는 숟가락(110a)을 의미한다.
제2 장치(150)는 봉제인형의 형태를 한 로봇(150a)과 로봇(150a)을 거치하여 로봇(150a)을 충전시킬 수 있는 크래들(150b)을 포함할 수 있다. 제2 장치(150) 중 로봇(150a)은 제1 장치(110)와의 통신을 통해 제1 장치(110)로부터 측정된 음식섭취와 관련된 복수의 센싱데이터를 수집하고, 수집된 복수의 센싱데이터의 분석결과를 기반으로 사용자에게 음식섭취와 관련된 피드백을 제공함으로써 음식섭취 지원 서비스를 제공할 수 있다. 이를 위해, 로봇(150a)은 제1 장치(110)와 블루투스(bluetooth), BLE(bluetooth low energy), NFC(near field communication), 지그비(zigbee) 등의 근거리 무선 통신을 수행할 수 있다.
또한, 로봇(150a)은 사용자에 대한 센싱데이터를 기반으로 사용자의 기분을 분석할 수 있다. 로봇(150a)은 센싱데이터를 기반으로 분석된 사용자의 기분 및 사용자의 발화에 의한 음성데이터를 고려한 응답데이터를 출력하여 사용자와 실시간 쌍방향 의사소통을 수행할 수 있다. 아울러, 하기에서 언급하는 제2 장치(150)는 로봇(150a)을 의미한다.
제2 장치(150)는 모니터링 장치(200) 및 단말장치(300)와의 통신을 수행한다. 이를 통해, 제2 장치(150)는 제1 장치(110)로부터 수신된 복수의 센싱데이터의 분석결과를 모니터링 장치(200) 및 단말장치(300) 중 적어도 하나의 장치로 전송할 수 있다. 이를 위해, 제2 장치(150)는 모니터링 장치(200) 및 단말장치(300)와 5G(5th generation communication), LTE(long term evolution), LTE-A(long term evolution-advanced), Wi-Fi(wireless fidelity) 등의 무선 통신을 수행할 수 있다.
모니터링 장치(200)는 로봇장치(100)를 공급하는 공급자가 관리하는 장치일 수 있으며, 컴퓨터, 서버 등의 장치일 수 있다. 모니터링 장치(200)는 로봇장치(100)를 구매한 모든 사용자에 대한 건강 상태를 포함하는 개인 정보를 저장할 수 있다. 모니터링 장치(200)는 각 개인 정보를 기반으로 사용자 각각에 적합한 식단을 생성하여 제공할 수 있으며, 사용자 각각에 적합한 섭취 염도, 섭취 온도 등을 설정하여 로봇장치(100)로 제공할 수 있다.
모니터링 장치(200)는 제2 장치(150)와의 통신을 통해 제1 장치(110)에서 획득된 복수의 센싱데이터의 분석결과를 수신한다. 모니터링 장치(200)는 수신된 분석결과를 기반으로 사용자가 섭취하는 음식의 염도 평균치, 온도 평균치, 사용자의 식사 시간, 식사 횟수 및 AI통계 분석 리포트 등을 시각화하여 시각데이터로 표시할 수 있다. 모니터링 장치(200)는 로봇장치(100)를 사용하는 사용자의 보호자 또는 복지사의 단말장치(300)로 시각데이터를 전송할 수 있다.
또한, 모니터링 장치(200)는 제2 장치(150)와 사용자의 쌍방향 의사소통 시 제2 장치(150)에서 획득되는 센싱데이터를 기반으로 사용자의 우울증 및 치매를 조기 진단할 수 있고, 이를 단말장치(300)로 전송할 수 있다.
이를 위해, 모니터링 장치(200)는 제2 장치(150) 및 단말장치(300)와 5G(5th generation communication), LTE(long term evolution), LTE-A(long term evolution-advanced), Wi-Fi(wireless fidelity) 등의 무선 통신을 수행할 수 있다.
단말장치(300)는 로봇장치(100)를 사용하는 사용자의 보호자 또는 복지사가 사용하는 장치로, 스마트 폰, 태블릿 PC, 컴퓨터 등의 전자장치일 수 있다. 단말장치(300)는 모니터링 장치(200)에서 제공하는 음식섭취 지원 서비스와 관련된 어플리케이션을 다운로드하여 설치할 수 있다.
단말장치(300)는 로봇장치(100)에 포함된 제2 장치(150)로부터 수신된 분석결과를 기반으로 사용자가 섭취하는 음식의 염도 평균치, 온도 평균치, 사용자의 식사 시간, 식사 횟수 및 AI통계 분석 리포트 등을 시각화하여 어플리케이션에서 시각데이터로 표시할 수 있다. 또한, 단말장치(300)는 모니터링 장치(200)로부터 수신된 시각데이터를 어플리케이션을 통해 표시할 수 있다.
이를 위해, 단말장치(300)는 제2 장치(150) 및 모니터링 장치(200)와 5G(5th generation communication), LTE(long term evolution), LTE-A(long term evolution-advanced), Wi-Fi(wireless fidelity) 등의 무선 통신을 수행할 수 있다.
도 3은 본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 로봇장치에 포함된 제2 장치의 주요 구성을 나타낸 도면이다.
도 3을 참조하면, 본 발명에 따른 로봇(150a, 이하, 제2 장치(150)라 함)는 통신부(151), 입력부(152), 센서부(153), 카메라(154), 오디오처리부(155), 표시부(156), 메모리(157) 및 제어부(158)를 포함할 수 있다.
통신부(151)는 제1 장치(110)와의 통신을 수행한다. 이를 위해, 통신부(151)는 블루투스(bluetooth), BLE(bluetooth low energy), NFC(near field communication), 지그비(zigbee) 등의 근거리 무선 통신을 수행할 수 있다. 아울러, 통신부(151)는 모니터링 장치(200) 및 단말장치(300)와의 통신을 수행한다. 이를 위해, 통신부(151)는 5G(5th generation communication), LTE(long term evolution), LTE-A(long term evolution-advanced), Wi-Fi(wireless fidelity) 등의 무선 통신을 수행할 수 있다.
입력부(152)는 제2 장치(150)의 사용자 입력에 대응하여 입력 데이터를 발생시킨다. 이를 위해, 입력부(152)는 키보드, 마우스, 키패드, 돔 스위치, 터치패널, 터치 키 및 버튼 등의 입력장치를 포함할 수 있다.
센서부(153)는 레이더 센서, 터치 센서 및 온도 센서 등을 포함하여 사용자의 움직임, 사용자의 터치 및 사용자가 제2 장치(150)를 터치할 때의 사용자의 체온 등에 대한 센싱데이터를 획득할 수 있다. 센서부(153)는 심박센서를 포함하여 사용자가 제2 장치(150)를 품에 안고 있는 등과 같이 일정시간 이상을 소지하고 있을 때, 사용자의 심장박동 수를 포함하는 센싱데이터를 획득할 수 있다.
카메라(154)는 제2 장치(150)를 사용하는 사용자에 대한 영상데이터를 획득하기 위한 이미지 센서일 수 있으며, 특히, 사용자의 표정을 분석할 수 있도록 사용자의 얼굴을 포함하는 영상데이터인 센싱데이터를 획득할 수 있다.
오디오처리부(155)는 오디오 신호를 처리한다. 이때, 오디오처리부(155)는 스피커와 마이크를 포함한다. 오디오처리부(155)는 제어부(158)에서 출력되는 오디오 신호를 스피커를 통해 재생하고, 오디오처리부(155)는 마이크에서 발생되는 오디오 신호를 제어부(158)로 전달한다. 아울러, 마이크는 사용자의 음성데이터를 센싱데이터로 획득할 수 있따.
표시부(156)는 제2 장치(150)의 동작에 따른 출력 데이터를 출력한다. 이를 위해, 표시부(156)는 플렉서블 디스플레이(flexible display), 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이 등의 디스플레이 장치를 포함할 수 있다. 아울러, 표시부(156)는 입력부(152)와 결합되어 터치 스크린(touch screen)의 형태로 구현될 수 있다.
또한, 표시부(156)는 제2 장치(150)의 얼굴 부분 중에서도 눈과 입술 영역에 부분적으로 배치되거나, 얼굴 전체 영역에 배치되어 사용자와의 쌍방향 의사소통 시에 사용자가 진짜 사람과 대화하는 것처럼 느낄 수 있도록 눈과 입술 영역에 표정 등을 보다 입체적으로 표시할 수 있다. 특히, 표시부(156)는 제어부(158)의 제어에 따라 사용자로부터 수신된 음성데이터에 내포된 의미에 따라, 사용자에게 출력하는 음성데이터에 따라 눈과 입술 영역에 표정을 변화하여 표시할 수 있다.
메모리(157)는 제2 장치(150)의 동작 프로그램들을 저장한다. 메모리(157)는 사용자에게 식사시각, 제2 장치(150)의 터치시각, 제2 장치(150)에서 사용자의 움직임을 감지해야 하는 시각 등을 알리기 위한 시각 정보가 저장될 수 있다.
메모리(157)는 제1 장치(110)로부터 수신되는 복수의 센싱데이터를 분석하기 위한 알고리즘, 센서부(153), 카메라(154) 및 마이크에서 획득된 센싱데이터(이하, 제2 장치(150)에서 획득된 센싱데이터라 함)를 분석하여 사용자의 기분을 추론할 수 있는 알고리즘 및 사용자와 실시간 쌍방향 의사소통이 가능한 AI 채팅 알고리즘 등을 저장할 수 있다. 아울러, 메모리(157)는 제1 장치(110)로부터 수신된 복수의 센싱데이터와 제2 장치(150)에서 획득된 센싱데이터의 분석결과를 전송하기 위한 모니터링 장치(200) 및 단말장치(300)의 접속 어드레스 등을 저장할 수 있다.
제어부(158)는 기설정된 일정시각의 도래가 확인되면 이를 알리는 알람을 음성데이터로 출력한다. 이때, 기설정된 일정시각은, 식사시각, 로봇장치(100)를 터치해야 하는 터치시각, 로봇장치(100)에서 사용자의 움직임을 감지해야 하는 시각 등을 포함할 수 있다.
제어부(158)는 제1 장치(110) 및 제2 장치(150)의 적어도 하나로부터 획득된 센싱데이터를 수집할 수 있다. 이때, 식사시각이 도래한 경우, 제어부(158)는 제1 장치(110)에 포함된 복수의 센서(111)에서 획득된 복수의 센싱데이터를 수집할 수 있고, 센서부(153), 카메라(154) 및 마이크 중 적어도 하나로부터 센싱데이터를 획득할 수 있다. 또한, 터치시각 또는 움직임을 감지해야 하는 시각이 도래한 경우, 제어부(158)는 센서부(153), 카메라(154) 및 마이크 중 적어도 하나를 이용하여 사용자의 체온데이터를 포함하는 생체신호 데이터, 사용자의 움직임데이터, 사용자의 얼굴을 포함하는 영상데이터 및 사용자의 음성데이터 중 적어도 하나를 센싱데이터로 획득할 수 있다.
제어부(158)는 획득된 센싱데이터를 분석하여 해당기능을 수행한다. 보다 구체적으로, 제어부(158)는 식사시각이 도래한 경우에 제2 장치(150)에서 획득된 센싱데이터를 기반으로 사용자의 기분을 확인할 수 있다. 또한, 제어부(158)는 제1 장치(110)에서 획득된 복수의 센싱데이터를 기반으로 사용자가 섭취하는 음식의 염도, 온도, 부패 여부 등을 확인하고, 이에 대한 피드백을 음성데이터로 출력할 수 있다.
또한, 제어부(158)는 터치시각이나 움직임을 감지해야 하는 시각이 도래한 경우에 제2 장치(150)에서 획득된 센싱데이터를 기반으로 사용자의 체온, 이동유무 및 기분 중 적어도 하나를 확인한다. 그리고 제어부(158)는 확인된 센싱데이터에 대한 피드백을 음성데이터로 출력할 수 있다. 아울러, 제어부(158)는 사용자의 기분에 따라 퀴즈, 종교음악, 체조, 노래, 영어듣기 등의 컨텐츠를 출력할 수 있다.
아울러, 제어부(158)는 마이크를 통해 수신된 사용자의 음성데이터를 분석하여 적절한 응답을 음성데이터로 출력하여 사용자와 실시간 쌍방향 의사소통을 수행할 수 있다. 이때, 제어부(158)는 정해진 시각을 기준으로 임계시간 내에 센싱데이터가 수집되지 않으면 사용자에게 이상이 생긴 것으로 인지하고, 모니터링 서버(200) 및 단말장치(300)로 긴급상황임을 알리는 메시지를 송부할 수 있다. 또한, 제어부(158)는 사용자의 심장박동수에 이상이 발생된 것으로 인지할 경우, 모니터링 서버(200) 및 단말장치(300)로 긴급상황임을 알리는 메시지를 송부할 수 있다.
제어부(158)는 모니터링 장치(200)에서 사용자의 우울증, 치매 등의 질환을 조기 진단할 수 있도록, 사용자가 식사나 간식 등과 같은 음식을 섭취할 때 수행된 사용자와의 쌍방향 의사소통 시에 제2 장치(150)에서 획득된 센싱데이터 등을 모니터링 장치(200)로 전송할 수 있다.
도 4는 본 발명의 실시 예에 따른 음식섭취 지원 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 401단계에서 로봇장치(100)는 기설정된 일정시각의 도래가 확인되면 403단계를 수행하고, 기설정된 일정시각의 도래가 확인되지 않으면 일정시각의 도래여부를 지속적으로 판단한다. 403단계에서 로봇장치(100)는 일정시각이 도래되었음을 알리는 알람을 출력한다. 이때, 기설정된 일정시각은, 식사시각, 로봇장치(100)를 터치해야 하는 터치시각, 로봇장치(100)에서 사용자의 움직임을 감지해야 하는 시각 등을 포함할 수 있다.
아울러, 로봇장치(100)는 음성데이터로 알람을 출력할 수 있다. 예컨대, 사용자가 남성일 경우, 로봇장치(100)는 “할아버지, 같이 아침 먹어요.” 등과 같이 사용자가 음식을 섭취할 수 있도록 알람을 출력할 수 있다. 이때, 로봇장치(100)는 “할아버지 오늘 점심에 드실 건강 식단은 보리밥, 감자국, 깍두기, 취나물 무침, 싱겁게 요리한 불고기예요. 밥은 적게 채소와 과일을 충분히 드시면 건강에 좋아요.”, “할아버지, 저는 할아버지와 밥 먹을 때가 가장 행복해요. 저랑 얘기하면서 밥 먹어요.” 등과 같은 음성데이터를 출력할 수 있다.
또한, 로봇장치(100)는 “할아버지, 저를 쓰다듬어 주세요.”, “할아버지, 저와 놀아주세요.”, “할아버지, 저 심심해요. 저와 같이 수다 떨어요.” 등과 같이 사용자에게 로봇장치(100)를 터치하거나, 로봇장치(100)의 근처로 이동하게끔 유도할 수 있는 음성데이터를 출력할 수 있다.
405단계에서 로봇장치(100)는 센싱데이터를 수집할 수 있다. 이때, 식사시각이 도래한 경우, 로봇장치(100)에 포함된 제2 장치(150)는 제1 장치(110)에 포함된 복수의 센서(111)를 이용하여 제1 장치(110)에서 감지되는 음식의 염도, 온도, 부패 여부 및 음식섭취속도 등에 대한 센싱데이터를 획득할 수 있고, 제2 장치(150)에서 센싱데이터를 획득할 수 있다.
또한, 터치시각 또는 움직임을 감지해야 하는 시각이 도래한 경우, 제2 장치(150)는 제2 장치(150)에 포함된 센서부(153), 카메라(154) 및 마이크 중 적어도 하나를 이용하여 사용자의 생체신호 데이터, 사용자의 움직임데이터, 사용자의 얼굴을 포함하는 영상데이터 및 사용자의 음성데이터 중 적어도 하나를 센싱데이터로 획득할 수 있다.
407단계에서 로봇장치(100)는 제1 장치(110)에서 획득된 복수의 센싱데이터와 제2 장치(150)에서 획득된 센싱데이터를 분석하고 409단계를 수행한다. 409단계에서 로봇장치(100)는 해당기능을 수행한다. 보다 구체적으로, 로봇장치(100)는 식사시각이 도래한 경우에 제2 장치(150)에서 획득된 센싱데이터를 기반으로 사용자의 기분을 확인하고, 제1 장치(110)에서 획득된 복수의 센싱데이터를 기반으로 사용자가 섭취하는 음식의 염도, 온도, 부패 여부 등을 확인한다. 그리고 로봇장치(100)는 “할아버지, 모든 반찬을 저처럼 꼭꼭 씹어드세요. 맛있게 드세요.”, “할아버지, 오늘 감자국이 짜지 않고 간이 딱 좋아요.”, “할아버지, 오늘은 30분 동안 천천히 꼭꼭 씹어서 밥을 먹었어요. 숟가락은 깨끗하게 씻어서 다시 보관함에 넣어주세요. 그러면 깨끗하게 살균 건조가 된답니다. 이따 또 만나요.”, “할아버지, 오늘 너무 식사를 급하게 하시는 것 같아요. 천천히 드세요.” 등과 같은 음성데이터를 출력할 수 있다. 아울러, 로봇장치(100)는 제2 장치(150)에서 획득된 센싱데이터를 기반으로 확인된 사용자의 기분과 제2 장치(150)에 포함된 마이크를 통해 수신된 사용자의 음성데이터를 분석하여 적절한 응답을 음성데이터로 출력하여 음식섭취 중인 사용자와 로봇장치(100) 사이에 실시간 쌍방향 의사소통을 수행할 수 있다.
또한, 로봇장치(100)는 터치시각이나 움직임을 감지해야 하는 시각이 도래한 경우에 제2 장치(150)에서 획득된 센싱데이터를 기반으로 사용자의 체온, 이동유무 및 기분 중 적어도 하나를 확인한다. 그리고 로봇장치(100)는 “할아버지, 손이 너무 차가워요. 핫팩을 몸에 올려놓으시거나, 따뜻한 차 한 잔 드세요.”, “할아버지, 오늘 왜 기분이 좋지 않으세요. 그럼 저도 기분이 좋지 않아요. 우리 신나는 노래라도 들을까요?” 등과 같은 음성데이터를 출력할 수 있다. 그리고, 로봇장치(100)는 사용자의 요청 또는 사용자가 기설정한 조건에 따라 퀴즈, 종교음악, 체조, 노래, 영어듣기 등의 컨텐츠를 출력할 수 있다. 아울러, 로봇장치(100)는 제2 장치(150)에서 획득된 센싱데이터를 기반으로 확인된 사용자의 기분 및 마이크를 통해 수신된 사용자의 음성데이터를 분석하여 적절한 응답을 음성데이터로 출력함으로써 사용자와 로봇장치(100) 사이에 실시간 쌍방향 의사소통을 수행할 수 있다.
411단계에서 로봇장치(100)는 407단계에서 분석된 제1 장치(110)에서 획득된 복수의 센싱데이터의 분석결과를 모니터링 장치(200)로 전송한다. 또한, 411단계에서 로봇장치(100)는 사용자가 식사나 간식 등과 같은 음식을 섭취할 때 수행된 사용자와의 쌍방향 의사소통 시에 제2 장치(150)에서 획득된 센싱데이터 등을 모니터링 장치(200)로 전송할 수 있다.
413단계에서 모니터링 장치(200)는 분석결과를 기반으로 음식의 염도 평균치, 온도 평균치, 사용자의 식사 시간, 식사 횟수 및 AI통계 분석 리포트 등을 시각데이터로 표시할 수 있다. 또한, 413단계에서 모니터링 장치(200)는 쌍방향 의사소통 시에 제2 장치(150)에서 획득된 센싱데이터를 기반으로 사용자의 우울증, 치매 등의 질환을 조기 진단할 수 있다.
415단계에서 모니터링 장치(200)는 시각데이터 및 조기 진단 결과를 단말장치(300)로 전송할 수 있고, 417단계에서 단말장치(300)는 모니터링 장치(200)로부터 수신된 시각데이터 및 조기 진단 결과를 표시할 수 있다.
이를 통해, 스마트 폰 등과 같은 전자장치의 사용이 익숙하지 않은 사용자도 로봇장치(100)만을 이용하여 음식섭취 시의 식사 패턴 등을 자연스럽게 확인할 수 있다. 또한, 사용자의 보호자 또는 복지사가 단말장치(300)를 이용하여 사용자의 식사 패턴이나 건강 상태를 실시간 또는 주기적으로 확인할 수 있으므로, 사용자에게 이상이 발생한 경우를 직접 방문하지 않고도 확인할 수 있는 효과가 있다.
도 5는 본 발명의 실시 예에 따른 로봇장치에 포함된 제2 장치에서 음식섭취 지원 서비스를 제공하는 방법을 설명하기 위한 순서도이다.
도 5를 참조하면, 501단계에서 제어부(158)는 기설정된 식사시각의 도래여부를 확인한다. 501단계의 확인결과, 기설정된 식사시각이 도래하면 제어부(158)는 503단계를 수행하고, 기설정된 식사시각이 도래하지 않으면 제어부(158)는 식사시각의 도래여부를 지속적으로 확인한다.
503단계에서 제어부(158)는 식사시각이 도래했음을 알리는 알람을 음성데이터로 출력한다. 예컨대, 사용자가 남성일 경우, 로봇장치(100)는 “할아버지, 같이 아침 먹어요.” 등과 같이 사용자가 식사를 할 수 있도록 알람을 출력할 수 있다. 이때, 로봇장치(100)는 “할아버지 오늘 점심에 드실 건강 식단은 보리밥, 감자국, 깍두기, 취나물 무침, 싱겁게 요리한 불고기예요. 밥은 적게 채소와 과일을 충분히 드시면 건강에 좋아요.”, “할아버지, 저는 할아버지와 밥 먹을 때가 가장 행복해요. 저랑 얘기하면서 밥 먹어요.” 등과 같은 음성데이터를 출력할 수 있다.
505단계에서 제어부(158)는 센서부(153), 카메라(154) 및 마이크 중 적어도 하나로부터 센싱데이터를 획득할 수 있다. 이를 위해, 제어부(158)는 “할아버지, 할아버지 얼굴을 보고 싶어요. 저와 눈을 마주쳐주세요.”, “할아버지, 목소리 듣고 싶어요.” 등과 같은 음성데이터 출력을 통해, 제2 장치(150)에서 사용자에 대한 센싱데이터를 획득할 수 있도록 사용자를 제2 장치(150)의 근처로 유도할 수 있다.
507단계에서 제어부(158)는 제1 장치(110)로부터 복수의 센싱데이터의 수신여부를 확인한다. 507단계의 확인결과, 제1 장치(110)로부터 복수의 센싱데이터가 수신되면 제어부(158)는 513단계를 수행하고, 복수의 센싱데이터가 수신되지 않으면 복수의 센싱데이터의 수신을 대기한다. 이때, 복수의 센싱데이터는 사용자가 제1 장치(110)를 보관함(110b)에서 꺼내는 순간부터 획득될 수 있으며, 이는 제1 장치(110)에 포함된 모션센서로부터 획득된 모션 센싱데이터로 확인할 수 있다. 이와 같이, 모션센서로부터 사용자가 제1 장치(110)를 보관함(110b)에서 꺼냄이 확인되면 제어부(158)는 “할아버지, 천천히 꼭꼭 씹어서 맛있게 드세요.” 등과 같은 음성메시지를 출력할 수 있다.
아울러, 복수의 센싱데이터는 제1 장치(110)에 포함된 모션센서, 염도센서, 온도센서 및 가스센서로부터 획득된 센싱데이터를 포함할 수 있다. 복수의 센싱데이터는 사용자가 제1 장치(110)를 이용하여 음식을 먹을 때 제1 장치(110)의 이동속도, 제1 장치(110)에 얹어진 음식의 염도, 온도, 부패 여부 등을 확인할 수 있는 센싱데이터를 의미할 수 있다.
509단계에서 제어부(158)는 제1 장치(110)로부터 수신된 복수의 센싱데이터의 분석을 수행한다. 보다 구체적으로, 제어부(158)는 복수의 센싱데이터를 분석하여 음식의 염도, 온도, 부패 여부 및 제1 장치(110)의 이동속도를 기반으로 사용자의 식사시간을 확인할 수 있다. 또한, 제어부(158)는 제2 장치(150)에서 획득된 센싱데이터를 기반으로 사용자의 기분을 확인할 수 있다. 511단계에서 제어부(158)는 제1 장치(110)로부터 수신된 복수의 센싱데이터의 분석결과, 사용자에게 음식섭취와 관련된 피드백이 필요하다고 판단되면 513단계를 수행하고, 피드백이 필요하지 않다고 판단되면 515단계를 수행한다.
515단계에서 제어부(158)는 509단계에서 확인된 사용자의 기분과, 마이크를 통해 수신된 사용자의 음성데이터를 고려하여 음식을 섭취 중인 사용자와 실시간 쌍방향 의사소통을 수행하고 517단계를 수행한다. 이는 AI(artificial intelligence) 챗봇 등과 같은 기능을 이용할 수 있다.
반대로, 사용자가 식사를 하는 중에 피드백이 필요하다고 판단되면 513단계에서 제어부(158)는 “할아버지, 모든 반찬을 저처럼 꼭꼭 씹어드세요.“, “할아버지, 오늘은 감자국이 좀 짜네요. 따뜻한 물을 국에 조금 넣어서 드세요.” 등과 같이 섭취 중인 음식의 상태 및 식사속도와 관련된 피드백을 음성데이터로 출력한다. 이어서, 515단계에서 제어부(158)는 사용자 식사 도중에 실시간으로 확인되는 사용자의 기분과 마이크를 통해 수신된 사용자의 음성데이터를 고려하여 음식을 섭취 중인 사용자의 실시간 쌍방향 의사소통을 수행할 수 있다.
이어서, 517단계에서 제어부(158)는 사용자의 식사가 종료된 것으로 확인되면 519단계를 수행하고, 사용자의 식사가 종료되지 않은 것으로 확인되면 509단계로 회귀하여 509단계 내지 515단계를 재수행할 수 있다. 아울러, 제어부(158)는 제1 장치(110)에서 더 이상 움직임이 감지되지 않거나, 제1 장치(110)가 보관함(110b)에 수납되는 것이 확인되면 사용자의 식사가 종료된 것으로 확인할 수 있다.
이와 같이, 사용자의 식사가 종료된 것으로 확인되면 제2 장치(150)는 “할아버지, 오늘은 너무 급하게 드셨어요. 다음에는 30분 동안 천천히 꼭꼭 씹어서 밥을 먹어요. 숟가락은 깨끗하게 씻어서 다시 보관함에 넣어주세요. 그러면 깨끗하게 살균 건조가 된답니다. 이따 또 만나요.” 등과 같은 음성메시지를 피드백으로 출력할 수 있다.
519단계에서 제어부(158)는 식사가 종료될 때까지 제1 장치(110)에서 획득된 복수의 센싱데이터의 분석결과를 모니터링 장치(200)로 전송할 수 있다. 이를 통해, 모니터링 장치(200)의 관리자는 사용자가 섭취하는 음식의 염도 평균치, 온도 평균치를 확인할 수 있고, 사용자의 식사 시간, 식사 횟수 및 AI통계 분석 리포트 등을 확인하여 시각데이터로 표시할 수 있다. 아울러, 519단계에서 제어부(158)는 사용자와의 쌍방향 의사소통 시에 제2 장치(150)에서 획득된 센싱데이터 등을 모니터링 장치(200)로 전송할 수 있다. 이를 통해, 모니터링 장치(200)의 관리자는 사용자의 우울증, 치매 등의 질환을 조기 진단할 수 잇따.
도 6은 본 발명의 다른 실시 예에 따른 음식섭취 지원 서비스를 제공하는 시스템을 나타낸 도면이다.
도 1 내지 도 6을 참조하면, 본 발명의 다른 실시 예에 따른 시스템(60)은 로봇장치(100), 모니터링 장치(200), 단말장치(300) 및 마트서버(400)를 포함할 수 있다.
로봇장치(100), 모니터링 장치(200) 및 단말장치(300)는 도 1 내지 도 3에서 설명한 로봇장치(100), 모니터링 장치(200) 및 단말장치(300)와 동일한 기능을 수행하므로 구체적인 설명은 생략하기로 한다.
다만, 도 1 내지 도 3에 추가적으로, 로봇장치(100)는 마트서버(400)와의 통신을 통해 식재료에 대한 구매요청신호를 마트서버(400)로 전송할 수 있다. 이를 위해, 로봇장치(100)는 마트서버(400)와 5G(5th generation communication), LTE(long term evolution), LTE-A(long term evolution-advanced), Wi-Fi(wireless fidelity) 등의 무선 통신을 수행할 수 있다.
보다 구체적으로, 로봇장치(100)는 식단안내 요청신호가 수신되면, 로봇장치(100)에 저장된 사용자의 건강 상태를 기반으로 사용자에게 필요한 영양소가 포함된 음식을 기준으로 하는 식단을 안내한다. 이때, 식단은 일정 기간 예컨대, 3일 동안의 식단일 수 있다. 아울러, 식단안내 요청신호는 입력부(152) 또는 마이크를 통해 사용자로부터 수신되는 입력으로부터 생성될 수 있고, 도 5에서와 같이 사용자의 식사종료가 확인되는 것을 기준으로 할 수 있다. 또한, 식단안내 요청신호는 사용자가 기설정한 시각이 도래하는 것을 기준으로 할 수 있다.
로봇장치(100)는 식단을 구성하기 위한 재료 중 구매하고자 하는 재료에 대한 구매요청신호가 수신되면, 구매요청신호에 대응되는 재료를 구매하기 위한 구매신호를 마트서버(400)로 전송한다. 로봇장치(100)는 마트서버(400)를 통해 구매요청신호에 대응되는 재료를 자동으로 주문한다. 이때, 재료의 주문량은 최소 주문량이 될 수 있으며, 사용자가 기설정한 주문량을 기반으로 주문할 수 있다.
로봇장치(100)는 사용자가 결제를 위해 마트서버(400)에 미리 저장해놓은 결제수단을 이용하여 결제를 수행할 수 있고, 마트서버(400)에 미리 저장해놓은 사용자의 보호자가 사용하는 단말장치(300)를 통해 결제를 수행할 수도 있다.
마트서버(400)는 로봇장치(100)를 사용하는 사용자 또는 사용자의 보호자 등이 미리 설정해놓은 마트에서 관리하는 장치로, 컴퓨터 등의 전자장치 또는 서버일 수 있다. 마트서버(400)는 로봇장치(100)로부터 식재료에 대한 구매요청신호를 수신한다. 이를 위해, 마트서버(400)는 로봇장치(100)와 5G(5th generation communication), LTE(long term evolution), LTE-A(long term evolution-advanced), Wi-Fi(wireless fidelity) 등의 무선 통신을 수행할 수 있다.
마트서버(400)는 로봇장치(100)로부터 요청된 구매요청신호에 대응되는 식재료의 주문에 대한 비용결제가 완료되면 식재료를 주문한 주소지로 식재료의 배송을 수행한다. 이때, 비용결제 및 주소지는 로봇장치(100) 및 단말장치(300) 중 어느 하나의 장치에 의해 입력되어 기설정될 수 있다.
도 7은 본 발명의 다른 실시 예에 따른 로봇장치에 포함된 제2 장치에서 음식섭취 지원 서비스를 제공하는 방법을 설명하기 위한 순서도이다.
도 7을 참조하면, 701단계에서 제어부(158)는 식단안내 요청신호의 수신여부를 확인한다. 701단계의 확인결과, 식단안내 요청신호가 수신되면 제어부(158)는 703단계를 수행하고, 식단안내 요청신호가 수신되지 않으면 제어부(158)는 식단안내 요청신호의 수신을 대기한다. 이때, 식단안내 요청신호는 입력부(152) 또는 마이크를 통해 사용자로부터 수신되는 입력으로부터 생성될 수 있고, 도 5에서와 같이 사용자의 식사종료가 확인되는 것을 기준으로 할 수 있다. 또한, 식단안내 요청신호는 사용자가 기설정한 시각이 도래하는 것을 기준으로 할 수 있다.
703단계에서 제어부(158)는 메모리(157)에 저장된 사용자의 건강 상태를 기반으로 사용자에게 필요한 영양소가 포함된 음식을 기준으로 하는 식단을 안내한다. 이때, 식단은 일정 기간 예컨대, 3일 동안의 식단일 수 있다.
705단계에서 제어부(158)는 입력부(152) 또는 마이크를 통해 사용자로부터 식단을 구성하기 위해 필요한 재료 중 적어도 하나에 대한 구매요청신호가 수신되면 707단계를 수행하고, 구매요청신호가 수신되지 않으면 해당 프로세스를 종료한다. 707단계에서 제어부(158)는 구매요청신호에 대응되는 재료를 구매하기 위한 구매신호를 마트서버(400)로 전송한다. 이때, 마트서버(400)는 사용자가 기설정한 마트에서 운영하는 서버일 수 있다.
709단계에서 제어부(158)는 마트서버(400)에서 구매요청신호에 대응되는 재료를 자동으로 주문한다. 이때, 재료의 주문량은 최소 주문량이 될 수 있으며, 사용자가 기설정한 주문량을 기반으로 주문할 수 있다. 이어서, 711단계에서 제어부(158)는 주문이 완료됨을 알리는 메시지를 출력한다. 이때, 마트서버(400)에는 사용자가 결제를 위한 수단을 미리 저장해놓을 수 있으며, 사용자의 보호자가 사용하는 단말장치(300)를 통해 결제가 수행될 수도 있다.
이상에서 설명된 장치 및 이에 대한 제어는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소, 물리적 장치, 가상 장치, 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (15)

  1. 로봇장치에 포함된 제1 장치 및 제2 장치 중 상기 제2 장치가 기설정된 음식섭취 시각이 도래하면 알람을 출력하는 단계;
    상기 제2 장치가 상기 제1 장치로부터 음식섭취와 관련된 복수의 센싱데이터를 수신하는 단계;
    상기 제2 장치가 상기 복수의 센싱데이터를 분석하는 단계;
    상기 제2 장치가 상기 복수의 센싱데이터를 기반으로 하는 피드백을 출력하는 단계; 및
    상기 제2 장치가 입력된 음성데이터를 기반으로 실시간 쌍방향 의사소통을 수행하는 단계;
    를 포함하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 방법.
  2. 제1항에 있어서,
    상기 알람을 출력하는 단계 이후에,
    상기 제2 장치가 상기 로봇장치를 사용하는 사용자에 대한 센싱데이터를 획득하는 단계; 및
    상기 제2 장치가 상기 제2 장치에서 획득된 상기 센싱데이터를 기반으로 상기 사용자의 기분을 확인하는 단계;
    를 더 포함하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 방법.
  3. 제2항에 있어서,
    상기 실시간 쌍방향 의사소통을 수행하는 단계는,
    상기 제2 장치에서 획득된 상기 센싱데이터를 기반으로 확인된 상기 사용자의 기분 및 상기 음성데이터를 기반으로 상기 실시간 쌍방향 의사소통을 수행하는 단계인 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 방법.
  4. 제1항에 있어서,
    상기 복수의 센싱데이터를 수신하는 단계는,
    숟가락을 포함하는 커트러리인 상기 제1 장치에 구비된 모션센서, 염도센서, 가스센서 및 온도센서를 포함하는 복수의 센서로부터 측정된 상기 복수의 센싱데이터를 수신하는 단계인 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 방법.
  5. 제4항에 있어서,
    상기 피드백을 출력하는 단계는,
    상기 복수의 센싱데이터를 기반으로 상기 사용자의 저작속도, 음식에 포함된 염도정도, 상기 음식의 부패여부 및 상기 음식의 온도를 기반으로 상기 피드백을 출력하는 단계인 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 방법.
  6. 제1항에 있어서,
    상기 제2 장치가 상기 제1 장치로부터 상기 음식섭취의 종료여부를 확인하는 단계; 및
    상기 제2 장치가 상기 복수의 센싱데이터를 분석한 분석결과를 모니터링 장치로 전송하는 단계;
    를 더 포함하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 방법.
  7. 제6항에 있어서,
    상기 음식섭취의 종료여부를 확인하는 단계 이후에,
    상기 제2 장치가 상기 사용자의 건강상태를 고려하여 일정 기간의 식단을 생성하여 출력하는 단계;
    를 더 포함하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 방법.
  8. 제7항에 있어서,
    상기 식단을 생성하여 출력하는 단계 이후에,
    상기 제2 장치는 상기 사용자로부터 상기 식단에 필요한 재료 중 적어도 하나에 대한 구매요청신호를 수신하는 단계; 및
    기설정된 마트서버로 상기 구매요청신호에 따른 재료를 주문하는 단계;
    를 더 포함하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 방법.
  9. 복수의 센서를 포함하여 음식섭취와 관련된 복수의 센싱데이터를 획득하는 제1 장치; 및
    기설정된 음식섭취 시각이 도래하면 알람을 출력하고, 상기 제1 장치로부터 수신된 상기 복수의 센싱데이터를 분석하여 피드백을 출력하고, 사용자로부터 입력된 음성데이터를 기반으로 실시간 쌍방향 의사소통을 수행하는 제2 장치;
    를 포함하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 장치.
  10. 제9항에 있어서,
    상기 제2 장치는,
    상기 사용자에 대한 센싱데이터를 기반으로 상기 사용자의 기분을 확인하고, 상기 사용자의 기분 및 상기 음성데이터를 기반으로 상기 실시간 쌍방향 의사소통을 수행하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 장치.
  11. 제9항에 있어서,
    상기 제1 장치는,
    숟가락을 포함하는 커트러리로 모션센서, 염도센서, 가스센서 및 온도센서를 포함하는 상기 복수의 센서를 구비하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 장치.
  12. 제11항에 있어서,
    상기 제2 장치는,
    상기 복수의 센싱데이터를 기반으로 상기 사용자의 저작속도, 음식에 포함된 염도정도, 상기 음식의 부패여부 및 상기 음식의 온도를 기반으로 상기 피드백을 출력하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 장치.
  13. 제9항에 있어서,
    상기 제2 장치는,
    상기 제1 장치로부터 상기 음식섭취의 종료여부를 확인되면 상기 복수의 센싱데이터를 분석한 분석결과를 모니터링 장치로 전송하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 장치.
  14. 제13항에 있어서,
    상기 제2 장치는,
    상기 사용자의 건강상태를 고려하여 일정 기간의 식단을 생성하여 출력하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 장치.
  15. 제14항에 있어서,
    상기 제2 장치는,
    상기 사용자로부터 수신된 상기 식단에 필요한 재료 중 적어도 하나에 대한 구매요청신호에 따라 기설정된 마트서버로 상기 구매요청신호에 따른 재료를 주문하는 것을 특징으로 하는 음식섭취 지원 서비스를 제공하는 장치.
KR1020220027044A 2022-03-02 2022-03-02 음식섭취 지원 서비스를 제공하는 방법 및 장치 KR20230129866A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220027044A KR20230129866A (ko) 2022-03-02 2022-03-02 음식섭취 지원 서비스를 제공하는 방법 및 장치
PCT/KR2023/002284 WO2023167450A1 (ko) 2022-03-02 2023-02-16 음식섭취 지원 서비스를 제공하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220027044A KR20230129866A (ko) 2022-03-02 2022-03-02 음식섭취 지원 서비스를 제공하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20230129866A true KR20230129866A (ko) 2023-09-11

Family

ID=87883998

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220027044A KR20230129866A (ko) 2022-03-02 2022-03-02 음식섭취 지원 서비스를 제공하는 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20230129866A (ko)
WO (1) WO2023167450A1 (ko)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101552339B1 (ko) * 2012-11-30 2015-09-09 유해정 피드백이 가능한 맞춤형 식단 및 식재료 구매 서비스 장치 및 방법
KR20160065341A (ko) * 2014-11-28 2016-06-09 (주)스튜디오 크로스컬쳐 돌보미 토이 및 모바일기기를 이용한 독거노인 지원 시스템
KR20160128017A (ko) * 2015-04-28 2016-11-07 삼성전자주식회사 전자 장치, 서버 및 그 제어 방법
US9818310B2 (en) * 2015-06-22 2017-11-14 Verily Life Sciences Llc Assessment of nutrition intake using a handheld tool
JP6528019B2 (ja) * 2015-08-18 2019-06-12 黒木 一成 食事摂取誘導システム
KR20180078555A (ko) * 2016-12-30 2018-07-10 대구보건대학교산학협력단 실버 스마트 기기를 이용한 노인 케어 시스템

Also Published As

Publication number Publication date
WO2023167450A1 (ko) 2023-09-07

Similar Documents

Publication Publication Date Title
TWI715690B (zh) 保健追踪服務
US20190307983A1 (en) Standalone handheld wellness device
US8747312B2 (en) Biometric monitoring device having a body weight sensor, and methods of operating same
US20180004914A1 (en) Personal Health Advisor System
US20120178065A1 (en) Advanced Button Application for Individual Self-Activating and Monitored Control System in Weight Loss Program
US20140085077A1 (en) Sedentary activity management method and apparatus using data from a data-capable band for managing health and wellness
JP2015505694A (ja) 行動トラッキングおよび修正システム
US11633103B1 (en) Automatic in-home senior care system augmented with internet of things technologies
CN107004214A (zh) 用户状态调控的产品选择
JP2015079466A (ja) 食事型センサ、センシング方法及び食品
Palumbo et al. Reliability and human factors in Ambient Assisted Living environments: The DOREMI case study
US20150262507A1 (en) Method, system, and computer program product for nutritional improvement
CN104808503A (zh) 一种信息处理方法及电子设备
Palumbo et al. “Hi This Is NESTORE, Your Personal Assistant”: design of an Integrated IoT system for a personalized coach for healthy aging
US20150279175A1 (en) Quantified-self machines and circuits reflexively related to big data analytics user interface systems, machines and circuits
Anumala et al. Distributed device health platform using internet of things devices
JP2022106679A (ja) 感情感知スマート冷蔵庫
CN109584991A (zh) 一种用于通过冰箱提供食材配组信息的方法以及冰箱
KR20230129866A (ko) 음식섭취 지원 서비스를 제공하는 방법 및 장치
US20220319713A1 (en) Atmospheric mirroring and dynamically varying three-dimensional assistant addison interface for interior environments
JP2014164411A (ja) 健康管理支援システムおよびプログラム
JP2017041217A (ja) 食事摂取誘導システム
KR102464925B1 (ko) 웨어러블 디바이스 및 웨어러블 디바이스의 제어방법
KR20070092071A (ko) 외부 장치 연결용 체중계 및 이를 이용한 서비스 제공 방법
KR102395631B1 (ko) 스마트 트레이 기반의 개인 섭생 관리 시스템