KR102488997B1 - 휴대용 장치를 이용한 음식량 측정 방법, 서버 및 프로그램 - Google Patents

휴대용 장치를 이용한 음식량 측정 방법, 서버 및 프로그램 Download PDF

Info

Publication number
KR102488997B1
KR102488997B1 KR1020190050086A KR20190050086A KR102488997B1 KR 102488997 B1 KR102488997 B1 KR 102488997B1 KR 1020190050086 A KR1020190050086 A KR 1020190050086A KR 20190050086 A KR20190050086 A KR 20190050086A KR 102488997 B1 KR102488997 B1 KR 102488997B1
Authority
KR
South Korea
Prior art keywords
food
information
image
meal
portable device
Prior art date
Application number
KR1020190050086A
Other languages
English (en)
Other versions
KR20200126288A (ko
Inventor
김대훈
Original Assignee
주식회사 누비랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 누비랩 filed Critical 주식회사 누비랩
Priority to KR1020190050086A priority Critical patent/KR102488997B1/ko
Priority to PCT/KR2020/005762 priority patent/WO2020222561A1/ko
Priority to CN202080039179.5A priority patent/CN113874678A/zh
Priority to EP20798930.2A priority patent/EP3964793A4/en
Priority to JP2021564482A priority patent/JP2022530263A/ja
Publication of KR20200126288A publication Critical patent/KR20200126288A/ko
Application granted granted Critical
Publication of KR102488997B1 publication Critical patent/KR102488997B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

본 발명은 휴대용 장치를 이용한 음식량 측정 방법에 관한 것으로, 휴대용 장치에 마련된 스테레오 카메라 또는 깊이 카메라를 통해 음식의 이미지를 촬영하고, 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출함으로써, 보다 정확한 결과를 얻을 수 있는 효과가 있다.

Description

휴대용 장치를 이용한 음식량 측정 방법, 서버 및 프로그램 {A method, server, device and program for measuring amount of food using potable device}
본 발명은 음식량 측정 방법에 관한 것이다.
최근 들어, 웰빙(Well-Being), 다이어트(Diet) 등과 같이 건강한 식단을 유지하려는 사람들이 많아짐에 따라서 음식량을 측정하는 기술의 수요가 증가하고 있다.
이를 이용하면 스마트폰과 같은 휴대용 장치를 통해 음식을 촬영하고, 이미지를 분석하여 음식의 양을 산출함으로써 식사량을 조절해줄 수도 있고, 음식의 칼로리를 계산해줄 수도 있는 등 많은 장점이 있다.
하지만, 현재 공개된 대부분의 기술들은 카메라를 통해 촬영된 이미지를 단순 이미지 검색하는데 그치고 있기 때문에, 그 정확도가 현저하게 떨어지고 이미지 검색에서 정확도가 떨어지다 보니 칼로리 계산 등과 같은 다음 단계들에서는 더 큰 오차가 발생한다는 문제점이 있다.
이에, 본 출원인은 단순하게 음식을 이미지로 검색하는데 그치지 않고 정확하게 분석하고 산출할 수 있는 발명을 안출하게 되었다.
대한민국 공개특허공보 제10-2005-0083210호 (2005.08.26)
상술한 바와 같은 문제점을 해결하기 위한 본 발명은 휴대용 장치에 마련된 스테레오 카메라 또는 깊이 카메라를 통해 음식의 이미지를 촬영하고, 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하는 휴대용 장치를 이용한 음식량 측정 방법을 제공할 수 있다.
또한, 본 발명은 휴대용 장치를 통해 촬영된 이미지 내 백그라운드 타겟을 인식하고, 백그라운드 타겟의 크기 정보를 이용하여 부피 산출 결과를 보정할 수 있는 휴대용 장치를 이용한 음식량 측정 방법을 제공할 수 있다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 휴대용 장치를 이용한 음식량 측정 방법은, 컴퓨터에 의해 수행되는 음식량 측정 방법에 있어서, 수신부가 휴대용 장치의 촬영부를 통해 촬영된 음식이미지를 수신하는 단계; 판단부가 상기 음식이미지에 포함된 각 음식의 이미지 데이터를 추출하고, 각 음식의 종류를 판단하는 단계; 산출부가 상기 음식이미지 데이터 내 각 음식의 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하는 단계;를 포함하며, 상기 촬영부는, 스테레오 카메라 및 깊이 카메라 중 적어도 하나를 포함하는 것이다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
상기와 같은 본 발명에 따르면, 음식이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하기 때문에, 보다 정확한 결과를 얻을 수 있는 효과가 있다.
또한, 본 발명은 촬영된 이미지 내 백그라운드 타겟의 정보를 이용하여 부피 산출 결과를 보정하기 때문에, 그 정확도를 보다 상승시킬 수 있다는 효과가 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 휴대용 장치를 이용한 음식량 측정 방법의 흐름도이다.
도 2 및 3은 본 발명의 실시예에 따른 휴대용 장치를 통해 촬영할 음식을 예시한 도면이다.
도 4는 본 발명의 실시예에 따른 백그라운드 타겟 중에서 용기를 예시한 도면이다.
도 5는 하나의 용기에 두 개의 음식이 적층되어 있는 것을 예시한 도면이다.
도 6은 하나의 용기에 복수 개의 음식이 수용된 것을 예시한 도면이다.
도 7은 도 6의 복수 개의 음식을 전체음식이미지로 인식하는 것을 예시한 도면이다.
도 8은 본 발명의 실시예에 따른 휴대용 장치를 이용한 음식량 측정 서버의 블록도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.
휴대용 장치: 스마트폰, 폴더블폰, PDA, 태블릿PC, 핸드헬드(Hand Held) 장치와 같이 휴대가 가능하며 촬영 장치를 구비하고 있는 장치를 의미하며, 통신 전용 장치가 아니더라도 촬영과 통신 기능을 구비하고 있는 장치 또한 적용될 수 있다. (예: 카메라 등)
도 1은 본 발명의 실시예에 따른 휴대용 장치(50)를 이용한 음식량 측정 방법의 흐름도이고, 도 2 및 3은 본 발명의 실시예에 따른 휴대용 장치(50)를 통해 촬영할 음식을 예시한 도면이며, 도 4 내지 도 7은 보정 단계의 설명을 위한 예시도이다.
이하, 도 1 내지 도 7을 참조하여 본 발명의 실시예에 따른 휴대용 장치(50)를 이용한 음식량 측정 방법에 대해서 설명하도록 한다.
본 발명의 실시예에 따른 음식량 측정 밥법은 컴퓨터에 의해 수행되며, 컴퓨터는 음식량 측정 서버(10), 또는 음식량 측정 휴대용 장치(50)를 의미한다.
사용자의 휴대용 장치(50)에 설치된 서비스 애플리케이션이 촬영부(55)를 통해 촬영된 이미지를 서버(10)로 전송하고, 서버(10)가 주체가 되어 산출, 보정과 같은 단계들을 수행할 수도 있고, 서비스 애플리케이션에 알고리즘이 설치되어 휴대용 장치(50)가 산출, 보정과 같은 단계들이 직접 수행할 수도 있다.
먼저, 수신부(110)가 휴대용 장치(50)의 촬영부(55)를 통해 촬영된 음식이미지를 수신한다. (S510단계)
이때, 휴대용 장치(50)의 촬영부(55)는 스테레오 카메라 및 깊이 카메라 중 적어도 하나를 포함하여, 음식이미지 데이터는 픽셀별 높이 정보가 저장되어 있다.
촬영부(55)에 스테레오 카메라가 포함되어 있는 경우, 하나의 촬영부(55)는 2개의 촬영수단을 포함하고 있기 때문에 산출부(140)는 스테레오 카메라를 통해 촬영된 차이값을 통해서 이미지 데이터의 깊이를 산출할 수 있게 된다.
깊이 카메라는 3D 스캐너, 3D 센서, ToF(Time of Flight) 카메라, 적외선(IR) 카메라 등과 같이 타겟을 촬영하고 3차원 거리 정보(데이터)를 획득할 수 있는 장치라면 무엇이든 적용이 가능하다.
또한, 휴대용 장치(50)에 설치된 서비스 애플리케이션의 촬영 요청에 따라서 음식이 촬영될 수 있으며, 음식 촬영 방법, 각도 등에 대한 가이드가 서비스 애플리케이션을 통해 제공될 수 있다.
일 실시예로, 서비스 애플리케이션은 음식을 서로 다른 각도에서 두 번 이상 촬영하도록 요청할 수 있으며, 2회 이상 촬영되는 경우 차후 산출, 보정 단계에서 그 정확도가 상승하는 효과가 있다.
일 실시예로, 음식이미지 수신 단계(S510단계)는 휴대용 장치(50)의 촬영부(55)를 통해 음식이 촬영될 때, 휴대용 장치(50)의 자이로센서를 통해 측정된 휴대용 장치(50)의 기울기 정보를 수신하는 단계와, 상기 기울기 정보를 이용하여 촬영된 음식이미지 데이터의 기울기를 보정하는 단계가 수행될 수 있다.
본 발명의 실시예에 따르면, 대부분의 경우 사용자가 직접 휴대용 장치(50)를 파지하여 촬영부(55)를 통해 음식에 대한 촬영을 진행하기 때문에 소정각도 기울어짐이 발생할 수 있기 때문에, 상술한 단계들을 수행하여 음식이미지 데이터를 수평상태로 보정할 수 있다.
S510단계 다음으로, 추출부(120)가 음식이미지에 포함된 각 음식의 이미지 데이터를 추출한다. (S520단계)
사용자가 휴대용 장치(50)를 통해 촬영한 음식이미지에는 음식만이 포함되어 있는 것이 아니기 때문에, 정확한 부피 산출을 위해서 이미지 상에서 음식이미지 데이터만을 추출해내는 것을 의미한다.
또한, 추출부(120)의 인공지능 알고리즘이 배경으로부터 음식을 인식하여 추출하는 기능을 이용하여 정확하게 배경으로부터 음식을 추출하게 되며, 둘 이상의 음식이 포함되어 있는 경우 둘 이상의 음식들의 이미지 데이터를 각각 분리하여 추출하게 된다.
S530단계 다음으로, 판단부(130)가 추출부(120)가 추출한 음식이미지 데이터를 통해 각 음식의 종류를 판단한다. (S530단계)
판단부(130)는 인공지능 알고리즘을 이용하여 추출부(120)가 추출한 각 음식이미지 데이터의 음식 종류를 판단하게 된다.
이때, 판단부(130)는 휴대용 장치(50)의 촬영부(55)에 포함된 RGB 카메라를 통해 촬영된 데이터, 또는 스테레오 카메라를 통해 촬영된 RGB 데이터를 이용하여 음식 종류를 판단할 수 있다.
이때, 판단부(130)는 복수의 판단 결과가 나오는 경우 사용자에게 서비스 애플리케이션을 통해 입력 또는 선택하도록 할 수 있다.
S540단계 다음으로, 산출부(140)가 음식이미지 데이터 내 각 음식의 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출한다. (S540단계)
위에서 언급한 바와 같이, 음식이미지 데이터는 스테레오 카메라 또는 깊이 카메라를 포함하는 촬영부(55)를 통해 촬영되었기 때문에, 음식이미지 데이터에 픽셀별 높이 정보(3차원 거리 데이터)가 포함되어 있고, 이를 이용하여 각 음식의 부피를 산출할 수 있게 된다.
또한, 위에서 예시한 것처럼 서비스 애플리케이션이 사용자에게 2회 이상 음식을 촬영하도록 하여 수신부(110)가 2 이상의 음식이미지를 수신하였을 경우, 2개의 음식이미지를 보정하여 하나의 음식이미지 데이터를 생성하고, 이를 이용하여 부피 산출을 수행할 수도 있다.
일 실시예로, 부피 산출 단계(S540단계) 다음으로, 부피 보정 단계(S545단계)가 수행될 수 있다.
일 실시예로, 부피 보정 단계(S545단계)는 백그라운드 타겟(300)을 이용하는 방법이 있다.
부피 보정 단계(S545단계)는 판단부(130)가 상기 수신된 음식이미지 내 포함된 백그라운드 타겟(300)을 인식하는 단계, 보정부(150)가 상기 인식된 백그라운드 타겟(300)의 크기 정보, 위치 정보를 기초로 하여 S540단계에서 산출된 각 음식의 부피를 보정하는 단계를 포함할 수 있다.
보다 상세하게는, 보정부(150)는 백그라운드 타겟(300)과 각 음식의 높이정보를 비교하여 각 음식의 부피 보정을 수행할 수도 있고, 백그라운드 타겟(300)과 각 음식의 크기정보를 비교하여 각 음식의 부피 보정을 수행할 수도 있다.
이때, 백그라운드 타겟(300)은 촬영부(55)를 통해 음식과 같이 촬영된 것으로, 음식이 수용된 용기(320), 테이블(340), 수저, 사용자의 손가락 등이 적용될 수 있다.
또한, 몇몇 백그라운드 타겟(300)은 휴대용 장치(50)의 촬영부(55)를 통해 별도로 촬영되어 크기 정보가 데이터베이스(170)에 미리 저장되어 있을 수 있다.
첫번째 예시로, 서비스 애플리케이션이 사용자에게 촬영부(55)를 통해 사용자의 손을 일정거리에서 촬영하도록 할 수 있다. 또는, 서비스 애플리케이션은 사용자의 손/손가락의 실제 크기를 실측하여 입력하게 할 수도 있다.
그리고, 분석부가 사용자의 손이 촬영된 이미지를 분석하여 사용자 손의 실제 크기에 대한 정보를 데이터베이스(170)에 저장한다.
이후에 판단부(130)는 수신된 음식이미지 내에 사용자의 손이 포함되어 있는 것이 인식되면 사용자의 손을 백그라운드 타겟(300)으로 인식하고, 보정부(150)가 백그라운드 타겟(300)의 위치정보와 크기정보를 기초로 하여 S540단계에서 산출부(140)가 산출한 각 음식의 부피를 보정할 수 있다.
두번째 예시로, 서비스 애플리케이션이 사용자에게 촬영부(55)를 통해 집에서 사용하는 용기(320), 테이블(340), 수저 등을 일정거리에서 촬영하도록 할 수 있다. 이때, 테이블(340)은 사용자가 용기(320)를 배치하고 식사를 하는 테이블(340), 밥상, 식탁 등을 의미한다.
또는, 서비스 애플리케이션은 사용자에게 용기(320), 테이블(340), 수저 등의 실제 크기를 실측하여 입력하게 할 수 있다. (예: 테이블(340)의 가로, 세로 혹은 둘레 길이 정보)
도 4는 본 발명의 실시예에 따른 백그라운드 타겟(300) 중에서 용기(320)를 예시한 도면이다.
도 4를 참조하면, 컴퓨터는 휴대용 장치(50)의 촬영부(55)를 통해 촬영된 사용자가 집에서 사용하는 용기(320)에 대한 이미지를 분석하여, 해당 용기(320)에 대한 크기, 깊이 및 용량 정보를 포함하는 용기(320) 정보를 데이터베이스(170)에 저장한다.
보다 상세하게는, 본 발명의 실시예에 따른 휴대용 장치(50)의 촬영부(55)를 통해 촬영된 영상에는 픽셀별 높이 정보가 저장되어 있기 때문에, 산출부(140)는 빈 용기(320)에 대한 이미지 데이터를 수신하게 되면 용기의 이미지 데이터의 픽셀별 높이 정보를 이용하여 용기에 대한 크기, 깊이 및 용량 정보 산출할 수 있게 되며, 이를 용기 정보로 데이터베이스에 저장하는 것을 의미한다.
그리고, 산출부(140)는 음식이미지의 분석 결과, 음식 중에 상기 용기(320)에 수용된 음식이 존재할 경우, 해당 음식이 수용된 용기(320)의 크기, 깊이 및 용량 정보를 이용하여 S540단계에서 산출된 각 음식의 부피 보정을 수행한다.
예를 들어, 도 4와 같이 각종 음식들이 용기(320)에 수용되어 있는 경우, 상술한 바와 같이 산출부(140)가 픽셀당 높이 정보를 이용하여 각 음식의 부피를 산출할 수 있지만, 용기(320)의 깊이에 대한 정보는 오차가 발생할 수도 있다.
하지만, 위와 같이 해당 용기(320)들의 크기, 깊이 및 용량 정보를 알고 있다면, 보정 단계를 수행하여 보다 정확한 결과를 얻을 수 있게 된다.
세번째 예시로, 컴퓨터는 복수의 사용자의 휴대용 장치(50)를 통해 촬영된 이미지 데이터와 해당 이미지 데이터를 통해 산출된 정보, 해당 이미지가 촬영된 장소와 매칭되는 식당에 대한 정보를 저장하여 빅데이터를 구축한다.
예를 들어, A 사용자가 B 식당에서 C 메뉴를 주문하고, 휴대용 장치(50)를 통해 C 메뉴를 촬영하게 되면 C 메뉴에 포함된 음식 종류를 판단하고, 각 음식의 부피를 산출하게 되며, 컴퓨터는 이러한 정보들을 저장하여 데이터베이스(170)에 빅데이터를 구축하게 된다.
그리고, 특정 사용자의 휴대용 장치(50)를 통해 음식이미지 데이터가 수신되어 S520단계 내지 S540단계를 수행한 후에, 음식 이미지가 촬영된 위치 정보와 판단된 음식의 종류를 컴퓨터 내 데이터베이스(170)의 빅데이터와 매칭하여 매칭되는 내역의 이전 산출 결과를 이용하여 S540단계에서 산출된 각 음식의 부피 정보를 보정할 수 있다.
예를 들어, D 사용자가 B 식당과 매칭되는 위치에서 음식을 촬영하여 음식이미지 데이터를 전송하였을 경우, 빅데이터에 위치정보를 매칭하여 D 사용자가 B 식당에 위치한 것이라고 판단하고 주문한 메뉴와 매칭되는 이전 결과 데이터를 조회하여 산출 부피 정보를 보정하는 것을 의미한다.
이와 관련하여, 반대의 경우에도 적용이 가능하다. 보다 상세하게는, 음식에 대한 데이터가 먼저 저장되고, 사용자가 식당에서 계산을 할 때 어떠한 음식을 주문하여 먹었는지 알게 되면 역으로 저장된 데이터를 불러와서 부피, 영양 정보를 기록할 수 있게 된다.
일 실시예로, 백그라운드 타겟(300)은 통상적인 크기를 가진 대상이라면 무엇이든 적용 가능하다. 예를 들어, 백그라운드 타겟은 동전, 지폐, 스마트폰(제품 종류별) 등과 같이 그 크기가 정해져 있는 대상은 무엇이든 적용될 수 있다.
보다 상세하게는, 사용자는 500원 동전을 음식이미지와 함께 촬영하고, 서비스 애플리케이션을 통해 백그라운드 타겟으로 500원 동전을 함께 촬영하였음을 입력할 수 있다.
따라서, 판단부는 수신된 음식이미지 내 포함된 500원 동전(백그라운드 타겟)을 인식하고, 보정부가 500원 동전(백그라운드 타겟)의 크기 정보를 기초로 하여 상기 산출된 각 음식의 부피를 보정하게 된다.
이와 같이, 일반적으로 대부분의 사람들이 사용하여 그 크기가 정해져 있는 대상들은 백그라운드 타겟으로 적용 가능하기 때문에 사용자는 손쉽게 주변 대상을 음식과 함께 촬영하여 보정부가 각 음식의 부피를 보정하도록 할 수 있다.
또한, 위치 정보(음식점, 급식소 등), 날씨 정보(자외선, 음식종류 축소), 사용자의 상태정보(다이어트 중, 운동중, 투병중, 투약중 등), 개인 선호정보, 주변 디바이스 정보를 다양하게 활용하여 부피를 보정함으로써 정확도를 상승시킬 수 있다.
도 5는 하나의 용기(320)에 두 개의 음식이 적층되어 있는 것을 예시한 도면이다.
도 5를 참조하면, 일 실시예로, 부피 산출 단계(S540단계)는 적층된 음식의 부피를 산출하는 단계를 더 포함할 수 있다.
보다 상세하게는, 산출부(140)는 음식이미지 데이터 분석 결과 하나의 용기(320)에 서로 다른 음식이 적층된 것으로 인식되는 경우, 상측에 위치한 음식의 이미지 데이터를 이용하여 산출된 해당 음식의 크기 및 부피 정보를 이용하여, 하측에 위치한 음식의 부피를 산출한다.
도 5 (a)는 용기(320)에 밥이 수용되어 있고, 그 위에 계란 후라이가 적층된 것을 예시한 도면이고, (b)는 생선이 적층된 것을 예시한 도면이다.
도 5를 참조하여 예를 들면, 음식이미지 데이터를 이용하여 계란 후라이의 크기와 부피를 산출한다.
그리고, 산출부(140)는 음식이미지 데이터와 계란 후라이의 크기, 부피 정보를 통해서 해당 용기(320)에 수용된 밥의 높이를 예측할 수 있게 되며, 이를 이용하여 해당 용기(320)에 수용된 밥의 부피를 산출할 수 있게 된다.
또한, 보정부(150)는 이 과정에서 용기(320)가 백그라운드 타겟(300)으로 인식되면, 부피 산출 결과에 대한 보정을 수행하여 보다 정확한 부피값을 얻어낼 수 있게 된다.
추가 실시예로, 컴퓨터는 부피 산출 단계에서 음식 중에서 특정 용기(320)에 수용된 음식의 종류가 액체인 것으로 판단되는 경우, 액체와 해당 공간이 맞닿는 위치와 해당 용기(320)의 크기, 깊이 및 용량 정보를 이용하여 액체의 부피를 산출할 수 있다.
용기(320)에 '국'과 같은 액체 형태의 음식이 수용되면 필연적으로 '국'과 용기(320)가 일정 높이에서 맞닿는 부분이 생기게 된다. 산출부(140)는 이를 이용하여 음식이미지 데이터에서 액체 형태의 음식물과 해당 용기(320)가 맞닿는 위치를 인식하고, 해당 용기(320)의 공간 정보(크기, 깊이, 용량)을 이용하여 해당 음식물의 부피를 산출하게 된다.
예를 들어, 도 4에 표기된 'A' 영역에 '국'과 용기(320)가 맞닿는 부분이 표시되어 있으며, 산출부(140)는 음식이미지 데이터 내 A영역과 같은 부분을 통해 액체와 액체가 수용된 용기(320)가 맞닿는 위치를 확인할 수 있게 된다.
S540단계 다음으로, 산출부(140)가 S540단계에서 산출된 각 음식의 부피 정보와 음식 정보를 이용하여 각 음식의 무게를 산출한다. (S550단계)
컴퓨터의 데이터베이스(170)에는 음식별 부피당 무게를 포함하는 음식 정보가 저장되어 있다.
음식들은 종류에 따라서 부피당 무게가 다르며, 열량(칼로리)도 서로 상이하다.
따라서, 본 발명의 실시예에서는 음식별 부피당 무게를 포함하는 음식 정보가 데이터베이스(170)에 저장되어 있고, 산출부(140)가 이를 이용하여 음식의 부피 정보로부터 음식의 무게를 산출하게 된다.
도 6은 하나의 용기(320)에 복수 개의 음식이 수용된 것을 예시한 도면이고, 도 7은 도 6의 복수 개의 음식을 전체음식이미지(390)로 인식하는 것을 예시한 도면이다.
일반적으로 식사를 하는 경우 밥과 반찬들을 각각의 용기(320)에 수용하여 식사를 하는 경우가 많지만, 도 6과 같이 플레이트 형태의 용기(320)에 복수 개의 음식을 담아 식사를 하는 경우도 있다. (예를 들어, 뷔페(Buffet) 등)
도 6 및 도 7을 참조하여, 하나의 용기(320)에 복수 개의 음식이 수용된 경우 컴퓨터의 산출 방법에 대한 실시예를 설명하도록 한다.
산출부(140)는 부피 산출 단계에서 음식이미지 데이터에서 하나의 용기(320) 내에 복수 개의 음식이 수용된 것으로 판단되는 경우, 복수 개 음식 각각의 이미지 데이터를 추출하고, 각 음식의 부피를 산출한다.
이 과정에서 보정부(150)는 부피 보정을 수행할 수 있다.
보다 상세하게는, 도 7에 표기된 영역과 같이 하나의 용기(320)에 수용된 복수 개의 음식의 이미지 전체를 하나의 전체음식이미지(390) 데이터로 추출한다.
그리고, 추출된 전체음식이미지(390) 데이터를 이용하여 전체음식이미지(390)의 부피를 산출하고, 부피 산출 단계에서 산출된 각 음식의 부피의 총합과 전체음식이미지(390)를 통해 산출된 부피를 비교하여, 각 음식의 부피를 보정할 수 있다.
도 1 내지 도 7을 참조하여 설명한 본 발명의 실시예에 따른 휴대용 장치(50)를 이용한 음식량 측정 방법을 이용하여 식전음식량, 잔반량을 측정(산출)하고, 이를 이용하여 사용자의 식사량을 산출할 수 있다.
그리고, 컴퓨터가 사용자의 식전음식량, 잔반량, 식사량을 이용하여 사용자의 영양상태, 식습관, 편식여부 등을 분석할 수 있다.
또한, 컴퓨터는 사용자의 영양상태가 불균형할 경우 사용자에게 필요한 영양소가 무엇인지, 사용자의 식습관에 맞으면서 사용자의 영양상태를 위한 메뉴를 도출하여 사용자에게 정보를 제공할 수도 있고, 각종 영양제에 대한 정보들을 제공함으로써 광고 효과를 발휘할 수도 있다.
보다 상세하게는, 컴퓨터가 휴대용 장치(50)의 촬영부(55)를 통해 촬영된 식전 음식이미지를 수신하고, 판단부(130)가 상기 식전 음식이미지에 포함된 각 음식의 이미지 데이터를 추출하고, 각 음식의 종류를 판단한다.
그리고, 산출부(140)가 상기 식전 음식이미지 데이터 내 각 음식의 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하며, 이와 같이 산출된 각 음식의 부피는 사용자가 식사를 하기 위해서 준비, 또는 주문한 음식의 양(식전 음식량)을 의미한다.
이후, 사용자가 식사를 마친후에 수신부(110)가 휴대용 장치(50)의 촬영부(55)를 통해 촬영된 식후 음식이미지를 수신하고, 판단부(130)가 상기 식후 음식이미지에 포함된 각 음식의 이미지 데이터를 추출하고, 각 음식의 종류를 판단한다.
그리고, 산출부(140)가 상기 식후 음식이미지 데이터 내 각 음식의 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하며, 이와 같이 산출된 각 음식의 부피는 사용자가 식사를 마친 후에 남아 있는 잔반량(식후 음식량)을 의미한다.
상술한 과정들을 통해 산출부(140)는 식전 음식량과 식후 음식량에 대한 정보를 확보하게 되었으며, 두 개의 정보를 이용하여 사용자의 식사량을 산출할 수 있게 된다. (예: 식전 음식량 - 식후 음식량 = 식사량)
컴퓨터는 음식의 종류별로 사용자가 섭취한 양을 파악할 수 있기 때문에 사용자의 식습관을 분석할 수 있으며, 각 음식에 포함된 영양소에 대한 정보를 이용하여 사용자의 영양 섭취에 대하여 파악할 수 있게 된다.
또한, 휴대용 장치(50)에 설치된 서비스 애플리케이션을 통해 사용자의 신체정보에 대하여 입력받을 수 있고, 이와 같은 신체정보를 이용하여 사용자의 기초 대사량을 산출할 수 있다.
그리고, 위와 같이 도출된 사용자의 영양상태, 식습관 정보를 이용하여 사용자에게 매칭되는 하나 이상의 음식메뉴를 도출하여 서비스 애플리케이션으로 제공할 수 있고, 다른 음식 주문 애플리케이션과 연동되어 정보를 제공할 수도 있다.
이때, 서비스 애플리케이션은 사용자로부터 선호음식, 비선호음식을 직접 입력받을 수 있고, 사용자의 알레르기(Allergy), 질병 등에 대한 정보들을 입력받아 사용자가 먹으면 안되는 음식을 추천메뉴에서 제외할 수 있다.
또한, 판단부(130)는 이러한 정보들을 이용하여 휴대용 장치(50)의 촬영부(55)를 통해 촬영된 음식이미지 내에 사용자가 먹으면 안되는 음식이 포함되어 있는 경우, 서비스 애플리케이션으로 경고알림을 제공하여 사용자가 실수로 해당 음식을 섭취하는 것을 방지할 수 있다.
일 실시예로, 서비스 애플리케이션은 사용자가 사용, 착용하는 웨어러블 기기들과 연동되어 각종 측정 데이터를 수신할 수 있다. 이러한 구성이 포함되는 경우 컴퓨터는 사용자의 기초대사량, 건강정보 등을 보다 상세하게 확보할 수 있으며, 각종 헬스케어 정보로 활용할 수도 있다.
컴퓨터는 사용자의 휴대용 장치(50)를 통해 사용자의 매회 식사때마다의 식전음식량, 식사량, 잔반량에 대한 데이터를 수집하여 데이터베이스(170)에 저장함으로서, 사용자의 영양상태, 식습관 정보 등에 대한 정보를 형성하고, 사용자의 신체정보와 각종 건강, 운동 애플리케이션을 통해 수집되는 사용자의 활동지수, 활동정보, 운동정보 등에 대한 데이터를 수집하여 사용자의 헬스케어 정보를 형성할 수 있다.
또한, 이외에도 건강관리 애플리케이션, 의료정보 애플리케이션 등과 연동되어 사용자의 의료정보를 수집함으로써, 사용자의 영양상태, 식습관 정보와 헬스케어 정보, 의료정보로부터 사용자에게 맞춤형 식단, 건강보조식품에 대한 정보를 도출하여 제공할 수도 있고, 이에 관련된 상품들을 서비스 애플리케이션을 통해 직접 판매할 수도 있다.
예를 들어, 서버(10)에서 제공하는 서비스 애플리케이션의 서비스에 가입할 경우, 종합검진을 제공할 수도 있고, 사용자에게 맞춤형 건강보조식품을 제공할 수도 있으며, 주 1회 맞춤형 식단을 배송해 주는 등 다양한 형태의 서비스가 제공될 수 있다.
상술한 예시들에서, 휴대용 장치(50)의 촬영부(55)를 통해 촬영된 식전 음식이미지와 식후 음식이미지를 수신하여 식전 음식량, 식후 음식량(잔반량), 식사량을 산출하는 것에 대해서 설명하였지만, 사용자가 실수로 식후 음식이미지를 촬영하지 않는 경우가 발생할 수 있다.
따라서, 산출부는 휴대용 장치(50)의 촬영부(55)를 통해 촬영된 식전 음식이미지를 수신한 후 기 설정된 시간이 초과되었을 경우, 식후 음식이미지가 촬영 및 수신되지 않을 경우 식후 음식이미지의 촬영이 제외된 것으로 판단하고, 사용자의 예상 삭사량을 산출한다.
보다 상세하게는, 산출부는 데이터베이스(170)에 저장된 사용자의 평균 식사량, 상태정보(다이어트, 증량중, 운동중 등), 배고픔의 정도, 식전 음식이미지에 포함된 메뉴들에 대한 사용자의 선호도, 메뉴들의 맛 정보 등을 통해 사용자의 예상 식사량을 산출하여 데이터베이스(170)에 저장하게 된다.
도 8은 본 발명의 실시예에 따른 휴대용 장치(50)를 이용한 음식량 측정 서버(10)의 블록도이다.
도 8을 참조하면, 본 발명의 실시예에 따른 휴대용 장치(50)를 이용한 음식량 측정 서버(10)는 수신부(110), 추출부(120), 판단부(130), 산출부(140), 보정부(150), 인증모듈(160), 데이터베이스(170), 통신부(190)를 포함한다.
다만, 몇몇 실시예에서 서버(10)는 도 8에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.
수신부(110)는 휴대용 장치(50)의 촬영부(55)를 통해 촬영된 음식이미지를 수신한다.
판단부(130)는 상기 음식이미지에 포함된 각 음식의 이미지 데이터를 추출하고, 각 음식의 종류를 판단한다.
산출부(140)는 음식이미지 데이터 내 각 음식의 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출한다.
보정부(150)는 산출부(140)를 통해 산출된 각 음식의 부피를 각 상황과 알고리즘에 따라서 보정한다.
데이터베이스(170)는 백그라운드 타겟(300)에 대한 정보들이 저장되어 있다. 또한, 복수의 사용자의 휴대용 장치(50)를 통해 촬영된 이미지 데이터와 해당 이미지 데이터를 통해 산출된 정보, 해당 이미지가 촬영된 장소와 매칭되는 식당에 대한 정보의 빅데이터가 구축되어 있다.
인증모듈(160)은 사용자의 휴대용 장치(50)에 설치된 서비스 애플리케이션의 로그인 정보를 통해 사용자 정보를 인증하여 사용자를 식별하고, 사용자에 대한 각종 정보를 로딩하기도 한다.
통신부(190)는 통신 기능을 구비하여, 수신부(110)가 휴대용 장치(50)로부터 음식이미지를 수신하도록 하고, 휴대용 장치(50)에 설치된 서비스 애플리케이션으로 각종 정보들을 전송하기도 한다.
이상으로 설명한 본 발명의 실시예에 따른 휴대용 장치(50)를 이용한 음식량 측정 서버(10) 구성들의 세부적인 내용은 도 1 내지 도 7를 통해 설명한 휴대용 장치(50)를 이용한 음식량 측정 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.
이상에서 전술한 본 발명의 일 실시예에 따른 휴대용 장치를 이용한 음식량 측정 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: 서버 50: 휴대용 장치
55: 촬영부 110: 수신부
120: 추출부 130: 판단부
140: 산출부 150: 보정부
160: 인증모듈 170: 데이터베이스
190: 통신부 300: 백그라운드 타겟
320: 용기 340: 테이블
390: 전체음식이미지

Claims (12)

  1. 컴퓨터에 의해 수행되는 음식량 측정 방법에 있어서,
    수신부가 휴대용 장치의 촬영부를 통해 촬영된 음식이미지 및 상기 음식이미지가 촬영된 위치 정보를 수신하는 단계;
    판단부가 상기 음식이미지에 포함된 각 음식의 이미지 데이터를 추출하고, 각 음식의 종류를 판단하는 단계;
    산출부가 상기 음식이미지 데이터 내 각 음식의 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하는 단계;를 포함하며,
    상기 촬영부는, 스테레오 카메라 및 깊이 카메라 중 적어도 하나를 포함하고,
    각 음식의 종류를 판단하는 단계에서 상기 판단부로부터 음식의 종류에 대해 복수의 판단 결과가 나오면, 상기 휴대용 장치를 통해 사용자로부터 음식의 종류에 대하여 입력을 받거나 복수의 판단 결과 중 선택을 받고,
    상기 컴퓨터는, 복수의 사용자의 휴대용 장치를 통해 촬영된 이미지 데이터와, 해당 이미지 데이터를 통해 산출된 음식의 종류 및 음식의 부피에 대한 정보, 해당 이미지가 촬영된 위치 정보에 매칭되는 식당에 대한 정보를 저장하여 데이터베이스에 빅데이터를 구축하고,
    상기 각 음식의 부피를 산출하는 단계에서, 상기 산출부는 상기 휴대용 장치에 의해 상기 음식이미지가 촬영된 위치 정보와 상기 판단된 음식의 종류에 대한 정보를 상기 데이터베이스의 데이터와 비교하여, 매칭되는 이전 산출 결과를 고려하여 상기 각 음식의 부피를 보정하고,
    상기 산출부는,
    상기 휴대용 장치의 촬영부를 통해 촬영된 식전음식 이미지와 식후음식 이미지가 수신된 경우, 상기 휴대용 장치의 촬영부를 통해 촬영된 식전음식 이미지로부터 식전 음식량을 산출하고, 상기 휴대용 장치의 촬영부를 통해 촬영된 식후음식 이미지로부터 잔반량을 산출하여, 상기 식전 음식량과 식후 음식량을 통해 사용자의 식사량을 산출하되,
    상기 휴대용 장치의 촬영부를 통해 촬영된 식전음식 이미지를 수신하고 기 설정된 시간이 지난 후에도 식후음식 이미지가 수신되지 않을 경우, 식후음식 이미지가 누락된 것으로 판단하고, 상기 데이터베이스에 저장된 사용자의 평균 식사량, 사용자의 상태정보, 식전음식 이미지에 포함된 메뉴들에 대한 사용자의 선호도, 및 각 메뉴들에 대한 맛 데이터를 중 적어도 하나를 기반으로 예상 식사량을 산출하는 것을 특징으로 하는 것인, 방법.
  2. 제1항에 있어서,
    판단부가 상기 수신된 음식이미지 내 포함된 백그라운드 타겟을 인식하는 단계;
    보정부가 상기 백그라운드 타겟의 크기 정보를 기초로 하여 상기 산출된 각 음식의 부피를 보정하는 단계;를 더 포함하며,
    상기 백그라운드 타겟은,
    상기 촬영부를 통해 음식과 같이 촬영된 것으로, 음식이 수용된 용기, 테이블, 수저, 사용자의 손가락 중 적어도 하나를 포함하는 것인, 방법.
  3. 제2항에 있어서,
    상기 백그라운드 타겟은,
    상기 휴대용 장치의 촬영부를 통해 별도로 촬영되어 크기 정보가 데이터베이스에 저장되어 있는 것을 특징으로 하는, 방법.
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    상기 컴퓨터는,
    음식별 부피당 무게를 포함하는 음식 정보가 저장된 데이터베이스;를 포함하며,
    상기 부피 산출 단계 다음에,
    산출부가 상기 산출된 각 음식의 부피 정보와 상기 음식 정보를 이용하여 각 음식의 무게를 산출하는 단계;를 더 포함하는, 방법.
  7. 제1항에 있어서,
    상기 수신 단계는,
    상기 음식이 촬영될 때 상기 휴대용 장치의 자이로센서를 통해 측정된 상기 휴대용 장치의 기울기 정보를 함께 수신하는 단계;
    상기 기울기 정보를 이용하여 상기 촬영된 이미지 데이터의 기울기를 보정하는 단계;를 포함하는, 방법.
  8. 제1항에 있어서,
    상기 부피 산출 단계는,
    하나의 용기에 서로 다른 음식이 적층된 것으로 인식되는 경우, 상측에 위치한 음식의 이미지 데이터를 이용하여 산출된 해당 음식의 크기 및 부피 정보를 이용하여, 하측에 위치한 음식의 부피를 산출하는 단계;를 더 포함하는, 방법.
  9. 삭제
  10. 삭제
  11. 서버로서,
    휴대용 장치의 촬영부를 통해 촬영된 음식이미지 및 상기 음식이미지가 촬영된 위치 정보를 수신하는 수신부;
    상기 음식이미지에 포함된 각 음식의 이미지 데이터를 추출하고, 각 음식의 종류를 판단하는 판단부;
    상기 음식이미지 데이터 내 각 음식의 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하는 산출부;를 포함하며,
    상기 촬영부는, 스테레오 카메라 및 깊이 카메라 중 적어도 하나를 포함하고,
    상기 판단부로부터 음식의 종류에 대해 복수의 판단 결과가 나오면, 상기 휴대용 장치를 통해 사용자로부터 음식의 종류에 대하여 입력을 받거나 복수의 판단 결과 중 선택을 받고,
    상기 서버는, 복수의 사용자의 휴대용 장치를 통해 촬영된 이미지 데이터와, 해당 이미지 데이터를 통해 산출된 음식의 종류 및 음식의 부피에 대한 정보, 해당 이미지가 촬영된 위치 정보에 매칭되는 식당에 대한 정보를 저장하여 데이터베이스에 빅데이터를 구축하고,
    상기 산출부는 상기 휴대용 장치에 의해 상기 음식이미지가 촬영된 위치 정보와 상기 판단된 음식의 종류에 대한 정보를 상기 데이터베이스의 데이터와 비교하여, 매칭되는 이전 산출 결과를 고려하여 상기 각 음식의 부피를 보정하고,
    상기 산출부는,
    상기 휴대용 장치의 촬영부를 통해 촬영된 식전음식 이미지와 식후음식 이미지가 수신된 경우, 상기 휴대용 장치의 촬영부를 통해 촬영된 식전음식 이미지로부터 식전 음식량을 산출하고, 상기 휴대용 장치의 촬영부를 통해 촬영된 식후음식 이미지로부터 잔반량을 산출하여, 상기 식전 음식량과 식후 음식량을 통해 사용자의 식사량을 산출하되,
    상기 휴대용 장치의 촬영부를 통해 촬영된 식전음식 이미지를 수신하고 기 설정된 시간이 지난 후에도 식후음식 이미지가 수신되지 않을 경우, 식후음식 이미지가 누락된 것으로 판단하고, 상기 데이터베이스에 저장된 사용자의 평균 식사량, 사용자의 상태정보, 식전음식 이미지에 포함된 메뉴들에 대한 사용자의 선호도, 및 각 메뉴들에 대한 맛 데이터를 중 적어도 하나를 기반으로 예상 식사량을 산출하는 것을 특징으로 하는 것인, 서버.
  12. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제3항, 제6항 내지 제8항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 휴대용 장치를 이용한 음식량 측정 프로그램.
KR1020190050086A 2019-04-29 2019-04-29 휴대용 장치를 이용한 음식량 측정 방법, 서버 및 프로그램 KR102488997B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020190050086A KR102488997B1 (ko) 2019-04-29 2019-04-29 휴대용 장치를 이용한 음식량 측정 방법, 서버 및 프로그램
PCT/KR2020/005762 WO2020222561A1 (ko) 2019-04-29 2020-04-29 음식 측정 방법, 장치, 및 프로그램
CN202080039179.5A CN113874678A (zh) 2019-04-29 2020-04-29 食物测量方法、装置及程序
EP20798930.2A EP3964793A4 (en) 2019-04-29 2020-04-29 METHOD, DEVICE AND PROGRAM FOR MEASURING FOODS
JP2021564482A JP2022530263A (ja) 2019-04-29 2020-04-29 食べ物測定方法、装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190050086A KR102488997B1 (ko) 2019-04-29 2019-04-29 휴대용 장치를 이용한 음식량 측정 방법, 서버 및 프로그램

Publications (2)

Publication Number Publication Date
KR20200126288A KR20200126288A (ko) 2020-11-06
KR102488997B1 true KR102488997B1 (ko) 2023-01-16

Family

ID=73571815

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190050086A KR102488997B1 (ko) 2019-04-29 2019-04-29 휴대용 장치를 이용한 음식량 측정 방법, 서버 및 프로그램

Country Status (1)

Country Link
KR (1) KR102488997B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102457237B1 (ko) * 2020-12-21 2022-10-19 한국기술교육대학교 산학협력단 칼로리 측정용 휴대디바이스, 칼로리 측정 시스템 및 방법
WO2022145533A1 (ko) * 2020-12-30 2022-07-07 주식회사 누비랩 음식물 쓰레기를 모니터링하기 위한 시스템 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204105A (ja) * 2007-02-19 2008-09-04 Shikoku Chuboki Seizo Kk 自動食事摂取量計測システム及び自動食事摂取量計測方法
KR101563694B1 (ko) * 2015-02-27 2015-10-27 정의준 위치기반 음식점 광고 서비스 제공 시스템
JP2018528545A (ja) * 2015-09-09 2018-09-27 フィットリー インコーポレイテッドFitly Inc. 食物画像認識を用いた栄養分析のためのシステム及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100524572B1 (ko) 2004-01-30 2005-10-31 주식회사 카스 식사량 계량 장치
KR20180110443A (ko) * 2017-03-29 2018-10-10 서울대학교산학협력단 열량 정보 제공 장치 및 방법
KR20170119660A (ko) * 2017-10-17 2017-10-27 강원모 영상을 이용한 대상물체 사이즈 결정방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204105A (ja) * 2007-02-19 2008-09-04 Shikoku Chuboki Seizo Kk 自動食事摂取量計測システム及び自動食事摂取量計測方法
KR101563694B1 (ko) * 2015-02-27 2015-10-27 정의준 위치기반 음식점 광고 서비스 제공 시스템
JP2018528545A (ja) * 2015-09-09 2018-09-27 フィットリー インコーポレイテッドFitly Inc. 食物画像認識を用いた栄養分析のためのシステム及び方法

Also Published As

Publication number Publication date
KR20200126288A (ko) 2020-11-06

Similar Documents

Publication Publication Date Title
Anthimopoulos et al. Computer vision-based carbohydrate estimation for type 1 patients with diabetes using smartphones
US20120096405A1 (en) Apparatus and method for diet management
CN103562921B (zh) 位置启用的食物数据库
US9314206B2 (en) Diet and calories measurements and control
US20120179665A1 (en) Health monitoring system
BR112020009542A2 (pt) sistema de gerenciamento de serviço de refeições, e, método de operação do sistema de gerenciamento de serviço de refeições.
US11763437B2 (en) Analyzing apparatus and method, and image capturing system
JP2006105655A (ja) 食品総カロリーチェッカーおよびチェック方法
KR102488997B1 (ko) 휴대용 장치를 이용한 음식량 측정 방법, 서버 및 프로그램
KR102487925B1 (ko) 음식량 측정을 이용한 배식소의 운영정보와 배식대상의 관리정보 제공 방법, 서버 및 프로그램
KR102471775B1 (ko) 음식량 측정 방법, 장치, 서버 및 프로그램
EP3964793A1 (en) Food measurement method, device, and program
US20190221134A1 (en) Meal Management System
CN115131783B (zh) 基于机器视觉的用户饮食营养成分信息自主感知方法
Vasiloglou et al. Multimedia data-based mobile applications for dietary assessment
Akpa et al. Smartphone-based food weight and calorie estimation method for effective food journaling
KR102326540B1 (ko) 음식 영상을 이용한 영양관리 및 질병관리 방법
US20220222844A1 (en) Method, device, and program for measuring food
CN113343003A (zh) 一种用餐营养构建记录系统及方法
US11830603B1 (en) System and method for providing nutrition information using artificial intelligence
KR20210049704A (ko) 음식 측정 방법, 장치, 및 프로그램
CN114359299B (zh) 一种饮食分割方法及慢病患者的饮食营养管理方法
CN114360690B (zh) 一种慢病患者的饮食营养管理方法和系统
JP4989240B2 (ja) 食事管理支援システム
KR102473072B1 (ko) 인공지능 기반의 영상 인식 및 증강현실을 이용한 식기 크기 측정 및 영양정보 제공 시스템 및 방법

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant