KR20190084567A - 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법 - Google Patents

음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법 Download PDF

Info

Publication number
KR20190084567A
KR20190084567A KR1020180002476A KR20180002476A KR20190084567A KR 20190084567 A KR20190084567 A KR 20190084567A KR 1020180002476 A KR1020180002476 A KR 1020180002476A KR 20180002476 A KR20180002476 A KR 20180002476A KR 20190084567 A KR20190084567 A KR 20190084567A
Authority
KR
South Korea
Prior art keywords
information
electronic device
image
processor
foods
Prior art date
Application number
KR1020180002476A
Other languages
English (en)
Inventor
조정찬
이상현
최지환
박지윤
손병준
오양근
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180002476A priority Critical patent/KR20190084567A/ko
Priority to CN201811610310.XA priority patent/CN110021404A/zh
Priority to PCT/KR2018/016704 priority patent/WO2019135542A1/en
Priority to AU2019200007A priority patent/AU2019200007A1/en
Priority to US16/239,737 priority patent/US10803315B2/en
Publication of KR20190084567A publication Critical patent/KR20190084567A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0092Nutrition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Nutrition Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

다양한 실시예들에 따른 전자 장치는, 명령어들을 저장하는 메모리와, 적어도 하나의 카메라와, 적어도 하나의 디스플레이와, 적어도 하나의 프로세서를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 카메라를 통해 획득되고 음식들과 관련된 객체들을 포함하는 이미지와 함께 상기 음식들 각각의 권장 섭취량을 나타내기 위한 인디케이션들을 표시하고, 상기 음식들 중 제1 인디케이션과 관련된 음식의 권장 섭취량을 목표 섭취량으로 변경하기 위한 사용자 입력을 검출하고, 상기 사용자 입력에 기반하여, 상기 인디케이션들 중 상기 제1 인디케이션의 크기를 변경하고 상기 인디케이션들 중 상기 제1 인디케이션와 구별되는 제2 인디케이션의 크기를 변경하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.

Description

음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법{ELECTRONIC DEVICE AND METHOD FOR PROCESSING INFORMATION ASSOCIATED WITH FOOD}
다양한 실시예들은 음식과 관련된 정보를 처리하기 위한 전자 장치(electronic device) 및 그의 방법에 관한 것이다.
기술의 발달로, 카메라를 통해 획득되는 이미지 내에 포함된 객체(object)를 인식하기 위한 기능을 가지는 전자 장치의 보급이 증가하고 있다. 이러한 전자 장치는 인식된 객체에 대한 정보에 기반하여 건강(health)과 관련된 정보를 제공할 수 있다.
건강(health)에 대한 관심이 증가함에 따라, 식단의 조절에 대한 관심 또한 증가하고 있다. 한편, 스마트폰, 웨어러블 장치와 같은 전자 장치의 보급이 증가함에 따라, 전자 장치를 이용하여 건강을 관리하는 어플리케이션들이 개발되고 있다. 따라서, 전자 장치에서 직관적으로(intuitively) 음식의 섭취에 대한 정보를 제공하기 위한 방안(solution)이 요구될 수 있다.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시예들에 따른 전자 장치(electronic device)는, 명령어(instruction)들을 저장하는 메모리와, 적어도 하나의 카메라와, 적어도 하나의 디스플레이와, 적어도 하나의 프로세서를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 카메라를 이용하여 이미지를 획득하고, 상기 이미지로부터 복수의 음식(food)들과 관련된 복수의 객체들을 식별하고, 상기 식별된 복수의 객체들 각각에 상응하는 영양 정보(nutrition information)를 획득하고, 상기 영양 정보에 기반하여, 상기 복수의 음식들과 관련된 권장 섭취량(recommended amount of intake)에 대한 정보를 획득하고, 상기 이미지를 표시하고, 상기 권장 섭취량에 대한 정보를 나타내기 위한 복수의 인디케이션(indication)들을 상기 이미지 내에 포함된 상기 복수의 객체들과 연관하여 표시하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에 따른 전자 장치는, 명령어들을 저장하는 메모리와, 적어도 하나의 카메라와, 적어도 하나의 디스플레이와, 적어도 하나의 프로세서를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 카메라를 통해 획득되고 음식들과 관련된 객체들을 포함하는 이미지와 함께 상기 음식들 각각의 권장 섭취량을 나타내기 위한 인디케이션들을 표시하고, 상기 음식들 중 제1 인디케이션과 관련된 음식의 권장 섭취량을 목표 섭취량으로 변경하기 위한 사용자 입력을 검출하고, 상기 사용자 입력에 기반하여, 상기 인디케이션들 중 상기 제1 인디케이션의 크기를 변경하고 상기 인디케이션들 중 상기 제1 인디케이션와 구별되는 제2 인디케이션의 크기를 변경하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에 따른 전자 장치를 동작하기 위한 방법은, 상기 전자 장치의 적어도 하나의 카메라를 이용하여 이미지를 획득하는 동작과, 상기 이미지로부터 복수의 음식(food)들과 관련된 복수의 객체들을 식별하는 동작과, 상기 복수의 객체들 각각에 상응하는 영양 정보를 획득하는 동작과, 상기 영양 정보에 기반하여 상기 복수의 음식들과 관련된 권장 섭취량(recommended amount of intake)에 대한 정보를 획득하는 동작과, 상기 권장 섭취량을 나타내기 위한 복수의 인디케이션(indication)들을 상기 이미지 내에 포함된 상기 복수의 객체들과 연관하여 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 전자 장치를 동작하기 위한 방법은, 상기 전자 장치의 적어도 하나의 카메라를 통해 획득되고 음식들과 관련된 객체들을 포함하는 이미지와 함께 상기 음식들 각각의 권장 섭취량을 나타내기 위한 인디케이션들을 표시하는 동작과, 상기 음식들 중 제1 인디케이션과 관련된 음식의 권장 섭취량을 목표 섭취량으로 변경하기 위한 사용자 입력을 검출하는 동작과, 상기 사용자 입력에 기반하여 상기 인디케이션들 중 상기 제1 인디케이션의 크기를 변경하고 상기 인디케이션들 중 상기 제1 인디케이션와 구별되는 제2 인디케이션의 크기를 변경하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 비-일시적 컴퓨터 판독 가능 저장 매체(non-transitory computer-readable storage medium)는 상기 저장 매체와 관련된 전자 장치의 적어도 하나의 카메라를 이용하여 이미지를 획득하는 동작과, 상기 이미지로부터 복수의 음식(food)들과 관련된 복수의 객체들을 식별하는 동작과, 상기 영양 정보에 기반하여 상기 복수의 음식들과 관련된 권장 섭취량(recommended amount of intake)에 대한 정보를 획득하는 동작과, 상기 이미지를 표시하는 동작과, 상기 권장 섭취량에 대한 정보를 나타내기 위한 복수의 인디케이션(indication)들을 상기 이미지 내에 포함된 상기 복수의 객체들과 연관하여 표시하는 동작을 실행하기 위한 하나 이상의 프로그램들을 저장할 수 있다.
다양한 실시예들에 따른 비-일시적 컴퓨터 판독 가능 저장 매체는 상기 저장 매체와 관련된 전자 장치의 적어도 하나의 카메라를 통해 획득되고 음식들과 관련된 객체들을 포함하는 이미지와 함께 상기 음식들 각각의 권장 섭취량을 나타내기 위한 인디케이션들을 표시하는 동작과, 상기 음식들 중 제1 인디케이션과 관련된 음식의 권장 섭취량을 목표 섭취량으로 변경하기 위한 사용자 입력을 검출하는 동작과, 상기 사용자 입력에 기반하여 상기 인디케이션들 중 상기 제1 인디케이션의 크기를 변경하고 상기 인디케이션들 중 상기 제1 인디케이션와 구별되는 제2 인디케이션의 크기를 변경하는 동작을 실행하기 위한 하나 이상의 프로그램들을 저장할 수 있다.
다양한 실시 예들에 따른 전자 장치(electronic device) 및 그의 방법은, 음식과 관련된 객체를 포함하는 이미지를 직관적인 사용자 인터페이스(user interface)를 통해 제공함으로써, 사용자에게 적합한 음식의 섭취를 가이드할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다.
도 2는 다양한 실시예들에 따른 전자 장치의 기능적 구성의 예를 도시한다.
도 3은 다양한 실시예들에 따른 전자 장치와 외부 전자 장치 사이의 시그널링의 예를 도시한다.
도 4는 다양한 실시예들에 따른 전자 장치의 동작의 예를 도시한다.
도 5는 다양한 실시예들에 따라 음식들과 관련된 객체들에 대한 인디케이션들을 표시하는 전자 장치의 동작의 예를 도시한다.
도 6은 다양한 실시예들에 따른 전자 장치에서 표시되는 이미지의 예를 도시한다.
도 7은 다양한 실시예들에 따른 전자 장치에서 표시되는 이미지의 다른 예를 도시한다.
도 8은 다양한 실시예들에 따른 전자 장치에서 표시되는 이미지의 또 다른 예를 도시한다.
도 9는 다양한 실시예들에 따라 음식들 각각의 권장 섭취량에 대한 정보를 획득하는 전자 장치의 동작의 예를 도시한다.
도 10은 다양한 실시예들에 따라 인디케이션의 표시를 변경하는 전자 장치의 동작의 예를 도시한다.
도 11은 다양한 실시예들에 따른 전자 장치에서 표시되는 이미지의 또 다른 예를 도시한다.
도 12는 다양한 실시예들에 따른 전자 장치에서 표시되는 이미지의 또 다른 예를 도시한다.
도 13은 다양한 실시예들에 따라 음식들과 관련된 객체들과 연관 정보를 함께 표시하는 전자 장치의 동작의 예를 도시한다.
도 14는 다양한 실시예들에 따른 전자 장치에서 표시되는 사용자 인터페이스의 예를 도시한다.
도 15는 다양한 실시예들에 따른 전자 장치에서 표시되는 사용자 인터페이스의 다른 예를 도시한다.
도 16은 다양한 실시예들에 따라 섭취량에 대한 정보를 획득하는 전자 장치의 동작의 예를 도시한다.
도 17은 다양한 실시예들에 따른 전자 장치에서 표시되는 이미지의 또 다른 예를 도시한다.
도 18은 다양한 실시예들에 따른 전자 장치에서 표시되는 이미지의 또 다른 예를 도시한다.
도 19는 다양한 실시예들에 따른 전자 장치에서 표시되는 사용자 인터페이스의 또 다른 예를 도시한다.
도 20은 다양한 실시예들에 따라 권장 섭취량과 관련된 정보를 표시하는 전자 장치의 동작의 예를 도시한다.
도 21은 다양한 실시예들에 따른 전자 장치에서 표시되는 사용자 인터페이스의 또 다른 예를 도시한다.
도 22는 다양한 실시예들에 따른 전자 장치와 다른 전자 장치 사이의 연동의 예를 도시한다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제 1 네트워크 198 또는 제 2 네트워크 199와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는 다양한 실시예들에 따른 전자 장치의 기능적 구성의 예를 도시한다. 이러한 기능적 구성은 도 1에 도시된 전자 장치(101)에 포함되거나 전자 장치(101) 내에서 실행될 수 있다.
도 2를 참조하면, 전자 장치(101)는 프로세서(120), 메모리(130), 표시 장치(160), 센서 모듈(176), 카메라 모듈(180), 및 통신 모듈(190)을 포함할 수 있다.
다양한 실시예들에서, 프로세서(120)는 도 1에 도시된 프로세서(120)을 포함할 수 있고, 메모리(130)는 도 1에 도시된 메모리(130)을 포함할 수 있고, 표시 장치(160)는 도 1에 도시된 센서 모듈(176)을 포함할 수 있고, 카메라 모듈(180)은 도 1에 도시된 카메라 모듈(180)을 포함할 수 있으며, 통신 모듈(190)은 도 1에 도시된 통신 모듈(190) 또는 도 1에 도시된 인터페이스(177) 중 적어도 하나를 포함할 수 있다.
다양한 실시예들에서, 프로세서(120)는 이미지 처리 모듈(210), 생체(biometric) 정보 처리 모듈(240), 및 렌더링(rendering) 모듈(270)을 포함하거나, 메모리(130)에 포함된 명령어(instruction)들을 실행함으로써 이미지 처리 모듈(210), 생체(biometric) 정보 처리 모듈(240), 및 렌더링(rendering) 모듈(270)을 구동할 수 있다.
다양한 실시예들에서, 이미지 처리 모듈(210)은 카메라 모듈(180)(예: 적어도 하나의 카메라)을 통해 획득되는 이미지를 처리할 수 있다. 상기 이미지는 음식과 관련될 수 있다. 예를 들면, 상기 이미지는 복수의 음식들과 관련된 복수의 객체들을 포함할 수 있다. 다양한 실시예들에서, 이미지 처리 모듈(210)은 인공지능 서비스를 위한 어플리케이션(예: 빅스비 비젼(bixby vision)TM)으로 참조될 수 있다. 다양한 실시예들에서, 이미지 처리 모듈(210)은 특징점 추출부(feature point extractor)(212), 스케일 추정부(scale estimator)(214), 면 검출부(surface detector)(216), 이미지 분할부(image segmentation unit)(218), 트래킹부(trackor)(220), 객체 인식부(object recognizer)(222), 및 음성 인식부(voice recognizer)(224)를 포함할 수 있다.
다양한 실시예들에서, 특징점 추출부(212)는 카메라 모듈(180)을 통해 획득되는 이미지의 주요 피사체(main subject for photography)가 무엇인지를 식별하기 위해 상기 이미지로부터 적어도 하나의 특징점을 추출할 수 있다. 다양한 실시예들에서, 특징점 추출부(212)는 상기 이미지 내에 포함된 복수의 객체들 중에서 주요 객체를 식별하기 위해 적어도 하나의 특징점을 추출할 수 있다. 다양한 실시예들에서, 특징점 추출부(212)는 상기 이미지가 무엇에 관한 이미지인지를 식별하기 위해 적어도 하나의 특징점을 추출할 수 있다. 예를 들면, 프로세서(120)(또는 이미지 처리 모듈(210))는 특징점 추출부(212)를 이용하여 상기 이미지로부터 적어도 하나의 특징점을 추출함으로써, 상기 이미지가 음식과 관련됨을 식별할 수 있다.
다양한 실시예들에서, 스케일 추정부(214)는 카메라 모듈(180)을 통해 획득되는 이미지와 관련된 깊이 정보(depth information)(및/또는 길이 정보(length information))에 기반하여 상기 이미지 내에 포함된 객체와 관련된 음식의 양(부피, 질량 등)을 추정할 수 있다. 다양한 실시예들에서, 상기 깊이 정보는, 2D(two dimensions)로 설정된(configured with) 상기 이미지를 3D(three dimensions) 이미지로 변경(change)하거나 변환(convert)하기 위해 획득되는 정보를 의미할 수 있다. 다양한 실시예들에서, 상기 깊이 정보는, 상기 이미지를 획득하는 동안 레이저(laser), 적외선 등과 같은 빛을 전자 장치(101)로부터 발산함으로써 획득될 수 있다. 예를 들면, 상기 깊이 정보는, 상기 이미지를 획득하는 동안 전자 장치(101)로부터 발산되는 적외선에 기반하여 반사되는 파장에 대한 정보에 기반하여, 획득될 수 있다. 다양한 실시예들에서, 상기 깊이 정보는, 서로 다른 특성을 가지는 2개 이상의 카메라들을 통해 이미지를 획득함으로써, 획득될 수 있다. 다양한 실시예들에서, 상기 깊이 정보는, 획득된 이미지의 전처리(pre-processing) 또는 후처리(post-processing)를 통해 획득될 수 있다. 예를 들면, 상기 깊이 정보는, 기준점으로부터 상기 이미지 내에 포함된 각 객체들 사이의 거리를 식별함으로써 획득될 수 있다. 다양한 실시예들에서, 상기 깊이 정보는 좌영상을 위한 카메라 및 우영상을 위한 카메라를 이용한 스테레오 매칭 장치를 이용하여 좌영상 및 우영상의 시차를 이용하여 획득될 수 있다. 다양한 실시예들에서, 상기 깊이 정보는, 상기 이미지를 획득하는 동안 수신되는 음성 신호(예: 메뉴의 종류 및 양과 관련된 음성 신호 등)의 인식에 기반하여 획득될 수 있다. 예를 들면, 상기 깊이 정보는 트레이닝된 모델을 이용하여 카메라로부터 획득된 하나의 이미지로부터 획득될 수 있다. 다양한 실시예들에서, 스케일 추정부(214)는 상기 깊이 정보에 기반하여 상기 객체의 크기를 추정함으로써, 상기 객체와 관련된 음식의 양을 추정할 수 있다.
다양한 실시예들에서, 면 검출부(216)는 카메라 모듈(180)을 통해 획득되는 이미지에 기반하여, 상기 이미지 내의 객체의 평면(surface), 곡률(curvature), 또는 질감(texture) 중 적어도 하나에 대한 정보를 획득할 수 있다. 면 검출부(216)는 상기 획득된 정보에 적어도 기반하여 상기 객체가 음식과 관련됨을 인식하기 위한 정보를 획득할 수 있다.
다양한 실시예들에서, 이미지 분할부(218)는 카메라 모듈(180)을 통해 획득되는 이미지로부터 상기 이미지 내에 포함된 객체를 분할할 수 있다. 다양한 실시예들에서, 이미지 분할부(218)는, 상기 이미지의 연속성에 대한 정보, 상기 이미지와 관련된 깊이 정보, 상기 이미지를 구성하는 색깔들의 정보, 상기 이미지와 관련된 돌극성(saliency) 맵(예: 상기 이미지 내의 각 픽셀들의 고유 품질(unique quality에 대한 데이터)에 대한 정보, 또는 상기 이미지와 관련된 인덱싱 정보에 적어도 기반하여, 상기 이미지로부터 객체를 식별하거나 추출할 수 있다. 예를 들면, 이미지 분할부(218)는, 상기 객체가 어떤 음식과 관련되는지를 인식하기 위해, 상기 객체를 상기 이미지로부터 분할할 수 있다. 다양한 실시예들에서, 상기 분할된 객체에 대한 정보는, 인식(recognition)을 위해 메모리(130)에 저장된 데이터베이스(database)에 제공될 수 있다. 예를 들면, 프로세서(120)는 상기 객체에 대한 정보를 이용하여 상기 데이터베이스를 검색(search 또는 retrieve)함으로써, 상기 객체가 어떤 음식과 관련되는지를 식별할 수 있다. 다양한 실시예들에서, 상기 분할된 객체에 대한 정보는, 인식을 위해 통신 모듈(190)을 통해 전자 장치(101)와 관련된 외부 전자 장치(예: 서버(108) 등)에게 제공될 수 있다. 예를 들면, 상기 외부 전자 장치는 상기 수신된 객체에 대한 정보를 이용하여 상기 외부 전자 장치에 포함된 데이터베이스를 검색함으로써 상기 객체가 어떤 음식과 관련되는지를 식별할 수 있다.
다양한 실시예들에서, 트래킹 부(220)는 카메라 모듈(180)을 통해 획득되고 있는(being acquired) 이미지로부터 상기 이미지 내에 포함된 주요 객체(예: 음식과 관련된 객체)를 추적할 수 있다. 다양한 실시예들에서, 트래킹 부(220)는 카메라 모듈(180)을 통해 획득되고 있는 이미지 내에 포함된 미리 결정된(predetermined) 마커(marker)를 추적할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 트래킹 부(220)를 이용하여, 상기 획득되고 있는(being acquired) 이미지의 상태가 변경되는지 여부 또는 상기 이미지의 획득하는 사용자의 의도(intention)가 변경되는지 여부를 모니터링할 수 있다.
다양한 실시예들에서, 객체 인식부(222)는 이미지 분할부(218)를 통해 분할된 객체가 어떤 음식과 관련된지를 인식할 수 있다. 예를 들면, 객체 인식부(222)는 상기 분할된 객체가 포크 커틀릿(pork cutlet)과 관련됨을 인식할 수 있다. 객체 인식부(222)는, 상기 인식을 위해, 상기 외부 전자 장치와 연동하거나 메모리(130)에 저장된 상기 데이터베이스와 연동될 수 있다. 다양한 실시예들에서, 객체 인식부(222)는 상기 객체와 관련된 음식과 관련된 연관 정보(association information)를 획득할 수 있다. 예를 들면, 객체 인식부(222)는 상기 객체와 관련된 음식의 단위 당 칼로리에 대한 정보 또는 상기 음식의 구성 성분들(예: 탄수화물, 단백질, 지방, 비타민 등)에 대한 정보를 획득하기 위한 파라미터들을 획득할 수 있다. 예를 들면, 객체 인식부(222)는, 상기 객체와 관련된 파장을 이용하여, 상기 객체가 상기 음식과 관련됨을 인식할 수 있다. 다양한 실시예들에서, 프로세서(120)는 객체 인식부(222)에 의해 획득된 데이터에 기반하여, 상기 정보의 획득을 위해, 음식과 관련된 데이터를 포함하는 메모리(130)에 저장된 데이터베이스를 검색하거나, 외부 전자 장치(예: 빅 데이터 서버)와의 시그널링을 수행할 수 있다. 프로세서(120)는 상기 검색 또는 상기 시그널링에 적어도 기반하여, 전자 장치(101)의 데이터베이스 내의 테이블 또는 외부 전자 장치에 저장된 데이터 베이스 내의 테이블을 이용하여 상기 음식을 구성하는 구성 성분(또는 영양 성분)들을 획득할 수 있다.
다양한 실시예들에서, 음성 인식부(224)는 상기 이미지를 획득하는 동안 수신되거나 상기 이미지를 획득한 후 지정된 시간 이내에 수신되는 음성 명령(voice command)을 인식할 수 있다. 예를 들면, 음성 인식부(224)는, 마이크로폰(또는 트랜스듀서(transducer))를 이용하여 상기 이미지를 획득하는 동안 또는 상기 이미지를 획득한 후 지정된 시간 이내에서 상기 음성 명령을 수신할 수 있다. 음성 인식부(224)는, 메모리(130)에 저장된 음성 인식과 관련된 데이터베이스를 검색하거나 외부 전자 장치(예: 음성 인식 서버)와의 시그널링을 통해 상기 음성 명령을 인식할 수 있다. 음성 인식부(224)는, 상기 인식된 음성 명령이 상기 이미지와 관련된다고 식별하는 경우, 상기 음성 명령에 대한 정보를 프로세서(120)와 관련된 다양한 구성요소들(예: 이미지 처리 모듈 내의 구성요소들, 생체 정보 처리 모듈(240), 렌더링 모듈(270) 등)에게 제공할 수 있다.
다양한 실시예들에서, 생체 정보 처리 모듈(240)은 사용자의 생체 정보(biometric information)를 처리할 수 있다. 다양한 실시예들에서, 상기 생체 정보는, 전자 장치(101)에 포함된 센서 모듈(176)을 통해 획득될 수 있다. 다양한 실시예들에서, 상기 생체 정보는, 전자 장치(101)와 연동된 도 1에 도시된 전자 장치(102)와 같은 다른 전자 장치(예: 웨어러블 장치 등)로부터 획득될 수 있다. 다양한 실시예들에서, 생체 정보 처리 모듈(240)은 음식 관리부(food manager)(242), 스케줄러(scheduler)(244), 및 사용자 프로파일 데이터베이스(user profile database)(246)를 포함할 수 있다.
다양한 실시예들에서, 음식 관리부(242)는 음식과 관련된 데이터베이스를 포함할 수 있다. 다양한 실시예들에서, 상기 음식과 관련된 데이터베이스는 서버 등을 통해 획득될 수 있다. 다양한 실시예들에서, 상기 음식과 관련된 데이터베이스는 상기 사용자에 의한 전자 장치(101)의 이용(use)에 의해 기록되거나 업데이트될 수 있다. 다양한 실시예들에서, 상기 음식과 관련된 데이터베이스 또는 상기 데이터베이스와 관련된 명령어들(또는 프로그램들)은 음식 인텔리전트 에이전트(food intelligent agent)로 참조될 수 있다. 다양한 실시예들에서, 상기 음식 인텔리전트 에이전트는, 상기 음식과 관련된 데이터베이스를 구성하거나 상기 음식과 관련된 데이터베이스를 이용하기 위해 이용될 수 있다.
다양한 실시예들에서, 음식 관리부(242)는 상기 데이터베이스를 이용하여 음식과 관련된 정보를 제공할 수 있다.
다양한 실시예들에서, 스케줄러(244)는 이미지 처리 모듈(210)에 의해 인식되는 객체와 관련된 음식에 대한 연관 정보에 기반하여 전자 장치(101)과 관련된 사용자를 위한 음식의 종류 및 음식의 섭취에 대한 스케줄을 생성할 수 있다. 다양한 실시예들에서, 스케줄러(244)는 객체 인식부(222)로부터 객체와 관련된 음식의 단위 당 칼로리에 대한 정보 또는 상기 음식의 구성 성분들에 대한 정보 중 적어도 하나를 상기 연관 정보로 획득할 수 있다. 스케줄러(244)는, 상기 연관 정보에 적어도 기반하여, 상기 사용자의 신체적 특성(예: 몸무게, 키, 나이, 식습관, 체지방도 등)에 부합하는 음식의 종류가 무엇인지를 식별하거나 상기 사용자의 신체적 특성에 부합하는 섭취량이 얼마인지를 식별할 수 있다.
다양한 실시예들에서, 스케줄러(244)는 상기 사용자의 신체적 특성 또는 상기 사용자의 생체 정보에 기반하여 식별된 상기 연관 정보를 처리할 수 있다. 예를 들면, 스케줄러(244)는, 상기 사용자의 신체적 특성에 부합하는 음식의 종류에 대한 정보 또는 상기 사용자의 신체적 특성에 부합하는 섭취량에 대한 정보에 적어도 기반하여, 상기 사용자 섭취한 음식의 열량에 대한 정보, 특정(certain) 영양소, 또는 특정 영양소가 포함된 음식의 섭취를 가이드하기 위한 정보를 생성할 수 있다. 스케줄러(244)는, 렌더링 모듈(270)과 연동함으로써, 상기 생성된 정보를 표시 장치(160)를 통해 표시할 수 있다.
다양한 실시예들에서, 사용자 프로파일 데이터베이스(246)는 전자 장치(101)과 관련된 상기 사용자의 생체 정보를 저장할 수 있다. 다양한 실시예들에서, 상기 생체 정보는 사용자의 키, 체중, 혈압, 혈당 등과 같은 건강(health) 정보를 포함할 수 있다. 다양한 실시예들에서, 상기 생체 정보는 외부 서버(예: 병원, 헬스 센터 등과 관련된 서버)로부터 획득될 수 있다. 다양한 실시예들에서, 상기 생체 정보는, 전자 장치(101)의 적어도 하나의 센서에 의해 업데이트될 수 있다. 예를 들면, 상기 생체 정보는, 전자 장치(101)과 관련된 사용자에 의해 섭취된 음식 및 사용자의 운동 등으로 인하여 소비되는 열량에 적어도 기반하여, 업데이트될 수 있다. 예를 들면, 사용자 프로파일 데이터베이스(246)는 센서 모듈(176)을 통해 획득되었던 사용자의 생체 정보 또는 다른 전자 장치(예: 웨어러블 장치)의 센서 모듈을 통해 획득되고 상기 다른 전자 장치로부터 수신된 상기 사용자의 생체 정보 중 적어도 하나에 기반하여 생성된 데이터를 저장할 수 있다. 예를 들면, 사용자 프로파일 데이터베이스(246)에 저장된 상기 데이터는, 상기 사용자의 체중 변화에 대한 정보, 상기 사용자가 섭취한 음식의 양에 대한 정보 등을 포함할 수 있다. 사용자 프로파일 데이터베이스(246)는 사용자 프로파일 데이터베이스(246)에 저장된 상기 데이터를 제공하기 위해 전자 장치(101) 내의 다른 구성요소들(예: 이미지 처리 모듈(210), 생체 정보 처리 모듈(240) 등)과 연동될 수 있다. 다양한 실시예들에서, 프로세서(120)는, 사용자 프로파일 데이터베이스(246)로부터 음식의 섭취와 관련된 정보를 획득할 수 있다.
다양한 실시예들에서, 렌더링 모듈(270)은 이미지 처리 모듈(210)을 통해 획득되는 정보 또는 생체 정보 처리 모듈(240)을 통해 획득되는 정보 중 적어도 하나를 표시 장치(160)을 통해 표시할 수 있다. 다양한 실시예들에서, 렌더링 모듈(270)은 이미지 처리 모듈(210)을 통해 획득되는 정보를 인공지능 서비스를 제공하기 위한 어플리케이션(예: 빅스비(bixby)TM)과 관련된 사용자 인터페이스 내에서(within) 표시할 수 있다. 다양한 실시예들에서, 렌더링 모듈(270)은 이미지 처리 모듈(210)을 통해 획득되는 정보를 알림(notification) 영역 또는 알림 바 내에서 표시할 수 있다. 다양한 실시예들에서, 렌더링 모듈(270)은 이미지 처리 모듈(210)을 통해 획득되는 정보를 헬스 어플리케이션(예: S(samsung)-헬스TM)과 관련된 사용자 인터페이스 내에서 표시할 수 있다. 다양한 실시예들에서, 렌더링 모듈(270)은 생체 정보 처리 모듈(210)을 통해 획득되는 정보를 인공지능 서비스를 제공하기 위한 어플리케이션(예: 빅스비(bixby)TM)과 관련된 사용자 인터페이스 내에서(within) 표시할 수 있다. 다양한 실시예들에서, 렌더링 모듈(270)은 생체 정보 처리 모듈(210)을 통해 획득되는 정보를 알림(notification) 영역 또는 알림 바 내에서 표시할 수 있다. 다양한 실시예들에서, 렌더링 모듈(270)은 생체 정보 처리 모듈(210)을 통해 획득되는 정보를 헬스 어플리케이션(예: S(samsung)-헬스TM)과 관련된 사용자 인터페이스 내에서 표시할 수 있다.
도 2에 도시된 전자 장치(101)(또는 프로세서(120))는 도 4 내지 도 21을 통해 후술될 동작들을 수행할 수 있다.
도 3은 다양한 실시예들에 따른 전자 장치와 외부 전자 장치 사이의 시그널링의 예를 도시한다. 이러한 시그널링은 도 1에 도시된 전자 장치(101) 또는 도 2에 도시된 전자 장치(101)와 도 1에 도시된 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 사이에서 야기될 수 있다.
도 3을 참조하면, 전자 장치(101)의 이미지 처리 모듈(210)은 카메라 모듈(180)을 통해 획득되는 이미지로부터 음식과 관련된 객체를 식별할 수 있다. 이미지 처리 모듈(210)은 통신 모듈(190)과 연동함으로써, 상기 객체에 대한 정보(또는 상기 객체를 포함하는 이미지에 대한 정보)를 외부 전자 장치(310)에게 송신할 수 있다. 다양한 실시예들에서, 외부 전자 장치(310)는 상기 이미지 내에 포함된 상기 객체를 인식하기 위한 서버일 수 있다. 다양한 실시예들에서, 외부 전자 장치(310)는 상기 수신된 객체에 대한 정보에 적어도 기반하여 상기 객체가 어떤 음식과 관련되는지 식별할 수 있다. 외부 전자 장치(310)는 상기 객체와 관련되는 것으로 식별된 음식에 대한 정보를 이미지 처리 모듈(210)에게 제공할 수 있다. 예를 들면, 상기 음식에 대한 정보는 상기 음식의 유형에 대한 데이터, 상기 음식의 영양 성분에 대한 데이터 등을 포함할 수 있다.
다양한 실시예들에서, 이미지 처리 모듈(210)은 통신 모듈(190)과 연동함으로써, 상기 이미지에 대한 정보, 상기 객체에 대한 정보, 또는 상기 음식의 유형에 대한 정보를 외부 전자 장치(320)에게 송신할 수 있다. 다양한 실시예들에서, 외부 전자 장치(320)는 상기 이미지에 포함된 객체와 관련되는 음식에 대한 부가 정보를 제공하기 위한 서버일 수 있다. 다양한 실시예들에서, 외부 전자 장치(320)는 상기 수신된 정보에 적어도 기반하여 상기 음식에 대한 부가 정보를 식별할 수 있다. 다양한 실시예들에서, 상기 부가 정보는 상기 음식 및 상기 음식의 영양성분들, 또는 상기 음식의 칼로리 등을 의미할 수 있다. 다양한 실시예들에서, 상기 부가 정보는 상기 음식의 조리법(recipe) 또는 상기 음식과 관련된 반조리식품의 쇼핑 가이드 등을 의미할 수도 있다.
다양한 실시예들에서, 상기 부가 정보는 상기 음식과 관련된 다른 음식에 대한 정보를 의미할 수 있다. 예를 들면, 외부 전자 장치(320)는 상기 수신된 정보에 적어도 기반하여 상기 음식과 관련된 다른 음식에 대한 정보를 상기 부가 정보로 식별하거나 상기 음식 또는 상기 다른 음식의 조리법(recipe)에 대한 정보를 상기 부가 정보로 식별할 수 있다. 다양한 실시예들에서, 상기 다른 음식은 상기 음식을 구성하는 영양성분들과 다른 영양성분들을 제공할 수 있는 음식을 의미할 수 있다. 다양한 실시예들에서, 상기 다른 음식은 상기 음식을 구성하는 영양성분들과 유사한 영양성분들을 제공할 수 있는 음식을 의미할 수도 있다.
외부 전자 장치(320)는 상기 부가 정보를 이미지 처리 모듈(210)에게 제공할 수 있다. 이미지 처리 모듈(210)은 상기 부가 정보를 다양한 방법들을 통해 처리할 수 있다. 예를 들면, 이미지 처리 모듈(210)은 상기 부가 정보를 헬스 어플리케이션의 사용자 인터페이스, 웹페이지와 관련된 사용자 인터페이스, 동영상 재생과 관련된 사용자 인터페이스 등을 통해 표시할 수 있다.
다양한 실시예들에서, 이미지 처리 모듈(210)은 상기 객체와 관련된 음식에 대한 정보 또는 상기 음식과 관련된 부가 정보 중 적어도 하나를 외부 전자 장치(330)에게 송신할 수 있다. 외부 전자 장치(330)는 음식과 관련된 빅 데이터(big data)를 구성(configure)하기 위한 서버일 수 있다. 다양한 실시예들에서, 외부 전자 장치(330)는 전자 장치(101) 뿐 아니라 다른 전자 장치들로부터 음식과 관련된 정보를 수신하고, 수신된 정보에 기반하여 빅 데이터를 구성하는 서버를 의미할 수 있다. 외부 전자 장치(330)는 전자 장치(101) 등과 같은 장치로부터 요청을 수신하는 것에 기반하여, 상기 음식에 대한 정보 또는 상기 음식과 관련된 부가 정보 등을 상기 장치에게 송신할 수 있따.
다양한 실시예들에서, 이미지 처리 모듈(210)은, 이미지 처리 모듈(210)에 의해 처리된 음식과 관련된 정보, 외부 전자 장치(310)로부터 획득된 음식과 관련된 정보, 외부 전자 장치(320)로부터 획득된 음식과 관련된 정보, 또는 외부 전자 장치(330)에게 송신되거나 수신되는(도 3에서 미도시) 음식과 관련된 정보 중 적어도 하나를 생체 정보 처리 모듈(240)에게 제공할 수 있다. 예를 들면, 이미지 처리 모듈(210)은, 상기 정보를 사용자의 생체 정보와 연동하기 위하여, 상기 정보를 생체 정보 처리 모듈(240)에게 제공할 수 있다.
다양한 실시예들에서, 생체 정보 처리 모듈(240)은 상기 정보를 처리할 수 있다. 다양한 실시예들에서, 생처 정보 처리 모듈(240)은 사용자의 신체적 특성과 같은 사용자의 생체 정보에 기반하여 상기 정보를 가공할 수 있다. 예를 들면, 생체 정보 처리 모듈(240)은 사용자의 식습관을 모니터링하기 위해 상기 정보를 저장할 수 있다. 다른 예를 들면, 생체 정보 처리 모듈(240)은 생체 정보 처리 모듈(240)에 의해 획득된 상기 사용자의 생체 정보와 상기 정보를 연관하는 연관 정보를 생성하고, 상기 연관 정보를 표시하거나 저장할 수 있다. 생체 정보 처리 모듈(240)에 의해 처리되거나 가공된 정보는 다양한 방법들(예: 알림의 제공 등)을 통해 사용자에게 제공될 수 있다.
도 3은 외부 전자 장치(310), 외부 전자 장치(320), 및 외부 전자 장치(330)가 독립적으로 구성되는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 실시예들에 따라, 외부 전자 장치(310), 외부 전자 장치(320), 및 외부 전자 장치(330) 중 적어도 일부는 하나의 전자 장치로 구현될 수도 있다.
도 4는 다양한 실시예들에 따른 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 1에 도시된 전자 장치(101), 도 2에 도시된 전자 장치(101), 도 1에 도시된 전자 장치(101)의 프로세서(120), 또는 도 2에 도시된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 4를 참조하면, 동작 410에서, 프로세서(120)는 카메라 모듈(180)을 통해 획득되는 이미지를 표시할 수 있다. 다양한 실시예들에서, 상기 이미지는 카메라 모듈(180)에 포함된 적어도 하나의 카메라를 통해 획득될 수 있다. 예를 들면, 상기 이미지는 상기 적어도 하나의 카메라 중 제1 카메라를 통해 획득된 이미지, 상기 적어도 하나의 카메라 중 상기 제1 카메라와 다른 특성을 가지는 제2 카메라를 통해 획득되는 이미지, 또는 상기 제1 카메라를 통해 획득되는 제1 이미지 및 상기 제2 카메라를 통해 획득되는 제2 이미지를 합성한 이미지일 수 있다. 다양한 실시예들에서, 상기 제1 카메라의 시야는, 상기 제2 카메라의 시야와 비교하여(relative to) 디스패리티(disparity, 또는 시차)를 가질 수 있다. 예를 들면, 상기 디스패리티는 사람의 왼쪽 눈과 사라마의 오른쪽 눈 사이의 디스패리티에 상응할 수 있다. 상기 디스패리티로 인하여, 프로세서(120)는, 상기 제1 이미지 및 상기 제2 이미지를 합성한 이미지와 관련된 깊이 정보를 획득할 수 있다. 다양한 실시예들에서, 상기 이미지는 음식들과 관련될 수 있다. 다양한 실시예들에서, 상기 이미지는 상기 음식들과 관련된 객체들을 포함할 수 있다. 예를 들면, 상기 이미지는 복수의 음식들을 촬영함으로써 획득되는 이미지일 수 있다.
동작 420에서, 프로세서(120)는 상기 이미지와 관련된 깊이 정보(depth information)를 획득할 수 있다. 다양한 실시예들에서, 상기 깊이 정보는, 상기 이미지를 획득하는 동안 전자 장치(101)로부터 발산되는(emitted) 적어도 하나의 빛에 기반하여 획득될 수 있다. 상기 적어도 하나의 빛은 상기 적어도 하나의 카메라의 시야(예: FOV(field of view) 또는 AOV(angle of view))에 상응하는 방향으로 발산될 수 있다. 다양한 실시예들에서, 상기 깊이 정보는, 서로 다른 특성을 가지는 카메라들(예: 상기 제1 카메라 및 상기 제2 카메라)을 통해 획득될 수 있다. 다양한 실시예들에서, 상기 깊이 정보는 상기 획득된 이미지의 후처리(post-process) 동작을 통해 획득될 수 있다. 다양한 실시예들에서, 상기 깊이 정보는 상기 이미지에 포함된 상기 객체들과 관련된 상기 음식들 각각의 양(예: 상기 음식들 각각의 부피, 상기 음식들 각각의 질량 등)을 식별하기 위해 이용될 수 있다.
동작 430에서, 프로세서(120)는 상기 이미지로부터 음식들과 관련된 객체들을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 이미지로부터 적어도 하나의 특징점을 추출할 수 있다. 프로세서(120)는 상기 적어도 하나의 특징점에 기반하여 상기 이미지가 상기 음식들과 관련됨을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는 트레이닝된(trained) 데이터에 기반하여, 상기 이미지가 상기 음식들과 관련됨을 식별할 수 있다. 다양한 실시예들에서, 상기 트레이닝된 데이터는 기계학습(machine learning), 신경망, 또는 딥러닝 알고리즘과 같은 인공지능 알고리즘에 기반하여 트레인될 수 있다. 상기 트레이닝된 데이터는 학습 데이터로 참조될 수 있다. 프로세서(120)는, 상기 식별에 기반하여, 이미지 처리(image processing)를 통해 상기 이미지 내의 복수의 객체들 각각의 경계에 대한 정보, 상기 복수의 객체들 각각의 면(surface)에 대한 정보, 상기 복수의 객체들 각각과 관련된 곡률에 대한 정보, 또는 상기 복수의 객체들과 관련된 질감에 대한 정보를 획득함으로써, 상기 복수의 객체들 중에서 상기 음식들과 관련된 상기 객체들을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 객체들을 상기 이미지로부터 분할할 수 있다. 예를 들면, 프로세서(120)는 상기 객체들 각각을 인식하기 위해 상기 이미지로부터 상기 객체들을 분할할 수 있다.
동작 440에서, 프로세서(120)는 상기 객체들 각각에 대한 부가 정보를 표시하기 위한 적어도 하나의 동작을 수행할 수 있다. 다양한 실시예들에서, 상기 부가 정보는, 상기 객체들 각각에 대한 인식 결과에 대한 데이터를 포함할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 음식들과 각각 관련된 상기 객체들을 인식함으로써 획득되는 다양한 종류의 상기 부가 정보를 획득하기 위해, 상기 적어도 하나의 동작을 수행할 수 있다. 상기 적어도 하나의 동작은 상기 음식들과 관련된 상기 부가 정보를 직관적으로 제공하기 위해 요구되는 동작을 의미할 수 있다. 다양한 실시예들에서, 상기 적어도 하나의 동작에 대한 설명은 도 5 내지 도 21을 통해 후술될 것이다.
도 5는 다양한 실시예들에 따라 음식들과 관련된 객체들에 대한 인디케이션들을 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 1에 도시된 전자 장치(101), 도 2에 도시된 전자 장치(101), 도 1에 도시된 전자 장치(101)의 프로세서(120), 또는 도 2에 도시된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 5의 동작 510 내지 동작 540은 도 4의 동작 440과 관련될 수 있다.
도 5를 참조하면, 동작 510에서, 프로세서(120)는 객체들 각각에 대한 정보에 적어도 기반하여 음식들 각각의 단위 당 칼로리에 대한 제1 정보를 획득할 수 있다. 다양한 실시예들에서, 프로세서(120)는 도 4의 동작 430과 같은 동작을 통해, 상기 이미지로부터 상기 음식들과 관련된 상기 객체들을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 객체들 각각에 대한 정보에 적어도 기반하여 상기 객체들 각각을 인식할 수 있다. 예를 들면, 프로세서(120)는 상기 객체들 각각의 질감, 경계, 또는 면에 대한 데이터를 포함하는 상기 객체들 각각에 대한 정보를 이용하여 메모리(130)에 저장된 데이터베이스를 검색함으로써, 상기 객체들이 어떤 음식들에 각각 해당하는지를 인식할 수 있다. 프로세서(120)는, 상기 인식 결과에 기반하여, 메모리(130)에 저장된 데이터베이스를 검색하거나, 전자 장치(101)과 연동된 서버를 검색하거나, 웹페이지를 검색함으로써, 상기 객체들 각각과 관련된 상기 음식들 각각의 단위 당 칼로리(예: 100g 당 칼로리, 1회 제공량에 상응하는 칼로리 등)에 대한 상기 제1 정보를 획득할 수 있다. 다른 예를 들면, 프로세서(120)는 상기 식별된 객체들에 대한 정보를 이미지 인식과 관련되고 전자 장치(101)과 연동되는 외부 전자 장치(예: 서버)에게 송신할 수 있다. 상기 객체들에 대한 정보를 수신한 상기 외부 전자 장치는 상기 객체들이 어떤 음식들에 각각 해당하는지를 인식할 수 있다. 상기 외부 전자 장치는 상기 인식 결과에 대한 정보를 전자 장치(101)에게 송신할 수 있다. 프로세서(120)는 상기 수신된 정보에 기반하여, 메모리(130)에 저장된 데이터베이스를 검색하거나, 전자 장치(101)과 연동된 서버(상기 외부 전자 장치와 동일할 수도 있고 다를 수도 있음)를 검색하거나, 웹페이지를 검색함으로써, 상기 객체들 각각과 관련된 상기 음식들 각각의 단위 당 칼로리에 대한 상기 제1 정보를 획득할 수 있다.
동작 520에서, 프로세서(120)는 상기 깊이 정보 및 상기 제1 정보에 적어도 기반하여 상기 음식들 각각의 총 칼로리에 대한 제2 정보를 획득할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 제1 정보에 포함된 상기 음식들 각각의 단위 당 칼로리에 대한 데이터와 상기 깊이 정보를 통해 획득되는 상기 음식들 각각의 양에 대한 데이터에 적어도 기반하여, 상기 제2 정보를 획득할 수 있다. 예를 들어, 상기 제1 정보에 포함된 음식 A의 단위 당 칼로리가 114 (kcal/100g)이고 상기 깊이 정보에 포함된 상기 음식 A의 양이 600(g)인 경우, 프로세서(120)는 상기 음식 A의 총 칼로리를 684(kcal)로 산출할 수 있다. 프로세서(120)는 상기 음식 A의 총 칼로리가 684(kcal)임을 나타내는 데이터를 포함하는 상기 제2 정보를 획득할 수 있다. 다른 예를 들어, 상기 제1 정보에 포함된 음식 B의 단위 당 칼로리가 319 (kcal/100g)이고 상기 깊이 정보에 포함된 상기 음식 B의 양이 1000(g)인 경우, 프로세서(120)는 상기 음식 B의 총 칼로리를 3188.56(kcal)로 산출할 수 있다. 프로세서(120)는 상기 음식 B의 총 칼로리가 3188.56(kcal)임을 나타내는 데이터를 포함하는 상기 제2 정보를 획득할 수 있다.
동작 530에서, 프로세서(120)는 상기 제2 정보에 적어도 기반하여 상기 음식들 각각에 대한 권장 섭취량에 대한 정보를 획득할 수 있다. 프로세서(120)는 상기 이미지 내에 포함된 상기 객체들 각각과 관련된 상기 음식들 각각의 총 칼로리에 대한 상기 제2 정보에 기반하여, 상기 음식들을 모두 섭취하는 경우의 총 칼로리를 산출할 수 있다. 상기 예시의 경우, 프로세서(120)는 상기 음식 A의 총 칼로리 684(kcal)와 상기 음식 B의 총 칼로리 3188.56(kcal)를 합산한 3872.56(kcal)를 상기 음식들을 모두 섭취하는 경우의 총 칼로리로 산출할 수 있다. 프로세서(120)는 상기 산출된 총 칼로리에 대한 정보에 적어도 기반하여 상기 음식들 각각에 대한 권장 섭취량에 대한 정보를 획득할 수 있다.
다양한 실시예들에서, 프로세서(120)는 상기 제2 정보 및 전자 장치(101)과 관련된 상기 사용자의 생체 정보에 적어도 기반하여 상기 음식들 각각에 대한 권장 섭취량에 대한 정보를 획득할 수 있다. 상기 생체 정보는, 전자 장치(101)에 저장되어 있거나 전자 장치(101)와 연동된 서버 내에 저장될 수 있다.
예를 들면, 프로세서(120)는 상기 산출된 총 칼로리에 대한 정보 및 전자 장치(101)과 관련된 사용자의 음식 섭취 이력에 대한 정보에 기반하여 상기 음식들 각각에 대한 권장 섭취량에 대한 정보를 획득할 수 있다. 예를 들어, 상기 음식 섭취 이력에 대한 정보가 상기 사용자가 탄수화물을 지방 또는 단백질보다 많이 섭취하였음을 나타내는 경우, 프로세서(120)는 지방 또는 단백질과 관련된 음식의 권장 섭취량을 탄수화물과 관련된 음식의 권장 섭취량보다 높게 할당할 수 있다. 다른 예를 들어, 상기 음식 섭취 이력에 대한 정보가 상기 사용자가 이전 식사에서 과식하였음을 나타내는 경우, 프로세서(120)는 상기 음식들의 총 권장 섭취량을 기준 권장 섭취량보다 낮게 식별할 수 있다. 프로세서(120)는 상기 식별된 총 권장 섭취량에 기반하여 상기 음식들 각각의 상기 권장 섭취량에 대한 정보를 획득할 수 있다.
다른 예를 들면, 프로세서(120)는 상기 산출된 총 칼로리에 대한 정보 및 상기 사용자의 질병 이력에 대한 정보에 기반하여 상기 음식들 각각에 대한 권장 섭취량에 대한 정보를 획득할 수 있다. 예를 들어, 상기 질병 이력에 대한 정보가 상기 사용자가 당뇨를 앓고 있음을 나타내는 경우, 프로세서(120)는, 높은 당 수치를 가지는 음식의 권장 섭취량을 기준 권장 섭취량보다 낮게 식별하고, 낮은 당 수치를 가지는 음식의 권장 섭취량을 기준 권장 섭취량보다 높게 식별할 수 있다. 프로세서(120)는 상기 식별 결과에 기반하여 상기 음식들 각각의 상기 권장 섭취량에 대한 정보를 획득할 수 있다.
또 다른 예를 들면, 프로세서(120)는 영양 성분에 관련된 비율에 대한 정보를 수신하고, 상기 정보에 기반하여 상기 음식들 각각에 대한 권장 섭취량에 대한 정보를 획득할 수있다. 예를 들어, 프로세서(120)는 단백질 비율을 80%, 탄수화물 및 지방의 비율을 각각 10%로 설정하기 위한 상기 영양 성분에 관련된 비율에 대한 입력을 수신할 수 있다. 예를 들어, 프로세서(120)는, 복수의 음식들 각각에 대한 영양 성분에 기반하여, 상기 복수의 음식들 중 단백질 함량이 높은 음식 및 탄수화물 함량이 낮은 음식들에 대한 정보를 획득할 수 있다.
또 다른 예를 들면, 프로세서(120)는 상기 산출된 총 칼로리에 대한 정보 및 상기 사용자의 운동 이력에 대한 정보에 기반하여 상기 음식들 각각에 대한 권장 섭취량에 대한 정보를 획득할 수 있다. 예를 들어, 상기 운동 이력에 대한 정보가 지정된 시간 구간 동안 상기 사용자가 많은 칼로리를 소모하는 운동을 함을 나타내는 경우, 프로세서(120)는, 식사 당 권장 섭취량보다 높은 값으로 상기 총 권장 섭취량을 식별할 수 있다. 프로세서(120)는, 상기 식별된 총 권장 섭취량에 기반하여, 상기 음식들 각각의 권장 섭취량에 대한 정보를 획득할 수 있다.
또 다른 예를 들면, 프로세서(120)는 상기 산출된 총 칼로리에 대한 정보 및 상기 음식들 각각의 영양 성분들(예: 탄수화물, 지방, 단백질, 비타민 등)에 기반하여 상기 음식들 각각의 권장 섭취량에 대한 정보를 획득할 수 있다.
또 다른 예를 들면, 프로세서(120)는 상기 산출된 총 칼로리에 대한 정보 및 상기 사용자의 스트레스 지수에 기반하여 상기 음식들 각각의 권장 섭취량에 대한 정보를 획득할 수 있다.
다양한 실시예들에 따른 프로세서(120)는 사용자의 신체적 특성에 관련된 정보, 운동 이력에 대한 정보, 산출된 총 칼로리에 대한 정보, 상기 음식들 각각에 대한 영양 성분들에 대한 정보, 스트레스 지수, 사용자의 질병 이력에 대한 정보에 기반하여 상기 음식들 각각에 대한 권장 섭취량에 대한 정보를 획득할 수 있는 것으로 서술되었지만, 본 개시는 이에 제한되지 않는다.
동작 540에서, 프로세서(120)는 상기 권장 섭취량을 나타내기 위한 인디케이션들을 상기 객체들과 함께 표시할 수 있다.
예를 들면, 상기 권장 섭취량을 나타내기 위한 상기 인디케이션들 각각은 상기 권장 섭취량을 나타내는 숫자 또는 문자 중 적어도 하나로 설정될(configured with) 수 있다. 상기 숫자 또는 문자 중 적어도 하나로 설정된 상기 인디케이션들 각각은 상기 음식들과 관련된 상기 객체들 각각과의 연계를 위해, 상기 객체들 각각의 주변에서 표시될 수 있다. 예를 들면, 상기 숫자 또는 상기 문자 중 적어도 하나로 설정된 상기 인디케이션들 각각은 상기 객체들 각각에 중첩될(또는 일부 중첩(partially superimposed on)) 수 있다. 다른 예를 들면, 상기 숫자 또는 상기 문자 중 적어도 하나로 설정된 상기 인디케이션들 각각은 상기 객체들 각각 내에서(within) 표시될 수 있다. 또 다른 예를 들면, 상기 숫자 또는 상기 문자 중 적어도 하나로 설정된 상기 인디케이션들 각각은 상기 객체들 각각으로부터 지정된 거리 이내(within)에서 표시될 수 있다. 하지만 이에 한정되지 않는다.
다른 예를 들면, 상기 권장 섭취량을 나타내기 위한 상기 인디케이션들 각각은 상기 권장 섭취량에 해당하는 객체의 일부를 상기 객체의 다른 일부와 비교하여(relative to) 강조함으로써 표시될 수 있다. 예를 들어, 도 6을 참조하면, 부분 이미지(600)는 상기 인디케이션들 중 하나의 인디케이션(620)을 포함할 수 있다. 프로세서(120)는 부분 이미지(600) 내의 음식(예: 포크 커틀릿)과 관련된 객체(610)에 중첩된 인디케이션(620)을 표시할 수 있다. 사용자는 인디케이션(620)의 크기와 객체(610)의 크기 사이의 차이를 통해, 상기 음식(예: 포크 커틀릿)의 권장 사용량을 인지할 수 있다. 다양한 실시예들에서, 프로세서(120)는 부분 이미지(600) 내에서 상기 권장 사용량을 나타내기 위한 다른 인디케이션(630)을 더 포함할 수 있다. 인디케이션(630)은, 상기 권장 사용량을 명시적으로 제공하기 위해, 숫자 또는 문자의 조합으로 설정될 수 있다.
도 6은 인디케이션(630)을 시각적으로 제공하는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 다양한 실시예들에서, 인디케이션(630)은 음성 알림(voice notification)과 같은 소리를 통해 출력될 수도 있다. 다양한 실시예들에서, 인디케이션(630)은 햅틱 효과를 통해 출력될 수도 있다. 하지만, 이에 제한되지 않는다.
또 다른 예를 들면, 상기 권장 섭취량을 나타내기 위한 상기 인디케이션들 각각은 상기 객체의 일부의 형상으로 설정될 수 있다. 예를 들어, 도 7을 참조하면, 부분 이미지(700)는 상기 인디케이션들 중 하나의 인디케이션(720)을 포함할 수 있다. 프로세서(120)는 부분 이미지(700) 내의 음식과 관련된 객체(710)의 일부의 표시(representation)를 인디케이션(720)으로 이용할 수 있다. 예를 들면, 프로세서(120)는 부분 이미지(700) 내의 객체(710)에서 상기 권장 섭취량에 상응하는 크기를 가지는 부분을 추출할 수 있다. 프로세서(120)는 상기 권장 섭취량에 상응하는 객체(710)의 부분을 인디케이션(720)으로 표시할 수 있다. 다양한 실시예들에서, 인디케이션(720)는 객체(710)의 주변에서 플로팅될(floated on) 수 있다. 다양한 실시예들에서, 프로세서(120)는 인디케이션(720)의 플로팅을 표시하기 위해, 상기 권장 섭취량에 상응하는 객체(710)의 부분의 투명도를 제어할 수 있다. 예를 들면, 프로세서(120)는 상기 권장 섭취량에 상응하는 객체(710)의 부분에 해당하는 영역(730)을 반투명하게 표시할 수 있다.
다양한 실시예들에서, 프로세서(120)는 상기 객체들 각각과 함께 상기 인디케이션들 각각을 표시할 수 있다. 예를 들어, 도 8을 참조하면, 프로세서(120)는 이미지(800)을 표시할 수 있다. 이미지(800)는 상기 음식들과 관련된 객체들을 포함할 수 있다. 예를 들면, 이미지(800)는 햄버거와 관련된 객체(810), 스테이크와 관련된 객체(820), 프렌치 프라이(french fries)와 관련된 객체(830), 빵(bread)와 관련된 객체(840), 카페 라떼(cafe latte)와 관련된 객체(850), 및 리코타 치즈 샐러드(ricotta cheese salad)와 관련된 객체(860)를 포함할 수 있다. 이미지(800)는 상기 객체들 중 적어도 일부와 관련된 인디케이션들을 포함할 수 있다. 예를 들면, 이미지(800)는 객체(810)와 관련된 인디케이션(815), 객체(820)와 관련된 인디케이션(825), 객체(830)와 관련된 인디케이션(835), 객체(840)와 관련된 인디케이션(845), 및 객체(850)와 관련된 인디케이션(855)를 포함할 수 있다. 인디케이션(815), 인디케이션(825), 인디케이션(835), 인디케이션(845), 및 인디케이션(855) 각각은 객체(810), 객체(820), 객체(830), 객체(840), 및 객체(850) 각각과 관련된 음식의 상기 권장 섭취량을 나타낼 수 있다. 예를 들면, 인디케이션(815)의 면적은 햄버거의 권장 섭취량에 상응하고, 인디케이션(825)의 면적은 스테이크의 권장 섭취량에 상응하고, 인디케이션(835)의 면적은 프렌치 프라이의 권장 섭취량에 상응하고, 인디케이션(845)의 면적은 빵의 권장 섭취량에 상응하고, 인디케이션(855)의 면적은 커피의 권장 섭취량에 상응할 수 있다. 도 8에 도시된 바와 같이, 객체(860)는 인디케이션과 연관되지 않을 수 있다. 예를 들어, 상기 사용자가 치즈를 섭취하면 알러지가 발생하는 사용자인 경우, 프로세서(120)는 동작 530과 같이 음식들 각각에 대한 권장 섭취량에 대한 정보를 획득하는 동작에서 치즈가 함유된 음식의 권장 섭취량을 0으로 설정함으로써 상기 사용자가 알러지를 유발하는 음식을 섭취하는 것을 제한할 수 있다.
일부 실시예들에서, 프로세서(120)는, 이미지(800)과 같이 복수의 음식들과 관련된 복수의 객체들 중에서, 사용자의 선호도(preference)에 부합하지 않거나 객체의 인식을 통해 획득되지 않은 음식과 관련된 객체를 블러(blur) 처리할 수 있다. 예를 들면, 프로세서(120)는, 이미지(800) 내에서 객체(810), 객체(820), 객체(830), 객체(840), 객체(850), 객체(860)를 제외한 나머지 객체들을 도 8과 같이 블러 처리할 수 있다.
도 8은 객체들 및 인디케이션들을 표시하는 방법들 중 하나의 예에 해당할 뿐, 다양한 실시예들에 따른 전자 장치(101)는 다양한 방법들을 통해 상기 객체들 또는 상기 인디케이션들 중 적어도 하나를 표시할 수 있다. 예를 들면, 다양한 실시예들에 따른 전자 장치(101)의 프로세서(120)는 사용자에게 유해한 음식이 선택되지 않도록, 상기 음식과 관련된 객체를 비활성화하거나, 경고(alert)를 나타내는 시각적 객체를 표시할 수 있다. 다른 예를 들면, 다양한 실시예들에 따른 전자 장치(101)의 프로세서(120)는, 음식들 각각의 영양 성분을 사용자가 인지할 수 있도록, 음식들 각각의 영양 성분 별로 상기 음식들 각각과 연계된 상기 객체들 각각의 질감, 색깔, 또는 밝기를 다르게 설정할 수 있다. 예를 들면, 프로세서(120)는, 탄수화물을 주 영양 성분으로 하는 음식을 제1 색상에 기반하여 표시하고, 단백질을 주 영양 성분으로 하는 음식을 제2 색상에 기반하여 표시할 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)(또는 프로세서(120)는, 사용자 인터페이스 내에서 표시되고 카메라를 통해 획득되는 프리뷰 이미지 내에 증강 현실(AR, augmented reality)과 관련된 시각적 효과를 표시함으로써, 사용자의 음식의 섭취를 직관적으로 가이드할 수 있다. 다양한 실시예들에서, 전자 장치(101)는, 사용자가 직관적으로 권장 섭취량을 인식할 수 있도록, 증강 현실과 관련된 시각적 효과를 위한 인디케이션을 표시할 수 있다.
도 9는 다양한 실시예들에 따라 음식들 각각의 권장 섭취량에 대한 정보를 획득하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 1에 도시된 전자 장치(101), 도 2에 도시된 전자 장치(101), 도 1에 도시된 전자 장치(101)의 프로세서(120), 또는 도 2에 도시된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 9의 동작 910 내지 동작 950은 도 5의 동작 530과 관련될 수 있다.
도 9를 참조하면, 동작 910에서, 프로세서(120)는 상기 사용자의 생체 정보에 기반하여 상기 사용자의 권장 섭취량에 대한 정보를 획득할 수 있다. 다양한 실시예들에서, 상기 생체 정보는 상기 사용자의 질병 이력, 상기 사용자의 음식 섭취 이력, 또는 상기 사용자의 운동 이력 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에서, 상기 생체 정보는 상기 사용자에 의해 섭취된 식단에 대한 정보, 상기 사용자에 의해 수행된 건강 프로그램 또는 운동 프로그램에 대한 정보, 또는 상기 사용자의 운동량에 대한 정보 중 적어도 하나를 포함할 수 있다. 도 9는 프로세서(120)가 상기 생체 정보에 기반하여 상기 사용자의 권장 섭취량에 대한 정보를 획득하는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 다양한 실시예들에서, 프로세서(120)는 상기 생체 정보와 구별되고 음식과 관련된 다른(another) 정보에 기반하여 상기 사용자의 권장 섭취량에 대한 정보를 획득할 수 있다. 일부 실시예들에서, 프로세서(120)는 식단과 관련된 사용자의 설정(setting)에 대한 정보에 기반하여 상기 사용자의 권장 섭취량에 대한 정보를 획득할 수 있다. 예를 들면, 프로세서(120)는, 상기 사용자의 설정에 대한 정보가 상기 사용자가 고단백질을 가지는 식단을 제공함을 나타내는 경우, 단백질 위주의 영양이 섭취되도록 상기 사용자의 권장 섭취량에 대한 정보를 식별할 수 있다. 다른 일부 실시예들에서, 프로세서(120)는 시간에 대한 정보에 기반하여 상기 사용자의 권장 섭취량에 대한 정보를 획득할 수 있다. 예를 들면, 프로세서(120)는, 전자 장치(101)에 의해 측정된 시간대가 저녁인 경우, 저탄수화물 위주의 영양이 섭취되도록 상기 사용자의 권장 섭취량에 대한 정보를 식별할 수 있다.
동작 920에서, 프로세서(120)는 상기 사용자의 권장 섭취량에 대한 상기 정보 및 상기 제2 정보에 기반하여 상기 사용자를 위한 식단을 식별할 수 있다. 예를 들면, 프로세서(120)는 상기 사용자에게 알러지를 유발하는 음식을 제외한 음식들의 조합으로 상기 사용자를 위한 식단을 식별할 수 있다. 다른 예를 들면, 프로세서(120)는 상기 이미지 내에 포함된 상기 객체들과 관련된 상기 음식들 중 메인 디쉬(main dish)에 해당하는 음식을 위주로 상기 사용자를 위한 식단을 식별할 수 있다. 또 다른 예를 들면, 프로세서(120)는 상기 사용자의 선호도를 위주로 상기 사용자를 위한 식단을 식별할 수 있다. 또 다른 예를 들면, 프로세서(120)는, 상기 사용자가 오후에 탄수화물 및 나트륨을 과다 섭취한 경우, 저탄수화물 및 저 나트륨을 가지는 음식들을 위주로 상기 사용자를 위한 식단을 식별할 수 있다. 또 다른 예를 들면, 프로세서(120)는, 상기 사용자가 다이어트 중인 경우, 저칼로리를 가지는 음식들을 위주로 상기 사용자를 위한 식단을 식별할 수 있다.
동작 930에서, 프로세서(120)는 상기 식별된 식단에 포함된 음식들 각각의 권장 섭취량에 대한 정보를 획득할 수 있다. 예를 들면, 프로세서(120)는 상기 식단에 포함된 음식들 각각에게 상기 사용자의 권장 섭취량을 분배함으로써, 상기 음식들 각각의 권장 섭취량에 대한 정보를 획득할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는 상기 사용자의 선호도, 상기 사용자의 생체 정보, 또는 상기 사용자의 설정에 적어도 일부 기반하여, 상기 사용자를 위한 식단을 식별하고, 상기 식별된 식단에 포함된 음식들 각각의 권장 섭취량을 식별함으로써, 사용자가 균형 있게 음식을 섭취할 수 있도록 가이드할 수 있다.
도 10은 다양한 실시예들에 따라 인디케이션의 표시를 변경하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 1에 도시된 전자 장치(101), 도 2에 도시된 전자 장치(101), 도 1에 도시된 전자 장치(101)의 프로세서(120), 또는 도 2에 도시된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 10을 참조하면, 동작 1010에서, 프로세서(120)는 상기 권장 섭취량을 나타내기 위한 인디케이션들을 상기 객체들과 함께 표시할 수 있다. 다양한 실시예들에서, 동작 1010은 동작 540에 상응할 수 있다.
동작 1020에서, 프로세서(120)는 상기 음식들 중 선호되는(preferred) 음식을 선택하기 위한 입력을 검출할 수 있다. 다양한 실시예들에서, 상기 입력은 다양한 속성들을 가질 수 있다. 예를 들면, 상기 입력은 싱글 탭 입력, 더블 탭 입력, 드래그 입력, 포스 터치 입력, 롱 프레스 입력, 또는 호버링(hovering) 입력을 포함할 수 있다. 다양한 실시예들에서, 상기 입력은 상기 객체들 중 적어도 하나의 객체를 선택하기 위한 입력을 포함할 수 있다. 다양한 실시예들에서, 상기 입력은 상기 인디케이션들 중 적어도 하나의 인디케이션을 선택하기 위한 입력을 포함할 수 있다. 다양한 실시예들에서, 상기 입력은 마이크로폰(또는 트랜스듀서(transducer))를 통해 입력되는 사용자의 음성 명령에 상응할 수 있다. 상기 입력은 상기 객체들 중 적어도 하나를 지칭하기 위한 음성 명령을 포함할 수 있다. 예를 들어, 상기 입력은 상기 복수의 음식들 중 하나의 음식에 대응하는 단어(예: "포크 커틀릿") 또는 상기 단어를 포함하는 문장(예: "포크 커틀릿 먹을래")을 포함할 수 있다.
다양한 실시예들에서, 프로세서(120)는 상기 입력을 검출하는 것에 응답하여, 상기 선택된 음식에 대한 권장 섭취량을 목표 섭취량으로 변경하기 위한 정보를 표시할 수 있다.
예를 들어, 도 11을 참조하면, 프로세서(120)는 객체(820) 또는 인디케이션(825)에 대한 상기 입력(1120)을 검출하는 것에 응답하여, 이미지(800)에 중첩된 윈도우(1125)를 표시할 수 있다. 윈도우(1125)는 상기 권장 섭취량을 목표 섭취량으로 변경하기 위한 적어도 하나의 시각적 객체(1130)를 포함할 수 있다.
다른 예를 들어, 도 11을 참조하면, 프로세서(120)는 객체(820) 또는 인디케이션(825)에 대한 입력(1135)을 검출하는 것에 응답하여, 이미지(800)에 중첩된 적어도 하나의 시각적 객체(1140)를 표시할 수 있다. 적어도 하나의 시각적 객체(1140)는 상기 권장 섭취량을 상기 목표 섭취량으로 변경하기 위해 이미지(800) 내에서 표시될 수 있다.
동작 1030에서, 프로세서(120)는 선택된 음식에 대한 권장 섭취량을 상기 목표 섭취량으로 변경하기 위한 입력을 검출할 수 있다. 다양한 실시예들에서, 상기 목표 섭취량은, 상기 권장 섭취량과 구별될 수 있다. 다양한 실시예들에서, 상기 목표 섭취량은, 사용자에 의해 입력되는 특정 음식에 대한 섭취량을 의미할 수 있다. 예를 들어, 도 11을 참조하면, 프로세서(120)는 윈도우(1125) 내에 표시된 시각적 객체(1130)에 대한 입력을 검출할 수 있다. 다양한 실시예들에서, 시각적 객체(1130)에 대한 입력은 시각적 객체(1130)에 포함된 적어도 하나의 버튼(예: (-) 버튼 및 (+) 버튼)에 대한 입력을 포함할 수 있다. 다양한 실시예들에서, 시각적 객체(1130)에 대한 입력은 시각적 객체(1130)에 포함된 숫자(150)에 대한 입력을 포함할 수 있다. 도 11에 도시하지 않았으나, 숫자(150)에 대한 상기 입력을 검출하는 경우, 프로세서(120)는 상기 숫자를 변경하기 위한 가상 키패드를 더 표시할 수 있다. 상기 가상 키패드에 포함된 복수의 숫자키들을 통해 프로세서(120)는 상기 목표 섭취량을 식별할 수 있다. 다른 예를 들어, 도 11을 참조하면, 프로세서(120)는 인디케이션(825)의 크기(또는 면적)를 변경하기 위한 입력을 검출할 수 있다. 예를 들면, 상기 입력은 적어도 하나의 시각적 객체(1140)와 상응하는 방향을 가지는 드래그 입력을 포함할 수 있다. 또 다른 예를 들면, 상기 입력은 포스 터치와 관련된 입력을 포함할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 입력에 의해 야기되는 압력의 변화를 식별함으로써, 상기 목표 섭취량을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 입력에 기반하여 변경되는 인디케이션(825)의 크기에 기반하여, 상기 목표 섭취량을 식별할 수 있다.
동작 1040에서, 프로세서(120)는 상기 사용자에 대한 권장 섭취량 및 상기 목표 섭취량에 기반하여 상기 사용자의 식사에 할당될 남은 섭취량을 식별할 수 있다. 예를 들면, 프로세서(120)는 상기 사용자에 대한 권장 섭취량으로부터 상기 목표 섭취량을 차감함으로써, 상기 사용자의 식사에 할당될 남은 섭취량을 식별할 수 있다.
동작 1050에서, 프로세서(120)는 상기 식별된 남은 섭취량에 기반하여 식단을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 목표 섭취량이 상기 선택된 음식에 대한 권장 섭취량보다 큰 경우, 동작 1010에서의 표시를 통해 포함된 음식들 중 적어도 일부의 권장 섭취량을 감소함으로써 상기 식단을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 목표 섭취량이 상기 선택된 음식에 대한 권장 섭취량보다 큰 경우, 동작 1010에서의 표시를 통해 포함된 음식들 중 적어도 일부를 제외하고, 적어도 하나의 다른 음식을 추가함으로써 상기 식단을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 목표 섭취량이 상기 선택된 음식에 대한 권장 섭취량보다 작은 경우, 동작 1010에서의 표시를 통해 포함된 음식들 중 적어도 일부의 권장 섭취량을 증가함으로써 상기 식단을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 목표 섭취량이 상기 선택된 음식에 대한 권장 섭취량보다 작은 경우, 동작 1010에서의 표시를 통해 포함된 음식들과 구별되는 적어도 하나의 다른 음식을 추가함으로써, 상기 식단을 식별할 수 있다.
동작 1060에서, 프로세서(120)는 상기 식별된 식단에 기반하여 인디케이션들 중 적어도 하나의 표시를 변경할 수 있다. 예를 들어, 도 12를 참조하면, 프로세서(120)는 스테이크에 대한 권장 섭취량으로부터 변경된 목표 섭취량을 나타내기 위한 인디케이션(1210)을 이미지(800) 내에서 표시할 수 있다. 인디케이션(1210)은 상기 권장 섭취량으로부터 변경된 상기 목표 섭취량을 나타내기 때문에, 인디케이션(825)보다 큰 면적을 가질 수 있다. 프로세서(120)는 상기 권장 섭취량으로부터 변경된 목표 섭취량으로 인하여 변경된 다른 인디케이션들을 이미지(800) 내에서 표시할 수 있다. 예를 들면, 프로세서(120)는 빵에 대한 권장 섭취량을 나타내는 인디케이션(845)보다 작은 면적을 가지는 인디케이션(1215)를 이미지(800) 내에서 더 표시할 수 있다. 다른 예를 들면, 프로세서(120)는 햄버거에 대한 권장 섭취량을 나타내는 인디케이션(815)보다 작은 면적을 가지는 인디케이션(1220)을 이미지(800) 내에서 더 표시할 수 있다. 또 다른 예를 들면, 프로세서(120)는 동작 540 및 동작 1010에 따른 표시 동작에서 제외되었던 리코타 치즈 샐러드를 상기 사용자를 위한 식단으로 추가할 수 있다. 프로세서(120)는 리코타 치즈 샐러드와 관련된 객체(860) 내에서 상기 리코타 치즈 샐러드의 권장 섭취량을 나타내는 인디케이션(1225)을 더 표시할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 특정(certain) 음식에 대한 권장 섭취량을 목표 섭취량으로 변경하기 위한 입력에 기반하여 식단을 재구성하고, 상기 재구성된 식단을 이미지 내에서 증강 현실과 관련된 시각적 효과를 통해 표시할 수 있다. 다양한 실시예들에 따른 전자 장치(101)는 상기 시각적 효과의 표시를 통해 상기 사용자에게 적합한 음식의 섭취를 가이드할 수 있다.
도 13은 다양한 실시예들에 따라 음식들과 관련된 객체들과 연관 정보를 함께 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 1에 도시된 전자 장치(101), 도 2에 도시된 전자 장치(101), 도 1에 도시된 전자 장치(101)의 프로세서(120), 또는 도 2에 도시된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 13의 동작 1310 내지 동작 1340은 도 4의 동작 440과 관련될 수 있다.
도 13을 참조하면, 동작 1310에서, 프로세서(120)는 객체들 각각에 대한 정보에 적어도 기반하여 음식들 각각의 단위 당 칼로리에 대한 제1 정보를 획득할 수 있다. 다양한 실시예들에서, 동작 1310은 도 5에 도시된 동작 510과 동일하거나 유사하게 구현될 수 있다.
동작 1320에서, 프로세서(120)는 상기 깊이 정보 및 상기 제1 정보에 적어도 기반하여 음식들 각각의 총 칼로리에 대한 제2 정보를 획득할 수 있다. 다양한 실시예들에서, 동작 1320은 도 5에 도시된 동작 520과 동일하거나 유사하게 구현될 수 있다.
동작 1330에서, 프로세서(120)는 상기 음식들에 대한 연관 정보를 획득할 수 있다. 다양한 실시예들에서, 상기 연관 정보는 상기 음식들로부터 도출되는 정보를 의미할 수 있다. 예를 들면, 상기 연관 정보는 상기 음식들 각각의 영양 성분들의 종류, 상기 음식들 각각의 영양 성분들의 구성 비율, 상기 음식들 각각의 가격에 대한 정보, 상기 음식들 각각을 구성하는 영양 성분들에 대한 정보, 상기 음식들 각각이 판매되는 장소에 대한 정보, 상기 음식들 각각과 같이 섭취하기 좋은 다른 음식에 대한 정보, 상기 음식들 각각과 관련된 이미지(예: 스틸 이미지 또는 동영상 등)에 대한 정보, 상기 음식들 각각을 판매하는 장소와 관련된 웹페이지에 대한 정보, 상기 음식들을 포함하는 이미지를 업로드하기 위한 웹페이지에 대한 정보, 또는 상기 음식들과 관련된 객체들을 포함하는 이미지를 획득하기 위해 이용된 어플리케이션과 구별되고, 상기 어플리케이션과 연동되는 다른 어플리케이션에 대한 정보 중 하나 이상을 포함할 수 있다. 다양한 실시예들에서, 상기 연관 정보는, 전자 장치(101)의 메모리(130) 내에 저장된 데이터베이스를 통해 획득될 수도 있고, 전자 장치(101)와 연동된 서버 내에 저장된 데이터베이스를 통해 획득될 수도 있다.
동작 1340에서, 프로세서(120)는 상기 객체들을 ?l마하는 이미지, 상기 제2 정보와 관련된 아이콘, 또는 음식들과 관련된 연관 정보와 관련된 적어도 하나의 아이콘 중 하나 이상을 표시할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 음식들과 관련된 상기 객체들을 포함하는 상기 이미지를 표시하는 사용자 인터페이스와 함께, 상기 이미지에 대한 정보뿐 아니라 상기 음식들과 관련된 다양한 정보를 제공하기 위해, 상기 객체들을 포함하는 이미지, 상기 제2 정보와 관련된 아이콘, 및 음식들과 관련된 연관 정보와 관련된 적어도 하나의 아이콘을 표시할 수 있다. 예를 들면, 프로세서(120)는 이미지 인식 서비스를 제공하는 어플리케이션의 음식 모드(food mode)를 통해 상기 이미지를 획득하거나 상기 어플리케이션의 노멀 모드(normal mode)를 통해 상기 이미지를 획득할 수 있다. 일 실시예에 따라, 프로세서(120)는, 상기 노멀 모드를 통해 획득한 이미지의 특징점 추출에 기반하여, 상기 획득한 이미지가 음식에 대한 이미지를 포함하는 것을 결정하는 것에 응답하여, 상기 어플리케이션의 동작 모드를 상기 음식 모드로 변경할 수도 있다. 프로세서(120)는 상기 음식들을 포함하는 영역으로 지향된 카메라를 통해 획득되는 상기 이미지(예: 프리뷰 이미지)를 상기 어플리케이션의 사용자 인터페이스를 이용하여 표시할 수 있다. 프로세서(120)는 상기 이미지가 지정된 시간 동안 고정됨(또는 유지됨)을 식별하거나 검출하는 것에 기반하여 상기 이미지 내의 주요 피사체를 식별하고, 상기 주요 피사체가 차지하는 ROI(region of interest) 영역을 식별한 후, 상기 주요 피사체를 트래킹할 수 있다. 프로세서(120)는 상기 트래킹에 기반하여 상기 주요 피사체를 상기 이미지로부터 추출하고, 상기 추출된 주요 피사체를 인식함으로써, 상기 이미지 내의 상기 객체들이 상기 음식들과 관련됨을 식별할 수 있다. 프로세서(120)는 상기 식별에 기반하여, 상기 객체들과 관련된 상기 음식들의 총 칼로리에 대한 정보를 획득하고 상기 음식들에 대한 상기 연관 정보를 획득할 수 있다. 상기 음식들의 총 칼로리에 대한 정보는, 상기 카메라를 통해 획득된 상기 음식들에 대한 깊이 정보 및 상기 식별에 대응하여 외부 전자 장치(예: 서버) 또는 메모리로부터 획득된 상기 음식들 각각에 대한 영양 정보에 기반하여 획득될 수 있다.
예를 들어, 도 14를 참조하면, 프로세서(120)는, 이미지 인식 서비스를 제공하는 상기 어플리케이션의 사용자 인터페이스(1410)를 통해, 음식들과 관련된 객체들을 포함하고, 상기 적어도 하나의 카메라를 통해 획득되는 이미지를 표시할 수 있다. 프로세서(120)는, 전자 장치(101)의 적어도 하나의 카메라의 시야(FOV 또는 AOV)가 지정된 시간 동안 유지됨을 검출하거나 상기 적어도 하나의 카메라를 통해 획득되는 이미지가 상기 지정된 시간 동안 변화되지 않고 유지됨을 검출하는 것에 기반하여, 상기 이미지의 분석을 개시할 수 있다. 예를 들면, 프로세서(120)는, 상기 이미지 내의 적어도 하나의 특징점을 추출하고, 상기 이미지 내의 복수의 객체들의 특성(예: 질감, 면, 곡률 등)을 추출함으로써, 상기 이미지 내에서 상기 객체들이 주요 피사체에 해당함을 식별할 수 있다. 프로세서(120)는, 상기 식별에 기반하여, 상기 객체들에 대한 정보를 이용하여 전자 장치(101)의 데이터베이스를 검색하거나 전자 장치(101)과 관련된 적어도 하나의 외부 전자 장치(예: 웹 서버, 인공지능 서비스 서버)의 데이터베이스를 검색함으로써, 상기 객체가 상기 음식들과 관련됨을 식별할 수 있다. 프로세서(120)는, 상기 식별을 수행하는 동안, 상기 이미지 내의 객체 인식이 수행되고 있음을 나타내기 위한 애니메이션 효과를 표시할 수 있다. 예를 들면, 프로세서(120)는 사용자 인터페이스(1410)로부터 변경된 사용자 인터페이스(1420)를 표시할 수 있다. 다양한 실시예들에서, 사용자 인터페이스(1420)는, 사용자 인터페이스(1410)와 비교하여, 상기 이미지 내의 상기 객체들(예: 마카롱들)에 대한 인식이 수행되고 있음을 나타내기 위한 애니메이션 효과(1425)를 표시할 수 있다.
프로세서(120)는 상기 객체가 상기 음식들과 관련됨을 식별하는 것에 기반하여, 동작 1310 및 동작 1320을 수행함으로써, 상기 제2 정보와 관련된 아이콘을 사용자 인터페이스(1420)로부터 변경된 사용자 인터페이스(1430) 내에서 표시할 수 있다. 다양한 실시예들에서, 상기 제2 정보와 관련된 아이콘은 상기 이미지에 중첩된 투명 레이어로 설정될(configured with) 수 있다. 다양한 실시예들에서, 상기 제2 정보와 관련된 아이콘은 상기 제2 정보에 포함되는 데이터(예: 상기 음식들의 유형(예: 마카롱), 상기 음식들의 분류(예: 디저트), 상기 음식들 각각의 총 칼로리(예: 105 cal/each))를 포함할 수 있다.
프로세서(120)는 사용자 인터페이스(1430) 내의 슈팅(shooting) 버튼에 대한 입력(1437)을 검출하는 것에 기반하여, 사용자 인터페이스(1430)로부터 변경된 사용자 인터페이스(1440)를 표시할 수 있다. 사용자 인터페이스(1440)는 상기 이미지를 고정 뷰(fixed view 또는 frozen view)로 표시할 수 있다. 다양한 실시예들에서, 사용자 인터페이스(1410), 사용자 인터페이스(1420), 및 사용자 인터페이스(1430) 내에 표시된 상기 이미지는 라이브 뷰(live view)에 해당하는 이미지(예: 프리뷰 이미지)인 반면, 사용자 인터페이스(1440) 내에 표시된 상기 이미지는 고정 뷰에 해당하는 이미지일 수 있다.
프로세서(120)는, 사용자 인터페이스(1430) 내의 상기 제2 정보와 관련된 아이콘에 대한 입력(1435)을 검출하는 것에 기반하여, 사용자 인터페이스(1430)로부터 변경된 사용자 인터페이스(1440) 내에서 연관 정보(1445)의 적어도 일부를 표시할 수 있다. 도 14의 사용자 인터페이스(1440) 내에 표시된 연관 정보(1445)는 입력(1437)을 검출한 후, 입력(1435)를 검출한 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 프로세서(120)는, 사용자 인터페이스(1430) 내에서 상기 제2 정보와 관련된 상기 아이콘에 대한 입력(1435)만을 검출하는 경우, 라이브 뷰에 해당하는 상기 이미지에 중첩된 연관 정보(1445)를 표시할 수도 있다.
프로세서(120)는, 사용자 인터페이스(1440) 내에서 연관 정보(1445)를 표시한 상태에서 다양한 입력들을 수신할 수 있다.
예를 들면, 프로세서(120)는 연관 정보(1445)를 제1 방향(도 14의 경우 윗 방향)으로 드래그하는 입력(1445)을 수신할 수 있다. 프로세서(120)는 입력(1445)를 수신하는 것에 응답하여, 사용자 인터페이스(1440)에 중첩된 연관 정보(1446)를 표시할 수 있다. 연관 정보(1446)는 연관 정보(1445)의 확장일 수 있다. 예를 들면, 연관 정보(1446)는 연관 정보(1445)의 상세 정보일 수 있다.
다른 예를 들면, 프로세서(120)는 연관 정보(1445) 내의 적어도 하나의 아이콘 중 제1 아이콘에 대한 입력(1450)을 수신하는 것에 응답하여, 상기 객체들 각각과 관련된 레시피를 제공하는 웹사이트에 접속할 수 있다.
또 다른 예를 들면, 프로세서(120)는 연관 정보(1445) 내의 적어도 하나의 아이콘 중 제2 아이콘에 대한 입력(1452)을 수신하는 것에 응답하여, 상기 이미지를 업로드하기 위한 웹사이트(예: SNS(social networking service)와 관련된 웹사이트) 또는 상기 이미지와 관련된 음식을 요리하기 위한 방법 등이 개시된 웹사이트에 접속할 수 있다.
또 다른 예를 들면, 프로세서(120)는 연관 정보(1445) 내의 적어도 하나의 아이콘 중 제3 아이콘에 대한 입력(1454)을 수신하는 것에 응답하여, 음식 및 상기 어플리케이션(예: 이미지 인식 서비스를 제공하는 어플리케이션)과 관련된 다른 어플리케이션(예: 헬스 서비스를 제공하는 어플리케이션)을 실행할 수 있다. 프로세서(120)는, 상기 다른 어플리케이션의 실행에 기반하여, 사용자 인터페이스(1440)로부터 변경된 상기 다른 어플리케이션의 사용자 인터페이스(1455)를 표시할 수 있다. 사용자 인터페이스(1455)는 사용자의 생체 정보뿐 아니라 사용자 인터페이스(1440) 내에 포함된 정보(예: 상기 연관 정보, 상기 제2 정보, 상기 이미지 등) 중 적어도 일부를 포함할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 어플리케이션과 상기 다른 어플리케이션 사이의 연동을 통해, 상기 다른 어플리케이션의 사용자 인터페이스 또는 상기 다른 어플리케이션에게 할당된 메모리의 영역에 상기 어플리케이션을 통해 획득된 정보를 삽입(또는 포함)할 수 있다.
다른 예를 들어, 도 15를 참조하면, 프로세서(120)는, 이미지 인식 서비스를 제공하는 상기 어플리케이션의 사용자 인터페이스(1510)를 통해, 음식들과 관련된 객체들을 포함하고, 상기 적어도 하나의 카메라를 통해 획득되는 이미지를 표시할 수 있다. 프로세서(120)는 상기 이미지에 포함된 상기 객체들을 인식하는 것에 기반하여, 사용자 인터페이스(1510)로부터 변경된 사용자 인터페이스(1520)를 표시할 수 있다. 다양한 실시예들에서, 사용자 인터페이스(1520)는 상기 객체들 각각과 관련된 상기 음식들에 대한 정보(예: ricotta cheese salad) 및 상기 음식들 각각의 총 칼로리에 대한 정보(예: 150cal/ea)를 표시할 수 있다. 상기 음식들에 대한 정보 및 상기 총 칼로리에 대한 정보는 상기 이미지에 중첩될 수 있다. 프로세서(120)는, 사용자 인터페이스(1520) 내의 메뉴 아이콘에 대한 입력을 검출하는 것에 응답하여, 사용자 인터페이스(1520)로부터 변경된 사용자 인터페이스(1530)를 표시할 수 있다. 사용자 인터페이스(1530)는 상기 음식들과 관련된 연관 정보를 포함할 수 있다. 상기 연관 정보는 상기 이미지에 중첩될 수 있다. 상기 연관 정보는, 상기 연관 정보와 관련된 적어도 하나의 아이콘을 포함할 수 있다. 프로세서(120)는 상기 연관 정보 내에 포함된 상기 적어도 하나의 아이콘 중 상기 어플리케이션과 연동되는 상기 다른 어플리케이션에 접근하기 위한 아이콘에 대한 입력을 검출하는 것에 응답하여, 사용자 인터페이스(1530)로부터 변경된 사용자 인터페이스(1540)를 표시할 수 있다. 사용자 인터페이스(1540)는 상기 어플리케이션과 구별되는 상기 다른 어플리케이션의 실행 화면에 해당할 수 있다. 사용자 인터페이스(1540)는 상기 음식들(예: 리코타 치즈 샐러드)에 대한 상세 정보를 포함할 수 있다. 예를 들면, 상기 상세 정보는 상기 음식의 영양성분들의 용량에 대한 정보, 상기 음식의 칼로리에 대한 정보, 또는 상기 이미지가 획득된 시점에 대한 정보 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 이미지가 아침식사(breakfast)와 관련된 시간대에 획득되는 경우, 프로세서(120)는 사용자 인터페이스(1540) 내의 아침식사에 해당하는 영역 내에 상기 음식의 칼로리에 대한 정보를 삽입할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 사용자가 섭취하는 음식의 칼로리에 대한 정보를 건강 서비스를 제공하는 상기 다른 어플리케이션에 직접 입력하는 것을 우회(bypass)하거나 생략(jump 또는 skip)하기 위해, 사용자 인터페이스(1530) 내의 상기 연관 정보에 포함된 적어도 하나의 아이콘에 대한 입력을 통해, 상기 음식의 칼로리에 대한 정보를 시간대 별로 할당하여 저장할 수 있다. 예를 들어, 프로세서(120)는 터치 입력을 통한 섭취 칼로리의 입력을 우회하기 위해, 상기 복수의 음식들 중 음성 인식에 의해 식별된 음식에 대한 권장 섭취량을 목표 섭취량으로 변환할 수 있다. 다른 예를 들어, 프로세서(120)는 상기 음성 인식을 통한 섭취 칼로리의 입력을 우회하기 위해, 섭취 이후의 제2 시점에 상응하는 이미지를 획득할 것을 지시하는 가이드 정보를 표시할 수 있다. 프로세서(120)는 상기 표시에 대응하여 획득된 상기 제2 시점의 이미지에 기반하여, 복수의 음식들 중 부피(또는 길이)에 대한 값이 감소한 음식들을 식별할 수 있다. 프로세서(120)는 상기 식별된 음식들 및 상기 식별된 음식들에 상응하는 부피 변화에 기반하여, 상기 사용자가 섭취하는 음식의 칼로리에 대한 정보를 획득할 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 이미지 인식 서비스를 제공하는 어플리케이션과 건강 서비스를 제공하는 어플리케이션를 연동함으로써, 음식의 섭취와 관련된 사용자의 건강 정보를 손쉽게 관리할 수 있다. 이러한 관리를 통해, 다양한 실시예들에 따른 전자 장치(101)는 강화된(enhanced) 사용자 경험(UX, user experience)을 제공할 수 있다.
도 16은 다양한 실시예들에 따라 섭취량에 대한 정보를 획득하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 1에 도시된 전자 장치(101), 도 2에 도시된 전자 장치(101), 도 1에 도시된 전자 장치(101)의 프로세서(120), 또는 도 2에 도시된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 16의 동작 1610 내지 동작 1670은 도 4의 동작 440과 관련될 수 있다.
도 16을 참조하면, 동작 1610에서, 프로세서(120)는 상기 이미지 내에 포함된 상기 음식들과 관련된 상기 객체들 각각에 대한 정보에 적어도 기반하여 상기 음식들 각각의 단위 당 칼로리에 대한 제1 정보를 획득할 수 있다. 다양한 실시예들에서, 동작 1610은 도 5의 동작 510과 동일하거나 유사하게 구현될 수 있다.
동작 1620에서, 프로세서(120)는 상기 깊이 정보 및 상기 제1 정보에 적어도 기반하여 상기 음식들 각각의 총 칼로리에 대한 상기 제2 정보를 획득할 수 있다. 다양한 실시예들에서, 동작 1620은 도 5의 동작 520과 동일하거나 유사하게 구현될 수 있다.
동작 1630에서, 프로세서(120)는 상기 객체들 각각과 연계된 상기 제2 정보를 표시할 수 있다. 다양한 실시예들에서, 상기 객체들 각각과 상기 제2 정보 사이의 연계는 상기 객체들 각각에 중첩된 상기 제2 정보를 표시하는 것에 의해 지시될(indicated) 수 있다. 다양한 실시예들에서, 상기 객체들 각각과 상기 제2 정보 사이의 연계는 상기 객체들 각각을 향하고 상기 이미지에 중첩되며 상기 제2 정보를 포함하는 말풍선(또는 윈도우)에 의해 지시될 수 있다.
예를 들어, 도 17을 참조하면, 프로세서(120)는 상기 음식들과 관련된 상기 객체들을 포함하는 이미지(1700)을 표시할 수 있다. 이미지(1700)는 계란 후라이(fried egg)와 관련된 객체와 연계되고 계란 후라이의 총 칼로리의 크기(1ea, 87kcal)를 나타내기 위한 제2 정보(1710), 스테이크(stake)와 관련된 객체와 연계되고 스테이크의 총 칼로리의 크기(200g, 504kcal)를 나타내기 위한 제2 정보(1720), 프렌치 후라이(french fries)와 관련된 객체와 연계되고 프렌치 후라이의 총 칼로리의 크기(100g, 229kcal)를 나타내기 위한 제2 정보(1730), 카페 라떼(caffe latte)와 관련된 객체와 연계되고 카페 라떼의 총 칼로리의 크기(200ml, 105kcal)를 나타내기 위한 제2 정보(1740), 콘 샐러드(corn salad)와 관련된 객체와 연계되고 콘 샐러드의 총 칼로리의 크기(100g, 160kcal)를 나타내기 위한 제2 정보(1750), 빵(bread)와 관련된 객체와 연계되고 빵의 총 칼로리의 크기(100g, 245kcal)를 나타내기 위한 제2 정보(1760), 및 리코타 치즈 샐러드(ricotta cheese salad)와 관련된 객체와 연계되고 리코타 치즈 샐러드의 총 칼로리의 크기(150g, 150kcal)를 나타내기 위한 제2 정보(1770)를 포함할 수 있다. 사용자는 이미지(1700)를 통해 이미지(1700) 내에 포함된 상기 객체들과 관련된 상기 음식들 각각의 총 칼로리를 인지할 수 있다.
동작 1640에서, 프로세서(120)는 상기 음식들에 대한 사용자의 섭취량을 결정하기 위한 입력을 검출할 수 있다. 다양한 실시예들에서, 상기 입력은 상기 이미지 내에 표시된 상기 제2 정보를 통해 입력될 수 있다. 다양한 실시예들에서, 상기 입력은 상기 이미지 내에 표시된 객체를 통해 입력될 수 있다. 다양한 실시예들에서, 상기 입력은 사용자가 상기 이미지에 포함된 상기 객체들과 관련된 상기 음식들을 섭취한 후에 입력될 수도 있고, 상기 이미지에 포함된 상기 객체들과 관련된 상기 음식들을 섭취하기 전에 입력될 수도 있다. 다양한 실시예들에서, 상기 입력은 전자 장치(101)과 관련된 외부 전자 장치(예: 웨어러블 장치(예: 스마트 글라스), 또는 IoT(internet of things) 장치 등)에 의해 획득되는 이미지에 대한 정보를 상기 외부 전자 장치로부터 수신하는 것을 포함할 수 있다. 다양한 실시예들에서, 상기 외부 전자 장치는 상기 사용자와 관련된 상기 음식들을 상기 사용자가 식사를 하는 동안 촬영할 수 있는 장치를 의미할 수 있다. 후술될 도 18은 상기 음식들을 섭취하기 전에 사용자가 상기 입력을 야기하는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것임에 유의하여야 한다.
예를 들어, 도 18을 참조하면, 프로세서(120)는, 이미지(1700) 내의 제2 정보(1720)에 대한 입력(1810)을 검출할 수 있다. 프로세서(120)는, 입력(1810)을 검출하는 것에 응답하여, 상기 제2 정보(1720)로부터 변경된 윈도우(1820)를 표시할 수 있다. 다양한 실시예들에서, 윈도우(1820)는 스테이크에 대한 사용자의 섭취량(또는 예상 섭취량)을 결정하기 위한 요소(element)들을 포함할 수 있다. 다양한 실시예들에서, 윈도우(1820)는 상기 사용자의 섭취량(또는 예상 섭취량)을 입력하기 위한 실행 가능한(executable) 객체(1825)를 포함할 수 있다. 다양한 실시예들에서, 윈도우(1820)는 객체(1825)를 통해 입력된 값을 확정하기 위한 실행 가능한 객체(1830)를 더 포함할 수 있다. 다양한 실시예들에서, 윈도우(1820)는 객체(1825)를 통해 입력된 값을 취소하기 위한 실행 가능한 객체(1835)를 더 포함할 수 있다. 다양한 실시예들에서, 윈도우(1820)는 객체(1825)를 통해 입력된 값에 따라 산출되는 상기 사용자의 섭취량(또는 예상 섭취량)을 표시하는 객체(1840)를 더 포함할 수 있다.
다른 예를 들어, 도 18을 참조하면, 프로세서(120)는, 이미지(1700) 내의 콘 샐러드와 관련된 객체에 대한 입력을 검출할 수 있다. 다양한 실시예들에서, 상기 입력은 싱글 탭 입력, 더블 탭 입력, 드래그 입력, 포스 터치 입력, 롱 프레스 입력, 또는 호버링(hovering) 입력을 포함할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 입력을 검출하는 것에 응답하여, 상기 사용자의 섭취량(또는 예상 섭취량)을 결정하기 위한 영역(1850)을 표시할 수 있다. 다양한 실시예들에서, 프로세서(120)는 영역(1850)에 대한 입력(1845)을 검출할 수 있다. 입력(1845)은 영역(1850)의 면적을 변경하기 위한 드래그 입력을 포함할 수 있다. 프로세서(120)는, 입력(1845)에 기반하여, 콘샐러드에 대한 상기 사용자의 섭취량을 식별할 수 있다. 예를 들면, 프로세서(120)는, 입력(1845)에 의해 변경된 영역(1850)의 면적에 기반하여, 상기 사용자의 섭취량을 식별할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 식별된 사용자의 섭취량을 제2 정보(1750) 내의 지시자(indicator)(예: 100g, 160kcal)의 변경을 통해 나타낼 수 있다.
다양한 실시예들에서, 프로세서(120)는 상기 사용자의 섭취량을 메모리(130)에 저장하기 위한 객체(1860)를 표시할 수 있다. 다양한 실시예들에서, 객체(1860)는 상기 이미지(예: 이미지(1700))에 대한 입력에 기반하여 표시될 수 있다. 다양한 실시예들에서, 이미지(1700)에 대한 입력의 속성은 제2 정보에 대한 입력(예: 입력(1810))의 속성과 구별될(distinct from) 수 있다. 다양한 실시예들에서, 이미지(1700)에 대한 입력의 속성은 상기 객체에 대한 입력(예: 입력(1845))의 속성과 구별될 수 있다. 다양한 실시예들에서, 객체(1860)는, 입력(1810), 입력(1845) 등과 같은 입력을 수신하는 것에 기반하여, 이미지(1700) 내에서 표시될 수도 있다.
동작 1650에서, 프로세서(120)는 상기 검출된 입력에 기반하여 결정되는 사용자의 섭취량에 대한 정보를 획득할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 검출된 입력에 의해 특정된 값에 기반하여 상기 사용자의 섭취량에 대한 정보를 획득할 수 있다. 예를 들어, 도 18을 참조하면, 프로세서(120)는, 객체(1860)에 대한 입력을 검출하는 것에 응답하여, 이미지(1700) 내에서 현재 제공 중인 제2 정보에 기반하여 상기 사용자의 섭취량에 대한 정보를 획득하고, 상기 획득된 정보를 메모리(130)에 저장할 수 있다. 다양한 실시예들에서, 상기 획득된 정보는 건강 서비스를 제공하는 어플리케이션에 연동되거나 제공될 수 있다.
동작 1660에서, 프로세서(120)는 상기 섭취량에 대한 정보를 표시하기 위한 이벤트가 발생하는지 여부를 검출할 수 있다. 다양한 실시예들에서, 상기 이벤트는, 건강 서비스를 제공하는 어플리케이션의 실행을 포함할 수 있다. 다양한 실시예들에서, 상기 이벤트는, 객체(1860)에 대한 입력의 검출과 같이, 상기 사용자의 섭취량의 결정을 확정함을 검출하는 것을 포함할 수 있다. 다양한 실시예들에서, 상기 이벤트는, 사용자가 음식의 섭취와 관련된 서비스를 제공 받기 위한 시간대가 도래하는 것을 포함할 수 있다. 하지만, 이에 한정되지 않는다.
동작 1670에서, 프로세서(120)는, 상기 이벤트가 발생함을 검출하는 것에 기반하여, 상기 사용자의 섭취량에 대한 정보를 표시할 수 있다. 다양한 실시예들에서, 프로세서(120)는, 상기 사용자의 섭취량에 대한 정보를 건강 서비스를 제공하는 어플리케이션의 사용자 인터페이스 내에서 표시할 수 있다.
예를 들어, 도 19를 참조하면, 프로세서(120)는 상기 어플리케이션의 사용자 인터페이스(1900) 내에서 상기 사용자의 섭취량에 대한 정보(1910)를 표시할 수 있다. 정보(1910)는 상기 사용자가 음식을 섭취한 시간대에 대한 정보, 상기 사용자가 상기 시간대에서 섭취한 음식의 종류에 대한 정보, 상기 음식의 섭취량에 대한 정보, 또는 상기 사용자가 상기 시간대에 섭취한 총 섭취량에 대한 정보 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에서, 정보(1910)는 다른 정보(예: 상기 사용자의 수면 정보, 상기 사용자의 심박 정보, 상기 사용자의 산소 포화도 정보, 상기 사용자의 스트레스 정보 등)와 함께 사용자 인터페이스(1900) 내에서 표시될 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 음식들에 대한 이미지를 통해 사용자가 섭취량을 결정할 수 있는 사용자 인터페이스를 제공함으로써, 건강 어플리케이션의 사용자 인터페이스를 통해 사용자가 직접 섭취량을 입력하는 것을 우회할 수 있다. 이러한 우회를 통해, 전자 장치(101)는 향상된(enhanced) 사용자 경험을 제공할 수 있다.
도 20은 다양한 실시예들에 따라 권장 섭취량과 관련된 정보를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 1에 도시된 전자 장치(101), 도 2에 도시된 전자 장치(101), 도 1에 도시된 전자 장치(101)의 프로세서(120), 또는 도 2에 도시된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있다.
도 20을 참조하면, 동작 2010에서, 프로세서(120)는 사용자의 섭취량에 대한 정보를 획득할 수 있다. 동작 2010은 동작 1650과 동일하거나 유사하게 구현될 수 있다.
동작 2020에서, 프로세서(120)는 상기 사용자의 생체 정보를 모니터링할 수 있다. 다양한 실시예들에서, 프로세서(120)는 상기 사용자의 섭취량에 대한 정보를 획득한 후 변경되는 상기 사용자의 생체 정보를 모니터링할 수 있다.
동작 2030에서, 프로세서(120)는 상기 사용자의 섭취량에 대한 정보 및 상기 모니터링된 생체 정보에 기반하여 다음 식사에 대한 사용자의 권장 섭취량을 식별할 수 있다.
동작 2040에서, 프로세서(120)는 상기 식별된 권장 섭취량과 관련된 정보를 표시하기 위한 이벤트가 발생하는지 여부를 검출할 수 있다. 다양한 실시예들에서, 상기 이벤트는 건강 서비스를 제공하는 어플리케이션의 실행을 포함할 수 있다. 다양한 실시예들에서, 상기 이벤트는 지정된 시간대(예: 다음 식사 시간대)가 도래하는 것을 포함할 수 있다. 하지만, 이에 한정되지 않는다. 다양한 실시예들에서, 상기 권장 섭취량과 관련된 정보는 다음 식사에 대한 권장 섭취량에 대한 데이터를 포함할 수 있다. 다양한 실시예들에서, 상기 권장 섭취량과 관련된 정보는, 다음 식사에 대한 권장 섭취량에 상응하는(또는 부합하는) 음식의 종류에 대한 데이터를 포함할 수 있다. 다양한 실시예들에서, 상기 권장 섭취량과 관련된 정보는, 다음 식사에 대한 권장 섭취량에 상응하는 음식의 조리법(recipe)에 대한 데이터를 포함할 수 있다.
동작 2050에서, 프로세서(120)는, 상기 권장 섭취량과 관련된 정보를 표시하기 위한 이벤트가 발생함을 검출하는 것에 기반하여, 상기 권장 섭취량과 관련된 정보를 표시할 수 있다. 예를 들어, 도 21을 참조하면, 프로세서(120)는, 상기 검출에 기반하여, 건강 서비스를 제공하는 어플리케이션의 사용자 인터페이스(2100)을 표시할 수 있다. 다양한 실시예들에서, 사용자 인터페이스(2100)는 다음 식사의 권장 섭취량에 상응하는 음식의 조리법들에 접근하기 위한 썸네일 이미지들을 포함하는 정보(2110)를 포함할 수 있다. 프로세서(210)는, 정보(2110) 내에 포함된 썸네일 이미지들(예: 그린 샐러드(green salad)와 관련된 썸네일 이미지, 연어 샐러드(salmon salad)와 관련된 썸네일 이미지, 카프레세 샐러드(caprese salad)와 관련된 썸네일 이미지 등) 중 하나의 썸네일 이미지에 대한 입력을 검출하는 것에 기반하여, 상기 하나의 썸네일 이미지에 의해 표시되는(represented) 음식의 조리법을 표시할 수 있다.
다양한 실시예들에서, 정보(2110)는 다른 정보와 함께 사용자 인터페이스(2100) 내에서 표시될 수 있다. 예를 들면, 정보(2110)는 사용자의 이전 식사에 대한 정보와 함께 표시될 수 있다. 다른 예를 들면, 정보(2110)는 사용자의 칼로리 소모 정보(또는 운동 이력 정보)와 함께 표시될 수도 있다.
다양한 실시예들에서, 정보(2110)는 전자 장치(101)와 연동된 외부 전자 장치 내에서 표시될 수도 있다. 예를 들면, 프로세서(120)는, 상기 건강 어플리케이션에 의해 획득된 사용자의 생체 정보 및 상기 사용자의 음식의 섭취와 관련된 정보를 서버(예: IoT 허브(hub)를 위한 서버)에게 송신할 수 있다. 상기 서버는, 상기 생체 정보 및 상기 음식의 섭취와 관련된 정보에 적어도 기반하여 정보(2110)를 획득할 수 있다. 상기 서버는, 획득된 정보(2110)를 전자 장치(101)과 구별되고 전자 장치(101)과 연동된 상기 외부 전자 장치(예: 디스플레이를 가지는 냉장고)에게 송신할 수 있다. 상기 외부 전자 장치는 정보(2110)를 상기 다른 전자 장치의 디스플레이를 통해 표시할 수 있다. 다양한 실시예들에서, 상기 외부 전자 장치가 디스플레이를 가지는 냉장고에 해당하는 경우, 상기 외부 전자 장치는 상기 다음 식사의 권장 섭취량에 상응하는 음식을 조리하기 위해 요구되는 식재료들 중 상기 냉장고에 포함된 식재료와 다른 적어도 하나의 식재료를 구매하기 위한 가이드 정보를 정보(2110)과 함께 더 표시할 수도 있다. 예를 들면, 상기 다음 식사를 조리하기 위해 식재료 A 및 식재료 B는 상기 냉장고에 저장되어 있으나, 식재료 C가 상기 냉장고에 저장되지 않은 경우, 상기 외부 전자 장치는, 식재료 C의 구매를 가이드하기 위해, 식재료 C를 판매하는 출처(예: 웹사이트 등)에 대한 정보, 식재료 C의 가격에 대한 정보, 또는 식재료 C의 할인 정보 등을 정보(2110)와 함께 표시할 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 사용자가 식습관을 개선할 수 있도록, 다음 식사에 대한 권장 섭취량과 관련된 정보를 표시할 수 있다.
도 22는 다양한 실시예들에 따른 전자 장치와 다른 전자 장치 사이의 연동의 예를 도시한다. 이러한 연동은 도 1 또는 도 2에 도시된 전자 장치(101)와 도 1에 도시된 전자 장치(102) 사이에서 야기될 수 있다.
도 22를 참조하면, 동작 2210에서, 다른 전자 장치(102)는 전자 장치(101)에게 제1 이미지에 대한 정보를 송신할 수 있다. 다양한 실시예들에서, 다른 전자 장치(102)는 이미지를 획득하기 위한 적어도 하나의 카메라를 포함할 수 있다. 다양한 실시예들에서, 다른 전자 장치(102)는 전자 장치(101)와 연동된 장치일 수 있다. 예를 들면, 다른 전자 장치(102)는 전자 장치(101)와 연동된 웨어러블 장치(예: 스마트 안경)를 포함할 수 있다. 다른 예를 들면, 다른 전자 장치(102)는 전자 장치(101)와 연동되고 식탁 등의 위에 설치되는 IoT(internet of things) 장치(예: 카메라를 구비한 스마트 전구, 천장(ceiling)에 설치된 카메라 등)를 포함할 수 있다. 하지만, 이에 제한되지 않는다.
다양한 실시예들에서, 상기 제1 이미지는 음식들과 관련된 객체들을 포함할 수 있다. 다양한 실시예들에서, 다른 전자 장치(102)는, 다른 전자 장치(102)의 적어도 하나의 카메라의 시야 내에 특정(certain) 피사체가 진입(enter)함을 식별하는 것에 응답하여, 전자 장치(101)에게 상기 제1 이미지에 대한 정보를 송신할 수 있다. 다양한 실시예들에서, 다른 전자 장치(102)는, 다른 전자 장치(102)와 전자 장치(101) 사이의 연결이 수립됨을 식별하는 것에 응답하여, 전자 장치(101)에게 상기 제1 이미지에 대한 정보를 송신할 수 있다. 다양한 실시예들에서, 다른 전자 장치(102)는, 지정된 시간대가 도래함을 식별하는 것에 응답하여, 전자 장치(101)에게 상기 제1 이미지에 대한 정보를 송신할 수 있다. 하지만, 이에 제한되지 않는다. 전자 장치(101)는 다른 전자 장치(102)로부터 상기 제1 이미지에 대한 정보를 수신할 수 있다.
동작 2215에서, 전자 장치(101)는 상기 제1 이미지와 관련된 깊이 정보를 획득할 수 있다. 다양한 실시예들에서, 상기 깊이 정보는 상기 제1 이미지에 대한 정보에 포함될 수 있다. 다양한 실시예들에서, 상기 깊이 정보는 전자 장치(101)의 상기 제1 이미지에 대한 이미지 프로세싱을 통해 획득될 수 있다. 하지만, 이에 제한되지 않는다.
동작 2220에서, 전자 장치(101)는 상기 제1 이미지로부터 상기 음식들과 관련된 객체들을 식별할 수 있다. 다양한 실시예들에서, 전자 장치(101)는 전자 장치(101)의 상기 제1 이미지의 처리에 기반하여 상기 음식들과 관련된 객체들을 식별할 수 있다. 다양한 실시예들에서, 전자 장치(101)는, 전자 장치(101) 및 다른 전자 장치(102)와 구별되는 외부 전자 장치(예: 인공지능 서버, 이미지 인식 서버 등)와의 시그널링을 통해 상기 제1 이미지로부터 상기 음식들과 관련된 객체들을 식별할 수 있다.
동작 2225에서, 전자 장치(101)는 상기 객체들 각각에 대한 정보에 적어도 기반하여 상기 음식들 각각의 단위 당 칼로리에 대한 제1 정보를 획득할 수 있다. 다양한 실시예들에서, 전자 장치(101)는 전자 장치(101)의 메모리(130)에 저장된 데이터베이스를 이용하여, 상기 제1 정보를 획득할 수 있다. 다양한 실시예들에서, 전자 장치(101)는 전자 장치(101)과 연동된 외부 전자 장치(예: 특정 웹페이지의 서버 또는 음식 관련 서비스를 제공하는 서버 등)와의 시그널링을 통해, 상기 제1 정보를 획득할 수 있다.
동작 2230에서, 전자 장치(101)는 상기 깊이 정보 및 상기 제1 정보에 적어도 기반하여 상기 음식들 각각의 총 칼로리에 대한 제2 정보를 획득할 수 있다. 다양한 실시예들에서, 전자 장치(101)는 상기 깊이 정보를 통해 상기 음식들 각각의 양을 식별하고, 상기 식별된 양에 대한 정보 및 상기 제1 정보를 이용하여 상기 제2 정보를 획득할 수 있다.
동작 2235에서, 전자 장치(101)는 상기 제2 정보에 기반하여 제1 식단을 구성할 수 있다. 다양한 실시예들에서, 상기 제1 식단은 상기 제2 정보에 적어도 기반하여 식별되는 전자 장치(101)과 관련된 사용자의 권장 섭취량에 기반하여 구성될 수 있다.
동작 2240에서, 전자 장치(101)는 상기 구성된 제1 식단에 대한 정보를 표시할 수 있다. 예를 들면, 전자 장치(101)는, 도 8에 도시된 예와 같이, 상기 제1 식단에 대한 정보를 표시할 수 있다.
동작 2245에서, 다른 전자 장치(102)는 전자 장치(101)에게 제2 이미지에 대한 정보를 송신할 수 있다. 다양한 실시예들에서, 상기 제2 이미지는 상기 제1 제1 식단에 대한 정보의 표시 후 사용자의 섭취에 의해 변경된(또는 감소된) 상기 음식들과 관련된 객체들을 포함할 수 있다.
상기 제1 이미지의 송신과 상기 제2 이미지의 송신 사이의 간격은 다양하게 설정될 수 있다. 예를 들면, 다른 전자 장치(102)는 상기 제1 이미지를 송신한 후, 지정된 주기마다 상기 제1 이미지와 관련된(또는 변경된) 이미지(예: 제2 이미지)를 송신할 수 있다. 다른 예를 들면, 다른 전자 장치(102)는 상기 제1 이미지의 송신 후 획득되는 이미지와 상기 제1 이미지 사이의 차이가 기준 정도보다 크다는 것을 식별하는 것에 기반하여, 상기 제1 이미지의 송신 후 획득되는 이미지(예: 제2 이미지)를 송신할 수도 있다. 하지만, 이에 제한되지 않는다.
전자 장치(101)는 다른 전자 장치(102)로부터 상기 제2 이미지에 대한 정보를 수신할 수 있다.
동작 2250에서, 전자 장치(101)는 상기 제2 이미지와 관련된 깊이 정보를 획득할 수 있다. 다양한 실시예들에서, 상기 깊이 정보는 상기 제1 이미지에 포함된 객체들과 관련된 음식들 각각의 양과 상기 제2 이미지에 포함된 객체들과 관련된 음식들 각각의 양 사이의 차이를 식별하기 위해 이용될 수 있다.
동작 2255에서, 전자 장치(101)는 상기 제1 이미지와 상기 제2 이미지 사이의 차이를 식별할 수 있다. 다양한 실시예들에서, 전자 장치(101)는, 현재 식사에서 사용자의 섭취량을 인식하기 위해, 상기 제1 이미지와 상기 제2 이미지 사이의 차이를 식별할 수 있다. 동작 2255는 상기 제1 이미지와 상기 제2 이미지 사이의 차이를 식별하는 예를 도시하고 있으나, 동작 2255는 적어도 하나의 다른 동작으로 대체될 수 있다. 예를 들면, 동작 2255는 동작 2220 내지 동작 2230으로 대체될 수 있다. 하지만, 이에 제한되지 않는다.
동작 2260에서, 전자 장치(101)는 상기 식별된 차이에 기반하여 상기 사용자의 현재 섭취량에 대한 정보를 획득할 수 있다. 예를 들면, 전자 장치(101)는 상기 제1 이미지와 관련된 깊이 정보와 상기 제2 이미지와 관련된 깊이 정보 사이의 차이에 기반하여, 상기 사용자의 현재 섭취량에 대한 정보를 획득할 수 있다.
동작 2265에서, 전자 장치(101)는 상기 식별된 현재 섭취량이 상기 사용자의 권장 섭취량보다 큰 지 여부를 식별할 수 있다. 다양한 실시예들에서, 상기 현재 섭취량이 상기 권장 섭취량보다 큰 경우, 전자 장치(101)는 동작 2270을 수행할 수 있다. 다양한 실시예들에서, 상기 현재 섭취량이 상기 권장 섭취량보다 작은 경우, 전자 장치(101)는 동작 2275를 수행할 수 있다.
동작 2270에서, 전자 장치(101)는 상기 현재 섭취량이 상기 권장 섭취량보다 큼을 식별하는 것에 기반하여, 알림을 제공할 수 있다. 다양한 실시예들에서, 상기 알림은 상기 사용자가 현재 음식을 과다 섭취하고 있음을 나타내기 위해 이용될 수 있다. 다양한 실시예들에서, 상기 알림은, 화면의 표시를 통해 제공되거나, 음성의 출력을 통해 제공되거나, 인디케이터 기능을 수행하는 발광 다이오드의 색상의 변경을 통해 제공될 수 있다. 하지만, 이에 제한되지 않는다.
동작 2275에서, 전자 장치(101)는 상기 현재 섭취량에 대한 정보에 기반하여 상기 제2 식단을 구성할 수 있다. 다양한 실시예들에서, 전자 장치(101)는 상기 현재 섭취량에 대한 정보에 기반하여 사용자가 섭취한 음식들의 종류와 상기 사용자가 섭취한 영양 성분들의 비율 등을 인식할 수 있다. 전자 장치(101)는 상기 인식에 기반하여 상기 제1 식단으로부터 변경된 상기 제2 식단을 구성할 수 있다.
동작 2280에서, 전자 장치(101)는 상기 구성된 제2 식단에 대한 정보를 표시할 수 있다. 다양한 실시예들에서, 상기 제2 식단에 대한 정보는 사용자의 섭취에 따라 변경된 상황(context)을 투영하는(represent) 정보일 수 있다.
상술한 바와 같이, 다양한 실시예들에 따른 전자 장치(101)는, 음식의 섭취 상황을 실시간으로 촬영할 수 있는 다른 전자 장치(102)와의 연동을 통해, 사용자에게 부합하는 식단을 실시간으로 변경할 수 있다. 다양한 실시예들에 따른 전자 장치(101)는, 상기 변경을 통해, 사용자의 건강의 개선에 도움이 되는 식단을 사용자의 섭취 상황에 맞춰 제공할 수 있다.
상술한 바와 같은 다양한 실시예들에 따른 전자 장치(예: 전자 장치(101))는, 명령어(instruction)들을 저장하는 메모리(예: 메모리(130))와, 적어도 하나의 카메라(예: 카메라 모듈(180)), 적어도 하나의 디스플레이(예: 표시 장치(160))와, 적어도 하나의 프로세서(예: 프로세서(120))를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 카메라를 이용하여 이미지를 획득하고, 상기 이미지로부터 복수의 음식(food)들과 관련된 복수의 객체들을 식별하고, 상기 식별된 복수의 객체들과 관련된 권장 섭취량(recommended amount of intake)에 대한 정보를 획득하고, 상기 이미지를 표시하고, 상기 권장 섭취량을 나타내기 위한 복수의 인디케이션(indication)들을 상기 이미지 내에 포함된 상기 복수의 객체들과 연관하여 표시하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에서, 상기 복수의 인디케이션들 각각은, 상기 복수의 객체들 각각에 중첩될 수 있다.
다양한 실시예들에서, 상기 복수의 인디케이션들 각각은, 상기 복수의 객체들 각각이 차지하는 영역 안에서 상기 권장 섭취량에 상응하는 영역을 강조함으로써 표시될 수 있다.
다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 복수의 객체들 중 적어도 하나의 객체와 관련된 적어도 하나의 음식 각각에 대한 권장 섭취량을 목표(targeted) 섭취량으로 변경하기 위한 입력을 검출하고, 상기 적어도 하나의 음식 각각에 대한 상기 목표 섭취량으로의 상기 변경에 적어도 기반하여 상기 복수의 인디케이션들 중 적어도 일부의 표시를 변경하기 위해 상기 저장된 명령어들을 실행하도록 더 설정될 수 있다. 예를 들면, 상기 적어도 하나의 프로세서는, 상기 입력을 검출하는 것에 기반하여, 상기 적어도 하나의 음식 각각에 대한 상기 권장 섭취량을 상기 목표 섭취량으로 변경하고, 상기 변경된 목표 섭취량에 적어도 기반하여, 남은 음식들 각각에 대한 권장 섭취량을 식별하고, 상기 적어도 하나의 음식 각각에 대한 상기 목표 섭취량 및 상기 남은 음식들 각각에 대한 상기 권장 섭취량에 적어도 기반하여, 상기 적어도 하나의 객체와 관련된 적어도 하나의 인디케이션 및 상기 남은 음식들 중 적어도 일부와 관련된 인디케이션들의 표시를 변경하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다. 예를 들면, 상기 입력은, 상기 복수의 인디케이션들 중 상기 적어도 하나의 객체와 관련된 적어도 하나의 인디케이션을 확대하거나 축소하기(reduce) 위한 드래그 입력에 상응할 수 있다.
다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 이미지와 관련된 깊이 정보를 획득하고, 상기 깊이 정보에 적어도 기반하여 상기 복수의 음식들 각각의 단위 당 칼로리에 대한 제1 정보를 획득하고, 상기 깊이 정보 및 상기 제1 정보에 적어도 기반하여, 상기 복수의 음식들 각각의 총 칼로리에 대한 제2 정보를 획득하고, 상기 제2 정보에 적어도 기반하여 상기 복수의 음식들 각각에 대한 상기 권장 섭취량에 대한 정보를 획득하기 위해 상기 저장된 명령어들을 실행하도록 더 설정될 수 있다.
다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 권장 섭취량에 대한 정보 및 상기 전자 장치와 관련된 사용자(user)의 음식의 섭취 이력에 대한 정보에 기반하여 상기 복수의 음식들 각각에 대한 상기 권장 섭취량에 대한 상기 정보를 획득하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에서, 상기 전자 장치는 통신 인터페이스(예: 통신 모듈(190))를 더 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 통신 인터페이스를 통해 상기 전자 장치와 관련된 사용자의 칼로리 소모량에 대한 정보를 수신하기 위해 상기 저장된 명령어들을 실행하도록 더 설정될 수 있고, 상기 칼로리 소모량에 대한 정보 및 상기 제2 정보에 적어도 기반하여 상기 복수의 음식들 각각에 대한 상기 권장 섭취량에 대한 상기 정보를 획득하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 이미지로부터 복수의 음식(food)들과 관련된 복수의 객체들 각각에 대한 정보에 적어도 기반하여, 상기 복수의 음식들 중 적어도 하나의 음식에 대한 요약 정보를 획득하고, 상기 적어도 하나의 카메라를 통해 획득되는 상기 이미지에 중첩되는 상기 요약 정보(abstract information)를 표시하고, 상기 요약 정보에 대한 입력을 검출하는 것에 응답하여, 상기 요약 정보로부터 변경된 상기 적어도 하나의 음식에 대한 상세 정보를 표시하기 위해 상기 저장된 명령어들을 실행하도록 더 설정될 수 있다. 얘를 들면, 상기 전자 장치는 통신 인터페이스를 더 포함할 수 있고, 상기 상세 정보(detail information)는, 적어도 하나의 웹사이트에 접속하기 위한 적어도 하나의 아이콘을 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 아이콘 중 하나의(an) 아이콘에 대한 입력을 검출하는 것에 응답하여, 상기 통신 인터페이스를 통해 상기 하나의 아이콘에 의해 지시되는 웹 사이트에 접속하기 위해 상기 저장된 명령어들을 실행하도록 더 설정될 수 있다.
상술한 바와 같은 다양한 실시예들에 따른 전자 장치는 명령어(instruction)들을 저장하는 메모리와, 적어도 하나의 카메라와, 적어도 하나의 디스플레이와, 적어도 하나의 프로세서를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 카메라를 통해 획득되고 음식들과 관련된 객체들을 포함하는 이미지와 함께 상기 음식들 각각의 권장 섭취량을 나타내기 위한 인디케이션들을 표시하고, 상기 음식들 중 제1 인디케이션과 관련된 음식의 권장 섭취량을 목표 섭취량으로 변경하기 위한 사용자 입력을 검출하고, 상기 사용자 입력에 기반하여, 상기 인디케이션들 중 상기 제1 인디케이션의 크기를 변경하고 상기 인디케이션들 중 상기 제1 인디케이션와 구별되는 제2 인디케이션의 크기를 변경하기 위해 상기 저장된 명령어들을 실행하도록 설정될 수 있다.
다양한 실시예들에서, 상기 제1 인디케이션의 크기는, 상기 음식의 목표 섭취량을 나타내기 위해 변경될 수 있고, 상기 제2 인디케이션의 크기는, 상기 목표 섭취량에 기반하여 변경되는 다른 음식의 권장 섭취량을 나타내기 위해 변경될 수 있다. 예를 들면, 상기 적어도 하나의 프로세서는, 상기 사용자 입력에 기반하여, 상기 인디케이션들 중 상기 제1 인디케이션 및 상기 제2 인디케이션과 구별되는 제3 인디케이션을 표시하는 것을 중단(cease)하기 위해 상기 저장된 명령어들을 실행하도록 더 설정될 수 있다.
다양한 실시예들에서, 상기 인디케이션들 각각은, 상기 객체들 각각이 차지하는 영역 안에서 상기 권장 섭취량에 상응하는 영역을 강조함으로써 표시될 수 있다. 예를 들면, 상기 인디케이션들 각각은, 상기 객체들 각각에 중첩될 수 있다. 예를 들면, 상기 사용자 입력은, 상기 제1 인디케이션을 확대하거나 축소하기 위한 드래그 입력에 상응할 수 있다. 예를 들면, 상기 적어도 하나의 프로세서는, 상기 이미지 및 상기 인디케이션들과 함께 상기 음식들 각각의 총 칼로리에 대한 정보를 표시하기 위해 상기 저장된 명령어들을 더 실행하도록 설정될 수 있다. 예를 들면, 상기 총 칼로리에 대한 정보는, 상기 이미지에 대한 깊이 정보(depth information)에 기반하여 식별될 수 있다.
다양한 실시예들에서, 상기 권장 섭취량은, 상기 전자 장치와 관련된 상기 사용자의 생체 정보에 기반하여 획득될 수 있다.
본 개시의 청구항 또는 명세서에 기재된 실시예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 개시의 청구항 또는 명세서에 기재된 실시예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM: read only memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: electrically erasable programmable read only memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM: compact disc-ROM), 디지털 다목적 디스크(DVDs: digital versatile discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
또한, 상기 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(local area network), WLAN(wide LAN), 또는 SAN(storage area network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 개시의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 개시의 실시 예를 수행하는 장치에 접속할 수도 있다.
상술한 본 개시의 구체적인 실시예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 전자 장치(electronic device)에 있어서,
    명령어(instruction)들을 저장하는 메모리;
    적어도 하나의 카메라;
    적어도 하나의 디스플레이; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 적어도 하나의 카메라를 이용하여 이미지를 획득하고,
    상기 이미지로부터 복수의 음식(food)들과 관련된 복수의 객체들을 식별하고,
    상기 식별된 상기 복수의 음식들 각각에 대응하는 영양 정보(nutrition information)를 획득하고,
    상기 영양 정보에 기반하여, 사용자에 대한 상기 복수의 음식들과 관련된 권장 섭취량(recommended amount of intake)에 대한 정보를 획득하고,
    상기 적어도 하나의 디스플레이를 이용하여 상기 이미지를 표시하고, 및
    상기 권장 섭취량에 대한 정보를 나타내기 위한 복수의 인디케이션(indication)들을 상기 표시된 상기 이미지에 포함된 상기 복수의 객체들과 연관하여 표시하기 위해 상기 저장된 명령어들을 실행하도록 설정된 전자 장치.
  2. 청구항 1에 있어서, 상기 복수의 인디케이션들 각각은,
    상기 복수의 객체들 각각에 중첩되는(superimposed on) 전자 장치.
  3. 청구항 1에 있어서, 상기 복수의 인디케이션들 각각은,
    상기 복수의 객체들 각각이 차지하는 영역 안에서 상기 권장 섭취량에 상응하는 영역을 강조함으로써 표시되는 전자 장치.
  4. 청구항 1에 있어서, 상기 적어도 하나의 프로세서는,
    상기 복수의 객체들 중 적어도 하나의 객체와 관련된 적어도 하나의 음식 각각에 대한 권장 섭취량을 목표(targeted) 섭취량으로 변경하기 위한 입력을 검출하고,
    상기 적어도 하나의 음식 각각에 대한 상기 목표 섭취량으로의 상기 변경에 적어도 기반하여 상기 복수의 인디케이션들 중 적어도 일부의 표시를 변경하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
  5. 청구항 4에 있어서, 상기 적어도 하나의 프로세서는,
    상기 입력을 검출하는 것에 기반하여, 상기 적어도 하나의 음식 각각에 대한 상기 권장 섭취량을 상기 목표 섭취량으로 변경하고,
    상기 변경된 목표 섭취량에 적어도 기반하여, 남은 음식들 각각에 대한 권장 섭취량을 식별하고,
    상기 적어도 하나의 음식 각각에 대한 상기 목표 섭취량 및 상기 남은 음식들 각각에 대한 상기 권장 섭취량에 적어도 기반하여, 상기 적어도 하나의 객체와 관련된 적어도 하나의 인디케이션 및 상기 남은 음식들 중 적어도 일부와 관련된 인디케이션들의 표시를 변경하기 위해 상기 저장된 명령어들을 실행하도록 설정되는 전자 장치.
  6. 청구항 4에 있어서, 상기 입력은,
    상기 복수의 인디케이션들 중 상기 적어도 하나의 객체와 관련된 적어도 하나의 인디케이션을 확대하거나 축소하기(reduce) 위한 드래그 입력에 상응하는 전자 장치.
  7. 청구항 1에 있어서, 상기 적어도 하나의 프로세서는,
    상기 이미지와 관련된 깊이 정보를 획득하고,
    상기 깊이 정보에 적어도 기반하여, 상기 복수의 음식들 각각의 단위 당 칼로리에 대한 제1 정보를 획득하고,
    상기 깊이 정보 및 상기 제1 정보에 적어도 기반하여, 상기 복수의 음식들 각각의 총 칼로리에 대한 제2 정보를 획득하고,
    상기 제2 정보에 적어도 기반하여 상기 복수의 음식들 각각에 대한 상기 권장 섭취량에 대한 정보를 획득하기 위해 상기 저장된 명령어들을 실행도록 설정되는 전자 장치.
  8. 청구항 1에 있어서, 상기 적어도 하나의 프로세서는,
    상기 권장 섭취량에 대한 정보 및 상기 전자 장치와 관련된 사용자(user)의 음식의 섭취 이력에 대한 정보에 기반하여 상기 복수의 음식들 각각에 대한 상기 권장 섭취량에 대한 상기 정보를 획득하기 위해 상기 저장된 명령어들을 실행하도록 설정되는 전자 장치.
  9. 청구항 1에 있어서,
    통신 인터페이스를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 통신 인터페이스를 통해 상기 전자 장치와 관련된 사용자의 칼로리 소모량에 대한 정보를 수신하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되고,
    상기 칼로리 소모량에 대한 정보 및 상기 권장 섭취량에 대한 정보에 적어도 기반하여 상기 복수의 음식들 각각에 대한 상기 권장 섭취량에 대한 상기 정보를 획득하기 위해 상기 저장된 명령어들을 실행하도록 설정되는 전자 장치.
  10. 청구항 1에 있어서, 상기 적어도 하나의 프로세서는,
    상기 이미지로부터 복수의 음식(food)들과 관련된 복수의 객체들 각각에 대한 정보에 적어도 기반하여, 상기 복수의 음식들 중 적어도 하나의 음식에 대한 요약 정보를 획득하고,
    상기 적어도 하나의 카메라를 통해 획득되는 상기 이미지에 중첩되는 상기 요약 정보(abstract information)를 표시하고,
    상기 요약 정보에 대한 입력을 검출하는 것에 응답하여, 상기 요약 정보로부터 변경된 상기 적어도 하나의 음식에 대한 상세 정보를 표시하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
  11. 청구항 10에 있어서,
    통신 인터페이스를 더 포함하고,
    상기 상세 정보(detail information)는,
    적어도 하나의 웹사이트에 접속하기 위한 적어도 하나의 아이콘을 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 적어도 하나의 아이콘 중 하나의(an) 아이콘에 대한 입력을 검출하는 것에 응답하여, 상기 통신 인터페이스를 통해 상기 하나의 아이콘에 의해 지시되는 웹 사이트에 접속하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
  12. 전자 장치(electronic device)에 있어서,
    명령어(instruction)들을 저장하는 메모리;
    적어도 하나의 카메라;
    적어도 하나의 디스플레이; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 적어도 하나의 카메라를 통해 획득되고 음식들과 관련된 객체들을 포함하는 이미지와 함께 상기 음식들 각각의 권장 섭취량을 나타내기 위한 인디케이션들을 표시하고,
    상기 음식들 중 제1 인디케이션과 관련된 음식의 권장 섭취량을 목표 섭취량으로 변경하기 위한 사용자 입력을 검출하고,
    상기 사용자 입력에 기반하여, 상기 인디케이션들 중 상기 제1 인디케이션의 크기를 변경하고 상기 인디케이션들 중 상기 제1 인디케이션와 구별되는 제2 인디케이션의 크기를 변경하기 위해 상기 저장된 명령어들을 실행하도록 설정되는 전자 장치.
  13. 청구항 12에 있어서, 상기 제1 인디케이션의 크기는,
    상기 음식의 목표 섭취량을 나타내기 위해 변경되고,
    상기 제2 인디케이션의 크기는,
    상기 목표 섭취량에 기반하여 변경되는 다른 음식의 권장 섭취량을 나타내기 위해 변경되는 전자 장치.
  14. 청구항 13에 있어서, 상기 적어도 하나의 프로세서는,
    상기 사용자 입력에 기반하여, 상기 인디케이션들 중 상기 제1 인디케이션 및 상기 제2 인디케이션과 구별되는 제3 인디케이션을 표시하는 것을 중단(cease)하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
  15. 청구항 12에 있어서, 상기 인디케이션들 각각은,
    상기 객체들 각각이 차지하는 영역 안에서 상기 권장 섭취량에 상응하는 영역을 강조함으로써 표시되는 전자 장치.
  16. 청구항 15에 있어서, 상기 인디케이션들 각각은,
    상기 객체들 각각에 중첩되는 전자 장치.
  17. 청구항 16에 있어서, 상기 사용자 입력은,
    상기 제1 인디케이션을 확대하거나 축소하기 위한 드래그 입력에 상응하는 전자 장치.
  18. 청구항 16에 있어서, 상기 적어도 하나의 프로세서는,
    상기 이미지 및 상기 인디케이션들과 함께 상기 음식들 각각의 총 칼로리에 대한 정보를 표시하기 위해 상기 저장된 명령어들을 더 실행하도록 설정되는 전자 장치.
  19. 청구항 18에 있어서, 상기 총 칼로리에 대한 정보는,
    상기 이미지에 대한 깊이 정보(depth information)에 기반하여 식별되는 전자 장치.
  20. 청구항 12에 있어서, 상기 권장 섭취량은,
    상기 전자 장치와 관련된 상기 사용자의 생체 정보에 기반하여 획득되는 전자 장치.
KR1020180002476A 2018-01-08 2018-01-08 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법 KR20190084567A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020180002476A KR20190084567A (ko) 2018-01-08 2018-01-08 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법
CN201811610310.XA CN110021404A (zh) 2018-01-08 2018-12-27 用于处理与食物相关的信息的电子设备和方法
PCT/KR2018/016704 WO2019135542A1 (en) 2018-01-08 2018-12-27 Electronic device and method for processing information associated with food
AU2019200007A AU2019200007A1 (en) 2018-01-08 2019-01-02 Electronic device and method for processing information associated with food
US16/239,737 US10803315B2 (en) 2018-01-08 2019-01-04 Electronic device and method for processing information associated with food

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180002476A KR20190084567A (ko) 2018-01-08 2018-01-08 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200065859A Division KR102209741B1 (ko) 2020-06-01 2020-06-01 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20190084567A true KR20190084567A (ko) 2019-07-17

Family

ID=67140775

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180002476A KR20190084567A (ko) 2018-01-08 2018-01-08 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법

Country Status (5)

Country Link
US (1) US10803315B2 (ko)
KR (1) KR20190084567A (ko)
CN (1) CN110021404A (ko)
AU (1) AU2019200007A1 (ko)
WO (1) WO2019135542A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220008174A (ko) * 2020-07-13 2022-01-20 (주)알파그래픽스 다이어트 관리 장치, 다이어트 관리 방법 및 다이어트 관리 프로그램
KR102569889B1 (ko) * 2023-05-16 2023-08-28 주식회사 다니엘0220 뉴럴 네트워크를 이용하여 사용자 단말에게 건강기능식품에 대한 추천 정보를 제공하는 방법 및 장치

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11754542B2 (en) 2012-06-14 2023-09-12 Medibotics Llc System for nutritional monitoring and management
EP3593281A1 (en) * 2017-03-07 2020-01-15 Sony Corporation System, method and computer program for guided image capturing of a meal
TW202024541A (zh) * 2018-11-15 2020-07-01 德商福維克控股有限責任公司 用於製備食品的系統及方法
US11294950B2 (en) * 2019-01-18 2022-04-05 Haier Us Appliance Solutions, Inc. Cooking engagement system equipped with a recipe application for combining third party recipe content
US11164478B2 (en) * 2019-05-17 2021-11-02 NotCo Delaware, LLC Systems and methods to mimic target food items using artificial intelligence
CN110689945A (zh) * 2019-09-30 2020-01-14 佛山市顺德区美的洗涤电器制造有限公司 用于菜谱搭配的方法、装置和存储介质
CN112822389B (zh) * 2019-11-18 2023-02-24 北京小米移动软件有限公司 照片拍摄方法、照片拍摄装置及存储介质
CN111048180B (zh) * 2019-12-05 2024-02-02 上海交通大学医学院 一种膳食摄入调查分析系统、方法和终端
CN111222569A (zh) * 2020-01-06 2020-06-02 宇龙计算机通信科技(深圳)有限公司 识别食物的方法、装置、电子设备及介质
EP4000521A1 (en) * 2020-11-13 2022-05-25 University Of Fribourg Technique for controlling a human machine interface
JP7256907B1 (ja) 2022-01-07 2023-04-12 日本コンピュータビジョン株式会社 情報処理プログラム、情報処理装置及び情報処理方法
US11982661B1 (en) 2023-05-30 2024-05-14 NotCo Delaware, LLC Sensory transformer method of generating ingredients and formulas

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006105655A (ja) * 2004-10-01 2006-04-20 Nippon Telegr & Teleph Corp <Ntt> 食品総カロリーチェッカーおよびチェック方法
KR20060122111A (ko) 2005-05-25 2006-11-30 주식회사 팬택 음식물 영상을 통한 칼로리 계산 방법
US7432454B1 (en) 2008-03-10 2008-10-07 International Business Machines Corporation Nutrition intake tracker
KR20120039102A (ko) * 2010-10-15 2012-04-25 엘지전자 주식회사 식이관리장치 및 식이관리방법
US9165398B2 (en) * 2011-02-25 2015-10-20 Lg Electronics Inc. Analysis of food items captured in digital images
JP2013037648A (ja) * 2011-08-11 2013-02-21 Seiko Epson Corp 摂取熱量推定装置、摂取熱量推定方法および摂取熱量推定用データ出力装置
US20130166334A1 (en) * 2011-12-21 2013-06-27 Michael A. Liberty Electronic menu and ordering system
US9442100B2 (en) 2013-12-18 2016-09-13 Medibotics Llc Caloric intake measuring system using spectroscopic and 3D imaging analysis
US10503359B2 (en) * 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
US8690578B1 (en) 2013-01-03 2014-04-08 Mark E. Nusbaum Mobile computing weight, diet, nutrition, and exercise tracking system with enhanced feedback and data acquisition functionality
CA2906002A1 (en) * 2013-03-14 2014-10-02 Andrew H. Gibbs Providing food-portion recommendations to faciliate dieting
KR102157598B1 (ko) 2014-04-29 2020-09-18 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2015170244A1 (en) 2014-05-09 2015-11-12 Ghalavand Shahrokh Calorie balance system
JP6288512B2 (ja) * 2014-07-11 2018-03-07 パナソニックIpマネジメント株式会社 食品分析装置
KR20160128017A (ko) 2015-04-28 2016-11-07 삼성전자주식회사 전자 장치, 서버 및 그 제어 방법
KR101789732B1 (ko) 2015-07-29 2017-10-25 피도연 식품 정보 제공 방법 및 장치
US20170046980A1 (en) * 2015-08-11 2017-02-16 Inrfood, Inc. Nutrition system
KR20170031517A (ko) 2015-09-11 2017-03-21 엘지전자 주식회사 이동 단말기 및 그의 동작 방법
US20170316489A1 (en) * 2016-04-28 2017-11-02 Wal-Mart Stores, Inc. Apparatuses and methods for recipe suggestion

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220008174A (ko) * 2020-07-13 2022-01-20 (주)알파그래픽스 다이어트 관리 장치, 다이어트 관리 방법 및 다이어트 관리 프로그램
KR102569889B1 (ko) * 2023-05-16 2023-08-28 주식회사 다니엘0220 뉴럴 네트워크를 이용하여 사용자 단말에게 건강기능식품에 대한 추천 정보를 제공하는 방법 및 장치

Also Published As

Publication number Publication date
AU2019200007A1 (en) 2019-07-25
WO2019135542A1 (en) 2019-07-11
US10803315B2 (en) 2020-10-13
US20190213416A1 (en) 2019-07-11
CN110021404A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
US10803315B2 (en) Electronic device and method for processing information associated with food
KR102209741B1 (ko) 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법
US11567535B2 (en) Temperature-controlled wearable extended reality appliance
US10789699B2 (en) Capturing color information from a physical environment
US11908176B2 (en) Data recognition model construction apparatus and method for constructing data recognition model thereof, and data recognition apparatus and method for recognizing data thereof
KR102647656B1 (ko) 증강 현실 영상에 부가 객체를 표시하는 전자 장치 및 상기 전자 장치의 구동 방법
EP3198376B1 (en) Image display method performed by device including switchable mirror and the device
CN111161035B (zh) 菜品推荐方法、装置、服务器、电子设备及存储介质
US10089680B2 (en) Automatically fitting a wearable object
KR20160084706A (ko) 운동 기록에 대한 설명 정보를 제공하는 전자 장치 및 방법
CN110246110B (zh) 图像评估方法、装置及存储介质
CN111222569A (zh) 识别食物的方法、装置、电子设备及介质
US11596764B2 (en) Electronic device and method for providing information for stress relief by same
CN112951373A (zh) 一种食材推荐方法、设备、智能冰箱和智能终端
CN118103799A (zh) 与远程设备的用户交互
KR102326540B1 (ko) 음식 영상을 이용한 영양관리 및 질병관리 방법
KR20190048922A (ko) 스마트 테이블 및 스마트 테이블의 제어방법
CN114556444A (zh) 联合模型的训练方法和对象信息处理方法、装置及系统
KR102283257B1 (ko) 워크 도네이션을 위한 사용자 단말 장치, 서버, 방법 및 시스템
US20220254175A1 (en) An apparatus and method for performing image-based food quantity estimation
US20240185584A1 (en) Data recognition model construction apparatus and method for constructing data recognition model thereof, and data recognition apparatus and method for recognizing data thereof
EP4300409A1 (en) Method and device for generating emotional combination content
CN115705117A (zh) 一种设置运动目标的方法和相关电子设备
KR20210077275A (ko) 제품과 사용자의 매칭을 위한 전자 장치 및 이를 포함하는 매칭 시스템

Legal Events

Date Code Title Description
AMND Amendment
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination
A107 Divisional application of patent