KR20230082523A - Apparatus and method for measuring size of part of body - Google Patents

Apparatus and method for measuring size of part of body Download PDF

Info

Publication number
KR20230082523A
KR20230082523A KR1020220025899A KR20220025899A KR20230082523A KR 20230082523 A KR20230082523 A KR 20230082523A KR 1020220025899 A KR1020220025899 A KR 1020220025899A KR 20220025899 A KR20220025899 A KR 20220025899A KR 20230082523 A KR20230082523 A KR 20230082523A
Authority
KR
South Korea
Prior art keywords
image
measurement points
measurement
subject
points
Prior art date
Application number
KR1020220025899A
Other languages
Korean (ko)
Inventor
강봉수
조원희
나린
조준상
Original Assignee
주식회사 딥비전스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥비전스 filed Critical 주식회사 딥비전스
Publication of KR20230082523A publication Critical patent/KR20230082523A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1075Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

According to various embodiments of the present disclosure, the present invention relates to a device and a method for measuring a body size for a subject on the basis of a planar image of the subject and a measured value of a LiDAR sensor. To this end, an electronic device collects depth information in an image on the basis of the image of a subject and preset measurement points, and can identify a plurality of preset reference points for the subject included in the image. The electronic device can acquire coordinate value and depth information on reference measurement points corresponding to the identified reference points among the preset measurement points and auxiliary measurement points located on measurement lines provided by the identified reference points, and acquire a body size of the subject corresponding to each of the measurement lines using the coordinate value and depth information acquired to correspond to the reference measurement points and the auxiliary measurement points. Various other embodiments are possible. Therefore, the freedom of a photographing angle can be provided.

Description

신체 치수 측정 장치 및 방법{APPARATUS AND METHOD FOR MEASURING SIZE OF PART OF BODY}Apparatus and method for measuring body size {APPARATUS AND METHOD FOR MEASURING SIZE OF PART OF BODY}

본 개시는 전자 장치에서 라이다 센서 (LiDAR (light detection and ranging) sensor)를 이용하여 신체 치수를 측정하는 장치 및 방법에 관한 것이다.The present disclosure relates to an apparatus and method for measuring a body size using a light detection and ranging (LiDAR) sensor in an electronic device.

인체의 체형정보는 의복, 책상 또는 의자와 같은 다양한 산업 분야에서 활용되고 있다. 일 예로, 국가기술표준원에 구축된 한국인 인체 표준 정보 데이터베이스는 한국인 체형에 맞는 제품 개발에 활용되고 있다. 인체의 체형정보는 의학 분야에서도 폭넓게 활용되고 있다. 특히, 비만 관련이나 심혈관 질병을 식별 및 예측에 있어 허리-엉덩이 둘레 비율과 같은 인체 치수 정보는, 유용한 정보를 제공하는 것으로 알려져 있다. 한의학에서도 사상체질진단 시 성격, 행동, 안면 형태와 더불어 머리, 목, 가슴, 허리, 엉덩이 둘레와 같은 체형정보는 체질 판단을 위한 중요한 지표로 활용되고 있다.Body shape information of the human body is used in various industrial fields such as clothes, desks, or chairs. For example, the Korean human body standard information database established by the National Agency for Technology and Standards is being used to develop products suitable for Korean body types. Body shape information of the human body is widely used in the medical field. In particular, it is known that body size information such as the waist-hip circumference ratio provides useful information in identifying and predicting obesity-related or cardiovascular diseases. In oriental medicine, when diagnosing Sasang constitution, body type information such as head, neck, chest, waist, and hip circumference along with personality, behavior, and facial shape are used as important indicators to determine constitution.

전통적인 방법으로, 수평자나 줄자를 이용하여 체형을 측정할 수 있으나, 이는 측정자의 숙련도에 따라 오차가 발생할 수 있다. 다른 방법으로 카메라에 의해 촬영된 2차원 이미지를 기반으로 신체 치수를 측정할 수 있다. 2차원 이미지를 기반으로 신체 치수를 측정하는 경우, 전자 장치는 양측 어깨 또는 양쪽 허리와 같은 신체의 특정 위치 간의 거리를 고려하여 신체 치수를 측정할 수 있다. 하지만, 2차원 이미지를 기반으로 신체 치수를 측정하는 경우, 카메라와 피사체 간의 거리가 고려되지 않음으로 인해, 전자 장치에 의해 측정된 신체 치수와 실제 신체 치수 간에 오차가 발생할 수 있다. 또한, 2차원 이미지를 기반으로 신체 치수를 측정하는 경우, 정면, 측면 또는 후면과 같이 다른 포즈의 2차원 이미지를 얻기 위한 카메라의 촬영 각도가 가능한 일치하여야 하는 제한이 있을 수 있다.In a traditional way, the body shape can be measured using a horizontal ruler or a tape measure, but errors may occur depending on the skill of the measurer. Alternatively, body dimensions may be measured based on a two-dimensional image taken by a camera. When measuring a body size based on a 2D image, the electronic device may measure the body size considering a distance between specific positions of the body, such as both shoulders or both waists. However, when measuring the body size based on the 2D image, an error may occur between the body size measured by the electronic device and the actual body size because the distance between the camera and the subject is not considered. In addition, in the case of measuring body dimensions based on a 2D image, there may be a limitation that camera shooting angles for obtaining 2D images of different poses, such as front, side, or back, should match as much as possible.

인체의 체형정보는 의학 및 여러 산업 분야에서 폭넓게 활용되고 있으나 간편하면서도 정확도 및 재현성 있는 측정 방법에 대한 수요가 꾸준히 있는 상황이다. 특히, 속도 또는 장소의 구애를 받지 않는 통신 산업이 발전 또는 가상 공간에서 다양한 서비스를 제공할 수 있는 메타 버스 기술을 기반으로 마련된 인프라 및/또는 플랫폼은, 온라인 쇼핑과 같은 비대면 서비스를 활성화시키기 위한 기반으로 마련하였다. 하지만, 비대면 서비스의 경우, 예를 들어, 온라인 쇼핑을 이용할 시에 소비자는 직접 옷을 입어볼 수 없어, 셔츠, 자켓 또는 바지와 같은 다양한 종류 또는 브랜드 별로 자신에게 맞는 치수를 인지하기가 어려울 수 있다.Body shape information of the human body is widely used in medicine and various industries, but there is a steady demand for simple, accurate and reproducible measurement methods. In particular, the infrastructure and/or platform based on metabus technology, which allows the telecommunications industry to provide various services in power generation or virtual space regardless of speed or location, is a platform for activating non-face-to-face services such as online shopping. based on it. However, in the case of non-face-to-face services, for example, when using online shopping, consumers cannot try on clothes directly, so it may be difficult to recognize the size that suits them for each brand or various types such as shirts, jackets or pants. there is.

본 개시의 일 실시예는, 피사체의 평면 이미지 및 라이다 센서의 측정 값을 기반으로 상기 피사체에 대한 신체 치수를 측정하는 장치 및 방법을 제공할 수 있다.One embodiment of the present disclosure may provide an apparatus and method for measuring a body size of a subject based on a planar image of the subject and a measurement value of a lidar sensor.

본 개시에서의 일 실시예에 따른, 전자 장치는, 촬영에 의한 이미지를 제공하도록 구성된 카메라 모듈과, 미리 설정된 측정점들(data points)을 기반으로 상기 이미지에서의 깊이 정보(depth information)를 제공하도록 구성된 라이다 센서 및 상기 카메라 모듈로부터 제공된 상기 이미지에 포함된 피사체에서 기준점들(reference points)을 식별하고, 상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다.According to an embodiment of the present disclosure, an electronic device includes a camera module configured to provide an image by photographing, and a camera module configured to provide depth information in the image based on preset data points. Identify reference points in the subject included in the image provided from the configured lidar sensor and the camera module, and among the preset measurement points, reference measurement points corresponding to the identified reference points and the identified reference points and at least one processor configured to obtain a body size of the subject corresponding to each measurement line by using coordinate values and depth information of auxiliary measurement points located on the measurement lines prepared by

본 개시에서의 일 실시예에 따른, 전자 장치에서 신체 치수를 측정하는 방법은, 피사체의 이미지를 수집하는 동작과, 미리 설정된 측정점들을 기반으로 상기 이미지에서의 깊이 정보를 수집하는 동작과, 상기 이미지에 포함된 상기 피사체에서 기준점들을 식별하는 동작과, 상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득하는 동작 및 상기 기준 측정점들과 상기 보조 측정점들에서 획득한 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하는 동작을 포함할 수 있다.According to an embodiment of the present disclosure, a method for measuring a body size in an electronic device includes an operation of collecting an image of a subject, an operation of collecting depth information in the image based on preset measurement points, and an operation of collecting the image An operation of identifying reference points in the subject included in ; coordinate values of reference measurement points corresponding to the identified reference points among the preset measurement points and auxiliary measurement points located on measurement lines prepared by the identified reference points; and An operation of obtaining depth information and an operation of acquiring body dimensions of the subject corresponding to each measurement line using coordinate values and depth information obtained from the reference measurement points and the auxiliary measurement points.

본 개시의 일 실시예에 따르면, 전자 장치는 라이다 센서를 이용하여 카메라와 피사체 간의 거리 정보를 인지할 수 있으므로, 이를 이용하여 신체 치수를 측정할 경우, 촬영 각도의 자유성을 제공할 수 있을 뿐만 아니라, 신체의 굴곡을 고려한 신체 치수 측정이 가능할 수 있다.According to an embodiment of the present disclosure, since the electronic device can recognize the distance information between the camera and the subject using the LIDAR sensor, when measuring the body size using this, freedom in the shooting angle can be provided. In addition, it may be possible to measure the body size considering the curvature of the body.

본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 기재로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.Effects obtainable in the exemplary embodiments of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are common knowledge in the art to which exemplary embodiments of the present disclosure belong from the following description. can be clearly derived and understood by those who have That is, unintended effects according to the implementation of the exemplary embodiments of the present disclosure may also be derived by those skilled in the art from the exemplary embodiments of the present disclosure.

도 1은, 본 개시의 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록 구성을 도시한 도면이다.
도 2는, 본 개시의 다양한 실시 예들에 따른 카메라 모듈을 예시하는 블록 구성을 도시한 도면이다.
도 3은, 본 개시의 다양한 실시 예들에 따른 센서 모듈에 포함된 라이다 센서를 예시하는 블록 구성을 도시한 도면이다.
도 4는, 본 개시의 일 실시예에 따른 전자 장치에 마련된 신체 치수 측정 장치의 블록 구성을 도시한 도면이다.
도 5는, 본 개시의 일 실시예에 따른 신체 치수 측정 장치에서 신체 치수 측정을 수행하는 프로세서의 기능 블록을 도시한 도면이다.
도 6은, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수를 측정하기 위한 제어 흐름을 도시한 도면이다.
도 7은, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수 측정을 위하여 포즈를 추정하는 일 예를 도시한 도면이다.
도 8은, 본 개시의 일 실시예에 따른 전자 장치에서 신체의 주요 위치를 식별하는 일 예를 도시한 도면이다.
도 9는, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수 측정을 위한 기준 측정점들의 일 예를 도시한 도면이다.
도 10은, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수 측정을 위한 깊이 정보를 획득할 측정점들이 마스킹된 이미지의 일 예를 도시한 도면이다.
도 11은, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수 측정을 위한 측정선들의 일 예를 도시한 도면이다.
도 12는, 본 개시의 일 실시예에 따른 전자 장치에서 측정된 신체 치수의 일 예를 도시한 도면이다.
도 13은, 본 개시의 일 실시예에 따른 전자 장치에서 측정된 신체 치수를 디스플레이에 표시한 일 예를 도시한 도면이다.
도 14는, 본 개시의 일 실시예에 따른 전자 장치에서 신체 측정을 위해 수행하는 제어 흐름도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
1 is a diagram illustrating a block configuration of an electronic device in a network environment according to various embodiments of the present disclosure.
2 is a block diagram illustrating a camera module according to various embodiments of the present disclosure.
3 is a block diagram illustrating a lidar sensor included in a sensor module according to various embodiments of the present disclosure.
4 is a diagram illustrating a block configuration of a body size measuring device provided in an electronic device according to an embodiment of the present disclosure.
5 is a diagram illustrating functional blocks of a processor performing body size measurement in the body size measuring device according to an embodiment of the present disclosure.
6 is a diagram illustrating a control flow for measuring a body size in an electronic device according to an embodiment of the present disclosure.
7 is a diagram illustrating an example of estimating a pose for body size measurement in an electronic device according to an embodiment of the present disclosure.
8 is a diagram illustrating an example of identifying a main body position in an electronic device according to an embodiment of the present disclosure.
9 is a diagram illustrating an example of reference measurement points for body size measurement in an electronic device according to an embodiment of the present disclosure.
10 is a diagram illustrating an example of an image in which measurement points from which depth information for body size measurement is to be obtained are masked in an electronic device according to an embodiment of the present disclosure.
11 is a diagram illustrating an example of measurement lines for measuring body size in an electronic device according to an embodiment of the present disclosure.
12 is a diagram illustrating an example of body dimensions measured in an electronic device according to an embodiment of the present disclosure.
13 is a diagram illustrating an example of displaying body dimensions measured in an electronic device according to an embodiment of the present disclosure on a display.
14 is a control flow chart performed for body measurement in an electronic device according to an embodiment of the present disclosure.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar elements.

이하에서는 도면을 참조하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면의 설명과 관련하여, 동일하거나 유사한 구성요소에 대해서는 동일하거나 유사한 참조 부호가 사용될 수 있다. 또한, 도면 및 관련된 설명에서는, 잘 알려진 기능 및 구성에 대한 설명이 명확성과 간결성을 위해 생략될 수 있다.Hereinafter, with reference to the drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein. In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar elements. Also, in the drawings and related descriptions, descriptions of well-known functions and constructions may be omitted for clarity and conciseness.

도 1은, 본 개시의 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치(101)의 블록 구성을 도시한 도면이다. 1 is a diagram illustrating a block configuration of an electronic device 101 in a network environment according to various embodiments of the present disclosure.

도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다.Referring to FIG. 1 , in a network environment 100, an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It is possible to communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 . According to an embodiment, the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, a sensor module ( 176), interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197 ) may be included. In some embodiments, in the electronic device 101, at least one of these components (eg, the display device 160 or the camera module 180) may be omitted or one or more other components may be added. In some embodiments, some of these components may be implemented as a single integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illumination sensor) may be implemented while being embedded in the display device 160 (eg, a display).

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (eg, the program 140) to cause at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or calculations. According to one embodiment, as at least part of data processing or operation, the processor 120 transfers commands or data received from other components (eg, sensor module 176 or communication module 190) to volatile memory 132. , process commands or data stored in the volatile memory 132 , and store resultant data in the non-volatile memory 134 . According to one embodiment, the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and a secondary processor 123 (eg, a graphic processing unit, an image signal processor) that can operate independently or together with the main processor 121. , sensor hub processor, or communication processor). Additionally or alternatively, the secondary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function. The secondary processor 123 may be implemented separately from or as part of the main processor 121 .

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. The secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, running an application). ) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states. According to one embodiment, the auxiliary processor 123 (eg, an image signal processor or a communication processor) may be implemented as part of other functionally related components (eg, the camera module 180 or the communication module 190). there is.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 . The data may include, for example, input data or output data for software (eg, program 140) and commands related thereto. The memory 130 may include volatile memory 132 or non-volatile memory 134 .

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142 , middleware 144 , or an application 146 .

입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input device 150 may receive a command or data to be used for a component (eg, the processor 120) of the electronic device 101 from an outside of the electronic device 101 (eg, a user). The input device 150 may include, for example, a microphone, mouse, keyboard, or digital pen (eg, a stylus pen).

음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output device 155 may output sound signals to the outside of the electronic device 101 . The audio output device 155 may include, for example, a speaker or a receiver. The speaker can be used for general purposes, such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.

표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. The display device 160 may visually provide information to the outside of the electronic device 101 (eg, a user). The display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to an embodiment, the display device 160 may include a touch circuitry set to detect a touch or a sensor circuit (eg, a pressure sensor) set to measure the intensity of force generated by the touch. there is.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 170 may convert sound into an electrical signal or vice versa. According to an embodiment, the audio module 170 acquires sound through the input device 150, the audio output device 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 조도 센서 또는 라이다 센서를 포함할 수 있다. 일 예로, 라이다 센서는 전자 장치(101)에서 카메라 모듈(180) 근처에 배치되어 카메라 모듈(180)에 의해 촬영될 피사체에 대한 깊이 정보 (또는 심도 정보, 이하 “깊이 정보”로 통칭함)를 획득할 수 있다.The sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a bio sensor, It may include a temperature sensor, humidity sensor, illuminance sensor or lidar sensor. For example, the LiDAR sensor is disposed near the camera module 180 in the electronic device 101 and provides depth information (or depth information, hereinafter collectively referred to as “depth information”) of a subject to be photographed by the camera module 180. can be obtained.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD 카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102). According to one embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 may capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 may manage power supplied to the electronic device 101 . According to one embodiment, the power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.

배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101 . According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104)), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다. The communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104), or the server 108. It is possible to support the establishment of and communication through the established communication channel. The communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : a local area network (LAN) communication module or a power line communication module). Among these communication modules, the corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, WiFi direct, or IrDA (infrared data association)) or a second network 199 (eg, a cellular network, the Internet, or It may communicate with an external electronic device via a computer network (eg, a telecommunications network such as a LAN or WAN). These various types of communication modules may be integrated into one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips). The wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199. The electronic device 101 may be identified and authenticated.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들 중에서 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: radio frequency integrated circuit(RFIC))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device). According to an embodiment, the antenna module 197 may include one antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to one embodiment, the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from among the plurality of antennas by the communication module 190, for example. can be chosen A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna. According to some embodiments, other components (eg, a radio frequency integrated circuit (RFIC)) may be additionally formed as a part of the antenna module 197 in addition to the radiator.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( e.g. commands or data) can be exchanged with each other.

일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치는 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.According to an embodiment, commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 . Each of the electronic devices 102 and 104 may be the same as or different from the electronic device 101 . According to an embodiment, all or some of the operations executed in the electronic device 101 may be executed in one or more external devices among the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself. Alternatively or additionally, one or more external electronic devices may be requested to perform the function or at least part of the service. One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 . The electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed. To this end, for example, cloud computing, distributed computing, or client-server computing technology may be used.

도 2는, 본 개시의 다양한 실시 예들에 따른, 카메라 모듈(180)을 예시하는 블록 구성(200)을 도시한 도면이다. 2 is a diagram illustrating a block configuration 200 illustrating a camera module 180, according to various embodiments of the present disclosure.

도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 카메라 모듈(180)은 소정 화각에서의 정지 영상 또는 동영상과 같은 이미지를 촬영하고, 상기 촬영된 이미지에 해당하는 전기적 신호를 출력할 수 있다. 정지 영상 및 동영상의 촬영 범위를 결정하는 카메라 모듈(180)의 화각은 광각, 표준 또는 망원과 같이 분류될 수 있는 렌즈의 타입에 의해 결정될 수 있다. 카메라 모듈(180)은 촬영 이전에 촬영될 이미지의 프리뷰를 제공하기 위한 전기적 신호를 출력할 수 있다.Referring to FIG. 2 , the camera module 180 includes a lens assembly 210, a flash 220, an image sensor 230, an image stabilizer 240, a memory 250 (eg, a buffer memory), or an image signal processor. (260). The camera module 180 may capture an image such as a still image or a moving image at a predetermined angle of view and output an electrical signal corresponding to the captured image. The angle of view of the camera module 180 that determines the shooting range of still images and moving images may be determined by a type of lens that may be classified as wide-angle, standard, or telephoto. The camera module 180 may output an electrical signal for providing a preview of an image to be captured prior to capturing.

렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. The lens assembly 210 may collect light emitted from a subject that is an image capturing target. The lens assembly 210 may include one or more lenses. According to one embodiment, the camera module 180 may include a plurality of lens assemblies 210 . In this case, the camera module 180 may form, for example, a dual camera, a 360-degree camera, or a spherical camera. Some of the plurality of lens assemblies 210 may have the same lens properties (eg, angle of view, focal length, auto focus, f number, or optical zoom), or at least one lens assembly may have the same lens properties as other lens assemblies. may have one or more lens properties different from the lens properties of . The lens assembly 210 may include, for example, a wide-angle lens or a telephoto lens.

플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일 실시예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. The flash 220 may emit light used to enhance light emitted or reflected from a subject. According to one embodiment, the flash 220 may include one or more light emitting diodes (eg, a red-green-blue (RGB) LED, a white LED, an infrared LED, or an ultraviolet LED), or a xenon lamp.

이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일 실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.The image sensor 230 may acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly 210 into an electrical signal. According to an embodiment, the image sensor 230 is, for example, an image sensor selected from among image sensors having different properties, such as an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor, It may include a plurality of image sensors having a property, or a plurality of image sensors having other properties. Each image sensor included in the image sensor 230 may be implemented using, for example, a charged coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor.

이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일 실시예에 따르면, 이미지 스태빌라이저(240)는 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(180) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. The image stabilizer 240 moves at least one lens or image sensor 230 included in the lens assembly 210 in a specific direction in response to movement of the camera module 180 or the electronic device 101 including the same. Operation characteristics of the image sensor 230 may be controlled (eg, read-out timing is adjusted, etc.). This makes it possible to compensate at least part of the negative effect of the movement on the image being taken. According to an embodiment, the image stabilizer 240 uses a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module 180 to control the camera module 180 or the electronic device 101 . ) can detect such movements. The image stabilizer 240 may be implemented as, for example, an optical image stabilizer.

메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)을 통하여 프리뷰(preview)될 수 있다. 사본 이미지는, 예를 들어, 섬네일(thumbnail)일 수 있다. 이하 표시 장치(160)을 통하여 프리뷰되는 이미지는 “프리뷰 이미지”라 칭해질 수 있다. 프리뷰 이미지는 실제 피사체에 대한 촬영이 이루어지기 전에 이미지 센서(230)에 의해 변환된 전기적 신호에 의해 만들어질 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일 실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The memory 250 may at least temporarily store at least a portion of an image acquired through the image sensor 230 for a next image processing task. For example, when image acquisition is delayed according to the shutter, or a plurality of images are acquired at high speed, the acquired original image (eg, a Bayer-patterned image or a high-resolution image) is stored in the memory 250 and , a copy image (eg, a low resolution image) corresponding thereto may be previewed through the display device 160 . A copy image may be, for example, a thumbnail. Hereinafter, an image previewed through the display device 160 may be referred to as a “preview image”. A preview image may be created by an electrical signal converted by the image sensor 230 before capturing an actual subject. Thereafter, when a specified condition is satisfied (eg, a user input or a system command), at least a part of the original image stored in the memory 250 may be obtained and processed by the image signal processor 260 , for example. According to one embodiment, the memory 250 may be configured as at least a part of the memory 130 or as a separate memory operated independently of the memory 130 .

이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리를 수행할 수 있다. 상기 하나 이상의 이미지 처리는, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 제공될 수 있다. 일 실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)가 프로세서(120)와 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.The image signal processor 260 may perform one or more image processing on an image acquired through the image sensor 230 or an image stored in the memory 250 . The one or more image processing, for example, depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, or image compensation (eg, noise reduction, resolution adjustment, brightness adjustment, blurring ( blurring, sharpening, or softening. Additionally or alternatively, the image signal processor 260 may include at least one of the components included in the camera module 180 (eg, an image sensor). 230) may be controlled (eg, exposure time control, read-out timing control, etc.) The image processed by the image signal processor 260 is stored again in the memory 250 for further processing. or may be provided as an external component of the camera module 180 (eg, the memory 130, the display device 160, the electronic device 102, the electronic device 104, or the server 108). According to an example, the image signal processor 260 may be configured as at least a part of the processor 120 or may be configured as a separate processor that operates independently of the processor 120. The image signal processor 260 may be configured as a processor 120 When configured as a separate processor, at least one image processed by the image signal processor 260 may be displayed through the display device 160 as it is or after additional image processing by the processor 120 .

일 실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.According to an embodiment, the electronic device 101 may include a plurality of camera modules 180 each having different properties or functions. In this case, for example, at least one of the plurality of camera modules 180 may be a wide-angle camera, and at least the other may be a telephoto camera. Similarly, at least one of the plurality of camera modules 180 may be a front camera, and at least another one may be a rear camera.

도 3은, 본 개시의 다양한 실시 예들에 따른 센서 모듈(176)에 포함된 라이다 센서를 예시하는 블록 구성(300)을 도시한 도면이다. 3 is a diagram illustrating a block configuration 300 illustrating a lidar sensor included in a sensor module 176 according to various embodiments of the present disclosure.

도 3을 참조하면, 일 실시예에 따른 라이다 센서(300)는 사람과 사물을 3차원의 공간에서 연결시켜 줄 수 있는 3차원 영상센서에 포함될 수 있다. 라이다 센서(300)는 대상 물체인 파세체를 향하여 빛(예: 레이저 빔, 레이저 광 또는 레이저, 이하 “레이저”로 칭함)을 발사하고, 상기 대상 물체로부터 반사되어 돌아오는 정보를 수신하여 상기 대상 물체까지의 거리 및/또는 상기 대상 물체의 움직이는 속도와 방향, 온도, 주변의 대기 물질 분석 및 농도 측정과 같은 물성을 탐지할 수 있다. 라이다 센서(300)는, 예를 들어, 3차원 공간에서의 시각적 구현에 핵심 기술로 사용될 수 있다. 라이다 센서(300)는 초음파 또는 레이더 기술을 기반으로 하는 센서에 비하여 상대적으로 높은 해상도의 데이터를 추출할 수 있다. 레이다 센서(300)는 자율 주행과 같이 안전이 중요시되는 기술 분야 또는 스마트폰과 같은 일부 전자장치(예: 도 1의 전자 장치(101))에 탑재되어 증강현실(AR: augmented reality)을 구현하는 기술 분야에서 핵심 기술로 사용될 수 있다. 레이다 센서(300)는, 예를 들어, 스마트폰과 같은 전자장치(101)에 카메라와 함께 라이다 스캐너로 탑재될 수 있다. 일 실시예에 따르면, 라이다 센서(300)는 렌즈 어셈블리(310), 송신회로(320), 수신회로(330), 메모리(340)(예: 버퍼 메모리), 또는 데이터 처리 프로세서(350)를 포함할 수 있다. Referring to FIG. 3 , the lidar sensor 300 according to an embodiment may be included in a 3D image sensor capable of connecting people and objects in a 3D space. The lidar sensor 300 emits light (eg, a laser beam, laser light or laser, hereinafter referred to as “laser”) toward a target object, the facet, and receives information reflected from the target object and returns to the target object. Physical properties such as the distance to the target object and/or the moving speed and direction of the target object, temperature, ambient air material analysis and concentration measurement may be detected. The lidar sensor 300 may be used as a core technology for visual implementation in a 3D space, for example. The lidar sensor 300 may extract relatively high-resolution data compared to sensors based on ultrasonic or radar technology. The radar sensor 300 is mounted in a technical field in which safety is important, such as autonomous driving, or in some electronic devices (eg, the electronic device 101 of FIG. 1) such as a smartphone to implement augmented reality (AR). It can be used as a key technology in the technology field. The radar sensor 300 may be mounted as a lidar scanner together with a camera in the electronic device 101 such as a smart phone. According to one embodiment, the lidar sensor 300 includes a lens assembly 310, a transmitting circuit 320, a receiving circuit 330, a memory 340 (eg, a buffer memory), or a data processing processor 350. can include

렌즈 어셈블리(310)는 이미지 촬영의 대상인 피사체로 소정의 수직 시야각 및 수평 시야각으로 레이저를 방출하고, 상기 피사체로부터 반사되어 돌아오는 레이저를 수집할 수 있다. 렌즈 어셈블리(310)는 빔 조작과 같은 다양한 레이저 응용에서 레이저 빔의 초점을 맞추기 위해 사용되거나, 레이저 빔의 형태를 바꾸기 위해 사용되거나, 구면 수차 또는 다른 광학 오차를 보정하기 위해 사용될 수 있다. 렌즈 어셈블리(310)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일 실시예에 따르면, 라이다 센서(300)는 복수의 렌즈 어셈블리(310)들을 포함할 수 있다. 복수의 렌즈 어셈블리(310)들 중 일부는 동일한 속성(예: 수직 시야각 및 수평 시야각에 의한 방사 각도 또는 세기)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 속성과 다른 하나 이상의 속성을 가질 수 있다. 렌즈 어셈블리(310)는, 예를 들면, 라이다 센서(300)는, 예를 들면, PCX (plano-convex) 렌즈, 원통형 (cylindrical) 렌즈, 비구면 (aspheric) 렌즈 또는 막대(rod) 렌즈를 포함할 수 있다. The lens assembly 310 may emit laser beams to a subject, which is an image capturing target, at predetermined vertical and horizontal viewing angles, and may collect the reflected laser beams from the subject. The lens assembly 310 may be used to focus a laser beam, change the shape of a laser beam, or correct for spherical aberration or other optical errors in a variety of laser applications, such as beam manipulation. Lens assembly 310 may include one or more lenses. According to one embodiment, the lidar sensor 300 may include a plurality of lens assemblies 310 . Some of the plurality of lens assemblies 310 may have the same properties (eg, radiant angle or intensity due to a vertical field of view and a horizontal field of view), or at least one of the lens assemblies may have one or more properties that are different from the properties of the other lens assemblies. can have The lens assembly 310, for example, the lidar sensor 300 includes, for example, a plano-convex (PCX) lens, a cylindrical lens, an aspheric lens, or a rod lens. can do.

송신회로(320)는 렌즈 어셈블리(310)를 통해 대상 물체인 파세체를 향하여 소정의 수직 시야각 및 수평 시야각에 의해 방출할 레이저를 발생할 수 있다. 일 실시예에 따르면, 송신회로(320)는 초당 수천번의 레이저를 발사할 수 있다. 송신회로(320)에 의해 발사된 레이저는 단색성, 직진성, 가간섭성, 고출력 또는 편광성과 같은 특징을 가지며, 퍼지지 않고 멀리 전달될 수 있다. 송신회로(320)는, 예를 들어, 레이저의 기본이 되는 물질인 이득 매질, 한 쌍의 거울을 사용하는 공진기 또는 상기 이득 매질을 바닥 상태에서 들뜬 상태로 만들어주는 펌핑 장치를 포함할 수 있다. 펌핑 장치에는, 예를 들어, 광 펌핑한 고체 레이저(diode pumped solid state laser, DPSS)가 많이 사용되고 있다. 송신회로(320)에 적용되는 레이저는, 예를 들어, 이득 매질의 형태에 따라, 고체 레이저, 가스 레이저, 반도체 레이저, 색소 레이저, 펄스 레이저, 광섬유 레이저 또는 화학 레이저로 구분할 수 있다. The transmission circuit 320 may generate lasers to be emitted through the lens assembly 310 toward the facet body, which is a target object, at predetermined vertical and horizontal viewing angles. According to one embodiment, the transmitting circuit 320 may fire thousands of lasers per second. The laser emitted by the transmission circuit 320 has characteristics such as monochromaticity, linearity, coherence, high power, or polarization, and can be transmitted far without spreading. The transmitter circuit 320 may include, for example, a gain medium that is a basic material of a laser, a resonator using a pair of mirrors, or a pumping device that converts the gain medium from a ground state to an excited state. As the pumping device, for example, a diode pumped solid state laser (DPSS) is widely used. The laser applied to the transmission circuit 320 may be classified into, for example, a solid laser, a gas laser, a semiconductor laser, a dye laser, a pulse laser, a fiber laser, or a chemical laser according to the shape of a gain medium.

수신회로(330)는 피사체로부터 반사되어 렌즈 어셈블리(310)를 통해 전달된 레이저를 검출하고, 상기 검출한 레이저를 전기적인 신호로 변환하여 출력할 수 있다. 일 실시예에 따르면, 수신회로(330)는 렌즈 어셈블리(310)를 통해 출력되는 레이저를 다중 배열 수신 소자를 이용하여 검출할 수 있다. 일 예로, 다중 배열 수신 소자는 APD (avalanche photodiode) 다중 배열 수신 소자일 수 있다. 수신회로(330)는 광-전 변환된 아날로그 신호를 증폭하는 ROIC (readout integrated circuit)로 구성될 수 있다. The receiving circuit 330 may detect the laser reflected from the subject and transmitted through the lens assembly 310, convert the detected laser into an electrical signal, and output the converted signal. According to one embodiment, the receiving circuit 330 may detect the laser output through the lens assembly 310 using a multi-array receiving element. For example, the multi-array receiving element may be an avalanche photodiode (APD) multi-array receiving element. The receiving circuit 330 may include a readout integrated circuit (ROIC) that amplifies the optical-electrically converted analog signal.

라이다 스태빌라이저(340)는 라이다 센서(300) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(310)에 포함된 적어도 하나의 렌즈, 송신회로(320) 또는 수신회로(330)를 특정한 방향으로 움직이거나 송신회로(320) 또는 수신회로(330)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 피사체의 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일 실시예에 따르면, 라이다 스태빌라이저(340)는 라이다 센서(300)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 라이다 센서(300) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 일 실시예에 따르면, 라이다 스태빌라이저(340)는, 예를 들면, 광학식 스태빌라이저로 구현될 수 있다. The lidar stabilizer 340 reacts to the movement of the lidar sensor 300 or the electronic device 101 including the same, and includes at least one lens included in the lens assembly 310, a transmitting circuit 320, or a receiving circuit ( 330) may be moved in a specific direction or operating characteristics of the transmitting circuit 320 or the receiving circuit 330 may be controlled (eg, read-out timing is adjusted, etc.). This makes it possible to compensate for at least a part of the negative influence caused by the movement of the subject being photographed. According to one embodiment, the lidar stabilizer 340 uses a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the lidar sensor 300 to activate the lidar sensor 300 or electronic Such movement of the device 101 may be detected. According to one embodiment, the lidar stabilizer 340 may be implemented as, for example, an optical stabilizer.

메모리(350)는 수신회로(330)를 통하여 획득된 깊이 정보와 같은 피사체 정보의 적어도 일부를 다음 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 메모리(350)는 카메라 모듈(180)에 의해 촬영된 이미지에서 미리 설정된 측정점들에 대한 평면 좌표 정보 (예: x값 및/또는 y값) 및 상기 측정점들의 좌표 정보에 대응하여 감지된 깊이 정보를 저장할 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령), 메모리(350)에 저장되었던 측정점 별 깊이 정보 중 일부 또는 전부가 데이터 처리 프로세서(360)에 의해 획득되어 처리될 수 있다. 일 실시예에 따르면, 메모리(350)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The memory 350 may at least temporarily store at least a portion of subject information such as depth information acquired through the receiving circuit 330 for a next processing task. For example, the memory 350 detects plane coordinate information (eg, x value and/or y value) of preset measurement points in an image captured by the camera module 180 and corresponding to the coordinate information of the measurement points. stored depth information. Thereafter, when a specified condition is satisfied (eg, a user input or a system command), some or all of the depth information for each measurement point stored in the memory 350 may be obtained and processed by the data processing processor 360 . According to one embodiment, the memory 350 may be configured as at least a part of the memory 130 or as a separate memory operated independently of the memory 130 .

데이터 처리 프로세서(360)는 수신회로(330)로부터 출력되는 전기적인 신호를 기반으로 피사체에 마련된 각 측정점에서의 깊이 정보를 획득할 수 있다. 일 실시예에 따르면, 데이터 처리 프로세서(360)는 송신회로(320)를 통해 레이저를 발사한 시점에서 측정 범위 내에 있는 피사체의 측정점들에서 반사된 레이저가 수신회로(330)를 통해 수신된 시점까지의 시간 차를 기반으로 각 측정점과의 거리를 추정할 수 있다. 데이터 처리 프로세서(360)는 각 측정점에 대하여 추정한 거리를 기반으로 해당 측정점에 대한 깊이 정보를 획득할 수 있다. 데이터 처리 프로세서(360)는 각 측정점에 대하여 획득한 깊이 정보를 메모리(350)에 기록할 수 있다. 일 실시예에 따르면, 데이터 처리 프로세서(360)는 전자 장치(101)에 포함된 프로세서(예: 도 1의 프로세서(120))의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 일 예로, 데이터 처리 프로세서(360)가 라이다 센서(300)에 포함된 경우, 데이터 처리 프로세서(360)는 측정점에 관한 정보 및/또는 측정점의 깊이 정보를 프로세서(120)로 제공될 수 있다. 다른 예로, 데이터 처리 프로세서(360)가 프로세서(120)의 적어도 일부로 구성된 경우, 수신회로(330)로부터 출력되는 전기적인 신호는 프로세서(120)로 제공될 수 있다. 이 경우, 프로세서(120)는 라이다 센서(300)로부터 제공된 전기적인 신호를 기반으로 피사체에 마련된 각 측정점에서의 깊이 정보를 획득할 수 있다.The data processing processor 360 may obtain depth information at each measurement point provided on the subject based on the electrical signal output from the receiving circuit 330 . According to one embodiment, the data processing processor 360 is configured from the time when the laser is emitted through the transmission circuit 320 to the time when the laser reflected from the measurement points of the subject within the measurement range is received through the reception circuit 330. Based on the time difference of , the distance to each measurement point can be estimated. The data processing processor 360 may obtain depth information on a corresponding measurement point based on the distance estimated for each measurement point. The data processing processor 360 may record depth information obtained for each measurement point in the memory 350 . According to one embodiment, the data processing processor 360 is configured as at least a part of a processor included in the electronic device 101 (eg, the processor 120 of FIG. 1 ) or a separate processor 120 and independently operated. It may consist of a processor. For example, when the data processing processor 360 is included in the lidar sensor 300, the data processing processor 360 may provide information about measurement points and/or depth information of the measurement points to the processor 120. As another example, when the data processing processor 360 is configured as at least a part of the processor 120, an electrical signal output from the receiving circuit 330 may be provided to the processor 120. In this case, the processor 120 may obtain depth information at each measurement point provided on the subject based on the electrical signal provided from the lidar sensor 300 .

도 4는, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))에 마련된 신체 치수 측정 장치(400)의 블록 구성을 도시한 도면이다.FIG. 4 is a block diagram of a body size measuring device 400 provided in an electronic device (eg, the electronic device 101 of FIG. 1 ) according to an embodiment of the present disclosure.

도 4를 참조하면, 일 실시예에 따라 전자장치(101)에 마련된 신체 치수 측정 장치(400)는 프로세서(410)(예: 도 1의 프로세서(120)), 카메라 모듈(420)(예: 도 1 또는 도 2의 카메라 모듈(180)), 라이다 센서(430)(예: 도 1의 센서 모듈(176)에 포함된 라이다 센서 또는 도 3의 라이다 센서(300)), 디스플레이(440)(예: 도 1의 표시 장치(160)) 또는 메모리(450)(예: 메모리(130))를 포함할 수 있다.Referring to FIG. 4 , the body size measuring device 400 provided in the electronic device 101 according to an embodiment includes a processor 410 (eg, the processor 120 of FIG. 1 ), a camera module 420 (eg, the processor 120 of FIG. 1 ). The camera module 180 of FIG. 1 or 2), the lidar sensor 430 (eg, the lidar sensor included in the sensor module 176 of FIG. 1 or the lidar sensor 300 of FIG. 3), the display ( 440) (eg, the display device 160 of FIG. 1) or a memory 450 (eg, the memory 130).

신체 치수 측정 장치(400)는 피사체의 이미지 및 미리 설정된 측정점들을 기반으로 상기 이미지에서의 깊이 정보를 수집하고, 상기 수집한 이미지 및 미리 설정된 측정점들의 깊이 정보를 기반으로 상기 피사체의 신체 치수를 획득할 수 있다. 상기 피사체의 이미지는, 예를 들어, 2차원 칼라 이미지일 수 있다. 상기 미리 설정된 측정점들은, 예를 들어, 카메라 모듈(420)의 화각, 즉 촬영되거나, 또는 촬영될 하나의 이미지에 포함된 피사체 또는 상기 피사체의 주변 물체의 깊이 정보를 얻기 위해, 라이다 센서(430)에 의해 레이저가 발사될 위치들일 수 있다. 상기 미리 설정된 측정점들은 하나의 이미지에 균일하게 분포되거나, 또는 피사체의 위치를 고려하여 상기 피사체에 상대적으로 많은 측정점들이 분포될 수 있다. 상기 측정점들의 개수는 라이다 센서(430)의 성능에 따라 상이할 수 있다. 일 예로, 라이다 센서(430)에서 센싱 값을 수신할 수 있는 측정점의 개수는 대략 600개 정도일 수 있다. 이후 딥러닝 모델을 통해 256*192로 업스케일링(upscaling)하여 사용할 수 있다. The body size measuring device 400 collects depth information in the image based on the image of the subject and preset measurement points, and obtains the body size of the subject based on the collected image and depth information on the preset measurement points. can The image of the subject may be, for example, a 2D color image. The preset measurement points are, for example, in order to obtain the angle of view of the camera module 420, that is, depth information of a subject included in an image to be photographed or to be photographed or an object surrounding the subject, the lidar sensor 430 ) may be positions where the laser is to be fired. The preset measurement points may be uniformly distributed in one image, or a relatively large number of measurement points may be distributed in the subject in consideration of the location of the subject. The number of measurement points may vary depending on the performance of the lidar sensor 430 . For example, the number of measurement points capable of receiving a sensing value from the lidar sensor 430 may be approximately 600. After that, it can be used by upscaling to 256 * 192 through a deep learning model.

일 실시예에 따르면, 신체 치수 측정 장치(400)는 촬영된 이미지에 포함된 피사체에 대하여 기준점들을 식별하고, 센싱 값이 수집된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득할 수 있다. 상기 기준점들은, 예를 들어, 신체 피수를 측정할 대상 신체 부분에서, 각 대상 신체 부분의 치수 측정을 위해 기준이 될 수 있는 중요 위치일 수 있다. 예컨대, 목, 어깨, 가슴, 허리, 골반, 엉덩이 또는 허벅지와 같은 대상 신체 부분에서 정면, 측면 또는 후면의 양쪽 끝점은 해당 신체 부분에 대응한 기준점들로 식별될 수 있으나, 이에 한정되지 않고, 해당 신체 부분 또는 부위 별로 두 개보다 그 보다 많은 기준점들이 추정될 수 있다. 또한, 기준점은 신체 부위 별로 상이한 개수를 가질 수 있다. 상기 측정선은 신체 치수를 측정할 신체 부분을 대상으로 마련될 수 있다. 상기 기준 측정점들은 센싱 값을 수집하기 위해 고려된 측정점들 중 피사체에서 식별된 기준점들의 위치에 매칭되는 측정점일 수 있다. 상기 측정선은, 예를 들어, 줄자와 같은 도구를 이용하여 수동으로 치수를 젤 시에 사용되는 측정선을 참조할 수 있다. 상기 측정선은 상기 기준 측정점들을 연결하도록 마련될 수 있다. 상기 보조 측정점들은 센싱 값을 수집하기 위해 고려된 측정점들 중 측정선 상에 위치하는 측정점들에서 기준 측정점들을 제외한 나머지 측정점일 수 있다. 일 실시예에 따르면, 신체 치수 측정 장치(400)는 기준 측정점들과 보조 측정점들의 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 피사체의 신체 치수를 획득할 수 있다.According to an embodiment, the body size measurement apparatus 400 identifies reference points of a subject included in a photographed image, and among measurement points from which sensing values are collected, reference measurement points corresponding to the identified reference points and the identification Coordinate values and depth information of auxiliary measurement points located on measurement lines prepared by the reference points may be obtained. The reference points may be, for example, important positions that can be references for measuring the size of each target body part in the target body part for which the body number is to be measured. For example, both endpoints of the front, side, or back of the target body part, such as the neck, shoulder, chest, waist, pelvis, hip, or thigh, may be identified as reference points corresponding to the corresponding body part, but are not limited thereto. More than two reference points may be estimated per body part or area. Also, reference points may have different numbers for each body part. The measurement line may be provided for a body part for which a body size is to be measured. The reference measurement points may be measurement points that match locations of reference points identified in the subject among measurement points considered for collecting sensing values. The measurement line may refer to a measurement line used when manually measuring a measurement using a tool such as a tape measure, for example. The measurement line may be provided to connect the reference measurement points. The auxiliary measurement points may be measurement points located on a measurement line among measurement points considered for collecting a sensing value, excluding reference measurement points. According to an embodiment, the body size measurement apparatus 400 may obtain the body size of the subject corresponding to each measurement line by using coordinate values and depth information of the reference measurement points and auxiliary measurement points.

보다 구체적으로, 카메라 모듈(420)은 프로세서(410)의 제어에 응답하여 소정 화각에서의 정지 영상 또는 동영상과 같은 이미지를 촬영할 수 있다. 카메라 모듈(420)은 촬영에 의해 수광이 이루어진 빛을 전기적 신호로 변환하고, 상기 변환한 전기적 신호를 출력할 수 있다. 카메라 모듈(180)은 실질적인 촬영이 이루어지기 이전에 촬영될 이미지의 프리뷰를 제공하기 위한 전기적 신호를 출력할 수 있다. 카메라 모듈(420)은 촬영에 의해 만들어진 전기적 신호 또는 프리뷰를 위해 만들어진 전기적 신호를 출력하기 이전에 상기 촬영 이미지 및/또는 프리뷰 이미지에 대하여 하나 또는 복수의 이미지 처리들을 수행할 수 있다. 일 실시예에 따르면, 카메라 모듈(420)에 의해 촬영되는 이미지는 피사체의 정면, 좌측면, 우측면 또는 후면 중 적어도 하나에 해당하는 이미지이다. 일 예로, 카메라 모듈(420)은, 신체 치수를 측정하기 위해, 피사체의 정면, 측면 및 후면을 촬영하여, 정면 이미지, 측면 이미지 및 후면 이미지에 해당하는 전기적 신호를 출력할 수 있다. 이 경우, 피사체의 정면, 측면 및 후면을 촬영할 때, 카메라 모듈(420)에서의 촬영 각도 및/또는 카메라 모듈(420)과 피사체 간의 거리를 가능한 일정하게 유지하는 것이 바람직할 수 있다. More specifically, the camera module 420 may capture an image such as a still image or a moving image at a predetermined angle of view in response to control of the processor 410 . The camera module 420 may convert light received by photographing into an electrical signal and output the converted electrical signal. The camera module 180 may output an electrical signal for providing a preview of an image to be photographed before actual photographing is performed. The camera module 420 may perform one or more image processes on the captured image and/or the preview image before outputting an electrical signal generated by capturing or previewing. According to an embodiment, the image captured by the camera module 420 is an image corresponding to at least one of the front, left side, right side, or back side of the subject. For example, the camera module 420 may capture the front, side, and back of the subject to measure the body size, and output electrical signals corresponding to the front, side, and back images. In this case, when photographing the front, side, and rear of a subject, it may be desirable to maintain a photographing angle in the camera module 420 and/or a distance between the camera module 420 and the subject as constant as possible.

라이다 센서(430)는 소정의 수직 시야각 및 수평 시야각에 의해 미리 설정된 측정점들을 고려하여 대상 물체인 파사체를 향하여 복수의 레이저 빔들을 포함하는 레이저를 방출할 수 있다. 라이다 센서(430)는 피사체로부터 측정점들에서 반사되어 돌아오는 레이저를 검출할 수 있다. 라이다 센서(430)는 상기 검출한 레이저를 전기적인 신호로 변환하여 출력할 수 있다. 일 실시예에 따르면, 라이다 센서(430)에 의해 출력되는 전기적인 신호는 각 측정점에서 레이저를 송신한 시점과 수신한 시점 사이의 시간 차에 관한 정보 또는 깊이 정보에 관한 것일 수 있다.The lidar sensor 430 may emit a laser including a plurality of laser beams toward a projectile, which is a target object, in consideration of measurement points preset by predetermined vertical viewing angles and horizontal viewing angles. The lidar sensor 430 may detect laser reflected from a subject at measurement points and returned. The lidar sensor 430 may convert the detected laser into an electrical signal and output it. According to an embodiment, the electrical signal output by the lidar sensor 430 may be information about a time difference between a time point at which the laser is transmitted and a time when the laser is received at each measurement point, or depth information.

프로세서(410)는 카메라 모듈(420)로부터 피사체의 이미지를 제공받고, 라이다 센서(430)로부터 측정점들의 깊이 정보를 제공받을 수 있다. 상기 측정점들은, 예를 들어, 라이다 센서(430)의 성능, 카메라 모듈(420)의 화각, 피사체의 크기 또는 피사체의 위치와 같은 항목을 고려하여 미리 설정될 수 있다. 프로세서(410)는 카메라 모듈(420)로부터 제공된 이미지와 라이다 센서(430)로부터 제공된 측정점들의 깊이 정보를 기반으로 피사체에 대한 신체 치수를 획득할 수 있다. The processor 410 may receive an image of a subject from the camera module 420 and receive depth information of measurement points from the lidar sensor 430 . The measurement points may be preset in consideration of items such as, for example, the performance of the lidar sensor 430, the angle of view of the camera module 420, the size of the subject, or the position of the subject. The processor 410 may obtain the body size of the subject based on the image provided from the camera module 420 and the depth information of measurement points provided from the lidar sensor 430 .

일 실시예에 따르면, 프로세서(410)는 카메라 모듈(420)을 통해 피사체를 포함하는 이미지를 수집할 수 있고, 라이다 센서(430)를 통해 미리 설정된 측정점들을 기반으로 상기 이미지에서의 깊이 정보를 수집할 수 있다. 상기 프로세서(410)는, 예를 들어, 피사체가 신체 치수 측정이 용이한 포즈를 취하고 있는 상황에서 이미지 및 깊이 정보를 수집할 수 있도록 하기 위하여, 상기 피사체의 포즈를 식별하고, 이를 고려하여 상기 피사체의 촬영을 수행할 수 있다. 상기 프로세서(410)는 포즈 추정 기술을 기반으로 피사체의 포즈를 식별하고, 상기 식별한 포즈와 신체 치수 측정이 용이한 미리 설정된 포즈를 비교하며, 상기 식별한 포즈가 상기 미리 설정된 포즈이면, 카메라 모듈(420)을 통해 이미지를 수집하기 위하여 상기 피사체에 대한 촬영을 수행할 수 있다.According to an embodiment, the processor 410 may collect an image including a subject through the camera module 420, and obtain depth information from the image based on preset measurement points through the lidar sensor 430. can be collected The processor 410 identifies the pose of the subject and considers the pose of the subject in order to collect image and depth information, for example, in a situation where the subject is in a pose that is easy to measure the body size. of can be taken. The processor 410 identifies a pose of a subject based on pose estimation technology, compares the identified pose with a preset pose that is easy to measure body size, and if the identified pose is the preset pose, the camera module In order to collect images through 420, it is possible to perform photographing of the subject.

일 실시예에 따르면, 프로세서(410)는 카메라 모듈(420)를 통해 피사체에 대한 프리뷰 이미지를 획득할 수 있고, 상기 획득한 프리뷰 이미지를 디스플레이(440)를 통해 출력할 수 있다. 상기 프로세서(410)는 프리뷰 이미지 또는 실제로 촬영된 이미지로부터 원하는 피사체의 윤곽선을 검출할 수 있고, 상기 검출한 윤곽선에 의한 윤곽선 이미지 내에서 피사체의 형태를 인지하기 용이한 주요점들을 식별하거나, 또는 마련할 수 있다. 상기 프로세서(410)는 상기 주요첨들을 연결하여 신체 골격선을 구성할 수 있고, 상기 구성된 신체 골격선을 이용하여 상기 피사체의 포즈를 식별할 수 있다. 상기 프로세서(410)는 신체 치수 측정이 용이한 포즈를 안내하는 이미지를 디스플레이(440)를 통해 표시할 수 있다. 이는, 사용자에게 피사체가 해당 포즈를 취할 수 있도록 도움을 줄 수 있거나, 사용자가 피사체가 해당 포즈를 취하고 있는지를 인지하는데 도움을 줄 수 있을 것이다.According to an embodiment, the processor 410 may obtain a preview image of a subject through the camera module 420 and output the acquired preview image through the display 440 . The processor 410 may detect an outline of a desired subject from a preview image or an image actually captured, and may identify or prepare key points that are easy to recognize the shape of a subject in the outline image based on the detected outline. can do. The processor 410 may configure a body skeleton line by connecting the main points, and identify a pose of the subject using the body skeleton line. The processor 410 may display on the display 440 an image guiding a pose in which body size measurement is easy. This may help the user to make the subject take the corresponding pose, or help the user to recognize whether the subject is taking the corresponding pose.

일 실시예에 따르면, 프로세서(410)는 수집한 이미지에 포함된 피사체에서 신체의 주요 위치에 해당하는 기준점들을 식별할 수 있다. 상기 기준 측정점들은, 예를 들어, 미리 설정된 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점일 수 있다. According to an embodiment, the processor 410 may identify reference points corresponding to main body positions in subjects included in the collected images. The reference measurement points may be, for example, one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among preset measurement points.

일 실시예에 따르면, 프로세서(410)는 깊이 정보를 수집하기 위해 고려된 측정점들 중 기준점들에 대응한 기준 측정점들과 상기 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득할 수 있다. 상기 프로세서(410)는, 예를 들어, 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 이미지 내의 피사체에서 식별한 기준점들에 매핑되는 측정점들을 기준 측정점들로 설정할 수 있다. 상기 프로세서(410)는 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 측정선 상에 위치하는 측정점들에서 기준 측정점들을 제외한 나머지 측정점들을 보조 측정점들로 설정할 수 있다. 상기 측정선은 신체 치수를 측정할 신체 부분을 대상으로 마련될 수 있다. 상기 측정선은, 예를 들어, 줄자와 같은 도구를 이용하여 수동으로 치수를 젤 시에 사용되는 측정선을 참조할 수 있다. 상기 측정선은 상기 기준 측정점들을 최단 거리로 연결하여 마련될 수 있다. 상기 측정선은, 예를 들어, 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 하나 또는 복수의 선을 포함할 수 있다. 결론적으로, 측정선은 적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 최단 거리로 연결하는 선일 수 있다.According to an embodiment, the processor 410 includes coordinate values and depth information of reference measurement points corresponding to reference points among measurement points considered for collecting depth information and auxiliary measurement points located on measurement lines prepared by the reference points. can be obtained. The processor 410 may set, for example, measurement points mapped to reference points identified from a subject in an image among measurement points set to measure depth information through the lidar sensor 430 as reference measurement points. The processor 410 may set the rest of the measurement points, excluding the reference measurement points, as auxiliary measurement points among the measurement points located on the measurement line among the measurement points set to measure the depth information through the lidar sensor 430. The measurement line may be provided for a body part for which a body size is to be measured. The measurement line may refer to a measurement line used when manually measuring a measurement using a tool such as a tape measure, for example. The measurement line may be provided by connecting the reference measurement points with the shortest distance. The measurement line may be, for example, a chest circumference line, a waist circumference line, a pelvis circumference line, and a hip circumference line via one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among reference measurement points. , at least one of a right thigh circumference line and a left thigh circumference line, or a plurality of lines. Consequently, the measurement line may be a line connecting at least two reference measurement points and auxiliary measurement points disposed between the at least two reference measurement points with the shortest distance.

일 실시예에 따르면, 프로세서(410)는 기준 측정점들의 좌표 값과 깊이 정보를 획득하고, 보조 측정점들의 좌표 값과 깊이 정보를 획득할 수 있다. 상기 프로세서(410)는 기준 측정점들에서 획득한 좌표 값과 깊이 정보 및 보조 측정점들에서 획득한 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 피사체의 신체 치수를 획득할 수 있다. 상기 프로세서(410)는 측정선들에 대응하여 획득한 신체 치수들 중 하나 또는 복수의 신체 치수들을 디스플레이(440)를 통해 출력할 수 있다.According to an embodiment, the processor 410 may obtain coordinate values and depth information of reference measurement points, and may obtain coordinate values and depth information of auxiliary measurement points. The processor 410 may obtain the body size of the subject corresponding to each measurement line by using the coordinate values and depth information obtained from the reference measurement points and the coordinate values and depth information obtained from the auxiliary measurement points. The processor 410 may output, through the display 440, one or a plurality of body measurements among body measurements obtained in correspondence with the measurement lines.

디스플레이(440)는 프로세서(410)의 제어를 받아 피사체의 프리뷰 이미지, 실제 촬영된 피사체의 이미지, 측정된 신체 치수에 관한 정보와 같이 신체 치수 측정과 관련된 이미지 또는 정보를 표시할 수 있다. 상기 디스플레이(440)는 사용자가 정보를 입력할 수 있도록 터치 방식의 키 패턴을 더 표시할 수 있다.Under the control of the processor 410, the display 440 may display images or information related to body size measurement, such as a preview image of a subject, an image of a subject actually photographed, and information on measured body size. The display 440 may further display a touch-type key pattern so that the user can input information.

메모리(450)는 프로세서(410)의 제어를 받아 다양한 정보를 저장하거나, 독출할 수 있다. 일 실시예에 따르면, 메모리(450)는 프로세서(410)의 제어에 의해 신체 치수를 측정하기 위하여 촬영된 이미지, 신체 치수를 측정하기 위해 요구되는 정보, 측정된 신체 치수에 관한 정보를 저장할 수 있다. 상기 메모리(450)는 상기 프로세서(410)의 요청에 응답하여 기록된 정보를 출력할 수 있다.The memory 450 may store or read various information under the control of the processor 410 . According to an embodiment, the memory 450 may store an image taken to measure a body size under the control of the processor 410, information required for measuring a body size, and information about the measured body size. . The memory 450 may output recorded information in response to a request of the processor 410 .

도 5는, 본 개시의 일 실시예에 따른 신체 치수 측정 장치(예: 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 수행하는 프로세서(예: 도 4의 프로세서(410))의 기능 블록을 도시한 도면이다.FIG. 5 is a diagram of a processor (eg, processor 410 of FIG. 4 ) performing body size measurement in a body size measuring device (eg, body size measuring device 400 of FIG. 4 ) according to an embodiment of the present disclosure. It is a diagram showing functional blocks.

도 5를 참조하면, 일 실시예에 따라 신체 치수 측정을 수행하는 프로세서(410)는 카메라 모듈(예: 도 4의 카메라 모듈(420))로부터 제공된 입력 이미지(551), 라이다 센서(예: 도 4의 라이다 센서(430))로부터 제공된 깊이 정보(552) 또는 입력 장치(예: 도 1의 입력 장치(150)) 또는 메모리(예: 도 1의 메모리(130))로부터 제공되는 제어 정보(553)을 기반으로 상기 입력 이미지(551)에 포함된 피사체의 신체 치수를 측정할 수 있으며, 상기 측정한 신체 치수를 디스플레이(예: 도 4의 디스플레이(440)를 통해 출력할 수 있다. 일 실시예에 따르면, 프로세서(410)는 카메라 모듈(420)로부터 제공된 입력 이미지(551)에 포함된 피사체에서 기준점들을 식별하고, 라이다 센서(430)에서 깊이 정보를 획득하는 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하도록 구성될 수 있다. 일 실시예에 따르면, 신체 치수 측정을 수행하는 프로세서(410)는 이미지 처리 모듈(510), 깊이 정보 분석 모듈(530), 신체 치수 측정 모듈(520) 또는 화면 구성 모듈(540)을 포함할 수 있다.Referring to FIG. 5 , the processor 410 for measuring the body size according to an embodiment includes an input image 551 provided from a camera module (eg, the camera module 420 of FIG. 4 ), a lidar sensor (eg, Depth information 552 provided from the lidar sensor 430 of FIG. 4 or control information provided from an input device (eg, the input device 150 of FIG. 1 ) or a memory (eg, the memory 130 of FIG. 1 ) Based on 553, the body size of the subject included in the input image 551 can be measured, and the measured body size can be output through a display (eg, the display 440 of FIG. 4). According to the embodiment, the processor 410 identifies reference points of a subject included in the input image 551 provided from the camera module 420, and selects the reference points among preset measurement points for obtaining depth information from the lidar sensor 430. Using coordinate values and depth information of reference measurement points corresponding to the identified reference points and auxiliary measurement points located on the measurement lines prepared by the identified reference points, the body size of the subject corresponding to each measurement line is obtained. According to an embodiment, the processor 410 performing the body measurement may include an image processing module 510, a depth information analysis module 530, a body measurement module 520, or a screen configuration module 540. can include

일 실시예에 따르면, 이미지 처리 모듈(510)은 카메라 모듈((420)로부터 제공된 입력 이미지(551)(예: 프리뷰 이미지)를 화면 구성 모듈(540)를 통해 디스플레이(440)를 통해 출력 가능하도록 신호 처리를 수행할 수 있다. 상기 프리뷰 이미지는 실제 촬영에 의해 얻어진 이미지가 아닌 촬영에 의해 얻을 수 있는 이미지를 선행하여 보이기 위한 이미지일 수 있다. 상기 프리뷰 이미지는, 예를 들어, 섬네일 형식으로 만들어질 수 있다. 상기 이미지 처리 모듈(510)은 프리뷰 이미지에 포함된 피사체에서 주요점들을 결정할 수 있다. 상기 주요점들은 피사체의 형상을 식별하기 용이한 피사체 내에서의 위치가 될 수 있다. 상기 주요점들은, 예를 들어, 신체의 관절이 존재하는 위치들일 수 있다. 즉, 상기 주요점들은 양쪽 손목 부근, 양쪽 팔꿈치 부근, 양쪽 골반 부근, 양쪽 무릎 부근, 양쪽 발목 부근, 양쪽 귀, 코 또는 양쪽 눈에 마련될 수 있다. According to an embodiment, the image processing module 510 outputs the input image 551 (eg, a preview image) provided from the camera module 420 through the display 440 through the screen configuration module 540. Signal processing may be performed. The preview image may be an image that is not an image obtained by actual shooting, but an image to show an image that can be obtained by shooting in advance. The preview image is, for example, created in a thumbnail format. The image processing module 510 may determine main points of the subject included in the preview image, and the main points may be positions within the subject that are easy to identify the shape of the subject. The points may be, for example, locations where joints in the body exist, i.e., the main points are near both wrists, near both elbows, near both pelvis, near both knees, near both ankles, both ears, nose or both sides. It can be provided in the eyes.

일 실시예에 따르면, 이미지 처리 모듈(510)은 주요점들 중 일부 또는 전부를 실선으로 연결하여 골격선을 만들고, 상기 골격선에 의해 피사체의 형태를 식별할 수 있다. 일 예로, 피사체가 사람인 경우, 상기 피사체의 형태는 사람이 취하고 있는 포즈가 될 수 있다. According to an embodiment, the image processing module 510 may create a skeleton line by connecting some or all of the main points with a solid line, and identify the shape of the subject by the skeleton line. For example, when the subject is a person, the shape of the subject may be a pose the person is taking.

일 실시예에 따르면, 이미지 처리 모듈(510)은 포즈 추정 기술을 기반으로 프리뷰 이미지에서 피사체를 찾고, 상기 피사체의 주요점들을 결정하며, 상기 결정된 주요점들을 연결하여 만들어진 골격선에 의해 피사체의 형태를 식별할 수 있다. 상기 이미지 처리 모듈(510)은 골격선에 의해 식별된 포즈가 신체 치수 측정을 위한 포즈와 일치하는지를 판단할 수 있다. 상기 신체 치수 측정을 위한 포즈는 미리 설정될 수 있다. 일 예로, 신체 치수 측정을 위해 미리 설정된 포즈는 양쪽 팔과 다리를 어느 정도 벌리고 서있는 포즈일 수 있다. According to an embodiment, the image processing module 510 searches for a subject in a preview image based on a pose estimation technique, determines main points of the subject, and uses a skeleton line created by connecting the determined main points to form the subject. can identify. The image processing module 510 may determine whether the pose identified by the skeletal line coincides with the pose for measuring the body size. A pose for measuring the body size may be set in advance. For example, a preset pose for measuring body size may be a pose in which both arms and legs are spread apart to some extent.

일 실시예에 따르면, 이미지 처리 모듈(510)은 카메라 모듈(420)을 통해 피사체를 촬영하여 실제로 촬영된 입력 이미지(551)를 획득하고, 상기 획득한 입력 이미지(551)에서 피사체의 윤곽선을 검출하고, 상기 검출한 윤곽선으로 이루어진 원본 윤곽선 이미지를 생성할 수 있다. 상기 윤곽선은 피사체의 에지 선일 수 있다. 상기 입력 이미지(551)로부터 원본 윤곽선 이미지를 생성하는 윤곽선 검출 기술은, 예를 들어, 세그먼테이션 기법이 사용될 수 있다. According to an embodiment, the image processing module 510 acquires an input image 551 actually photographed by photographing a subject through the camera module 420, and detects an outline of the subject in the acquired input image 551. And, an original contour image composed of the detected contour line can be generated. The contour line may be an edge line of the subject. A contour detection technique for generating an original contour image from the input image 551 may use, for example, a segmentation technique.

일 실시예에 따르면, 이미지 처리 모듈(510)은 피사체의 포즈를 식별하기 위해 이용된 주요점들 중 일부 또는 전부 및/또는 골격선을 원본 윤곽선 이미지에 매칭하여 보간 윤곽선 이미지를 생성할 수 있다. 상기 보간 윤곽선 이미지는 윤곽선 내에 일부 주요점들 및/또는 골격선이 표시된 이미지일 수 있다. 상기 주요점들 중 일부 또는 전부 및/또는 골격선은 원본 윤곽선 이미지에 매칭시키기 위하여, 크기 및/또는 위치가 조정될 수 있다. 이는, 포즈를 식별하기 위하여 이용된 피사체와 윤곽선 검출을 위해 이용된 피사체의 크기 및/또는 위치가 완전히 일치하지 않을 경우에 수행될 수 있다.According to an embodiment, the image processing module 510 may generate an interpolated contour image by matching some or all of main points and/or bone lines used to identify a pose of a subject to an original contour image. The interpolated contour image may be an image in which some main points and/or skeleton lines are displayed within the contour. Some or all of the main points and/or the bone line may be adjusted in size and/or position to match the original contour image. This may be performed when the size and/or position of the subject used to identify the pose and the subject used to detect the contour do not completely match.

일 실시예에 따르면, 이미지 처리 모듈(510)은 보간 윤곽선 이미지에서 피사체의 윤곽선에서 신체 측정을 위한 주요 신체 부위들(예: 목, 어깨, 가슴, 허리, 골반, 엉덩이, 허벅지)의 높이 및/또는 위치를 고려한 기준점들을 추정할 수 있다. 상기 기준점들은 신체 측정을 위한 주요 신체 부위들의 양쪽 끝점으로 추정하였으나, 이에 한정되지 않고, 주요 신체 부위 별로 두 개보다 많은 기준점들이 추정되거나, 주요 신체 부위 별로 상이한 개수의 기준점들이 추정될 수도 있다. 또한, 기준점들은 피사체의 정면 이미지, 측면 이미지 및/또는 후면 이미지 중 적어도 하나의 이미지로부터 추정될 수 있다.According to an embodiment, the image processing module 510 determines the height and/or height of major body parts (eg, neck, shoulder, chest, waist, pelvis, hip, thigh) for body measurement in the contour of the subject in the interpolated contour image. Alternatively, reference points considering location may be estimated. The reference points are estimated as both end points of main body parts for body measurement, but are not limited thereto, and more than two reference points may be estimated for each main body part, or a different number of reference points may be estimated for each main body part. Also, the reference points may be estimated from at least one of a front image, a side image, and/or a rear image of the subject.

일 실시예에 따르면, 깊이 정보 분석 모듈(530)은 라이다 센서(430)를 통해 미리 설정된 측정점들에서 피사체의 깊이 정보(552)를 획득하고, 상기 획득한 깊이 정보에 대한 분석을 수행할 수 있다. 상기 깊이 정보는, 예를 들어, 라이다 센서(430)가 미리 설정된 측정점들로 레이저를 발사하고, 상기 측정점들로부터 반사되어 돌아온 정보를 기반으로 획득할 수 있다. 상기 깊이 정보는 측정점 별로 획득되거나, 또는 피사체에 배치된 측정점들에 대해서만 획득될 수도 있다.According to an embodiment, the depth information analysis module 530 may acquire depth information 552 of a subject at preset measurement points through the lidar sensor 430 and analyze the obtained depth information. there is. The depth information may be acquired based on, for example, the lidar sensor 430 radiating a laser beam to preset measurement points and reflecting back information from the measurement points. The depth information may be obtained for each measurement point or only for measurement points disposed on a subject.

일 실시예에 따르면, 깊이 정보 분석 모듈(530)은 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 입력 이미지(551) 내의 피사체에서 식별한 기준점들에 매핑되는 측정점들을 기준 측정점들로 설정할 수 있다. 상기 깊이 정보 분석 모듈(530)은 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 측정선 상에 위치하는 측정점들에서 기준 측정점들을 제외한 나머지 측정점들을 보조 측정점들로 설정할 수 있다. 상기 측정선은 신체 치수를 측정할 신체 부분을 대상으로 마련될 수 있다. 상기 측정선은, 예를 들어, 줄자와 같은 도구를 이용하여 수동으로 치수를 젤 시에 사용되는 측정선을 참조할 수 있다. 상기 측정선은 상기 기준 측정점들을 최단 거리로 연결하여 마련될 수 있다. 상기 측정선은, 예를 들어, 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 하나 또는 복수의 선을 포함할 수 있다. 결론적으로, 측정선은 적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 최단 거리로 연결하는 선일 수 있다.According to an embodiment, the depth information analysis module 530 uses measurement points mapped to reference points identified from a subject in the input image 551 among measurement points set to measure depth information through the lidar sensor 430 as references. It can be set by measuring points. The depth information analysis module 530 may set remaining measurement points, excluding reference measurement points, as auxiliary measurement points from measurement points located on the measurement line among measurement points set to measure depth information through the lidar sensor 430. . The measurement line may be provided for a body part for which a body size is to be measured. The measurement line may refer to a measurement line used when manually measuring a measurement using a tool such as a tape measure, for example. The measurement line may be provided by connecting the reference measurement points with the shortest distance. The measurement line may be, for example, a chest circumference line, a waist circumference line, a pelvis circumference line, and a hip circumference line via one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among reference measurement points. , at least one of a right thigh circumference line and a left thigh circumference line, or a plurality of lines. Consequently, the measurement line may be a line connecting at least two reference measurement points and auxiliary measurement points disposed between the at least two reference measurement points with the shortest distance.

일 실시예에 따르면, 신체 치수 측정 모듈(520)은 이미지 처리 모듈(510)로부터 기준점들, 주요점들 및/또는 골격선에 관한 정보를 포함하는 보간 윤곽선 이미지를 제공받을 수 있고, 깊이 정보 분석 모듈(530)로부터 기준 측정점들과 보조 측정점들에 관한 정보 및/또는 깊이 정보를 제공받을 수 있다. 상기 신체 치수 측정 모듈(520)은 깊이 정보를 수집하기 위해 고려된 측정점들 중 기준점들에 대응한 기준 측정점들과 상기 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득할 수 있다. According to an embodiment, the body size measurement module 520 may receive an interpolated contour image including information about reference points, main points, and/or skeletal lines from the image processing module 510, and analyze depth information. Information and/or depth information about the reference measurement points and the auxiliary measurement points may be provided from the module 530 . The body size measurement module 520 obtains coordinate values and depth information of reference measurement points corresponding to reference points among measurement points considered for collecting depth information and auxiliary measurement points located on measurement lines prepared by the reference points. can do.

일 실시예에 따르면, 신체 치수 측정 모듈(520)은 측정선 별로 신체 치수를 획득할 수 있다. 상기 신체 치수 측정 모듈(520)은, 예를 들어, 측정선들 중 가슴 둘레를 측정할 수 있는 정면 측정선, 측면 측정선 또는 후면 측정선 중 적어도 하나를 구성하는 기준 측정점들과 보조 측정점들의 좌표 값과 깊이 값을 사용하여 상기 기준 측정점들과 상기 보조 측정점들 사이의 거리를 계산하고, 상기 계산된 거리의 합에 의해 가슴 둘레에 해당하는 치수 값을 획득할 수 있다. 그 외의 다른 주요 신체 부위 별 측정선들에 대해서도 동일한 방식에 의한 신체 치수를 획득할 수 있다. 상기 신체 치수 측정 모듈(520)은 피사체에 대응하여 주요 신체 부위 별로 획득한 신체 치수를 메모리(예: 도 4의 메모리(450))에 기록할 수 있다. 상기 메모리(450)에 기록된 신체 치수는 추가적인 신체 치수 측정 없이도 사용자가 의류 구입 등에 이용할 수 있다. According to an embodiment, the body size measuring module 520 may obtain body measurements for each measurement line. The body size measurement module 520 may determine, for example, coordinate values of reference measurement points and auxiliary measurement points constituting at least one of a front measurement line, a side measurement line, or a rear measurement line capable of measuring a chest circumference among measurement lines. A distance between the reference measurement points and the auxiliary measurement points may be calculated using the and depth values, and a dimension value corresponding to the chest circumference may be obtained by the sum of the calculated distances. For other measurement lines for each major body part, body measurements may be obtained by the same method. The body size measurement module 520 may record body measurements obtained for each major body part corresponding to the subject in a memory (eg, the memory 450 of FIG. 4 ). The body measurements recorded in the memory 450 may be used by the user to purchase clothes or the like without additional measurement of the body measurements.

일 실시예에 따르면, 신체 치수 측정 모듈(520)은 피사체의 머리 끝과 발뒤꿈치에서의 좌표 값과 깊이 값을 이미지 처리 모듈(510)과 깊이 정보 분석 모듈(530)로부터 획득할 수 있다. 상기 신체 치수 측정 모듈(520)은 머리 끝에서의 좌표 값과 깊이 값과 발뒤꿈치에서의 좌표 값과 깊이 값을 사용하여 상기 피사체의 신장을 획득할 수 있다.According to an embodiment, the body size measurement module 520 may obtain coordinate values and depth values of the head and heel of the subject from the image processing module 510 and the depth information analysis module 530 . The body size measuring module 520 may obtain the height of the subject by using coordinate values and depth values at the tip of the head and coordinate values and depth values at the heel.

일 실시예에 따르면, 화면 구성 모듈(540)은 측정선 별로 획득한 신체 치수를 사용하여 피사체의 신체 치수를 포함하는 출력 이미지(561)을 구성할 수 있고, 상기 구성한 출력 이미지(561)를 디스플레이(예: 도 4의 디스플레이(440))에서 표시될 수 있도록 출력할 수 있다. 상기 화면 구성 모듈(540)은 제어 정보(553)에 응답하여 출력 이미지(561)를 가공하여 출력할 수도 있다.According to an embodiment, the screen configuration module 540 may configure an output image 561 including body measurements of a subject using body measurements acquired for each measurement line, and display the configured output image 561. (eg, the display 440 of FIG. 4) can be output so that it can be displayed. The screen composition module 540 may process and output the output image 561 in response to the control information 553 .

도 6은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수를 측정하기 위한 제어 흐름을 도시한 도면이다.6 is a diagram illustrating a control flow for measuring a body size in an electronic device (eg, the electronic device 101 of FIG. 1 or the body size measuring device 400 of FIG. 4) according to an embodiment of the present disclosure. am.

도 6을 참조하면, 전자 장치(400)는, 동작 610에서, 카메라 모듈(예: 도 1의 카메라 모듈(180) 또는 도 4의 카메라 모듈(420))을 통해 피사체를 포함하는 이미지를 수집할 수 있고, 라이다 센서(예: 도 4의 라이다 센서(430))를 통해 미리 설정된 측정점들을 기반으로 상기 이미지에서의 깊이 정보를 수집할 수 있다. Referring to FIG. 6 , in operation 610, the electronic device 400 collects an image including a subject through a camera module (eg, the camera module 180 of FIG. 1 or the camera module 420 of FIG. 4). depth information in the image may be collected based on preset measurement points through a lidar sensor (eg, the lidar sensor 430 of FIG. 4 ).

상기 전자 장치(400)는 피사체가 신체 치수 측정이 용이한 포즈를 취하고 있는 상황에서 이미지 및 깊이 정보를 수집할 수 있도록 하기 위하여, 상기 피사체의 포즈를 식별하고, 이를 고려하여 상기 피사체의 촬영을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 포즈 추정 기술을 기반으로 피사체의 포즈를 식별하고, 상기 식별한 포즈와 신체 치수 측정이 용이한 미리 설정된 포즈를 비교하며, 상기 식별한 포즈가 상기 미리 설정된 포즈이면, 카메라 모듈(420)을 통해 이미지를 수집하기 위하여 상기 피사체에 대한 촬영을 수행할 수 있다. 상기 전자 장치(400)는, 예를 들어, 상기 카메라 모듈(420)를 통해 상기 피사체에 대한 프리뷰 이미지를 획득할 수 있고, 상기 획득한 프리뷰 이미지를 디스플레이(예: 도 1의 표시 장치(160) 또는 도 4의 디스플레이(440))를 통해 출력할 수 있다. 상기 전자 장치(400)는 프리뷰 이미지 또는 실제로 촬영된 이미지로부터 원하는 피사체의 윤곽선을 검출할 수 있고, 상기 검출한 윤곽선에 의한 윤곽선 이미지 내에서 피사체의 형태를 인지하기 용이한 주요점들을 식별하거나, 또는 마련할 수 있다. 상기 전자 장치(400)는 상기 주요첨들을 연결하여 신체 골격선을 구성할 수 있고, 상기 구성된 신체 골격선을 이용하여 상기 피사체의 포즈를 식별할 수 있다. 상기 전자 장치(400)는 신체 치수 측정이 용이한 포즈를 안내하는 이미지를 상기 디스플레이(440)를 통해 표시할 수 있다. 이는, 사용자에게 피사체가 해당 포즈를 취할 수 있도록 도움을 줄 수 있거나, 사용자가 피사체가 해당 포즈를 취하고 있는지를 인지하는데 도움을 줄 수 있을 것이다.The electronic device 400 identifies the pose of the subject in order to collect image and depth information in a situation where the subject is in a pose that is easy to measure the body size, and performs photographing of the subject in consideration of the pose of the subject. can do. According to an embodiment, the electronic device 400 identifies a pose of a subject based on a pose estimation technique, compares the identified pose with a preset pose that is easy to measure body size, and determines the identified pose as the preset pose. If it is a set pose, it is possible to perform photographing of the subject in order to collect images through the camera module 420 . The electronic device 400 may obtain a preview image of the subject through the camera module 420 and display the obtained preview image (eg, the display device 160 of FIG. 1 ). Alternatively, it may be output through the display 440 of FIG. 4 . The electronic device 400 may detect an outline of a desired subject from a preview image or an image actually captured, and identify key points that are easy to recognize the shape of the subject in the outline image based on the detected outline, or can be arranged The electronic device 400 may configure a body skeleton line by connecting the main points, and identify a pose of the subject using the body skeleton line. The electronic device 400 may display, through the display 440 , an image guiding a pose in which body size measurement is easy. This may help the user to make the subject take the corresponding pose, or help the user to recognize whether the subject is taking the corresponding pose.

상기 전자 장치(400)는, 동작 620에서, 상기 수집한 이미지에 포함된 피사체에서 신체의 주요 위치에 해당하는 기준점들을 식별할 수 있다. 상기 기준 측정점들은, 예를 들어, 미리 설정된 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점일 수 있다. In operation 620, the electronic device 400 may identify reference points corresponding to main body positions in the subject included in the collected image. The reference measurement points may be, for example, one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among preset measurement points.

상기 전자 장치(400)는, 동작 630에서, 깊이 정보를 수집하기 위해 고려된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 이미지 내의 피사체에서 식별한 기준점들에 매핑되는 측정점들을 기준 측정점들로 설정할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 측정선 상에 위치하는 측정점들에서 기준 측정점들을 제외한 나머지 측정점들을 보조 측정점들로 설정할 수 있다. 상기 측정선은 신체 치수를 측정할 신체 부분을 대상으로 마련될 수 있다. 상기 측정선은, 예를 들어, 줄자와 같은 도구를 이용하여 수동으로 치수를 젤 시에 사용되는 측정선을 참조할 수 있다. 상기 측정선은 상기 기준 측정점들을 최단 거리로 연결하여 마련될 수 있다. 상기 측정선은, 예를 들어, 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 하나 또는 복수의 선을 포함할 수 있다. 결론적으로, 측정선은 적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 최단 거리로 연결하는 선일 수 있다.In operation 630, the electronic device 400 includes reference measurement points corresponding to the identified reference points among measurement points considered for collecting depth information and auxiliary measurement points located on measurement lines prepared by the identified reference points. Coordinate values and depth information of these can be obtained. According to an embodiment, the electronic device 400 may set, among measurement points set to measure depth information through the lidar sensor 430, measurement points mapped to reference points identified from a subject in an image as reference measurement points. . According to an embodiment, the electronic device 400 uses the remaining measurement points, excluding reference measurement points, from among measurement points located on a measurement line among measurement points set to measure depth information through the lidar sensor 430 as auxiliary measurement points. can be set The measurement line may be provided for a body part for which a body size is to be measured. The measurement line may refer to a measurement line used when manually measuring a measurement using a tool such as a tape measure, for example. The measurement line may be provided by connecting the reference measurement points with the shortest distance. The measurement line may be, for example, a chest circumference line, a waist circumference line, a pelvis circumference line, and a hip circumference line via one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among reference measurement points. , at least one of a right thigh circumference line and a left thigh circumference line, or a plurality of lines. Consequently, the measurement line may be a line connecting at least two reference measurement points and auxiliary measurement points disposed between the at least two reference measurement points with the shortest distance.

상기 전자 장치(400)는, 동작 630에서, 기준 측정점들의 좌표 값과 깊이 정보를 획득하고, 보조 측정점들의 좌표 값과 깊이 정보를 획득하며, 상기 기준 측정점들에서 획득한 좌표 값과 깊이 정보 및 보조 측정점들에서 획득한 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 피사체의 신체 치수를 획득할 수 있다. The electronic device 400, in operation 630, obtains coordinate values and depth information of reference measurement points, obtains coordinate values and depth information of auxiliary measurement points, and obtains coordinate values and depth information and auxiliary information from the reference measurement points. A body size of a subject corresponding to each measurement line may be obtained using coordinate values and depth information obtained from measurement points.

상기 전자 장치(400)는, 동작 640에서, 상기 측정선들에 대응하여 획득한 신체 치수들 중 하나 또는 복수의 신체 치수들을 디스플레이(440)를 통해 출력할 수 있다.In operation 640, the electronic device 400 may output, through the display 440, one or a plurality of body measurements among body measurements obtained in correspondence with the measurement lines.

상술한 동작에서는, 하나의 이미지를 사용하여 신체 치수를 측정하는 것에 대하여 설명하였으나, 이에 한정되지 않고, 하나의 피사체에 대한 정면 이미지, 측면 이미지 또는 후면 이미지 각각에서의 기준 측정점들 및 보조 측정점들을 식별하고, 이를 기반으로 측정선을 마련하여, 상기 마련된 측정선의 한 신체 치수를 측정할 수도 있다.In the above operation, although the measurement of the body size using one image has been described, it is not limited thereto, and identification of reference measurement points and auxiliary measurement points in each of the front image, side image, or rear image of one subject. And, based on this, a measurement line may be prepared, and one body size of the prepared measurement line may be measured.

도 7은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 위하여 포즈를 추정하는 일 예를 도시한 도면이다.7 illustrates an example of estimating a pose for body size measurement in an electronic device (eg, the electronic device 101 of FIG. 1 or the body size measurement device 400 of FIG. 4) according to an embodiment of the present disclosure. It is an illustrated drawing.

도 7을 참조하면, 일 실시예에 따른 제1이미지(710)는 신체 치수 측정을 위한 포즈를 추정하기 위한 포즈 추정 동작(730)이 이루어지기 이전의 초기 이미지일 수 있고, 제2이미지(720)는 포즈 추정 동작(730)이 이루어진 결과 이미지일 수 있다. 상기 제1이미지(710)는 프리뷰 이미지이거나, 또는 실제 촬영된 이미지일 수 있다. 상기 제1이미지(710)로 프리뷰 이미지를 이용하는 경우, 실제 신체 치수를 측정하기 위한 이미지를 얻기 위한 촬영이 추가로 이루어져야 하나, 그 외에 실체 치수를 측정하기 위한 동작은 동일할 수 있다. Referring to FIG. 7 , a first image 710 according to an embodiment may be an initial image before a pose estimation operation 730 for estimating a pose for body size measurement is performed, and a second image 720 ) may be an image resulting from the pose estimation operation 730. The first image 710 may be a preview image or an actual captured image. In the case of using a preview image as the first image 710, an additional photographing to obtain an image for measuring the actual body size should be performed, but other operations for measuring the actual body size may be the same.

상기 제1이미지(710)는, 예를 들어, 촬영 상태를 표시하는 아이콘 또는 포즈 식별이 이루어졌는지 여부를 지시하는 아이콘 표시(711) 및 신체 치수를 측정할 대상인 피사체(713)를 포함할 수 있다. 상기 제2이미지(720)는 촬영 상태를 표시하는 아이콘 또는 포즈 식별이 이루어졌는지 여부를 지시하는 아이콘 표시(721), 피사체(713), 신체 포즈를 식별하기 용이한 피사체의 위치에 해당하는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)) 및 골격선(725)을 포함할 수 있다. 일 실시예에 따르면, 제1이미지(710)는 사용자의 신체 치수 측정 요청에 응답하여 디스플레이(예: 도 1의 표시 장치(160) 또는 도 4의 디스플레이(440))를 통해 출력될 수 있다. 상기 제1이미지(710)는 포즈 추정 동작(730)에 의해 피사체(713)의 형태, 즉 피사체(713)가 취하고 있는 포즈를 식별하기 용이한 포즈 추정 이미지인 제2이미지(720)를 얻기 위해 사용될 수 있다. 상기 제2이미지(720)는 촬영 상태를 표시하는 아이콘 또는 포즈 식별이 이루어졌는지 여부를 표시하는 아이콘이 활성화된 상태(721)로 표시되어 있다.The first image 710 may include, for example, an icon displaying a photographing state or an icon display 711 indicating whether or not pose identification has been performed, and a subject 713 as a target to measure body size. . In the second image 720, an icon indicating a photographing state or an icon indicating whether a pose has been identified 721, a subject 713, and a main point corresponding to a position of the subject for easy identification of a body pose are displayed. (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)) and the skeleton line 725. According to an embodiment, the first image 710 may be output through a display (eg, the display device 160 of FIG. 1 or the display 440 of FIG. 4 ) in response to a user's request for measurement of a body size. The first image 710 is used to obtain a second image 720, which is a pose estimation image that is easy to identify the shape of the subject 713, that is, the pose the subject 713 is taking, by the pose estimation operation 730. can be used The second image 720 is displayed in a state 721 in which an icon indicating a photographing state or an icon indicating whether pose identification has been made is activated.

일 실시예에 따르면, 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2))은 포즈 추정 동작(730)에 의해 제1이미지(710)로부터 결정할 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은 피사체(713)의 형상을 식별하기 용이한 피사체(713) 내에서의 위치가 될 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은, 예를 들어, 피사체(713)인 신체의 관절이 존재하는 위치들일 수 있다. 즉, 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은 양쪽 손목 부근(a1, a2), 양쪽 팔꿈치 부근(b1, b2), 양쪽 골반 부근(c1, c2), 양쪽 무릎 부근(e1, e2), 양쪽 발목 부근(f1, f2), 양쪽 귀(g1, g2), 코(h) 또는 양쪽 눈(i1, i2)에 마련될 수 있다. 상기 제2이미지(720)에 표시된 골격선(725)은 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)의 일부 또는 전부가 하나 또는 복수의 실선에 의해 연결되도록 형성할 수 있다.According to an embodiment, the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) are the pose estimation operation ( 730, it can be determined from the first image 710. The main points a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2 are easy to identify the shape of the subject 713. It may be a position within one subject 713 . The main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) are, for example, the subject 713 These may be locations where joints in the body exist. That is, the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) are near both wrists (a1, a2) , near both elbows (b1, b2), near both pelvis (c1, c2), near both knees (e1, e2), near both ankles (f1, f2), both ears (g1, g2), nose (h) or It may be provided in both eyes i1 and i2. The skeleton lines 725 displayed in the second image 720 are main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1 , i2) may be formed to be connected by one or a plurality of solid lines.

도 8은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체의 주요 위치를 식별하는 일 예를 도시한 도면이다.FIG. 8 illustrates an example of identifying a main body position in an electronic device (eg, the electronic device 101 of FIG. 1 or the body size measurement device 400 of FIG. 4) according to an embodiment of the present disclosure. it is a drawing

도 8를 참조하면, 일 실시예에 따른 이미지 (a)는 신체 치수를 측정하기 위한 원본 이미지(810)일 수 있고, 이미지 (b)는 세그먼테이션(segmentation) 기법(840)을 사용하여 원본 이미지(810)에서 획득한 피사체의 형체를 나타내는 원본 윤곽선 이미지(820)일 수 있으며, 이미지 (c)는 매칭 동작(850)을 수행하여 원본 윤곽선 이미지(820)에서 획득한 보간 윤곽선 이미지(830)일 수 있다. 상기 원본 이미지(810)는 신체 측정이 용이한 포즈를 취하고 있는 피사체(811)을 포함할 수 있다. 상기 원본 윤곽선 이미지(820)는 상기 원본 이미지(810)에 포함된 피사체(811)의 에지를 추출한 윤곽선(821)을 포함할 수 있다. 상기 보간 윤곽선 이미지(830)는 원본 윤곽선 이미지(820)에 포함된 윤곽선(821) 내에 일부 주요점들(예: 도 7의 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2)) 및/또는 골격선(831)(예: 도 7의 골격선(725))을 포함할 수 있다. 상기 보간 윤곽선 이미지(830)는 일부 또는 전부 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및/또는 골격선(831)이 원본 윤곽선 이미지(820)에 매칭될 수 있도록, 크기 및/또는 위치가 조정될 수 있다. 이는, 포즈를 식별하기 위하여 이용된 피사체(도 7의 피사체(713))와 윤곽선 검출을 위해 이용된 피사체(811)의 크기 및/또는 위치가 완전히 일치하지 않을 수 있기 때문이다.Referring to FIG. 8 , image (a) according to an embodiment may be an original image 810 for measuring body dimensions, and image (b) may be an original image (segmentation) using a segmentation technique 840 ( 810) may be the original contour image 820 representing the shape of the subject, and the image (c) may be an interpolated contour image 830 obtained from the original contour image 820 by performing the matching operation 850. there is. The original image 810 may include a subject 811 taking a pose in which body measurement is easy. The original contour image 820 may include the contour 821 obtained by extracting the edge of the subject 811 included in the original image 810 . The interpolated contour image 830 includes some main points within the contour line 821 included in the original contour image 820 (eg, main points a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2)) and/or skeleton lines 831 (eg, skeleton lines 725 in FIG. 7). In the interpolated contour image 830, some or all of the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) and/or the skeleton line 831 are the original contour It may be resized and/or positioned to match image 820 . This is because the size and/or position of the subject used to identify the pose (the subject 713 in FIG. 7 ) and the subject 811 used for contour detection may not completely match.

도 9는, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 위한 기준 측정점들의 일 예를 도시한 도면이다.9 illustrates an example of reference measurement points for body size measurement in an electronic device (eg, the electronic device 101 of FIG. 1 or the body size measuring device 400 of FIG. 4) according to an embodiment of the present disclosure. it is a drawing

도 9를 참조하면, 일 실시예에 따른 이미지 (a)는 신체 치수를 측정할 기준점들(P11, P12, P21, P22, P31, P32, P41, P42, P51, P52, P61, P62, P71, P72, P81)이 표시된 피사체(911)의 정면 이미지(910)일 수 있고, 이미지 (b)는 신체 치수를 측정할 기준점들(P13, P14, P23, P24, P33, P34, P43, P44, P53, P54, P63, P64, P73, P74)이 표시된 피사체(921)의 우측면 이미지(920)일 수 있으며, 이미지 (c)는 신체 치수를 측정할 기준점들(P15, P16, P25, P26, P35, P36, P45, P46, P55, P56, P65, P66, P75, P76, P81, P9, P10)이 표시된 피사체(931)의 후면 이미지(930)일 수 있다.Referring to FIG. 9 , an image (a) according to an exemplary embodiment shows reference points (P11, P12, P21, P22, P31, P32, P41, P42, P51, P52, P61, P62, P71, P72, P81) may be the front image 910 of the subject 911, and image (b) may be the reference points P13, P14, P23, P24, P33, P34, P43, P44, P53 for measuring the body size. . P36 , P45 , P46 , P55 , P56 , P65 , P66 , P75 , P76 , P81 , P9 , P10 ) may be displayed as the rear image 930 of the subject 931 .

일 실시예에 따르면, 이미지 (a), 이미지 (b) 또는 이미지 (c)는 피사체의 방향(예: 정면, 측면 또는 후면)에 상응한 주요점들 및 골격선을 포함할 수 있다. 예컨대, 정면 피사체(911)를 포함하는 이미지 (a)에는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(913)이 표시될 수 있고, 우측면 피사체(921)를 포함하는 이미지 (b)에는 주요점들(a1, b1, c1, d1, e1, f1) 및 골격선(923)이 표시될 수 있으며, 후면 피사체(931)를 포함하는 이미지 (c)에는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(933)이 표시될 수 있다.According to an embodiment, the image (a), image (b), or image (c) may include main points and bone lines corresponding to a direction (eg, front, side, or back) of the subject. For example, in the image (a) including the front subject 911, the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) and the skeleton line 913 are included. Main points (a1, b1, c1, d1, e1, f1) and a skeleton line 923 may be displayed in the image (b) including the right side object 921, and the back side object 931 ), main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) and the skeleton line 933 may be displayed.

일 실시예에 따르면, 이미지 (a), 이미지 (b) 또는 이미지 (c)에서는 신체 측정을 위한 주요 신체 부위들(예: 목, 어깨, 가슴, 허리, 골반, 엉덩이, 허벅지)의 양쪽 끝점을 기준점으로 표시하였으나, 이에 한정되지 않고, 주요 신체 부위 별로 두 개보다 많은 기준점들이 추정되거나, 주요 신체 부위 별로 상이한 개수의 기준점들일 수 있다. 예를 들어, 이미지 (a), 이미지 (b) 또는 이미지 (c)에서 목 부근의 기준점들을 P11, P12, P13, P14, P15 또는 P16로 표시하였고, 어깨 부근의 기준점들을 P21, P22, P23, P24, P25 또는 P26으로 표시하였고, 가슴 부근의 기준점들을 P31, P32, P33, P34, P35 또는 P36으로 표시하였으며, 허리 부근의 기준점들을 P41, P42, P43, P44, P45 또는 P46로 표시하였고, 골반 부근의 기준점들을 P51, P52, P53, P54, P55 또는 P56으로 표시하였고, 엉덩이 부근의 기준점들을 P61, P62, P63, P64, P65 또는 P66으로 표시하였고, 허벅지 부근의 기준점들을 P71, P72, P73, P74, P75 또는 P76으로 표시하였으며, 가랑이 부근의 기준점을 P81로 표시하였다. 이미지 (c)에서 신장을 측정하기 위한 기준점들은 P9 및 P10으로 표시하였다.According to one embodiment, in image (a), image (b), or image (c), both endpoints of main body parts (eg, neck, shoulder, chest, waist, pelvis, hip, thigh) for body measurement are set. Although indicated as reference points, it is not limited thereto, and more than two reference points may be estimated for each main body part, or a different number of reference points may be used for each main body part. For example, in the image (a), image (b), or image (c), the reference points near the neck are indicated as P11, P12, P13, P14, P15, or P16, and the reference points near the shoulder are indicated as P21, P22, P23, Reference points near the chest were marked as P24, P25 or P26, reference points near the chest were marked as P31, P32, P33, P34, P35 or P36, reference points near the waist were marked as P41, P42, P43, P44, P45 or P46, and pelvis Nearby reference points were marked as P51, P52, P53, P54, P55 or P56, reference points near the hip were marked as P61, P62, P63, P64, P65 or P66, reference points near the thigh were marked as P71, P72, P73, It was marked as P74, P75 or P76, and the reference point near the crotch was marked as P81. Reference points for measuring height in image (c) are marked as P9 and P10.

도 10은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 위한 깊이 정보를 획득할 측정점들이 마스킹된 이미지의 일 예를 도시한 도면이다.10 is a diagram of measurement points to obtain depth information for body size measurement in an electronic device (eg, the electronic device 101 of FIG. 1 or the body size measuring device 400 of FIG. 4) according to an embodiment of the present disclosure. It is a diagram showing an example of a masked image.

도 10을 참조하면, 일 실시예에 따른 마스킹 이미지(1010)는 신체 치수를 측정할 피사체(1020)를 포함하는 이미지에 라이다 센서(예: 도 4의 라이다 센서(430))가 깊이 정보를 측정하도록 마련된 측정점들(1030)을 마스킹한 이미지이다. 상기 마스킹 이미지(1010)는 신체 치수를 측정하기 위해 고려될 기준점들(예: 도 9의 기준점들(P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81))에 상응한 측정점들인 기준 측정점들 및/또는 상기 기준점들에 의해 마련된 측정선들 상에 위치하는 측정점들인 보조 측정점들을 획득하기 위하여 고려될 수 있다. 일 예로, 마스킹 이미지(1010)는 기준 측정점들 및/또는 보조 측정점들의 위치 정보(예: x축과 y축에 의한 좌표 값) 및/또는 깊이 정보(예: z축의 좌표 값)를 계산하기 위해 사용될 수 있다.Referring to FIG. 10 , in a masking image 1010 according to an embodiment, a lidar sensor (eg, the lidar sensor 430 of FIG. 4 ) provides depth information to an image including a subject 1020 whose body size is to be measured. It is an image masking measurement points 1030 prepared to measure . The masking image 1010 includes reference points to be considered for measuring the body size (eg, reference points P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, Reference measurement points, which are measurement points corresponding to P72, P73, P74, P75, P76, P81)), and/or auxiliary measurement points, which are measurement points located on measurement lines prepared by the reference points, can be considered. For example, the masking image 1010 is used to calculate location information (eg, x-axis and y-axis coordinate values) and/or depth information (eg, z-axis coordinate values) of reference measurement points and/or auxiliary measurement points. can be used

도 11은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 위한 측정선들의 일 예를 도시한 도면이다.11 illustrates an example of measurement lines for measuring body size in an electronic device (eg, the electronic device 101 of FIG. 1 or the body size measuring device 400 of FIG. 4) according to an embodiment of the present disclosure. it is a drawing

도 11을 참조하면, 일 실시예에 따른 이미지 (a)는 신체 치수를 측정할 정면 측정선들(1112, 1113, 1114, 1115, 1116, 1117, 1118)이 표시된 피사체의 윤곽선(1100)을 포함하는 정면 이미지(1110)일 수 있고, 이미지 (b)는 신체 치수를 측정할 우측면 측정선들(1122, 1123, 1124, 1125, 1126, 1127, 1128)이 표시된 피사체의 윤곽선(1100)을 포함하는 우측면 이미지(1120)일 수 있으며, 이미지 (c)는 신체 치수를 측정할 후면 측정선들(1132, 1133, 1134, 1135, 1136, 1137, 1138)이 표시된 피사체의 윤곽선(1100)을 포함하는 후면 이미지(1130)일 수 있다.Referring to FIG. 11 , an image (a) according to an embodiment includes an outline 1100 of a subject on which front measurement lines 1112, 1113, 1114, 1115, 1116, 1117, and 1118 for measuring body dimensions are displayed. It may be a frontal image 1110, and image (b) is a right side image including the contour line 1100 of a subject marked with right side measurement lines 1122, 1123, 1124, 1125, 1126, 1127 and 1128 for measuring body dimensions. (1120), and the image (c) is a rear image (1130) including an outline (1100) of a subject marked with rear measurement lines (1132, 1133, 1134, 1135, 1136, 1137, 1138) for measuring body dimensions. ) can be.

일 실시예에 따르면, 이미지 (a), 이미지 (b) 또는 이미지 (c)는 피사체의 방향(예: 정면, 측면 또는 후면)에 상응한 주요점들 및 골격선을 포함할 수 있다. 예컨대, 정면 피사체(1141)를 포함하는 이미지 (a)에는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(1111)이 표시될 수 있고, 우측면 피사체(1142)를 포함하는 이미지 (b)에는 주요점들(a1, b1, c1, d1, e1, f1) 및 골격선(1121)이 표시될 수 있으며, 후면 피사체(1143)를 포함하는 이미지 (c)에는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(1131)이 표시될 수 있다.According to an embodiment, the image (a), image (b), or image (c) may include main points and bone lines corresponding to a direction (eg, front, side, or back) of the subject. For example, in the image (a) including the front subject 1141, the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) and the skeleton line 1111 are included. Main points (a1, b1, c1, d1, e1, f1) and a skeleton line 1121 may be displayed in the image (b) including the right side object 1142, and the back side object 1143 ), main points a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2 and the skeleton line 1131 may be displayed.

일 실시예에 따르면, 이미지 (a), 이미지 (b) 또는 이미지 (c)에서 목 부근의 기준점들인 P11, P12, P13, P14, P15 또는 P16, 어깨 부근의 기준점들인 P21, P22, P23, P24, P25 또는 P26, 가슴 부근의 기준점들인 P31, P32, P33, P34, P35 또는 P36, 허리 부근의 기준점들인 P41, P42, P43, P44, P45 또는 P46, 골반 부근의 기준점들인 P51, P52, P53, P54, P55 또는 P56, 엉덩이 부근의 기준점들인 P61, P62, P63, P64, P65 또는 P66, 허벅지 부근의 기준점들인 P71, P72, P73, P74, P75 또는 P76, 가랑이 부근의 기준점인 P81, 신장을 측정하기 위한 기준점들은 P9 및 P10은, 도면에서 생략되어 있으나, 이는 도 9에서의 표시와 동일하게 적용될 수 있을 것이다. According to one embodiment, reference points P11, P12, P13, P14, P15 or P16 near the neck and reference points P21, P22, P23, P24 near the shoulder in image (a), image (b) or image (c). , P25 or P26, reference points near the chest P31, P32, P33, P34, P35 or P36, reference points near the waist P41, P42, P43, P44, P45 or P46, reference points near the pelvis P51, P52, P53, P54, P55 or P56, reference points near the hip P61, P62, P63, P64, P65 or P66, reference points near the thigh P71, P72, P73, P74, P75 or P76, reference points near the crotch P81, measure height Reference points P9 and P10 are omitted from the drawing, but may be applied in the same manner as shown in FIG. 9 .

도 12는, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 측정된 신체 치수의 일 예를 도시한 도면이다.12 is a diagram illustrating an example of body measurements measured by an electronic device (eg, the electronic device 101 of FIG. 1 or the body size measuring device 400 of FIG. 4) according to an embodiment of the present disclosure. .

도 12를 참조하면, 일 실시예에 따른 이미지 (a)는 신체 치수 중 하나인 신장을 측정할 정면 신장 측정선(1211)이 표시된 피사체의 윤곽선을 포함하는 정면 이미지(1210)일 수 있고, 이미지 (b)는 신체 치수 중 하나인 신장을 측정할 후면 신장 측정선(1221)이 표시된 피사체의 윤곽선을 포함하는 후면 이미지(1220)일 수 있다. 상기 정면 신장 측정선(1211) 또는 상기 후면 신장 측정선(1221)을 획득하기 위하여 고려된 기준점들은 머리 끝점(P_top) 및 발바닥이 위치하는 바닥점(P_bottom)일 수 있다. 즉, 상기 정면 신장 측정선(1211) 또는 상기 후면 신장 측정선(1221)은 머리 끝점(P_top)과 바닥점(P_bottom)을 수직으로 연결하는 직선일 수 있다.Referring to FIG. 12 , image (a) according to an embodiment may be a frontal image 1210 including an outline of a subject marked with a frontal height measurement line 1211 for measuring height, which is one of body dimensions. (b) may be a rear image 1220 including an outline of a subject marked with a rear height measurement line 1221 to measure height, which is one of body dimensions. Reference points considered to obtain the front height measurement line 1211 or the back height measurement line 1221 may be the top point of the head (P_top) and the bottom point (P_bottom) where the soles of the feet are located. That is, the front height measurement line 1211 or the back height measurement line 1221 may be a straight line vertically connecting the head end point P_top and the bottom point P_bottom.

일 실시예에 따르면, 이미지 (a) 또는 이미지 (b)는 피사체의 방향(예: 정면 또는 후면)에 상응한 주요점들(예: 도 9의 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(예: 도 9의 골격선들(913, 933) 및/또는 신체의 주요 위치들인 기준점들(예: 도 9의 기준점들(P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81)) 및/또는 측정선들(예: 도 11의 정면 측정선들(1112, 1113, 1114, 1115, 1116, 1117, 1118, 1119) 또는 측면 측정선들(1122, 1123, 1124, 1125, 1126, 1127, 1128) 또는 후면 측정선들(1132, 1133, 1134, 1135, 1136, 1137, 1138))을 포함할 수 있다. 도면에서는 주요점들, 골격선, 기준점들 또는 측정선들에 대한 참조부호 또는 참조번호가 생략되어 있으나, 이는 도 9 또는 도 11에서의 표시와 동일하게 적용될 수 있을 것이다.According to an embodiment, the image (a) or the image (b) includes main points (eg, main points (a1, a2, b1, b2, a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) and bone lines (eg, bone lines 913 and 933 in FIG. 9 ) and/or reference points that are main positions of the body (eg, reference points in FIG. 9 ). (P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51 , P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81)) and/or measurement lines (e.g. front of FIG. 11) Measurement lines 1112, 1113, 1114, 1115, 1116, 1117, 1118, 1119 or side measurement lines 1122, 1123, 1124, 1125, 1126, 1127, 1128 or rear measurement lines 1132, 1133, 1134, 1135 . the same could be applied.

도 13은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 측정된 신체 치수를 디스플레이에 표시한 일 예를 도시한 도면이다.FIG. 13 illustrates an example of displaying body measurements measured by an electronic device (eg, the electronic device 101 of FIG. 1 or the body size measuring device 400 of FIG. 4) according to an embodiment of the present disclosure on a display. It is an illustrated drawing.

도 13을 참조하면, 일 실시예에 따른 주요 신체 항목 별 치수는 전자 장치(1300)에 마련된 디스플레이(1310)에 표시될 수 있다. 상기 디스플레이(1310)에는, 예를 들어, 피사체의 이미지(1320), 상기 이미지(1320)에 대한 주요 신체 항목들 또는 상기 주요 신체 항목들 각각에 대하여 측정된 치수 값이 표시될 수 있다. 상기 디스플레이(1310)에 치수가 표시될 주요 신체 항목들은 신장(1331), 어깨(1332), 가슴(1333), 허리(1334), 골반(1335), 엉덩이(1336) 또는 허벅지(1337)를 포함할 수 있다.Referring to FIG. 13 , dimensions of each major body item according to an embodiment may be displayed on a display 1310 provided in an electronic device 1300 . For example, the display 1310 may display an image 1320 of a subject, main body items for the image 1320, or measured dimensional values for each of the main body items. The main body items whose dimensions are displayed on the display 1310 include height 1331, shoulder 1332, chest 1333, waist 1334, pelvis 1335, hip 1336, or thigh 1337. can do.

도 14는, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))에서 신체 측정을 위해 수행하는 제어 흐름도이다.14 is a control flowchart for body measurement performed by an electronic device (eg, the electronic device 101 of FIG. 1 ) according to an embodiment of the present disclosure.

도 14를 참조하면, 전자 장치(101)는, 동작 1401에서, 사용자의 신체 치수 측정 요청이 감지되는지를 판단할 수 있다. 상기 사용자의 신체 치수 측정 요청은, 예를 들어, 사용자가 신체 치수 측정을 요청하는 기능 키를 누르거나, 또는 사용자가 신체 치수 측정을 위한 응용 프로그램을 실행하는 것에 의해 감지될 수 있다. Referring to FIG. 14 , in operation 1401, the electronic device 101 may determine whether a user's body size measurement request is detected. The user's request for body size measurement may be detected, for example, when the user presses a function key requesting body size measurement or when the user executes an application program for body size measurement.

일 실시예에 따르면, 전자 장치(101)는, 신체 치수 측정 요청을 감지하면, 동작 1403에서, 카메라 모듈(예: 도 1의 카메라 모듈(180) 또는 도 4의 카메라 모듈(420))을 활성화시켜 프리뷰 이미지를 획득하고, 상기 획득한 프리뷰 이미지를 디스플레이(예: 도 1의 표시 장치(160))를 통해 출력할 수 있다. 상기 프리뷰 이미지는 실제 촬영에 의해 얻어진 이미지가 아닌 촬영에 의해 얻을 수 있는 이미지를 선행하여 보이기 위한 이미지일 수 있다. 상기 프리뷰 이미지는, 예를 들어, 섬네일 형식으로 만들어질 수 있다.According to an embodiment, when detecting a body size measurement request, the electronic device 101 activates a camera module (eg, the camera module 180 of FIG. 1 or the camera module 420 of FIG. 4 ) in operation 1403 . to obtain a preview image, and output the obtained preview image through a display (eg, the display device 160 of FIG. 1 ). The preview image may be an image intended to precede an image obtained by photographing, rather than an image obtained by actual photographing. The preview image may be made in a thumbnail format, for example.

다른 실시예에 따르면, 전자 장치(101)는, 신체 치수 측정 요청을 감지하면, 동작 1403에서, 카메라 모듈(420)을 통해 피사체를 촬영하여 실제로 촬영된 이미지를 획득하고, 상기 획득한 이미지를 디스플레이(예: 도 1의 표시 장치(160))를 통해 출력할 수 있다. 하기 설명에서는 편의를 위하여, 프리뷰 이미지를 전제로 하여 설명될 것이나, 해당 동작이 반드시 프리뷰 이미지에 한정되는 것이 아니라, 실제 촬영이 이루어진 이미지인 경우에도 동일하게 적용될 수 있을 것이다.According to another embodiment, when the electronic device 101 detects a body size measurement request, in operation 1403, the electronic device 101 photographs a subject through the camera module 420 to acquire an actually photographed image, and displays the obtained image. (eg, the display device 160 of FIG. 1). In the following description, for convenience, it will be described on the premise of a preview image, but the corresponding operation is not necessarily limited to the preview image, and may be equally applied to an image that is actually captured.

일 실시예에 따르면, 전자 장치(101)는, 동작 1405에서, 프리뷰 이미지에 포함된 피사체(예: 이미지 내에 포함된 사람, 도 7의 피사체(713))에서 주요점들(예: 도 7의 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2))을 결정할 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은 피사체의 형상을 식별하기 용이한 피사체 내에서의 위치가 될 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은, 예를 들어, 신체의 관절이 존재하는 위치들일 수 있다. 즉, 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은 양쪽 손목 부근(a1, a2), 양쪽 팔꿈치 부근(b1, b2), 양쪽 골반 부근(c1, c2), 양쪽 무릎 부근(e1, e2), 양쪽 발목 부근(f1, f2), 양쪽 귀(g1, g2), 코(h) 또는 양쪽 눈(i1, i2)에 마련될 수 있다. According to an embodiment, in operation 1405, the electronic device 101 selects main points (eg, the subject 713 of FIG. 7 , a person included in the image) included in the preview image. Key points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) can be determined. The main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) are within the subject to easily identify the shape of the subject. can be a position in The main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) are, for example, the presence of joints in the body may be locations. That is, the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) are near both wrists (a1, a2) , near both elbows (b1, b2), near both pelvis (c1, c2), near both knees (e1, e2), near both ankles (f1, f2), both ears (g1, g2), nose (h) or It may be provided in both eyes i1 and i2.

일 실시예에 따르면, 전자 장치(101)는, 동작 1407에서, 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) 중 일부 또는 전부를 실선으로 연결하여 골격선(예: 도 7의 골격선(725))을 만들고, 상기 골격선에 의해 피사체의 형태를 식별할 수 있다. 일 예로, 피사체가 사람인 경우, 상기 피사체의 형태는 사람이 취하고 있는 포즈가 될 수 있다. 상기 전자 장치(101)는, 예를 들어, 포즈 추정 기술(예: 도 7의 포즈 추정(730))을 기반으로 프리뷰 이미지에서 피사체를 찾고, 상기 피사체의 주요점들을 결정하며, 상기 결정된 주요점들을 연결하여 만들어진 골격선에 의해 피사체의 형태를 식별할 수 있다.According to an embodiment, in operation 1407, the electronic device 101 determines the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h , i1, and i2) are connected with a solid line to create a skeleton line (eg, the skeleton line 725 of FIG. 7), and the shape of the subject can be identified by the skeleton line. For example, when the subject is a person, the shape of the subject may be a pose the person is taking. The electronic device 101 searches for a subject in a preview image based on, for example, a pose estimation technique (eg, the pose estimation 730 of FIG. 7 ), determines main points of the subject, and determines the main points. The shape of the subject can be identified by the skeleton line made by connecting them.

일 실시예에 따르면, 전자 장치(101)는, 동작 1409에서, 골격선에 의해 식별된 포즈가 신체 치수 측정을 위한 포즈와 일치하는지를 판단할 수 있다. 상기 신체 치수 측정을 위한 포즈는 미리 설정될 수 있다. 일 예로, 신체 치수 측정을 위해 미리 설정된 포즈는 도 7에 도시된 바와 같이 양쪽 팔과 다리를 어느 정도 벌리고 서있는 포즈일 수 있다. 식별된 포즈가 신체 치수 측정을 위한 포즈와 일치하지 않으면, 상기 전자 장치(101)는, 동작 1403으로 돌아가 프리뷰 이미지를 새롭게 획득하여 출력한 후, 치수 측정 포즈인지를 판단하는 동작을 반복하여 수행할 수 있다.According to an embodiment, in operation 1409, the electronic device 101 may determine whether the pose identified by the bone line coincides with a pose for body size measurement. A pose for measuring the body size may be set in advance. For example, a preset pose for body size measurement may be a pose in which both arms and legs are spread apart to some extent as shown in FIG. 7 . If the identified pose does not match the pose for body size measurement, the electronic device 101 returns to operation 1403 to newly acquire and output a preview image, and then repeats an operation of determining whether the pose is a measurement pose. can

상술한 동작 1403 내지 동작 1409에서는, 하나의 프리뷰 이미지(예: 피사체의 정면 이미지)에 대하여 수행되는 것으로 설명하였으나, 이에 한정되지 않으며, 좌측 이미지, 우측 이미지 또는 후면 이미지 중 적어도 하나의 이미지에 대해서도 동일한 동작에 의한 치수 측정 포즈인지 여부를 판단할 수도 있다.In the above-described operations 1403 to 1409, it has been described that they are performed for one preview image (eg, the front image of the subject), but the present invention is not limited thereto, and the same applies to at least one of the left image, the right image, and the back image. It may be determined whether or not the pose is a dimension measurement by motion.

일 실시예에 따르면, 전자 장치(101)는, 식별된 포즈가 신체 치수 측정을 위한 포즈와 일치하면, 동작 1411에서, 카메라 모듈(420)을 통해 피사체를 포함하는 이미지를 획득할 수 있고, 라이다 센서(예: 도 4의 라이다 센서(430))를 통해 피사체의 깊이 정보를 획득할 수 있다. 상기 전자 장치(101)는, 피사체의 포즈를 식별하기 위하여 실체 촬영된 이미지가 이용되었다면, 추가 촬영에 의하여 이미지를 획득하지 않고, 상기 피사체의 포즈를 식별하기 위하여 이용된 이미지를 그대로 이용할 수 있다. 상기 깊이 정보는, 예를 들어, 라이다 센서(430)가 미리 설정된 측정점들(예: 도 10의 측정점들(1030))로 레이저를 발사하고, 상기 측정점들(1030)로부터 반사되어 돌아온 정보를 기반으로 획득할 수 있다. 이 경우, 깊이 정보는 측정점 별로 획득되거나, 또는 피사체(예: 도 10의 피사체(1020))에 배치된 측정점들에 대해서만 획득될 수 있다.According to an embodiment, if the identified pose coincides with the pose for body size measurement, the electronic device 101 may acquire an image including the subject through the camera module 420 in operation 1411, and Depth information of a subject may be obtained through an IDA sensor (eg, the lidar sensor 430 of FIG. 4 ). If a substantially photographed image is used to identify the pose of the subject, the electronic device 101 may use the image used to identify the pose of the subject as it is without acquiring the image by additional photographing. The depth information is, for example, the lidar sensor 430 emits a laser beam to preset measurement points (eg, the measurement points 1030 of FIG. 10 ), and returns information reflected from the measurement points 1030. can be obtained based on In this case, depth information may be obtained for each measurement point or only for measurement points disposed on a subject (eg, the subject 1020 of FIG. 10 ).

일 실시예에 따르면, 전자 장치(101)는, 동작 1413에서, 이미지(예: 도 8의 이미지(810))에서 피사체(예: 도 8의 피사체(811))의 윤곽선(예: 도 8의 윤곽선(821))을 검출하고, 상기 검출한 윤곽선(821)으로 이루어진 원본 윤곽선 이미지(예: 윤곽선 이미지(820))를 생성할 수 있다. 상기 윤곽선은 피사체(811)의 에지 선일 수 있다. 상기 이미지(810)로부터 원본 윤곽선 이미지(820)를 생성하는 윤곽선 검출 기술(예: 도 8의 동작 840))은, 예를 들어, 세그먼테이션(segmentation) 기법이 사용될 수 있다.According to an embodiment, the electronic device 101, in operation 1413, sets an outline (eg, the image 810 of FIG. 8 ) of a subject (eg, the subject 811 of FIG. 8 ) in an image (eg, the image 810 of FIG. 8 ). The contour line 821) may be detected, and an original contour image (eg, the contour image 820) consisting of the detected contour line 821 may be generated. The contour line may be an edge line of the subject 811 . The contour detection technique (eg, operation 840 of FIG. 8 ) of generating the original contour image 820 from the image 810 may use, for example, a segmentation technique.

일 실시예에 따르면, 전자 장치(101)는, 동작 1415에서, 피사체의 포즈를 식별하기 위해 이용된 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) 중 일부 또는 전부 및/또는 골격선(예: 도 8의 골격선(831))을 원본 윤곽선 이미지에 매칭(예: 도 8의 동작 850))하여 보간 윤곽선 이미지(예: 도 8의 보간 윤곽선 이미지(830))를 생성할 수 있다. 상기 보간 윤곽선 이미지(830)는 윤곽선(821) 내에 일부 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및/또는 골격선(831)이 표시된 이미지일 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) 중 일부 또는 전부 및/또는 골격선(831)은 원본 윤곽선 이미지에 매칭시키기 위하여, 크기 및/또는 위치가 조정될 수 있다. 이는, 포즈를 식별하기 위하여 이용된 피사체(713)과 윤곽선 검출을 위해 이용된 피사체(811)의 크기 및/또는 위치가 완전히 일치하지 않을 경우에 수행될 수 있다.According to an embodiment, in operation 1415, the electronic device 101 determines the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, Matching some or all of f1, f2, g1, g2, h, i1, i2) and/or bone lines (eg, bone line 831 in FIG. 8) to the original contour image (eg, operation 850 in FIG. 8) ) to generate an interpolation contour image (eg, the interpolation contour image 830 of FIG. 8 ). The interpolated contour image 830 includes some main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) and/or skeleton lines 831 within the contour line 821. This may be the displayed image. Some or all of the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) and/or the skeleton line 831 ) may be adjusted in size and/or position to match the original contour image. This may be performed when the size and/or position of the subject 713 used to identify the pose and the subject 811 used to detect the contour do not completely match.

상술한 동작 1411 내지 동작 1415에서는, 하나의 프리뷰 이미지(예: 피사체의 정면 이미지, 도 8의 이미지(810))에 대하여 수행되는 것으로 설명하였으나, 이에 한정되지 않으며, 좌측 이미지, 우측 이미지 또는 후면 이미지 중 적어도 하나의 이미지에 대해서도 동일한 동작에 의한 보간 윤곽선 이미지를 생성할 수 있다.In the above-described operations 1411 to 1415, it has been described that they are performed on one preview image (eg, the front image of the subject, the image 810 of FIG. 8), but is not limited thereto, and the left image, the right image, or the back image. For at least one of the images, an interpolation contour image may be generated by the same operation.

일 실시예에 따르면, 전자 장치(101)는, 동작 1417에서, 보간 윤곽선 이미지(예: 도 9의 보간 윤곽선 이미지(910))에서 피사체(예: 도 9의 피사체(911, 921, 931))의 윤곽선(예: 도 9의 윤곽선(913, 923, 933))에서 신체 측정을 위한 주요 신체 부위들(예: 목, 어깨, 가슴, 허리, 골반, 엉덩이, 허벅지)의 높이 및/또는 위치를 고려한 기준점들(예: 도 9의 기준점들(P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81))을 추정할 수 있다. 도 9에서는 신체 측정을 위한 주요 신체 부위들(예: 목, 어깨, 가슴, 허리, 골반, 엉덩이, 허벅지)의 양쪽 끝점을 기준점으로 추정하였으나, 이에 한정되지 않고, 주요 신체 부위 별로 두 개보다 많은 기준점들이 추정되거나, 주요 신체 부위 별로 상이한 개수의 기준점들이 추정될 수도 있다. 또한, 기준점들은 피사체의 정면 이미지(예: 도 8의 정면(a)) 외에도, 측면 이미지(예: 도 8의 측면(b)) 및/또는 후면 이미지(예: 도 8의 후면(c))에 대해서도 추정될 수 있다.According to an embodiment, in operation 1417, the electronic device 101 selects a subject (eg, subjects 911, 921, and 931 of FIG. 9) from an interpolated contour image (eg, the interpolated contour image 910 of FIG. 9). The height and / or position of the main body parts (eg, neck, shoulder, chest, waist, pelvis, hip, thigh) for body measurement in the contour (eg, contour (913, 923, 933) of FIG. 9) Considered reference points (e.g., the reference points of FIG. P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81)) can be estimated In FIG. 9, both endpoints of major body parts (eg, neck, shoulder, chest, waist, pelvis, hip, thigh) for body measurement were estimated as reference points, but it is not limited thereto, and more than two for each major body part Reference points may be estimated, or a different number of reference points may be estimated for each major body part. In addition, the reference points are not only the front image of the subject (eg, the front (a) in FIG. 8), but also the side image (eg, the side (b) in FIG. 8) and/or the rear image (eg, the rear (c) in FIG. 8). can also be estimated.

일 실시예에 따르면, 전자 장치(101)는, 동작 1419에서, 보간 윤곽선 이미지(예: 도 11의 정면, 측면 또는 후면 윤곽선 이미지(1110, 1120, 1130))에서 기준 측정점들을 획득할 수 있다. 상기 전자 장치(101)는, 예를 들어, 깊이 정보를 획득할 목적으로 라이다 센서(430)에 미리 설정된 측정점들(예: 도 10의 측정점들(1030))을 보간 윤곽선 이미지(예: 도 11의 정면, 측면 또는 후면 윤곽선 이미지(1110, 1120, 1130))에 마스킹(masking)하여, 상기 보간 윤곽선 이미지(910, 920, 930)의 기준점들(예: 도 9의 기준점들(P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81))에 일치하거나, 가장 근접한 측정점들을 기준 측정점들로 획득할 수 있다. 상기 기준 측정점들은, 각 기준 측정점의 위치 정보(예: x축과 y축에 의한 좌표 값) 및/또는 깊이 정보(예: z축의 좌표 값)를 계산하는 것에 의해 획득될 수 있다.According to an embodiment, in operation 1419, the electronic device 101 may obtain reference measurement points from interpolated contour images (eg, the front, side, or back contour images 1110, 1120, and 1130 of FIG. 11). The electronic device 101, for example, for the purpose of obtaining depth information, measures points previously set in the lidar sensor 430 (eg, the measurement points 1030 of FIG. 10 ) to an interpolated contour image (eg, a drawing By masking the front, side, or back contour images 1110, 1120, and 1130 of 11, the reference points of the interpolated contour images 910, 920, and 930 (eg, reference points P11 and P12 of FIG. 9) , P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53 , P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81)), or closest measurement points may be obtained as reference measurement points. . The reference measurement points may be obtained by calculating location information (eg, x-axis and y-axis coordinate values) and/or depth information (eg, z-axis coordinate values) of each reference measurement point.

일 실시예에 따르면, 전자 장치(101)는, 동작 1421에서, 보간 윤곽선 이미지(예: 도 11의 정면, 측면 또는 후면 윤곽선 이미지(1110, 1120, 1130))에서 보조 측정점들을 획득할 수 있다. 상기 전자 장치(101)는, 예를 들어, 주요 신체 부위 별로 획득한 두 개의 기준 측정점들을 연결하는 측정선(예: 도 11의 정면 측정선들(1112, 1113, 1114, 1115, 1116, 1117, 1118, 1119) 또는 측면 측정선들(1122, 1123, 1124, 1125, 1126, 1127, 1128) 또는 후면 측정선들(1132, 1133, 1134, 1135, 1136, 1137, 1138))을 형성할 때, 미리 설정된 측정점들(예: 도 10의 측정점들(1030)) 중 각 측정선 상에 배치된 측정점들을 해당 측정점 또는 해당 기준 측정점들에 대응한 보조 측정점들로 획득할 수 있다. 상기 보조 측정점들은 측정선들에 모두 동일하거나, 측정선 별로 상이할 수 있다. 상기 보조 측정점들은, 각 보조 측정점의 위치 정보(예: x축과 y축에 의한 좌표 값) 및/또는 깊이 정보(예: z축의 좌표 값)를 계산하는 것에 의해 획득될 수 있다.According to an embodiment, in operation 1421, the electronic device 101 may obtain auxiliary measurement points from interpolated contour images (eg, the front, side, or back contour images 1110, 1120, and 1130 of FIG. 11 ). The electronic device 101 includes, for example, a measurement line connecting two reference measurement points obtained for each major body part (eg, front measurement lines 1112, 1113, 1114, 1115, 1116, 1117, and 1118 of FIG. 11 ). , 1119) or side measurement lines 1122, 1123, 1124, 1125, 1126, 1127, 1128 or rear measurement lines 1132, 1133, 1134, 1135, 1136, 1137, 1138), preset measurement points Among the measurement points (eg, the measurement points 1030 of FIG. 10 ), measurement points arranged on each measurement line may be acquired as corresponding measurement points or auxiliary measurement points corresponding to the corresponding reference measurement points. The auxiliary measurement points may be the same for all measurement lines or may be different for each measurement line. The auxiliary measurement points may be obtained by calculating location information (eg, x-axis and y-axis coordinate values) and/or depth information (eg, z-axis coordinate values) of each auxiliary measurement point.

일 실시예에 따르면, 전자 장치(101)는, 동작 1423에서, 측정선(예: 도 11의 정면 측정선들(1112, 1113, 1114, 1115, 1116, 1117, 1118, 1119) 또는 측면 측정선들(1122, 1123, 1124, 1125, 1126, 1127, 1128) 또는 후면 측정선들(1132, 1133, 1134, 1135, 1136, 1137, 1138)) 별로 신체 치수를 획득할 수 있다. 예컨대, 측정선들 중 가슴 둘레를 측정할 수 있는 정면 측정선(1114), 측면 측정선(1124) 또는 후면 측정선(1134) 중 적어도 하나를 구성하는 기준 측정점들과 보조 측정점들의 좌표 값과 깊이 값을 사용하여 상기 기준 측정점들과 상기 보조 측정점들 사이의 거리를 계산하고, 상기 계산된 거리의 합에 의해 가슴 둘레에 해당하는 치수 값을 획득할 수 있다. 그 외의 다른 주요 신체 부위 별 측정선들에 대해서도 동일한 방식에 의한 신체 치수를 획득할 수 있다. 상기 전자 장치(101)는 피사체에 대응하여 주요 신체 부위 별로 획득한 신체 치수를 메모리(예: 도 4의 메모리(450))에 기록할 수 있다. 상기 메모리(450)에 기록된 신체 치수는 추가적인 신체 치수 측정 없이도 사용자가 의류 구입 등에 이용할 수 있다. According to an embodiment, in operation 1423, the electronic device 101 selects measurement lines (eg, front measurement lines 1112, 1113, 1114, 1115, 1116, 1117, 1118, and 1119 of FIG. 11) or side measurement lines ( Body measurements may be obtained for each of 1122, 1123, 1124, 1125, 1126, 1127, and 1128 or the rear measurement lines 1132, 1133, 1134, 1135, 1136, 1137, and 1138. For example, the coordinate values and depth values of the reference measurement points and auxiliary measurement points constituting at least one of the front measurement line 1114, the side measurement line 1124, and the rear measurement line 1134 capable of measuring the chest circumference among the measurement lines. A distance between the reference measurement points and the auxiliary measurement points may be calculated using , and a dimension value corresponding to the chest circumference may be obtained by the sum of the calculated distances. For other measurement lines for each major body part, body measurements may be obtained by the same method. The electronic device 101 may record body measurements obtained for each major body part corresponding to the subject in a memory (eg, the memory 450 of FIG. 4 ). The body measurements recorded in the memory 450 may be used by the user to purchase clothes or the like without additional measurement of the body measurements.

일 실시예에 따르면, 전자 장치(101)는, 동작 1423에서, 피사체의 머리 끝(예: 도 12의 P_top)과 발뒤꿈치(예: 도 12의 P_bottom)을 획득하고, 상기 머리 끝(예: 도 12의 P_top)과 발뒤꿈치(예: 도 12의 P_bottom) 각각의 위치를 지시하는 좌표 값과 깊이 정보를 사용하여 상기 피사체의 신장(예: 도 9의 신장 측정선(1211, 1221)의 길이)을 획득할 수 있다.According to an embodiment, in operation 1423, the electronic device 101 acquires the head end (eg, P_top of FIG. 12 ) and the heel (eg P_bottom of FIG. 12 ) of the subject, and the head end (eg, P_bottom of FIG. 12 ). The height of the subject (eg, the length of the height measurement lines 1211 and 1221 in FIG. 9 ) using coordinate values indicating the positions of P_top in FIG. 12 and heels (eg, P_bottom in FIG. 12 ) and depth information. ) can be obtained.

일 실시예에 따르면, 전자 장치(101)는, 동작 1425에서, 측정선 별로 획득한 신체 치수를 사용하여 피사체의 신체 치수를 디스플레이(440)를 통해 출력할 수 있다. 상기 전자 장치(101)가 디스플레이(440)를 통해 피사체의 신체 치수를 출력한 예는 도 13에 도시된 바와 같다. 도 13에서는, 전자 장치(1300)에 마련된 디스플레이(1310)에 피사체의 이미지(1320) 및 신장(1331), 어깨(1332), 가슴(1333), 허리(1334), 골반(1335), 엉덩이(1336) 또는 허벅지(1337)와 같은 주요 신체 항목들에 대하여 측정된 치수가 표시된 예를 보이고 있다.According to an embodiment, in operation 1425, the electronic device 101 may output the body measurements of the subject through the display 440 using the body measurements acquired for each measurement line. An example in which the electronic device 101 outputs the body size of the subject through the display 440 is as shown in FIG. 13 . In FIG. 13 , an image 1320 of a subject and a height 1331, a shoulder 1332, a chest 1333, a waist 1334, a pelvis 1335, and a hip ( 1336) or thighs 1337, an example in which measured dimensions are displayed is shown.

일 실시예에 따르면, 전자 장치(101)는, 동작 1427에서, 사용자가 제품 사이즈를 요청하는지를 판단할 수 있다. 예컨대, 사용자는 전자 장치(101)에 마련된 물리적인 키 또는 디스플레이에 표시된 키를 조작하여 제품명, 의류 종류 또는 희망 핏과 같은 제품 관련 정보를 입력하는 것에 의해, 제품 사이즈를 요청할 수 있다. 상기 전자 장치(101)는, 사용자에 의해 제품 사이즈 요청이 접수되면, 동작 1429에서, 사용자에 의해 입력된 제품명, 의류 종류 또는 희망 핏과 같은 제품 관련 정보 및 상기 사용자에 대하여 측정된 신체 치수를 기반으로 원하는 제품에 대한 적합한 사이즈 정보를 생성하여 디스플레이(440)를 통해 출력할 수 있다.According to an embodiment, in operation 1427, the electronic device 101 may determine whether the user requests a product size. For example, a user may request a product size by manipulating a physical key provided in the electronic device 101 or a key displayed on a display to input product-related information such as a product name, clothing type, or desired fit. When a product size request is received by the user, the electronic device 101, in operation 1429, based on product related information such as the product name, clothing type, or desired fit input by the user and the measured body size of the user It is possible to generate suitable size information for a desired product and output it through the display 440.

하기 <표 1>은 전자 장치(101)에서 신체 치수를 고려하여 제안될 수 있는 제품의 사이즈를 정의하고 있는 데이터 테이블의 일 예를 보이고 있다.Table 1 below shows an example of a data table defining the size of a product that can be suggested in consideration of the body size of the electronic device 101 .

사이즈size 가슴둘레Bust 어깨너비shoulder width 소매길이Sleeve Length 총장president XS (85)XS (85) 116116 4242 6161 7474 S (90)S (90) 120120 4444 6262 7575 M 95)M95) 124124 4646 6363 7676 L (100)L (100) 128128 4848 6464 7777 XL (105)XL (105) 132132 5050 6565 7878 XXL (110)XXL (110) 136136 5252 6666 7979

상기 <표 1>에서 수치의 단위는 센티미터(cm)이고, 총장은 옆목에서 밑단까지의 길이가 될 수 있다.In <Table 1>, the unit of numerical value is centimeters (cm), and the total length can be the length from the side neck to the hem.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 디스플레이 장치, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a display device, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 문서에서 사용되는 '및/또는'이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다,' '가지다,' '구성되다' 등의 용어는 본 개시 상에 기재된 특징, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. For example, a component expressed in the singular number should be understood as a concept including a plurality of components unless the context clearly means only the singular number. It should be understood that the term 'and/or' as used herein encompasses any and all possible combinations of one or more of the listed items. Terms such as 'include,' 'have,' and 'consist of' used in this disclosure are only intended to designate that the features, components, parts, or combinations thereof described in this disclosure exist, and the use of these terms is not intended to exclude the possibility of the presence or addition of one or more other features, components, parts or combinations thereof. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited.

본 문서의 다양한 실시예들에서 사용된 용어 "~부" 또는 "~모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. "~부" 또는 "~모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, "~부" 또는 "~모듈"은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The terms "~unit" or "~module" used in various embodiments of this document may include a unit implemented as hardware, software, or firmware, and may include, for example, logic, logic blocks, components, or circuits. The same terms can be used interchangeably. "~unit" or "~module" may be an integrally constituted component or a minimum unit or part of the component that performs one or more functions. For example, according to one embodiment, “~ unit” or “~ module” may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들에서 사용된 용어 “할 경우”는 문맥에 따라 “할 때”, 또는 “할 시” 또는 “결정하는 것에 응답하여” 또는 “검출하는 것에 응답하여”를 의미하는 것으로 해석될 수 있다. 유사하게, “라고 결정되는 경우” 또는 “이 검출되는 경우”는 문맥에 따라 “결정 시” 또는 “결정하는 것에 응답하여”, 또는 “검출 시” 또는 “검출하는 것에 응답하여”를 의미하는 것으로 해석될 수 있다.The term "if" used in various embodiments of this document is interpreted to mean "when" or "when" or "in response to determining" or "in response to detecting" depending on the context. It can be. Similarly, "if it is determined" or "if is detected" is meant to mean "upon determining" or "in response to determining", or "upon detecting" or "in response to detecting", depending on the context. can be interpreted

본 문서를 통해 설명된 신체 치수 측정 장치(1)에 의해 실행되는 프로그램은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 프로그램은 컴퓨터로 읽을 수 있는 명령어들을 수행할 수 있는 모든 시스템에 의해 수행될 수 있다.A program executed by the body size measuring device 1 described throughout this document may be implemented as a hardware component, a software component, and/or a combination of hardware components and software components. A program can be executed by any system capable of executing computer readable instructions.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령어(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어는, 컴퓨터로 읽을 수 있는 저장 매체(computer-readable storage media)에 저장된 명령어를 포함하는 컴퓨터 프로그램으로 구현될 수 있다. 컴퓨터가 읽을 수 있는 저장 매체로는, 예를 들어 마그네틱 저장 매체(예컨대, ROM(Read-Only Memory), RAM(Random-Access Memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 저장 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 컴퓨터 프로그램은 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software may be implemented as a computer program including instructions stored in computer-readable storage media. Computer-readable storage media include, for example, magnetic storage media (eg, ROM (Read-Only Memory), RAM (Random-Access Memory), floppy disk, hard disk, etc.) and optical reading media (eg, CD-ROM) (CD-ROM) and DVD (Digital Versatile Disc). Computer-readable storage media may be distributed among networked computer systems so that computer-readable codes may be stored and executed in a distributed manner. The computer program may be distributed (eg downloaded or uploaded) online, via an application store (eg Play Store™) or directly between two user devices (eg smart phones). In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.

Claims (20)

전자 장치에 있어서,
촬영에 의한 이미지를 제공하도록 구성된 카메라 모듈;
미리 설정된 측정점들(data points)을 기반으로 상기 이미지에서의 깊이 정보(depth information)를 제공하도록 구성된 라이다 센서; 및
상기 카메라 모듈로부터 제공된 상기 이미지에 포함된 피사체에서 기준점들(reference points)을 식별하고, 상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들(target points)과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하도록 구성된 적어도 하나의 프로세서를 포함하는, 전자 장치.
In electronic devices,
A camera module configured to provide an image by shooting;
a lidar sensor configured to provide depth information in the image based on preset data points; and
Reference points are identified in the subject included in the image provided from the camera module, and among the preset measurement points, target points corresponding to the identified reference points and the identified reference points are selected. and at least one processor configured to acquire a body size of the subject corresponding to each measurement line by using coordinate values and depth information of auxiliary measurement points located on the measurement lines prepared by the electronic device.
제1항에 있어서,
상기 적어도 하나의 프로세서의 제어에 의해, 상기 측정선들에 대응하여 획득한 신체 치수들 중 하나 또는 복수의 신체 치수들을 출력하도록 구성된 디스플레이를 더 포함하는, 전자 장치.
According to claim 1,
The electronic device further comprises a display configured to output one or a plurality of body measurements among body measurements acquired in correspondence with the measurement lines, under the control of the at least one processor.
제1항에 있어서,
상기 적어도 하나의 프로세서가,
포즈 추정 (pose estimation) 기술을 기반으로 상기 피사체의 포즈를 식별하고, 상기 식별한 포즈가 미리 설정된 포즈이면, 상기 카메라 모듈을 제어하여 상기 피사체를 촬영하도록 구성된, 전자 장치.
According to claim 1,
the at least one processor,
An electronic device configured to identify a pose of the subject based on a pose estimation technique and, if the identified pose is a preset pose, control the camera module to photograph the subject.
제3항에 있어서,
상기 적어도 하나의 프로세서가,
상기 카메라 모듈로부터 제공된 프리뷰 이미지에서 상기 피사체의 포즈를 식별하도록 구성된, 전자 장치.
According to claim 3,
the at least one processor,
An electronic device configured to identify a pose of the subject in a preview image provided from the camera module.
제3항에 있어서,
상기 적어도 하나의 프로세서가,
상기 디스플레이를 제어하여 상기 미리 설정된 포즈를 안내하는 이미지를 표시하도록 구성된, 전자 장치.
According to claim 3,
the at least one processor,
An electronic device configured to control the display to display an image guiding the preset pose.
제3항에 있어서,
상기 적어도 하나의 프로세서가,
상기 이미지로부터 상기 피사체의 윤곽선을 검출하고, 상기 검출한 윤곽선 내에 상기 식별한 포즈에 따른 신체 골격을 지시하는 주요점들(key points)을 마련하도록 구성된, 전자 장치.
According to claim 3,
the at least one processor,
The electronic device configured to detect an outline of the subject from the image, and provide key points indicating a body skeleton according to the identified pose within the detected outline.
제1항에 있어서,
상기 적어도 하나의 프로세서는,
상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 매핑되는 측정점들을 상기 기준 측정점들로 설정하고,
상기 미리 설정된 측정점들 중 상기 측정선 상에 위치하는 측정점들에서 상기 기준 측정점들을 제외한 나머지 측정점들을 상기 보조 측정점들로 설정하는, 전자 장치.
According to claim 1,
The at least one processor,
Setting measurement points mapped to the identified reference points among the preset measurement points as the reference measurement points;
The electronic device of claim 1 , wherein among the preset measurement points, measurement points located on the measurement line, except for the reference measurement points, are set as the auxiliary measurement points.
제1항에 있어서,
상기 카메라 모듈로부터 제공된 상기 이미지는, 상기 피사체의 정면 이미지, 측면 이미지 또는 후면 이미지 중 적어도 하나의 이미지를 포함하는, 전자 장치.
According to claim 1,
The image provided from the camera module includes at least one image of a front image, a side image, or a back image of the subject.
제1항에 있어서,
상기 적어도 하나의 프로세서는,
적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 연결하는 선을 측정선으로 설정하는, 전자 장치.
According to claim 1,
The at least one processor,
An electronic device, wherein a line connecting at least two reference measurement points and auxiliary measurement points disposed between the at least two reference measurement points is set as a measurement line.
제1항에 있어서,
상기 기준 측정점들은, 상기 미리 설정된 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점이고,
상기 측정선들은, 상기 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 두 개를 포함하는, 전자 장치.
According to claim 1,
The reference measurement points are one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among the preset measurement points,
The measurement lines are a chest circumference line, a waist circumference line, a pelvis circumference line, a hip circumference line, and a right thigh via one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among the reference measurement points. An electronic device comprising at least two of a circumference line or a left thigh circumference line.
전자 장치에서 신체 치수를 측정하는 방법에 있어서,
피사체의 이미지를 수집하는 동작;
미리 설정된 측정점들(data points)을 기반으로 상기 이미지에서의 깊이 정보(depth information)를 수집하는 동작;
상기 이미지에 포함된 상기 피사체에서 기준점들(reference points)을 식별하는 동작;
상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득하는 동작; 및
상기 기준 측정점들과 상기 보조 측정점들에서 획득한 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하는 동작을 포함하는, 방법.
A method for measuring body dimensions in an electronic device,
collecting an image of a subject;
collecting depth information from the image based on preset data points;
identifying reference points in the subject included in the image;
obtaining coordinate values and depth information of reference measurement points corresponding to the identified reference points among the preset measurement points and auxiliary measurement points located on measurement lines prepared by the identified reference points; and
and obtaining a body size of the subject corresponding to each measurement line using coordinate values and depth information obtained from the reference measurement points and the auxiliary measurement points.
제11항에 있어서,
상기 측정선들에 대응하여 획득한 신체 치수들 중 하나 또는 복수의 신체 치수들을 출력하는 동작을 더 포함하는, 방법.
According to claim 11,
The method further comprises outputting one or a plurality of body measurements from among body measurements acquired in correspondence with the measurement lines.
제11항에 있어서,
포즈 추정(pose estimation) 기술을 기반으로 상기 피사체의 포즈를 식별하는 동작;
상기 식별한 포즈가 미리 설정된 포즈이면, 상기 피사체를 촬영하는 동작을 더 포함하는, 방법.
According to claim 11,
identifying a pose of the subject based on a pose estimation technique;
If the identified pose is a preset pose, further comprising an operation of photographing the subject.
제13항에 있어서,
상기 피사체의 포즈를 식별하는 동작은,
상기 피사체에 대한 프리뷰 이미지에서 상기 피사체의 포즈를 식별하는 동작임을 특징으로 하는, 방법.
According to claim 13,
The operation of identifying the pose of the subject,
Characterized in that the operation of identifying the pose of the subject in the preview image of the subject, the method.
제13항에 있어서,
상기 미리 설정된 포즈를 안내하는 이미지를 표시하는 동작을 더 포함하는, 방법.
According to claim 13,
Further comprising an operation of displaying an image guiding the preset pose.
제13항에 있어서,
상기 피사체의 포즈를 식별하는 동작은,
상기 이미지로부터 상기 피사체의 윤곽선을 검출하는 동작; 및
상기 검출한 윤곽선 내에 상기 식별한 포즈에 따른 신체 골격을 지시하는 주요점들을 마련하는 동작을 포함하는, 방법.
According to claim 13,
The operation of identifying the pose of the subject,
detecting an outline of the subject from the image; and
and providing main points indicating a body skeleton according to the identified pose within the detected contour line.
제11항에 있어서,
상기 좌표 값 및 깊이 정보를 획득하는 동작은,
상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 매핑되는 측정점들을 상기 기준 측정점들로 설정하는 동작; 및
상기 미리 설정된 측정점들 중 상기 측정선 상에 위치하는 측정점들에서 상기 기준 측정점들을 제외한 나머지 측정점들을 상기 보조 측정점들로 설정하는 동작을 포함하는, 방법.
According to claim 11,
The operation of obtaining the coordinate value and depth information,
setting measurement points mapped to the identified reference points among the preset measurement points as the reference measurement points; and
and setting, among the preset measurement points, measurement points located on the measurement line, other than the reference measurement points, as the auxiliary measurement points.
제11항에 있어서,
상기 이미지는, 상기 피사체의 정면 이미지, 측면 이미지 또는 후면 이미지 중 적어도 하나의 이미지를 포함하는, 방법.
According to claim 11,
The image includes at least one image of a front image, a side image, or a back image of the subject.
제11항에 있어서,
적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 연결하는 선을 측정선으로 설정하는 동작을 더 포함하는, 방법.
According to claim 11,
The method further includes setting a line connecting at least two reference measurement points and auxiliary measurement points disposed between the at least two reference measurement points as a measurement line.
제11항에 있어서,
상기 기준 측정점들은, 상기 미리 설정된 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점이고,
상기 측정선들은, 상기 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 두 개를 포함하는, 방법.
According to claim 11,
The reference measurement points are one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among the preset measurement points,
The measurement lines are a chest circumference line, a waist circumference line, a pelvis circumference line, a hip circumference line, and a right thigh via one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among the reference measurement points. At least two of a circumference line or a left thigh circumference line.
KR1020220025899A 2021-12-01 2022-02-28 Apparatus and method for measuring size of part of body KR20230082523A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210170285 2021-12-01
KR1020210170285 2021-12-01

Publications (1)

Publication Number Publication Date
KR20230082523A true KR20230082523A (en) 2023-06-08

Family

ID=86765853

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220025899A KR20230082523A (en) 2021-12-01 2022-02-28 Apparatus and method for measuring size of part of body

Country Status (1)

Country Link
KR (1) KR20230082523A (en)

Similar Documents

Publication Publication Date Title
KR102664688B1 (en) Method for providing shoot mode based on virtual character and electronic device performing thereof
KR102472156B1 (en) Electronic Device and the Method for Generating Depth Information thereof
US20230221110A1 (en) Detection device, detection system, detection method, and storage medium
WO2018028152A1 (en) Image acquisition device and virtual reality device
WO2015197026A1 (en) Method, apparatus and terminal for acquiring sign data of target object
WO2022012019A1 (en) Height measuring method, height measuring device, and terminal
US11509815B2 (en) Electronic device and method for processing image having human object and providing indicator indicating a ratio for the human object
US20210312179A1 (en) Electronic device for providing recognition result of external object by using recognition information about image, similar recognition information related to recognition information, and hierarchy information, and operating method therefor
US11284020B2 (en) Apparatus and method for displaying graphic elements according to object
TW202242716A (en) Methods, apparatuses, devices and storage media for object matching
JP2011198270A (en) Object recognition device and controller using the same, and object recognition method
KR20220094680A (en) System and method for performing calibrations
KR20230082523A (en) Apparatus and method for measuring size of part of body
KR20210048725A (en) Method for controlling camera and electronic device therefor
US20220268935A1 (en) Electronic device comprising camera and method thereof
JP2002027495A (en) Three-dimensional image generating system, three- dimensional image generating method and three- dimensional information service system, and program providing medium
KR101755248B1 (en) Method and system of generating 3D model and mobile device for the same
KR20200117460A (en) Electronic device and method for controlling heat generation thereof
KR20200101803A (en) Electronic device for generating depth map and method thereof
KR20200074780A (en) Methord for processing image and electronic device thereof
CN112750157B (en) Depth image generation method and device
CN113066084A (en) Physical condition detection method and device, electronic equipment and storage medium
CN108475413A (en) Consistently edit light field data
EP4012654A3 (en) Feature determination, measurement, and virtualization from 2-d image capture
CN109328459B (en) Intelligent terminal, 3D imaging method thereof and 3D imaging system