KR20230082523A - Apparatus and method for measuring size of part of body - Google Patents
Apparatus and method for measuring size of part of body Download PDFInfo
- Publication number
- KR20230082523A KR20230082523A KR1020220025899A KR20220025899A KR20230082523A KR 20230082523 A KR20230082523 A KR 20230082523A KR 1020220025899 A KR1020220025899 A KR 1020220025899A KR 20220025899 A KR20220025899 A KR 20220025899A KR 20230082523 A KR20230082523 A KR 20230082523A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- measurement points
- measurement
- subject
- points
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000005259 measurement Methods 0.000 claims abstract description 386
- 210000001624 hip Anatomy 0.000 claims description 49
- 210000000689 upper leg Anatomy 0.000 claims description 28
- 210000004197 pelvis Anatomy 0.000 claims description 26
- 210000000038 chest Anatomy 0.000 claims description 15
- 238000004891 communication Methods 0.000 description 36
- 238000012545 processing Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 9
- 239000003381 stabilizer Substances 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 230000000712 assembly Effects 0.000 description 7
- 238000000429 assembly Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 210000003739 neck Anatomy 0.000 description 6
- 230000000873 masking effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 210000002832 shoulder Anatomy 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000037237 body shape Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005086 pumping Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 208000024172 Cardiovascular disease Diseases 0.000 description 1
- 241001516908 Metabus Species 0.000 description 1
- 208000008589 Obesity Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 239000003570 air Substances 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 239000012080 ambient air Substances 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000005283 ground state Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000020824 obesity Nutrition 0.000 description 1
- 229940124595 oriental medicine Drugs 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1079—Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
- A61B5/0064—Body surface scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1075—Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Marketing (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
본 개시는 전자 장치에서 라이다 센서 (LiDAR (light detection and ranging) sensor)를 이용하여 신체 치수를 측정하는 장치 및 방법에 관한 것이다.The present disclosure relates to an apparatus and method for measuring a body size using a light detection and ranging (LiDAR) sensor in an electronic device.
인체의 체형정보는 의복, 책상 또는 의자와 같은 다양한 산업 분야에서 활용되고 있다. 일 예로, 국가기술표준원에 구축된 한국인 인체 표준 정보 데이터베이스는 한국인 체형에 맞는 제품 개발에 활용되고 있다. 인체의 체형정보는 의학 분야에서도 폭넓게 활용되고 있다. 특히, 비만 관련이나 심혈관 질병을 식별 및 예측에 있어 허리-엉덩이 둘레 비율과 같은 인체 치수 정보는, 유용한 정보를 제공하는 것으로 알려져 있다. 한의학에서도 사상체질진단 시 성격, 행동, 안면 형태와 더불어 머리, 목, 가슴, 허리, 엉덩이 둘레와 같은 체형정보는 체질 판단을 위한 중요한 지표로 활용되고 있다.Body shape information of the human body is used in various industrial fields such as clothes, desks, or chairs. For example, the Korean human body standard information database established by the National Agency for Technology and Standards is being used to develop products suitable for Korean body types. Body shape information of the human body is widely used in the medical field. In particular, it is known that body size information such as the waist-hip circumference ratio provides useful information in identifying and predicting obesity-related or cardiovascular diseases. In oriental medicine, when diagnosing Sasang constitution, body type information such as head, neck, chest, waist, and hip circumference along with personality, behavior, and facial shape are used as important indicators to determine constitution.
전통적인 방법으로, 수평자나 줄자를 이용하여 체형을 측정할 수 있으나, 이는 측정자의 숙련도에 따라 오차가 발생할 수 있다. 다른 방법으로 카메라에 의해 촬영된 2차원 이미지를 기반으로 신체 치수를 측정할 수 있다. 2차원 이미지를 기반으로 신체 치수를 측정하는 경우, 전자 장치는 양측 어깨 또는 양쪽 허리와 같은 신체의 특정 위치 간의 거리를 고려하여 신체 치수를 측정할 수 있다. 하지만, 2차원 이미지를 기반으로 신체 치수를 측정하는 경우, 카메라와 피사체 간의 거리가 고려되지 않음으로 인해, 전자 장치에 의해 측정된 신체 치수와 실제 신체 치수 간에 오차가 발생할 수 있다. 또한, 2차원 이미지를 기반으로 신체 치수를 측정하는 경우, 정면, 측면 또는 후면과 같이 다른 포즈의 2차원 이미지를 얻기 위한 카메라의 촬영 각도가 가능한 일치하여야 하는 제한이 있을 수 있다.In a traditional way, the body shape can be measured using a horizontal ruler or a tape measure, but errors may occur depending on the skill of the measurer. Alternatively, body dimensions may be measured based on a two-dimensional image taken by a camera. When measuring a body size based on a 2D image, the electronic device may measure the body size considering a distance between specific positions of the body, such as both shoulders or both waists. However, when measuring the body size based on the 2D image, an error may occur between the body size measured by the electronic device and the actual body size because the distance between the camera and the subject is not considered. In addition, in the case of measuring body dimensions based on a 2D image, there may be a limitation that camera shooting angles for obtaining 2D images of different poses, such as front, side, or back, should match as much as possible.
인체의 체형정보는 의학 및 여러 산업 분야에서 폭넓게 활용되고 있으나 간편하면서도 정확도 및 재현성 있는 측정 방법에 대한 수요가 꾸준히 있는 상황이다. 특히, 속도 또는 장소의 구애를 받지 않는 통신 산업이 발전 또는 가상 공간에서 다양한 서비스를 제공할 수 있는 메타 버스 기술을 기반으로 마련된 인프라 및/또는 플랫폼은, 온라인 쇼핑과 같은 비대면 서비스를 활성화시키기 위한 기반으로 마련하였다. 하지만, 비대면 서비스의 경우, 예를 들어, 온라인 쇼핑을 이용할 시에 소비자는 직접 옷을 입어볼 수 없어, 셔츠, 자켓 또는 바지와 같은 다양한 종류 또는 브랜드 별로 자신에게 맞는 치수를 인지하기가 어려울 수 있다.Body shape information of the human body is widely used in medicine and various industries, but there is a steady demand for simple, accurate and reproducible measurement methods. In particular, the infrastructure and/or platform based on metabus technology, which allows the telecommunications industry to provide various services in power generation or virtual space regardless of speed or location, is a platform for activating non-face-to-face services such as online shopping. based on it. However, in the case of non-face-to-face services, for example, when using online shopping, consumers cannot try on clothes directly, so it may be difficult to recognize the size that suits them for each brand or various types such as shirts, jackets or pants. there is.
본 개시의 일 실시예는, 피사체의 평면 이미지 및 라이다 센서의 측정 값을 기반으로 상기 피사체에 대한 신체 치수를 측정하는 장치 및 방법을 제공할 수 있다.One embodiment of the present disclosure may provide an apparatus and method for measuring a body size of a subject based on a planar image of the subject and a measurement value of a lidar sensor.
본 개시에서의 일 실시예에 따른, 전자 장치는, 촬영에 의한 이미지를 제공하도록 구성된 카메라 모듈과, 미리 설정된 측정점들(data points)을 기반으로 상기 이미지에서의 깊이 정보(depth information)를 제공하도록 구성된 라이다 센서 및 상기 카메라 모듈로부터 제공된 상기 이미지에 포함된 피사체에서 기준점들(reference points)을 식별하고, 상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하도록 구성된 적어도 하나의 프로세서를 포함할 수 있다.According to an embodiment of the present disclosure, an electronic device includes a camera module configured to provide an image by photographing, and a camera module configured to provide depth information in the image based on preset data points. Identify reference points in the subject included in the image provided from the configured lidar sensor and the camera module, and among the preset measurement points, reference measurement points corresponding to the identified reference points and the identified reference points and at least one processor configured to obtain a body size of the subject corresponding to each measurement line by using coordinate values and depth information of auxiliary measurement points located on the measurement lines prepared by
본 개시에서의 일 실시예에 따른, 전자 장치에서 신체 치수를 측정하는 방법은, 피사체의 이미지를 수집하는 동작과, 미리 설정된 측정점들을 기반으로 상기 이미지에서의 깊이 정보를 수집하는 동작과, 상기 이미지에 포함된 상기 피사체에서 기준점들을 식별하는 동작과, 상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득하는 동작 및 상기 기준 측정점들과 상기 보조 측정점들에서 획득한 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하는 동작을 포함할 수 있다.According to an embodiment of the present disclosure, a method for measuring a body size in an electronic device includes an operation of collecting an image of a subject, an operation of collecting depth information in the image based on preset measurement points, and an operation of collecting the image An operation of identifying reference points in the subject included in ; coordinate values of reference measurement points corresponding to the identified reference points among the preset measurement points and auxiliary measurement points located on measurement lines prepared by the identified reference points; and An operation of obtaining depth information and an operation of acquiring body dimensions of the subject corresponding to each measurement line using coordinate values and depth information obtained from the reference measurement points and the auxiliary measurement points.
본 개시의 일 실시예에 따르면, 전자 장치는 라이다 센서를 이용하여 카메라와 피사체 간의 거리 정보를 인지할 수 있으므로, 이를 이용하여 신체 치수를 측정할 경우, 촬영 각도의 자유성을 제공할 수 있을 뿐만 아니라, 신체의 굴곡을 고려한 신체 치수 측정이 가능할 수 있다.According to an embodiment of the present disclosure, since the electronic device can recognize the distance information between the camera and the subject using the LIDAR sensor, when measuring the body size using this, freedom in the shooting angle can be provided. In addition, it may be possible to measure the body size considering the curvature of the body.
본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 기재로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.Effects obtainable in the exemplary embodiments of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are common knowledge in the art to which exemplary embodiments of the present disclosure belong from the following description. can be clearly derived and understood by those who have That is, unintended effects according to the implementation of the exemplary embodiments of the present disclosure may also be derived by those skilled in the art from the exemplary embodiments of the present disclosure.
도 1은, 본 개시의 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록 구성을 도시한 도면이다.
도 2는, 본 개시의 다양한 실시 예들에 따른 카메라 모듈을 예시하는 블록 구성을 도시한 도면이다.
도 3은, 본 개시의 다양한 실시 예들에 따른 센서 모듈에 포함된 라이다 센서를 예시하는 블록 구성을 도시한 도면이다.
도 4는, 본 개시의 일 실시예에 따른 전자 장치에 마련된 신체 치수 측정 장치의 블록 구성을 도시한 도면이다.
도 5는, 본 개시의 일 실시예에 따른 신체 치수 측정 장치에서 신체 치수 측정을 수행하는 프로세서의 기능 블록을 도시한 도면이다.
도 6은, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수를 측정하기 위한 제어 흐름을 도시한 도면이다.
도 7은, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수 측정을 위하여 포즈를 추정하는 일 예를 도시한 도면이다.
도 8은, 본 개시의 일 실시예에 따른 전자 장치에서 신체의 주요 위치를 식별하는 일 예를 도시한 도면이다.
도 9는, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수 측정을 위한 기준 측정점들의 일 예를 도시한 도면이다.
도 10은, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수 측정을 위한 깊이 정보를 획득할 측정점들이 마스킹된 이미지의 일 예를 도시한 도면이다.
도 11은, 본 개시의 일 실시예에 따른 전자 장치에서 신체 치수 측정을 위한 측정선들의 일 예를 도시한 도면이다.
도 12는, 본 개시의 일 실시예에 따른 전자 장치에서 측정된 신체 치수의 일 예를 도시한 도면이다.
도 13은, 본 개시의 일 실시예에 따른 전자 장치에서 측정된 신체 치수를 디스플레이에 표시한 일 예를 도시한 도면이다.
도 14는, 본 개시의 일 실시예에 따른 전자 장치에서 신체 측정을 위해 수행하는 제어 흐름도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.1 is a diagram illustrating a block configuration of an electronic device in a network environment according to various embodiments of the present disclosure.
2 is a block diagram illustrating a camera module according to various embodiments of the present disclosure.
3 is a block diagram illustrating a lidar sensor included in a sensor module according to various embodiments of the present disclosure.
4 is a diagram illustrating a block configuration of a body size measuring device provided in an electronic device according to an embodiment of the present disclosure.
5 is a diagram illustrating functional blocks of a processor performing body size measurement in the body size measuring device according to an embodiment of the present disclosure.
6 is a diagram illustrating a control flow for measuring a body size in an electronic device according to an embodiment of the present disclosure.
7 is a diagram illustrating an example of estimating a pose for body size measurement in an electronic device according to an embodiment of the present disclosure.
8 is a diagram illustrating an example of identifying a main body position in an electronic device according to an embodiment of the present disclosure.
9 is a diagram illustrating an example of reference measurement points for body size measurement in an electronic device according to an embodiment of the present disclosure.
10 is a diagram illustrating an example of an image in which measurement points from which depth information for body size measurement is to be obtained are masked in an electronic device according to an embodiment of the present disclosure.
11 is a diagram illustrating an example of measurement lines for measuring body size in an electronic device according to an embodiment of the present disclosure.
12 is a diagram illustrating an example of body dimensions measured in an electronic device according to an embodiment of the present disclosure.
13 is a diagram illustrating an example of displaying body dimensions measured in an electronic device according to an embodiment of the present disclosure on a display.
14 is a control flow chart performed for body measurement in an electronic device according to an embodiment of the present disclosure.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar elements.
이하에서는 도면을 참조하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면의 설명과 관련하여, 동일하거나 유사한 구성요소에 대해서는 동일하거나 유사한 참조 부호가 사용될 수 있다. 또한, 도면 및 관련된 설명에서는, 잘 알려진 기능 및 구성에 대한 설명이 명확성과 간결성을 위해 생략될 수 있다.Hereinafter, with reference to the drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein. In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar elements. Also, in the drawings and related descriptions, descriptions of well-known functions and constructions may be omitted for clarity and conciseness.
도 1은, 본 개시의 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치(101)의 블록 구성을 도시한 도면이다. 1 is a diagram illustrating a block configuration of an electronic device 101 in a network environment according to various embodiments of the present disclosure.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다.Referring to FIG. 1 , in a
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. The secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, running an application). ) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. The display device 160 may visually provide information to the outside of the electronic device 101 (eg, a user). The display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to an embodiment, the display device 160 may include a touch circuitry set to detect a touch or a sensor circuit (eg, a pressure sensor) set to measure the intensity of force generated by the touch. there is.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 170 may convert sound into an electrical signal or vice versa. According to an embodiment, the audio module 170 acquires sound through the
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 조도 센서 또는 라이다 센서를 포함할 수 있다. 일 예로, 라이다 센서는 전자 장치(101)에서 카메라 모듈(180) 근처에 배치되어 카메라 모듈(180)에 의해 촬영될 피사체에 대한 깊이 정보 (또는 심도 정보, 이하 “깊이 정보”로 통칭함)를 획득할 수 있다.The
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD 카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104)), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다. The communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들 중에서 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: radio frequency integrated circuit(RFIC))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( e.g. commands or data) can be exchanged with each other.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치는 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.According to an embodiment, commands or data may be transmitted or received between the electronic device 101 and the external
도 2는, 본 개시의 다양한 실시 예들에 따른, 카메라 모듈(180)을 예시하는 블록 구성(200)을 도시한 도면이다. 2 is a diagram illustrating a
도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 카메라 모듈(180)은 소정 화각에서의 정지 영상 또는 동영상과 같은 이미지를 촬영하고, 상기 촬영된 이미지에 해당하는 전기적 신호를 출력할 수 있다. 정지 영상 및 동영상의 촬영 범위를 결정하는 카메라 모듈(180)의 화각은 광각, 표준 또는 망원과 같이 분류될 수 있는 렌즈의 타입에 의해 결정될 수 있다. 카메라 모듈(180)은 촬영 이전에 촬영될 이미지의 프리뷰를 제공하기 위한 전기적 신호를 출력할 수 있다.Referring to FIG. 2 , the
렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. The
플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일 실시예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. The flash 220 may emit light used to enhance light emitted or reflected from a subject. According to one embodiment, the flash 220 may include one or more light emitting diodes (eg, a red-green-blue (RGB) LED, a white LED, an infrared LED, or an ultraviolet LED), or a xenon lamp.
이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일 실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.The image sensor 230 may acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the
이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일 실시예에 따르면, 이미지 스태빌라이저(240)는 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(180) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. The image stabilizer 240 moves at least one lens or image sensor 230 included in the
메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)을 통하여 프리뷰(preview)될 수 있다. 사본 이미지는, 예를 들어, 섬네일(thumbnail)일 수 있다. 이하 표시 장치(160)을 통하여 프리뷰되는 이미지는 “프리뷰 이미지”라 칭해질 수 있다. 프리뷰 이미지는 실제 피사체에 대한 촬영이 이루어지기 전에 이미지 센서(230)에 의해 변환된 전기적 신호에 의해 만들어질 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일 실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The memory 250 may at least temporarily store at least a portion of an image acquired through the image sensor 230 for a next image processing task. For example, when image acquisition is delayed according to the shutter, or a plurality of images are acquired at high speed, the acquired original image (eg, a Bayer-patterned image or a high-resolution image) is stored in the memory 250 and , a copy image (eg, a low resolution image) corresponding thereto may be previewed through the display device 160 . A copy image may be, for example, a thumbnail. Hereinafter, an image previewed through the display device 160 may be referred to as a “preview image”. A preview image may be created by an electrical signal converted by the image sensor 230 before capturing an actual subject. Thereafter, when a specified condition is satisfied (eg, a user input or a system command), at least a part of the original image stored in the memory 250 may be obtained and processed by the image signal processor 260 , for example. According to one embodiment, the memory 250 may be configured as at least a part of the memory 130 or as a separate memory operated independently of the memory 130 .
이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리를 수행할 수 있다. 상기 하나 이상의 이미지 처리는, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 제공될 수 있다. 일 실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)가 프로세서(120)와 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.The image signal processor 260 may perform one or more image processing on an image acquired through the image sensor 230 or an image stored in the memory 250 . The one or more image processing, for example, depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, or image compensation (eg, noise reduction, resolution adjustment, brightness adjustment, blurring ( blurring, sharpening, or softening. Additionally or alternatively, the image signal processor 260 may include at least one of the components included in the camera module 180 (eg, an image sensor). 230) may be controlled (eg, exposure time control, read-out timing control, etc.) The image processed by the image signal processor 260 is stored again in the memory 250 for further processing. or may be provided as an external component of the camera module 180 (eg, the memory 130, the display device 160, the
일 실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.According to an embodiment, the electronic device 101 may include a plurality of
도 3은, 본 개시의 다양한 실시 예들에 따른 센서 모듈(176)에 포함된 라이다 센서를 예시하는 블록 구성(300)을 도시한 도면이다. 3 is a diagram illustrating a
도 3을 참조하면, 일 실시예에 따른 라이다 센서(300)는 사람과 사물을 3차원의 공간에서 연결시켜 줄 수 있는 3차원 영상센서에 포함될 수 있다. 라이다 센서(300)는 대상 물체인 파세체를 향하여 빛(예: 레이저 빔, 레이저 광 또는 레이저, 이하 “레이저”로 칭함)을 발사하고, 상기 대상 물체로부터 반사되어 돌아오는 정보를 수신하여 상기 대상 물체까지의 거리 및/또는 상기 대상 물체의 움직이는 속도와 방향, 온도, 주변의 대기 물질 분석 및 농도 측정과 같은 물성을 탐지할 수 있다. 라이다 센서(300)는, 예를 들어, 3차원 공간에서의 시각적 구현에 핵심 기술로 사용될 수 있다. 라이다 센서(300)는 초음파 또는 레이더 기술을 기반으로 하는 센서에 비하여 상대적으로 높은 해상도의 데이터를 추출할 수 있다. 레이다 센서(300)는 자율 주행과 같이 안전이 중요시되는 기술 분야 또는 스마트폰과 같은 일부 전자장치(예: 도 1의 전자 장치(101))에 탑재되어 증강현실(AR: augmented reality)을 구현하는 기술 분야에서 핵심 기술로 사용될 수 있다. 레이다 센서(300)는, 예를 들어, 스마트폰과 같은 전자장치(101)에 카메라와 함께 라이다 스캐너로 탑재될 수 있다. 일 실시예에 따르면, 라이다 센서(300)는 렌즈 어셈블리(310), 송신회로(320), 수신회로(330), 메모리(340)(예: 버퍼 메모리), 또는 데이터 처리 프로세서(350)를 포함할 수 있다. Referring to FIG. 3 , the
렌즈 어셈블리(310)는 이미지 촬영의 대상인 피사체로 소정의 수직 시야각 및 수평 시야각으로 레이저를 방출하고, 상기 피사체로부터 반사되어 돌아오는 레이저를 수집할 수 있다. 렌즈 어셈블리(310)는 빔 조작과 같은 다양한 레이저 응용에서 레이저 빔의 초점을 맞추기 위해 사용되거나, 레이저 빔의 형태를 바꾸기 위해 사용되거나, 구면 수차 또는 다른 광학 오차를 보정하기 위해 사용될 수 있다. 렌즈 어셈블리(310)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일 실시예에 따르면, 라이다 센서(300)는 복수의 렌즈 어셈블리(310)들을 포함할 수 있다. 복수의 렌즈 어셈블리(310)들 중 일부는 동일한 속성(예: 수직 시야각 및 수평 시야각에 의한 방사 각도 또는 세기)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 속성과 다른 하나 이상의 속성을 가질 수 있다. 렌즈 어셈블리(310)는, 예를 들면, 라이다 센서(300)는, 예를 들면, PCX (plano-convex) 렌즈, 원통형 (cylindrical) 렌즈, 비구면 (aspheric) 렌즈 또는 막대(rod) 렌즈를 포함할 수 있다. The
송신회로(320)는 렌즈 어셈블리(310)를 통해 대상 물체인 파세체를 향하여 소정의 수직 시야각 및 수평 시야각에 의해 방출할 레이저를 발생할 수 있다. 일 실시예에 따르면, 송신회로(320)는 초당 수천번의 레이저를 발사할 수 있다. 송신회로(320)에 의해 발사된 레이저는 단색성, 직진성, 가간섭성, 고출력 또는 편광성과 같은 특징을 가지며, 퍼지지 않고 멀리 전달될 수 있다. 송신회로(320)는, 예를 들어, 레이저의 기본이 되는 물질인 이득 매질, 한 쌍의 거울을 사용하는 공진기 또는 상기 이득 매질을 바닥 상태에서 들뜬 상태로 만들어주는 펌핑 장치를 포함할 수 있다. 펌핑 장치에는, 예를 들어, 광 펌핑한 고체 레이저(diode pumped solid state laser, DPSS)가 많이 사용되고 있다. 송신회로(320)에 적용되는 레이저는, 예를 들어, 이득 매질의 형태에 따라, 고체 레이저, 가스 레이저, 반도체 레이저, 색소 레이저, 펄스 레이저, 광섬유 레이저 또는 화학 레이저로 구분할 수 있다. The transmission circuit 320 may generate lasers to be emitted through the
수신회로(330)는 피사체로부터 반사되어 렌즈 어셈블리(310)를 통해 전달된 레이저를 검출하고, 상기 검출한 레이저를 전기적인 신호로 변환하여 출력할 수 있다. 일 실시예에 따르면, 수신회로(330)는 렌즈 어셈블리(310)를 통해 출력되는 레이저를 다중 배열 수신 소자를 이용하여 검출할 수 있다. 일 예로, 다중 배열 수신 소자는 APD (avalanche photodiode) 다중 배열 수신 소자일 수 있다. 수신회로(330)는 광-전 변환된 아날로그 신호를 증폭하는 ROIC (readout integrated circuit)로 구성될 수 있다. The receiving circuit 330 may detect the laser reflected from the subject and transmitted through the
라이다 스태빌라이저(340)는 라이다 센서(300) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(310)에 포함된 적어도 하나의 렌즈, 송신회로(320) 또는 수신회로(330)를 특정한 방향으로 움직이거나 송신회로(320) 또는 수신회로(330)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 피사체의 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일 실시예에 따르면, 라이다 스태빌라이저(340)는 라이다 센서(300)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 라이다 센서(300) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 일 실시예에 따르면, 라이다 스태빌라이저(340)는, 예를 들면, 광학식 스태빌라이저로 구현될 수 있다. The lidar stabilizer 340 reacts to the movement of the
메모리(350)는 수신회로(330)를 통하여 획득된 깊이 정보와 같은 피사체 정보의 적어도 일부를 다음 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 메모리(350)는 카메라 모듈(180)에 의해 촬영된 이미지에서 미리 설정된 측정점들에 대한 평면 좌표 정보 (예: x값 및/또는 y값) 및 상기 측정점들의 좌표 정보에 대응하여 감지된 깊이 정보를 저장할 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령), 메모리(350)에 저장되었던 측정점 별 깊이 정보 중 일부 또는 전부가 데이터 처리 프로세서(360)에 의해 획득되어 처리될 수 있다. 일 실시예에 따르면, 메모리(350)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The memory 350 may at least temporarily store at least a portion of subject information such as depth information acquired through the receiving circuit 330 for a next processing task. For example, the memory 350 detects plane coordinate information (eg, x value and/or y value) of preset measurement points in an image captured by the
데이터 처리 프로세서(360)는 수신회로(330)로부터 출력되는 전기적인 신호를 기반으로 피사체에 마련된 각 측정점에서의 깊이 정보를 획득할 수 있다. 일 실시예에 따르면, 데이터 처리 프로세서(360)는 송신회로(320)를 통해 레이저를 발사한 시점에서 측정 범위 내에 있는 피사체의 측정점들에서 반사된 레이저가 수신회로(330)를 통해 수신된 시점까지의 시간 차를 기반으로 각 측정점과의 거리를 추정할 수 있다. 데이터 처리 프로세서(360)는 각 측정점에 대하여 추정한 거리를 기반으로 해당 측정점에 대한 깊이 정보를 획득할 수 있다. 데이터 처리 프로세서(360)는 각 측정점에 대하여 획득한 깊이 정보를 메모리(350)에 기록할 수 있다. 일 실시예에 따르면, 데이터 처리 프로세서(360)는 전자 장치(101)에 포함된 프로세서(예: 도 1의 프로세서(120))의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 일 예로, 데이터 처리 프로세서(360)가 라이다 센서(300)에 포함된 경우, 데이터 처리 프로세서(360)는 측정점에 관한 정보 및/또는 측정점의 깊이 정보를 프로세서(120)로 제공될 수 있다. 다른 예로, 데이터 처리 프로세서(360)가 프로세서(120)의 적어도 일부로 구성된 경우, 수신회로(330)로부터 출력되는 전기적인 신호는 프로세서(120)로 제공될 수 있다. 이 경우, 프로세서(120)는 라이다 센서(300)로부터 제공된 전기적인 신호를 기반으로 피사체에 마련된 각 측정점에서의 깊이 정보를 획득할 수 있다.The data processing processor 360 may obtain depth information at each measurement point provided on the subject based on the electrical signal output from the receiving circuit 330 . According to one embodiment, the data processing processor 360 is configured from the time when the laser is emitted through the transmission circuit 320 to the time when the laser reflected from the measurement points of the subject within the measurement range is received through the reception circuit 330. Based on the time difference of , the distance to each measurement point can be estimated. The data processing processor 360 may obtain depth information on a corresponding measurement point based on the distance estimated for each measurement point. The data processing processor 360 may record depth information obtained for each measurement point in the memory 350 . According to one embodiment, the data processing processor 360 is configured as at least a part of a processor included in the electronic device 101 (eg, the
도 4는, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))에 마련된 신체 치수 측정 장치(400)의 블록 구성을 도시한 도면이다.FIG. 4 is a block diagram of a body
도 4를 참조하면, 일 실시예에 따라 전자장치(101)에 마련된 신체 치수 측정 장치(400)는 프로세서(410)(예: 도 1의 프로세서(120)), 카메라 모듈(420)(예: 도 1 또는 도 2의 카메라 모듈(180)), 라이다 센서(430)(예: 도 1의 센서 모듈(176)에 포함된 라이다 센서 또는 도 3의 라이다 센서(300)), 디스플레이(440)(예: 도 1의 표시 장치(160)) 또는 메모리(450)(예: 메모리(130))를 포함할 수 있다.Referring to FIG. 4 , the body
신체 치수 측정 장치(400)는 피사체의 이미지 및 미리 설정된 측정점들을 기반으로 상기 이미지에서의 깊이 정보를 수집하고, 상기 수집한 이미지 및 미리 설정된 측정점들의 깊이 정보를 기반으로 상기 피사체의 신체 치수를 획득할 수 있다. 상기 피사체의 이미지는, 예를 들어, 2차원 칼라 이미지일 수 있다. 상기 미리 설정된 측정점들은, 예를 들어, 카메라 모듈(420)의 화각, 즉 촬영되거나, 또는 촬영될 하나의 이미지에 포함된 피사체 또는 상기 피사체의 주변 물체의 깊이 정보를 얻기 위해, 라이다 센서(430)에 의해 레이저가 발사될 위치들일 수 있다. 상기 미리 설정된 측정점들은 하나의 이미지에 균일하게 분포되거나, 또는 피사체의 위치를 고려하여 상기 피사체에 상대적으로 많은 측정점들이 분포될 수 있다. 상기 측정점들의 개수는 라이다 센서(430)의 성능에 따라 상이할 수 있다. 일 예로, 라이다 센서(430)에서 센싱 값을 수신할 수 있는 측정점의 개수는 대략 600개 정도일 수 있다. 이후 딥러닝 모델을 통해 256*192로 업스케일링(upscaling)하여 사용할 수 있다. The body
일 실시예에 따르면, 신체 치수 측정 장치(400)는 촬영된 이미지에 포함된 피사체에 대하여 기준점들을 식별하고, 센싱 값이 수집된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득할 수 있다. 상기 기준점들은, 예를 들어, 신체 피수를 측정할 대상 신체 부분에서, 각 대상 신체 부분의 치수 측정을 위해 기준이 될 수 있는 중요 위치일 수 있다. 예컨대, 목, 어깨, 가슴, 허리, 골반, 엉덩이 또는 허벅지와 같은 대상 신체 부분에서 정면, 측면 또는 후면의 양쪽 끝점은 해당 신체 부분에 대응한 기준점들로 식별될 수 있으나, 이에 한정되지 않고, 해당 신체 부분 또는 부위 별로 두 개보다 그 보다 많은 기준점들이 추정될 수 있다. 또한, 기준점은 신체 부위 별로 상이한 개수를 가질 수 있다. 상기 측정선은 신체 치수를 측정할 신체 부분을 대상으로 마련될 수 있다. 상기 기준 측정점들은 센싱 값을 수집하기 위해 고려된 측정점들 중 피사체에서 식별된 기준점들의 위치에 매칭되는 측정점일 수 있다. 상기 측정선은, 예를 들어, 줄자와 같은 도구를 이용하여 수동으로 치수를 젤 시에 사용되는 측정선을 참조할 수 있다. 상기 측정선은 상기 기준 측정점들을 연결하도록 마련될 수 있다. 상기 보조 측정점들은 센싱 값을 수집하기 위해 고려된 측정점들 중 측정선 상에 위치하는 측정점들에서 기준 측정점들을 제외한 나머지 측정점일 수 있다. 일 실시예에 따르면, 신체 치수 측정 장치(400)는 기준 측정점들과 보조 측정점들의 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 피사체의 신체 치수를 획득할 수 있다.According to an embodiment, the body
보다 구체적으로, 카메라 모듈(420)은 프로세서(410)의 제어에 응답하여 소정 화각에서의 정지 영상 또는 동영상과 같은 이미지를 촬영할 수 있다. 카메라 모듈(420)은 촬영에 의해 수광이 이루어진 빛을 전기적 신호로 변환하고, 상기 변환한 전기적 신호를 출력할 수 있다. 카메라 모듈(180)은 실질적인 촬영이 이루어지기 이전에 촬영될 이미지의 프리뷰를 제공하기 위한 전기적 신호를 출력할 수 있다. 카메라 모듈(420)은 촬영에 의해 만들어진 전기적 신호 또는 프리뷰를 위해 만들어진 전기적 신호를 출력하기 이전에 상기 촬영 이미지 및/또는 프리뷰 이미지에 대하여 하나 또는 복수의 이미지 처리들을 수행할 수 있다. 일 실시예에 따르면, 카메라 모듈(420)에 의해 촬영되는 이미지는 피사체의 정면, 좌측면, 우측면 또는 후면 중 적어도 하나에 해당하는 이미지이다. 일 예로, 카메라 모듈(420)은, 신체 치수를 측정하기 위해, 피사체의 정면, 측면 및 후면을 촬영하여, 정면 이미지, 측면 이미지 및 후면 이미지에 해당하는 전기적 신호를 출력할 수 있다. 이 경우, 피사체의 정면, 측면 및 후면을 촬영할 때, 카메라 모듈(420)에서의 촬영 각도 및/또는 카메라 모듈(420)과 피사체 간의 거리를 가능한 일정하게 유지하는 것이 바람직할 수 있다. More specifically, the camera module 420 may capture an image such as a still image or a moving image at a predetermined angle of view in response to control of the
라이다 센서(430)는 소정의 수직 시야각 및 수평 시야각에 의해 미리 설정된 측정점들을 고려하여 대상 물체인 파사체를 향하여 복수의 레이저 빔들을 포함하는 레이저를 방출할 수 있다. 라이다 센서(430)는 피사체로부터 측정점들에서 반사되어 돌아오는 레이저를 검출할 수 있다. 라이다 센서(430)는 상기 검출한 레이저를 전기적인 신호로 변환하여 출력할 수 있다. 일 실시예에 따르면, 라이다 센서(430)에 의해 출력되는 전기적인 신호는 각 측정점에서 레이저를 송신한 시점과 수신한 시점 사이의 시간 차에 관한 정보 또는 깊이 정보에 관한 것일 수 있다.The lidar sensor 430 may emit a laser including a plurality of laser beams toward a projectile, which is a target object, in consideration of measurement points preset by predetermined vertical viewing angles and horizontal viewing angles. The lidar sensor 430 may detect laser reflected from a subject at measurement points and returned. The lidar sensor 430 may convert the detected laser into an electrical signal and output it. According to an embodiment, the electrical signal output by the lidar sensor 430 may be information about a time difference between a time point at which the laser is transmitted and a time when the laser is received at each measurement point, or depth information.
프로세서(410)는 카메라 모듈(420)로부터 피사체의 이미지를 제공받고, 라이다 센서(430)로부터 측정점들의 깊이 정보를 제공받을 수 있다. 상기 측정점들은, 예를 들어, 라이다 센서(430)의 성능, 카메라 모듈(420)의 화각, 피사체의 크기 또는 피사체의 위치와 같은 항목을 고려하여 미리 설정될 수 있다. 프로세서(410)는 카메라 모듈(420)로부터 제공된 이미지와 라이다 센서(430)로부터 제공된 측정점들의 깊이 정보를 기반으로 피사체에 대한 신체 치수를 획득할 수 있다. The
일 실시예에 따르면, 프로세서(410)는 카메라 모듈(420)을 통해 피사체를 포함하는 이미지를 수집할 수 있고, 라이다 센서(430)를 통해 미리 설정된 측정점들을 기반으로 상기 이미지에서의 깊이 정보를 수집할 수 있다. 상기 프로세서(410)는, 예를 들어, 피사체가 신체 치수 측정이 용이한 포즈를 취하고 있는 상황에서 이미지 및 깊이 정보를 수집할 수 있도록 하기 위하여, 상기 피사체의 포즈를 식별하고, 이를 고려하여 상기 피사체의 촬영을 수행할 수 있다. 상기 프로세서(410)는 포즈 추정 기술을 기반으로 피사체의 포즈를 식별하고, 상기 식별한 포즈와 신체 치수 측정이 용이한 미리 설정된 포즈를 비교하며, 상기 식별한 포즈가 상기 미리 설정된 포즈이면, 카메라 모듈(420)을 통해 이미지를 수집하기 위하여 상기 피사체에 대한 촬영을 수행할 수 있다.According to an embodiment, the
일 실시예에 따르면, 프로세서(410)는 카메라 모듈(420)를 통해 피사체에 대한 프리뷰 이미지를 획득할 수 있고, 상기 획득한 프리뷰 이미지를 디스플레이(440)를 통해 출력할 수 있다. 상기 프로세서(410)는 프리뷰 이미지 또는 실제로 촬영된 이미지로부터 원하는 피사체의 윤곽선을 검출할 수 있고, 상기 검출한 윤곽선에 의한 윤곽선 이미지 내에서 피사체의 형태를 인지하기 용이한 주요점들을 식별하거나, 또는 마련할 수 있다. 상기 프로세서(410)는 상기 주요첨들을 연결하여 신체 골격선을 구성할 수 있고, 상기 구성된 신체 골격선을 이용하여 상기 피사체의 포즈를 식별할 수 있다. 상기 프로세서(410)는 신체 치수 측정이 용이한 포즈를 안내하는 이미지를 디스플레이(440)를 통해 표시할 수 있다. 이는, 사용자에게 피사체가 해당 포즈를 취할 수 있도록 도움을 줄 수 있거나, 사용자가 피사체가 해당 포즈를 취하고 있는지를 인지하는데 도움을 줄 수 있을 것이다.According to an embodiment, the
일 실시예에 따르면, 프로세서(410)는 수집한 이미지에 포함된 피사체에서 신체의 주요 위치에 해당하는 기준점들을 식별할 수 있다. 상기 기준 측정점들은, 예를 들어, 미리 설정된 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점일 수 있다. According to an embodiment, the
일 실시예에 따르면, 프로세서(410)는 깊이 정보를 수집하기 위해 고려된 측정점들 중 기준점들에 대응한 기준 측정점들과 상기 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득할 수 있다. 상기 프로세서(410)는, 예를 들어, 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 이미지 내의 피사체에서 식별한 기준점들에 매핑되는 측정점들을 기준 측정점들로 설정할 수 있다. 상기 프로세서(410)는 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 측정선 상에 위치하는 측정점들에서 기준 측정점들을 제외한 나머지 측정점들을 보조 측정점들로 설정할 수 있다. 상기 측정선은 신체 치수를 측정할 신체 부분을 대상으로 마련될 수 있다. 상기 측정선은, 예를 들어, 줄자와 같은 도구를 이용하여 수동으로 치수를 젤 시에 사용되는 측정선을 참조할 수 있다. 상기 측정선은 상기 기준 측정점들을 최단 거리로 연결하여 마련될 수 있다. 상기 측정선은, 예를 들어, 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 하나 또는 복수의 선을 포함할 수 있다. 결론적으로, 측정선은 적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 최단 거리로 연결하는 선일 수 있다.According to an embodiment, the
일 실시예에 따르면, 프로세서(410)는 기준 측정점들의 좌표 값과 깊이 정보를 획득하고, 보조 측정점들의 좌표 값과 깊이 정보를 획득할 수 있다. 상기 프로세서(410)는 기준 측정점들에서 획득한 좌표 값과 깊이 정보 및 보조 측정점들에서 획득한 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 피사체의 신체 치수를 획득할 수 있다. 상기 프로세서(410)는 측정선들에 대응하여 획득한 신체 치수들 중 하나 또는 복수의 신체 치수들을 디스플레이(440)를 통해 출력할 수 있다.According to an embodiment, the
디스플레이(440)는 프로세서(410)의 제어를 받아 피사체의 프리뷰 이미지, 실제 촬영된 피사체의 이미지, 측정된 신체 치수에 관한 정보와 같이 신체 치수 측정과 관련된 이미지 또는 정보를 표시할 수 있다. 상기 디스플레이(440)는 사용자가 정보를 입력할 수 있도록 터치 방식의 키 패턴을 더 표시할 수 있다.Under the control of the
메모리(450)는 프로세서(410)의 제어를 받아 다양한 정보를 저장하거나, 독출할 수 있다. 일 실시예에 따르면, 메모리(450)는 프로세서(410)의 제어에 의해 신체 치수를 측정하기 위하여 촬영된 이미지, 신체 치수를 측정하기 위해 요구되는 정보, 측정된 신체 치수에 관한 정보를 저장할 수 있다. 상기 메모리(450)는 상기 프로세서(410)의 요청에 응답하여 기록된 정보를 출력할 수 있다.The
도 5는, 본 개시의 일 실시예에 따른 신체 치수 측정 장치(예: 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 수행하는 프로세서(예: 도 4의 프로세서(410))의 기능 블록을 도시한 도면이다.FIG. 5 is a diagram of a processor (eg,
도 5를 참조하면, 일 실시예에 따라 신체 치수 측정을 수행하는 프로세서(410)는 카메라 모듈(예: 도 4의 카메라 모듈(420))로부터 제공된 입력 이미지(551), 라이다 센서(예: 도 4의 라이다 센서(430))로부터 제공된 깊이 정보(552) 또는 입력 장치(예: 도 1의 입력 장치(150)) 또는 메모리(예: 도 1의 메모리(130))로부터 제공되는 제어 정보(553)을 기반으로 상기 입력 이미지(551)에 포함된 피사체의 신체 치수를 측정할 수 있으며, 상기 측정한 신체 치수를 디스플레이(예: 도 4의 디스플레이(440)를 통해 출력할 수 있다. 일 실시예에 따르면, 프로세서(410)는 카메라 모듈(420)로부터 제공된 입력 이미지(551)에 포함된 피사체에서 기준점들을 식별하고, 라이다 센서(430)에서 깊이 정보를 획득하는 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하도록 구성될 수 있다. 일 실시예에 따르면, 신체 치수 측정을 수행하는 프로세서(410)는 이미지 처리 모듈(510), 깊이 정보 분석 모듈(530), 신체 치수 측정 모듈(520) 또는 화면 구성 모듈(540)을 포함할 수 있다.Referring to FIG. 5 , the
일 실시예에 따르면, 이미지 처리 모듈(510)은 카메라 모듈((420)로부터 제공된 입력 이미지(551)(예: 프리뷰 이미지)를 화면 구성 모듈(540)를 통해 디스플레이(440)를 통해 출력 가능하도록 신호 처리를 수행할 수 있다. 상기 프리뷰 이미지는 실제 촬영에 의해 얻어진 이미지가 아닌 촬영에 의해 얻을 수 있는 이미지를 선행하여 보이기 위한 이미지일 수 있다. 상기 프리뷰 이미지는, 예를 들어, 섬네일 형식으로 만들어질 수 있다. 상기 이미지 처리 모듈(510)은 프리뷰 이미지에 포함된 피사체에서 주요점들을 결정할 수 있다. 상기 주요점들은 피사체의 형상을 식별하기 용이한 피사체 내에서의 위치가 될 수 있다. 상기 주요점들은, 예를 들어, 신체의 관절이 존재하는 위치들일 수 있다. 즉, 상기 주요점들은 양쪽 손목 부근, 양쪽 팔꿈치 부근, 양쪽 골반 부근, 양쪽 무릎 부근, 양쪽 발목 부근, 양쪽 귀, 코 또는 양쪽 눈에 마련될 수 있다. According to an embodiment, the
일 실시예에 따르면, 이미지 처리 모듈(510)은 주요점들 중 일부 또는 전부를 실선으로 연결하여 골격선을 만들고, 상기 골격선에 의해 피사체의 형태를 식별할 수 있다. 일 예로, 피사체가 사람인 경우, 상기 피사체의 형태는 사람이 취하고 있는 포즈가 될 수 있다. According to an embodiment, the
일 실시예에 따르면, 이미지 처리 모듈(510)은 포즈 추정 기술을 기반으로 프리뷰 이미지에서 피사체를 찾고, 상기 피사체의 주요점들을 결정하며, 상기 결정된 주요점들을 연결하여 만들어진 골격선에 의해 피사체의 형태를 식별할 수 있다. 상기 이미지 처리 모듈(510)은 골격선에 의해 식별된 포즈가 신체 치수 측정을 위한 포즈와 일치하는지를 판단할 수 있다. 상기 신체 치수 측정을 위한 포즈는 미리 설정될 수 있다. 일 예로, 신체 치수 측정을 위해 미리 설정된 포즈는 양쪽 팔과 다리를 어느 정도 벌리고 서있는 포즈일 수 있다. According to an embodiment, the
일 실시예에 따르면, 이미지 처리 모듈(510)은 카메라 모듈(420)을 통해 피사체를 촬영하여 실제로 촬영된 입력 이미지(551)를 획득하고, 상기 획득한 입력 이미지(551)에서 피사체의 윤곽선을 검출하고, 상기 검출한 윤곽선으로 이루어진 원본 윤곽선 이미지를 생성할 수 있다. 상기 윤곽선은 피사체의 에지 선일 수 있다. 상기 입력 이미지(551)로부터 원본 윤곽선 이미지를 생성하는 윤곽선 검출 기술은, 예를 들어, 세그먼테이션 기법이 사용될 수 있다. According to an embodiment, the
일 실시예에 따르면, 이미지 처리 모듈(510)은 피사체의 포즈를 식별하기 위해 이용된 주요점들 중 일부 또는 전부 및/또는 골격선을 원본 윤곽선 이미지에 매칭하여 보간 윤곽선 이미지를 생성할 수 있다. 상기 보간 윤곽선 이미지는 윤곽선 내에 일부 주요점들 및/또는 골격선이 표시된 이미지일 수 있다. 상기 주요점들 중 일부 또는 전부 및/또는 골격선은 원본 윤곽선 이미지에 매칭시키기 위하여, 크기 및/또는 위치가 조정될 수 있다. 이는, 포즈를 식별하기 위하여 이용된 피사체와 윤곽선 검출을 위해 이용된 피사체의 크기 및/또는 위치가 완전히 일치하지 않을 경우에 수행될 수 있다.According to an embodiment, the
일 실시예에 따르면, 이미지 처리 모듈(510)은 보간 윤곽선 이미지에서 피사체의 윤곽선에서 신체 측정을 위한 주요 신체 부위들(예: 목, 어깨, 가슴, 허리, 골반, 엉덩이, 허벅지)의 높이 및/또는 위치를 고려한 기준점들을 추정할 수 있다. 상기 기준점들은 신체 측정을 위한 주요 신체 부위들의 양쪽 끝점으로 추정하였으나, 이에 한정되지 않고, 주요 신체 부위 별로 두 개보다 많은 기준점들이 추정되거나, 주요 신체 부위 별로 상이한 개수의 기준점들이 추정될 수도 있다. 또한, 기준점들은 피사체의 정면 이미지, 측면 이미지 및/또는 후면 이미지 중 적어도 하나의 이미지로부터 추정될 수 있다.According to an embodiment, the
일 실시예에 따르면, 깊이 정보 분석 모듈(530)은 라이다 센서(430)를 통해 미리 설정된 측정점들에서 피사체의 깊이 정보(552)를 획득하고, 상기 획득한 깊이 정보에 대한 분석을 수행할 수 있다. 상기 깊이 정보는, 예를 들어, 라이다 센서(430)가 미리 설정된 측정점들로 레이저를 발사하고, 상기 측정점들로부터 반사되어 돌아온 정보를 기반으로 획득할 수 있다. 상기 깊이 정보는 측정점 별로 획득되거나, 또는 피사체에 배치된 측정점들에 대해서만 획득될 수도 있다.According to an embodiment, the depth
일 실시예에 따르면, 깊이 정보 분석 모듈(530)은 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 입력 이미지(551) 내의 피사체에서 식별한 기준점들에 매핑되는 측정점들을 기준 측정점들로 설정할 수 있다. 상기 깊이 정보 분석 모듈(530)은 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 측정선 상에 위치하는 측정점들에서 기준 측정점들을 제외한 나머지 측정점들을 보조 측정점들로 설정할 수 있다. 상기 측정선은 신체 치수를 측정할 신체 부분을 대상으로 마련될 수 있다. 상기 측정선은, 예를 들어, 줄자와 같은 도구를 이용하여 수동으로 치수를 젤 시에 사용되는 측정선을 참조할 수 있다. 상기 측정선은 상기 기준 측정점들을 최단 거리로 연결하여 마련될 수 있다. 상기 측정선은, 예를 들어, 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 하나 또는 복수의 선을 포함할 수 있다. 결론적으로, 측정선은 적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 최단 거리로 연결하는 선일 수 있다.According to an embodiment, the depth
일 실시예에 따르면, 신체 치수 측정 모듈(520)은 이미지 처리 모듈(510)로부터 기준점들, 주요점들 및/또는 골격선에 관한 정보를 포함하는 보간 윤곽선 이미지를 제공받을 수 있고, 깊이 정보 분석 모듈(530)로부터 기준 측정점들과 보조 측정점들에 관한 정보 및/또는 깊이 정보를 제공받을 수 있다. 상기 신체 치수 측정 모듈(520)은 깊이 정보를 수집하기 위해 고려된 측정점들 중 기준점들에 대응한 기준 측정점들과 상기 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득할 수 있다. According to an embodiment, the body
일 실시예에 따르면, 신체 치수 측정 모듈(520)은 측정선 별로 신체 치수를 획득할 수 있다. 상기 신체 치수 측정 모듈(520)은, 예를 들어, 측정선들 중 가슴 둘레를 측정할 수 있는 정면 측정선, 측면 측정선 또는 후면 측정선 중 적어도 하나를 구성하는 기준 측정점들과 보조 측정점들의 좌표 값과 깊이 값을 사용하여 상기 기준 측정점들과 상기 보조 측정점들 사이의 거리를 계산하고, 상기 계산된 거리의 합에 의해 가슴 둘레에 해당하는 치수 값을 획득할 수 있다. 그 외의 다른 주요 신체 부위 별 측정선들에 대해서도 동일한 방식에 의한 신체 치수를 획득할 수 있다. 상기 신체 치수 측정 모듈(520)은 피사체에 대응하여 주요 신체 부위 별로 획득한 신체 치수를 메모리(예: 도 4의 메모리(450))에 기록할 수 있다. 상기 메모리(450)에 기록된 신체 치수는 추가적인 신체 치수 측정 없이도 사용자가 의류 구입 등에 이용할 수 있다. According to an embodiment, the body
일 실시예에 따르면, 신체 치수 측정 모듈(520)은 피사체의 머리 끝과 발뒤꿈치에서의 좌표 값과 깊이 값을 이미지 처리 모듈(510)과 깊이 정보 분석 모듈(530)로부터 획득할 수 있다. 상기 신체 치수 측정 모듈(520)은 머리 끝에서의 좌표 값과 깊이 값과 발뒤꿈치에서의 좌표 값과 깊이 값을 사용하여 상기 피사체의 신장을 획득할 수 있다.According to an embodiment, the body
일 실시예에 따르면, 화면 구성 모듈(540)은 측정선 별로 획득한 신체 치수를 사용하여 피사체의 신체 치수를 포함하는 출력 이미지(561)을 구성할 수 있고, 상기 구성한 출력 이미지(561)를 디스플레이(예: 도 4의 디스플레이(440))에서 표시될 수 있도록 출력할 수 있다. 상기 화면 구성 모듈(540)은 제어 정보(553)에 응답하여 출력 이미지(561)를 가공하여 출력할 수도 있다.According to an embodiment, the
도 6은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수를 측정하기 위한 제어 흐름을 도시한 도면이다.6 is a diagram illustrating a control flow for measuring a body size in an electronic device (eg, the electronic device 101 of FIG. 1 or the body
도 6을 참조하면, 전자 장치(400)는, 동작 610에서, 카메라 모듈(예: 도 1의 카메라 모듈(180) 또는 도 4의 카메라 모듈(420))을 통해 피사체를 포함하는 이미지를 수집할 수 있고, 라이다 센서(예: 도 4의 라이다 센서(430))를 통해 미리 설정된 측정점들을 기반으로 상기 이미지에서의 깊이 정보를 수집할 수 있다. Referring to FIG. 6 , in
상기 전자 장치(400)는 피사체가 신체 치수 측정이 용이한 포즈를 취하고 있는 상황에서 이미지 및 깊이 정보를 수집할 수 있도록 하기 위하여, 상기 피사체의 포즈를 식별하고, 이를 고려하여 상기 피사체의 촬영을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 포즈 추정 기술을 기반으로 피사체의 포즈를 식별하고, 상기 식별한 포즈와 신체 치수 측정이 용이한 미리 설정된 포즈를 비교하며, 상기 식별한 포즈가 상기 미리 설정된 포즈이면, 카메라 모듈(420)을 통해 이미지를 수집하기 위하여 상기 피사체에 대한 촬영을 수행할 수 있다. 상기 전자 장치(400)는, 예를 들어, 상기 카메라 모듈(420)를 통해 상기 피사체에 대한 프리뷰 이미지를 획득할 수 있고, 상기 획득한 프리뷰 이미지를 디스플레이(예: 도 1의 표시 장치(160) 또는 도 4의 디스플레이(440))를 통해 출력할 수 있다. 상기 전자 장치(400)는 프리뷰 이미지 또는 실제로 촬영된 이미지로부터 원하는 피사체의 윤곽선을 검출할 수 있고, 상기 검출한 윤곽선에 의한 윤곽선 이미지 내에서 피사체의 형태를 인지하기 용이한 주요점들을 식별하거나, 또는 마련할 수 있다. 상기 전자 장치(400)는 상기 주요첨들을 연결하여 신체 골격선을 구성할 수 있고, 상기 구성된 신체 골격선을 이용하여 상기 피사체의 포즈를 식별할 수 있다. 상기 전자 장치(400)는 신체 치수 측정이 용이한 포즈를 안내하는 이미지를 상기 디스플레이(440)를 통해 표시할 수 있다. 이는, 사용자에게 피사체가 해당 포즈를 취할 수 있도록 도움을 줄 수 있거나, 사용자가 피사체가 해당 포즈를 취하고 있는지를 인지하는데 도움을 줄 수 있을 것이다.The
상기 전자 장치(400)는, 동작 620에서, 상기 수집한 이미지에 포함된 피사체에서 신체의 주요 위치에 해당하는 기준점들을 식별할 수 있다. 상기 기준 측정점들은, 예를 들어, 미리 설정된 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점일 수 있다. In
상기 전자 장치(400)는, 동작 630에서, 깊이 정보를 수집하기 위해 고려된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 이미지 내의 피사체에서 식별한 기준점들에 매핑되는 측정점들을 기준 측정점들로 설정할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 라이다 센서(430)를 통해 깊이 정보를 측정하기 위해 설정된 측정점들 중 측정선 상에 위치하는 측정점들에서 기준 측정점들을 제외한 나머지 측정점들을 보조 측정점들로 설정할 수 있다. 상기 측정선은 신체 치수를 측정할 신체 부분을 대상으로 마련될 수 있다. 상기 측정선은, 예를 들어, 줄자와 같은 도구를 이용하여 수동으로 치수를 젤 시에 사용되는 측정선을 참조할 수 있다. 상기 측정선은 상기 기준 측정점들을 최단 거리로 연결하여 마련될 수 있다. 상기 측정선은, 예를 들어, 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 하나 또는 복수의 선을 포함할 수 있다. 결론적으로, 측정선은 적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 최단 거리로 연결하는 선일 수 있다.In
상기 전자 장치(400)는, 동작 630에서, 기준 측정점들의 좌표 값과 깊이 정보를 획득하고, 보조 측정점들의 좌표 값과 깊이 정보를 획득하며, 상기 기준 측정점들에서 획득한 좌표 값과 깊이 정보 및 보조 측정점들에서 획득한 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 피사체의 신체 치수를 획득할 수 있다. The
상기 전자 장치(400)는, 동작 640에서, 상기 측정선들에 대응하여 획득한 신체 치수들 중 하나 또는 복수의 신체 치수들을 디스플레이(440)를 통해 출력할 수 있다.In
상술한 동작에서는, 하나의 이미지를 사용하여 신체 치수를 측정하는 것에 대하여 설명하였으나, 이에 한정되지 않고, 하나의 피사체에 대한 정면 이미지, 측면 이미지 또는 후면 이미지 각각에서의 기준 측정점들 및 보조 측정점들을 식별하고, 이를 기반으로 측정선을 마련하여, 상기 마련된 측정선의 한 신체 치수를 측정할 수도 있다.In the above operation, although the measurement of the body size using one image has been described, it is not limited thereto, and identification of reference measurement points and auxiliary measurement points in each of the front image, side image, or rear image of one subject. And, based on this, a measurement line may be prepared, and one body size of the prepared measurement line may be measured.
도 7은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 위하여 포즈를 추정하는 일 예를 도시한 도면이다.7 illustrates an example of estimating a pose for body size measurement in an electronic device (eg, the electronic device 101 of FIG. 1 or the body
도 7을 참조하면, 일 실시예에 따른 제1이미지(710)는 신체 치수 측정을 위한 포즈를 추정하기 위한 포즈 추정 동작(730)이 이루어지기 이전의 초기 이미지일 수 있고, 제2이미지(720)는 포즈 추정 동작(730)이 이루어진 결과 이미지일 수 있다. 상기 제1이미지(710)는 프리뷰 이미지이거나, 또는 실제 촬영된 이미지일 수 있다. 상기 제1이미지(710)로 프리뷰 이미지를 이용하는 경우, 실제 신체 치수를 측정하기 위한 이미지를 얻기 위한 촬영이 추가로 이루어져야 하나, 그 외에 실체 치수를 측정하기 위한 동작은 동일할 수 있다. Referring to FIG. 7 , a
상기 제1이미지(710)는, 예를 들어, 촬영 상태를 표시하는 아이콘 또는 포즈 식별이 이루어졌는지 여부를 지시하는 아이콘 표시(711) 및 신체 치수를 측정할 대상인 피사체(713)를 포함할 수 있다. 상기 제2이미지(720)는 촬영 상태를 표시하는 아이콘 또는 포즈 식별이 이루어졌는지 여부를 지시하는 아이콘 표시(721), 피사체(713), 신체 포즈를 식별하기 용이한 피사체의 위치에 해당하는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)) 및 골격선(725)을 포함할 수 있다. 일 실시예에 따르면, 제1이미지(710)는 사용자의 신체 치수 측정 요청에 응답하여 디스플레이(예: 도 1의 표시 장치(160) 또는 도 4의 디스플레이(440))를 통해 출력될 수 있다. 상기 제1이미지(710)는 포즈 추정 동작(730)에 의해 피사체(713)의 형태, 즉 피사체(713)가 취하고 있는 포즈를 식별하기 용이한 포즈 추정 이미지인 제2이미지(720)를 얻기 위해 사용될 수 있다. 상기 제2이미지(720)는 촬영 상태를 표시하는 아이콘 또는 포즈 식별이 이루어졌는지 여부를 표시하는 아이콘이 활성화된 상태(721)로 표시되어 있다.The
일 실시예에 따르면, 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2))은 포즈 추정 동작(730)에 의해 제1이미지(710)로부터 결정할 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은 피사체(713)의 형상을 식별하기 용이한 피사체(713) 내에서의 위치가 될 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은, 예를 들어, 피사체(713)인 신체의 관절이 존재하는 위치들일 수 있다. 즉, 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은 양쪽 손목 부근(a1, a2), 양쪽 팔꿈치 부근(b1, b2), 양쪽 골반 부근(c1, c2), 양쪽 무릎 부근(e1, e2), 양쪽 발목 부근(f1, f2), 양쪽 귀(g1, g2), 코(h) 또는 양쪽 눈(i1, i2)에 마련될 수 있다. 상기 제2이미지(720)에 표시된 골격선(725)은 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)의 일부 또는 전부가 하나 또는 복수의 실선에 의해 연결되도록 형성할 수 있다.According to an embodiment, the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) are the pose estimation operation ( 730, it can be determined from the
도 8은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체의 주요 위치를 식별하는 일 예를 도시한 도면이다.FIG. 8 illustrates an example of identifying a main body position in an electronic device (eg, the electronic device 101 of FIG. 1 or the body
도 8를 참조하면, 일 실시예에 따른 이미지 (a)는 신체 치수를 측정하기 위한 원본 이미지(810)일 수 있고, 이미지 (b)는 세그먼테이션(segmentation) 기법(840)을 사용하여 원본 이미지(810)에서 획득한 피사체의 형체를 나타내는 원본 윤곽선 이미지(820)일 수 있으며, 이미지 (c)는 매칭 동작(850)을 수행하여 원본 윤곽선 이미지(820)에서 획득한 보간 윤곽선 이미지(830)일 수 있다. 상기 원본 이미지(810)는 신체 측정이 용이한 포즈를 취하고 있는 피사체(811)을 포함할 수 있다. 상기 원본 윤곽선 이미지(820)는 상기 원본 이미지(810)에 포함된 피사체(811)의 에지를 추출한 윤곽선(821)을 포함할 수 있다. 상기 보간 윤곽선 이미지(830)는 원본 윤곽선 이미지(820)에 포함된 윤곽선(821) 내에 일부 주요점들(예: 도 7의 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2)) 및/또는 골격선(831)(예: 도 7의 골격선(725))을 포함할 수 있다. 상기 보간 윤곽선 이미지(830)는 일부 또는 전부 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및/또는 골격선(831)이 원본 윤곽선 이미지(820)에 매칭될 수 있도록, 크기 및/또는 위치가 조정될 수 있다. 이는, 포즈를 식별하기 위하여 이용된 피사체(도 7의 피사체(713))와 윤곽선 검출을 위해 이용된 피사체(811)의 크기 및/또는 위치가 완전히 일치하지 않을 수 있기 때문이다.Referring to FIG. 8 , image (a) according to an embodiment may be an
도 9는, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 위한 기준 측정점들의 일 예를 도시한 도면이다.9 illustrates an example of reference measurement points for body size measurement in an electronic device (eg, the electronic device 101 of FIG. 1 or the body
도 9를 참조하면, 일 실시예에 따른 이미지 (a)는 신체 치수를 측정할 기준점들(P11, P12, P21, P22, P31, P32, P41, P42, P51, P52, P61, P62, P71, P72, P81)이 표시된 피사체(911)의 정면 이미지(910)일 수 있고, 이미지 (b)는 신체 치수를 측정할 기준점들(P13, P14, P23, P24, P33, P34, P43, P44, P53, P54, P63, P64, P73, P74)이 표시된 피사체(921)의 우측면 이미지(920)일 수 있으며, 이미지 (c)는 신체 치수를 측정할 기준점들(P15, P16, P25, P26, P35, P36, P45, P46, P55, P56, P65, P66, P75, P76, P81, P9, P10)이 표시된 피사체(931)의 후면 이미지(930)일 수 있다.Referring to FIG. 9 , an image (a) according to an exemplary embodiment shows reference points (P11, P12, P21, P22, P31, P32, P41, P42, P51, P52, P61, P62, P71, P72, P81) may be the front image 910 of the subject 911, and image (b) may be the reference points P13, P14, P23, P24, P33, P34, P43, P44, P53 for measuring the body size. . P36 , P45 , P46 , P55 , P56 , P65 , P66 , P75 , P76 , P81 , P9 , P10 ) may be displayed as the
일 실시예에 따르면, 이미지 (a), 이미지 (b) 또는 이미지 (c)는 피사체의 방향(예: 정면, 측면 또는 후면)에 상응한 주요점들 및 골격선을 포함할 수 있다. 예컨대, 정면 피사체(911)를 포함하는 이미지 (a)에는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(913)이 표시될 수 있고, 우측면 피사체(921)를 포함하는 이미지 (b)에는 주요점들(a1, b1, c1, d1, e1, f1) 및 골격선(923)이 표시될 수 있으며, 후면 피사체(931)를 포함하는 이미지 (c)에는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(933)이 표시될 수 있다.According to an embodiment, the image (a), image (b), or image (c) may include main points and bone lines corresponding to a direction (eg, front, side, or back) of the subject. For example, in the image (a) including the
일 실시예에 따르면, 이미지 (a), 이미지 (b) 또는 이미지 (c)에서는 신체 측정을 위한 주요 신체 부위들(예: 목, 어깨, 가슴, 허리, 골반, 엉덩이, 허벅지)의 양쪽 끝점을 기준점으로 표시하였으나, 이에 한정되지 않고, 주요 신체 부위 별로 두 개보다 많은 기준점들이 추정되거나, 주요 신체 부위 별로 상이한 개수의 기준점들일 수 있다. 예를 들어, 이미지 (a), 이미지 (b) 또는 이미지 (c)에서 목 부근의 기준점들을 P11, P12, P13, P14, P15 또는 P16로 표시하였고, 어깨 부근의 기준점들을 P21, P22, P23, P24, P25 또는 P26으로 표시하였고, 가슴 부근의 기준점들을 P31, P32, P33, P34, P35 또는 P36으로 표시하였으며, 허리 부근의 기준점들을 P41, P42, P43, P44, P45 또는 P46로 표시하였고, 골반 부근의 기준점들을 P51, P52, P53, P54, P55 또는 P56으로 표시하였고, 엉덩이 부근의 기준점들을 P61, P62, P63, P64, P65 또는 P66으로 표시하였고, 허벅지 부근의 기준점들을 P71, P72, P73, P74, P75 또는 P76으로 표시하였으며, 가랑이 부근의 기준점을 P81로 표시하였다. 이미지 (c)에서 신장을 측정하기 위한 기준점들은 P9 및 P10으로 표시하였다.According to one embodiment, in image (a), image (b), or image (c), both endpoints of main body parts (eg, neck, shoulder, chest, waist, pelvis, hip, thigh) for body measurement are set. Although indicated as reference points, it is not limited thereto, and more than two reference points may be estimated for each main body part, or a different number of reference points may be used for each main body part. For example, in the image (a), image (b), or image (c), the reference points near the neck are indicated as P11, P12, P13, P14, P15, or P16, and the reference points near the shoulder are indicated as P21, P22, P23, Reference points near the chest were marked as P24, P25 or P26, reference points near the chest were marked as P31, P32, P33, P34, P35 or P36, reference points near the waist were marked as P41, P42, P43, P44, P45 or P46, and pelvis Nearby reference points were marked as P51, P52, P53, P54, P55 or P56, reference points near the hip were marked as P61, P62, P63, P64, P65 or P66, reference points near the thigh were marked as P71, P72, P73, It was marked as P74, P75 or P76, and the reference point near the crotch was marked as P81. Reference points for measuring height in image (c) are marked as P9 and P10.
도 10은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 위한 깊이 정보를 획득할 측정점들이 마스킹된 이미지의 일 예를 도시한 도면이다.10 is a diagram of measurement points to obtain depth information for body size measurement in an electronic device (eg, the electronic device 101 of FIG. 1 or the body
도 10을 참조하면, 일 실시예에 따른 마스킹 이미지(1010)는 신체 치수를 측정할 피사체(1020)를 포함하는 이미지에 라이다 센서(예: 도 4의 라이다 센서(430))가 깊이 정보를 측정하도록 마련된 측정점들(1030)을 마스킹한 이미지이다. 상기 마스킹 이미지(1010)는 신체 치수를 측정하기 위해 고려될 기준점들(예: 도 9의 기준점들(P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81))에 상응한 측정점들인 기준 측정점들 및/또는 상기 기준점들에 의해 마련된 측정선들 상에 위치하는 측정점들인 보조 측정점들을 획득하기 위하여 고려될 수 있다. 일 예로, 마스킹 이미지(1010)는 기준 측정점들 및/또는 보조 측정점들의 위치 정보(예: x축과 y축에 의한 좌표 값) 및/또는 깊이 정보(예: z축의 좌표 값)를 계산하기 위해 사용될 수 있다.Referring to FIG. 10 , in a
도 11은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 신체 치수 측정을 위한 측정선들의 일 예를 도시한 도면이다.11 illustrates an example of measurement lines for measuring body size in an electronic device (eg, the electronic device 101 of FIG. 1 or the body
도 11을 참조하면, 일 실시예에 따른 이미지 (a)는 신체 치수를 측정할 정면 측정선들(1112, 1113, 1114, 1115, 1116, 1117, 1118)이 표시된 피사체의 윤곽선(1100)을 포함하는 정면 이미지(1110)일 수 있고, 이미지 (b)는 신체 치수를 측정할 우측면 측정선들(1122, 1123, 1124, 1125, 1126, 1127, 1128)이 표시된 피사체의 윤곽선(1100)을 포함하는 우측면 이미지(1120)일 수 있으며, 이미지 (c)는 신체 치수를 측정할 후면 측정선들(1132, 1133, 1134, 1135, 1136, 1137, 1138)이 표시된 피사체의 윤곽선(1100)을 포함하는 후면 이미지(1130)일 수 있다.Referring to FIG. 11 , an image (a) according to an embodiment includes an
일 실시예에 따르면, 이미지 (a), 이미지 (b) 또는 이미지 (c)는 피사체의 방향(예: 정면, 측면 또는 후면)에 상응한 주요점들 및 골격선을 포함할 수 있다. 예컨대, 정면 피사체(1141)를 포함하는 이미지 (a)에는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(1111)이 표시될 수 있고, 우측면 피사체(1142)를 포함하는 이미지 (b)에는 주요점들(a1, b1, c1, d1, e1, f1) 및 골격선(1121)이 표시될 수 있으며, 후면 피사체(1143)를 포함하는 이미지 (c)에는 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(1131)이 표시될 수 있다.According to an embodiment, the image (a), image (b), or image (c) may include main points and bone lines corresponding to a direction (eg, front, side, or back) of the subject. For example, in the image (a) including the front subject 1141, the main points (a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) and the
일 실시예에 따르면, 이미지 (a), 이미지 (b) 또는 이미지 (c)에서 목 부근의 기준점들인 P11, P12, P13, P14, P15 또는 P16, 어깨 부근의 기준점들인 P21, P22, P23, P24, P25 또는 P26, 가슴 부근의 기준점들인 P31, P32, P33, P34, P35 또는 P36, 허리 부근의 기준점들인 P41, P42, P43, P44, P45 또는 P46, 골반 부근의 기준점들인 P51, P52, P53, P54, P55 또는 P56, 엉덩이 부근의 기준점들인 P61, P62, P63, P64, P65 또는 P66, 허벅지 부근의 기준점들인 P71, P72, P73, P74, P75 또는 P76, 가랑이 부근의 기준점인 P81, 신장을 측정하기 위한 기준점들은 P9 및 P10은, 도면에서 생략되어 있으나, 이는 도 9에서의 표시와 동일하게 적용될 수 있을 것이다. According to one embodiment, reference points P11, P12, P13, P14, P15 or P16 near the neck and reference points P21, P22, P23, P24 near the shoulder in image (a), image (b) or image (c). , P25 or P26, reference points near the chest P31, P32, P33, P34, P35 or P36, reference points near the waist P41, P42, P43, P44, P45 or P46, reference points near the pelvis P51, P52, P53, P54, P55 or P56, reference points near the hip P61, P62, P63, P64, P65 or P66, reference points near the thigh P71, P72, P73, P74, P75 or P76, reference points near the crotch P81, measure height Reference points P9 and P10 are omitted from the drawing, but may be applied in the same manner as shown in FIG. 9 .
도 12는, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 측정된 신체 치수의 일 예를 도시한 도면이다.12 is a diagram illustrating an example of body measurements measured by an electronic device (eg, the electronic device 101 of FIG. 1 or the body
도 12를 참조하면, 일 실시예에 따른 이미지 (a)는 신체 치수 중 하나인 신장을 측정할 정면 신장 측정선(1211)이 표시된 피사체의 윤곽선을 포함하는 정면 이미지(1210)일 수 있고, 이미지 (b)는 신체 치수 중 하나인 신장을 측정할 후면 신장 측정선(1221)이 표시된 피사체의 윤곽선을 포함하는 후면 이미지(1220)일 수 있다. 상기 정면 신장 측정선(1211) 또는 상기 후면 신장 측정선(1221)을 획득하기 위하여 고려된 기준점들은 머리 끝점(P_top) 및 발바닥이 위치하는 바닥점(P_bottom)일 수 있다. 즉, 상기 정면 신장 측정선(1211) 또는 상기 후면 신장 측정선(1221)은 머리 끝점(P_top)과 바닥점(P_bottom)을 수직으로 연결하는 직선일 수 있다.Referring to FIG. 12 , image (a) according to an embodiment may be a
일 실시예에 따르면, 이미지 (a) 또는 이미지 (b)는 피사체의 방향(예: 정면 또는 후면)에 상응한 주요점들(예: 도 9의 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및 골격선(예: 도 9의 골격선들(913, 933) 및/또는 신체의 주요 위치들인 기준점들(예: 도 9의 기준점들(P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81)) 및/또는 측정선들(예: 도 11의 정면 측정선들(1112, 1113, 1114, 1115, 1116, 1117, 1118, 1119) 또는 측면 측정선들(1122, 1123, 1124, 1125, 1126, 1127, 1128) 또는 후면 측정선들(1132, 1133, 1134, 1135, 1136, 1137, 1138))을 포함할 수 있다. 도면에서는 주요점들, 골격선, 기준점들 또는 측정선들에 대한 참조부호 또는 참조번호가 생략되어 있으나, 이는 도 9 또는 도 11에서의 표시와 동일하게 적용될 수 있을 것이다.According to an embodiment, the image (a) or the image (b) includes main points (eg, main points (a1, a2, b1, b2, a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) and bone lines (eg,
도 13은, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 4의 신체 치수 측정 장치(400))에서 측정된 신체 치수를 디스플레이에 표시한 일 예를 도시한 도면이다.FIG. 13 illustrates an example of displaying body measurements measured by an electronic device (eg, the electronic device 101 of FIG. 1 or the body
도 13을 참조하면, 일 실시예에 따른 주요 신체 항목 별 치수는 전자 장치(1300)에 마련된 디스플레이(1310)에 표시될 수 있다. 상기 디스플레이(1310)에는, 예를 들어, 피사체의 이미지(1320), 상기 이미지(1320)에 대한 주요 신체 항목들 또는 상기 주요 신체 항목들 각각에 대하여 측정된 치수 값이 표시될 수 있다. 상기 디스플레이(1310)에 치수가 표시될 주요 신체 항목들은 신장(1331), 어깨(1332), 가슴(1333), 허리(1334), 골반(1335), 엉덩이(1336) 또는 허벅지(1337)를 포함할 수 있다.Referring to FIG. 13 , dimensions of each major body item according to an embodiment may be displayed on a
도 14는, 본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))에서 신체 측정을 위해 수행하는 제어 흐름도이다.14 is a control flowchart for body measurement performed by an electronic device (eg, the electronic device 101 of FIG. 1 ) according to an embodiment of the present disclosure.
도 14를 참조하면, 전자 장치(101)는, 동작 1401에서, 사용자의 신체 치수 측정 요청이 감지되는지를 판단할 수 있다. 상기 사용자의 신체 치수 측정 요청은, 예를 들어, 사용자가 신체 치수 측정을 요청하는 기능 키를 누르거나, 또는 사용자가 신체 치수 측정을 위한 응용 프로그램을 실행하는 것에 의해 감지될 수 있다. Referring to FIG. 14 , in
일 실시예에 따르면, 전자 장치(101)는, 신체 치수 측정 요청을 감지하면, 동작 1403에서, 카메라 모듈(예: 도 1의 카메라 모듈(180) 또는 도 4의 카메라 모듈(420))을 활성화시켜 프리뷰 이미지를 획득하고, 상기 획득한 프리뷰 이미지를 디스플레이(예: 도 1의 표시 장치(160))를 통해 출력할 수 있다. 상기 프리뷰 이미지는 실제 촬영에 의해 얻어진 이미지가 아닌 촬영에 의해 얻을 수 있는 이미지를 선행하여 보이기 위한 이미지일 수 있다. 상기 프리뷰 이미지는, 예를 들어, 섬네일 형식으로 만들어질 수 있다.According to an embodiment, when detecting a body size measurement request, the electronic device 101 activates a camera module (eg, the
다른 실시예에 따르면, 전자 장치(101)는, 신체 치수 측정 요청을 감지하면, 동작 1403에서, 카메라 모듈(420)을 통해 피사체를 촬영하여 실제로 촬영된 이미지를 획득하고, 상기 획득한 이미지를 디스플레이(예: 도 1의 표시 장치(160))를 통해 출력할 수 있다. 하기 설명에서는 편의를 위하여, 프리뷰 이미지를 전제로 하여 설명될 것이나, 해당 동작이 반드시 프리뷰 이미지에 한정되는 것이 아니라, 실제 촬영이 이루어진 이미지인 경우에도 동일하게 적용될 수 있을 것이다.According to another embodiment, when the electronic device 101 detects a body size measurement request, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1405에서, 프리뷰 이미지에 포함된 피사체(예: 이미지 내에 포함된 사람, 도 7의 피사체(713))에서 주요점들(예: 도 7의 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2))을 결정할 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은 피사체의 형상을 식별하기 용이한 피사체 내에서의 위치가 될 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은, 예를 들어, 신체의 관절이 존재하는 위치들일 수 있다. 즉, 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2)은 양쪽 손목 부근(a1, a2), 양쪽 팔꿈치 부근(b1, b2), 양쪽 골반 부근(c1, c2), 양쪽 무릎 부근(e1, e2), 양쪽 발목 부근(f1, f2), 양쪽 귀(g1, g2), 코(h) 또는 양쪽 눈(i1, i2)에 마련될 수 있다. According to an embodiment, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1407에서, 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) 중 일부 또는 전부를 실선으로 연결하여 골격선(예: 도 7의 골격선(725))을 만들고, 상기 골격선에 의해 피사체의 형태를 식별할 수 있다. 일 예로, 피사체가 사람인 경우, 상기 피사체의 형태는 사람이 취하고 있는 포즈가 될 수 있다. 상기 전자 장치(101)는, 예를 들어, 포즈 추정 기술(예: 도 7의 포즈 추정(730))을 기반으로 프리뷰 이미지에서 피사체를 찾고, 상기 피사체의 주요점들을 결정하며, 상기 결정된 주요점들을 연결하여 만들어진 골격선에 의해 피사체의 형태를 식별할 수 있다.According to an embodiment, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1409에서, 골격선에 의해 식별된 포즈가 신체 치수 측정을 위한 포즈와 일치하는지를 판단할 수 있다. 상기 신체 치수 측정을 위한 포즈는 미리 설정될 수 있다. 일 예로, 신체 치수 측정을 위해 미리 설정된 포즈는 도 7에 도시된 바와 같이 양쪽 팔과 다리를 어느 정도 벌리고 서있는 포즈일 수 있다. 식별된 포즈가 신체 치수 측정을 위한 포즈와 일치하지 않으면, 상기 전자 장치(101)는, 동작 1403으로 돌아가 프리뷰 이미지를 새롭게 획득하여 출력한 후, 치수 측정 포즈인지를 판단하는 동작을 반복하여 수행할 수 있다.According to an embodiment, in
상술한 동작 1403 내지 동작 1409에서는, 하나의 프리뷰 이미지(예: 피사체의 정면 이미지)에 대하여 수행되는 것으로 설명하였으나, 이에 한정되지 않으며, 좌측 이미지, 우측 이미지 또는 후면 이미지 중 적어도 하나의 이미지에 대해서도 동일한 동작에 의한 치수 측정 포즈인지 여부를 판단할 수도 있다.In the above-described
일 실시예에 따르면, 전자 장치(101)는, 식별된 포즈가 신체 치수 측정을 위한 포즈와 일치하면, 동작 1411에서, 카메라 모듈(420)을 통해 피사체를 포함하는 이미지를 획득할 수 있고, 라이다 센서(예: 도 4의 라이다 센서(430))를 통해 피사체의 깊이 정보를 획득할 수 있다. 상기 전자 장치(101)는, 피사체의 포즈를 식별하기 위하여 실체 촬영된 이미지가 이용되었다면, 추가 촬영에 의하여 이미지를 획득하지 않고, 상기 피사체의 포즈를 식별하기 위하여 이용된 이미지를 그대로 이용할 수 있다. 상기 깊이 정보는, 예를 들어, 라이다 센서(430)가 미리 설정된 측정점들(예: 도 10의 측정점들(1030))로 레이저를 발사하고, 상기 측정점들(1030)로부터 반사되어 돌아온 정보를 기반으로 획득할 수 있다. 이 경우, 깊이 정보는 측정점 별로 획득되거나, 또는 피사체(예: 도 10의 피사체(1020))에 배치된 측정점들에 대해서만 획득될 수 있다.According to an embodiment, if the identified pose coincides with the pose for body size measurement, the electronic device 101 may acquire an image including the subject through the camera module 420 in
일 실시예에 따르면, 전자 장치(101)는, 동작 1413에서, 이미지(예: 도 8의 이미지(810))에서 피사체(예: 도 8의 피사체(811))의 윤곽선(예: 도 8의 윤곽선(821))을 검출하고, 상기 검출한 윤곽선(821)으로 이루어진 원본 윤곽선 이미지(예: 윤곽선 이미지(820))를 생성할 수 있다. 상기 윤곽선은 피사체(811)의 에지 선일 수 있다. 상기 이미지(810)로부터 원본 윤곽선 이미지(820)를 생성하는 윤곽선 검출 기술(예: 도 8의 동작 840))은, 예를 들어, 세그먼테이션(segmentation) 기법이 사용될 수 있다.According to an embodiment, the electronic device 101, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1415에서, 피사체의 포즈를 식별하기 위해 이용된 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) 중 일부 또는 전부 및/또는 골격선(예: 도 8의 골격선(831))을 원본 윤곽선 이미지에 매칭(예: 도 8의 동작 850))하여 보간 윤곽선 이미지(예: 도 8의 보간 윤곽선 이미지(830))를 생성할 수 있다. 상기 보간 윤곽선 이미지(830)는 윤곽선(821) 내에 일부 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2) 및/또는 골격선(831)이 표시된 이미지일 수 있다. 상기 주요점들(a1, a2, b1, b2, c1, c2, d1, d2, e1, e2, f1, f2, g1, g2, h, i1, i2) 중 일부 또는 전부 및/또는 골격선(831)은 원본 윤곽선 이미지에 매칭시키기 위하여, 크기 및/또는 위치가 조정될 수 있다. 이는, 포즈를 식별하기 위하여 이용된 피사체(713)과 윤곽선 검출을 위해 이용된 피사체(811)의 크기 및/또는 위치가 완전히 일치하지 않을 경우에 수행될 수 있다.According to an embodiment, in
상술한 동작 1411 내지 동작 1415에서는, 하나의 프리뷰 이미지(예: 피사체의 정면 이미지, 도 8의 이미지(810))에 대하여 수행되는 것으로 설명하였으나, 이에 한정되지 않으며, 좌측 이미지, 우측 이미지 또는 후면 이미지 중 적어도 하나의 이미지에 대해서도 동일한 동작에 의한 보간 윤곽선 이미지를 생성할 수 있다.In the above-described
일 실시예에 따르면, 전자 장치(101)는, 동작 1417에서, 보간 윤곽선 이미지(예: 도 9의 보간 윤곽선 이미지(910))에서 피사체(예: 도 9의 피사체(911, 921, 931))의 윤곽선(예: 도 9의 윤곽선(913, 923, 933))에서 신체 측정을 위한 주요 신체 부위들(예: 목, 어깨, 가슴, 허리, 골반, 엉덩이, 허벅지)의 높이 및/또는 위치를 고려한 기준점들(예: 도 9의 기준점들(P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81))을 추정할 수 있다. 도 9에서는 신체 측정을 위한 주요 신체 부위들(예: 목, 어깨, 가슴, 허리, 골반, 엉덩이, 허벅지)의 양쪽 끝점을 기준점으로 추정하였으나, 이에 한정되지 않고, 주요 신체 부위 별로 두 개보다 많은 기준점들이 추정되거나, 주요 신체 부위 별로 상이한 개수의 기준점들이 추정될 수도 있다. 또한, 기준점들은 피사체의 정면 이미지(예: 도 8의 정면(a)) 외에도, 측면 이미지(예: 도 8의 측면(b)) 및/또는 후면 이미지(예: 도 8의 후면(c))에 대해서도 추정될 수 있다.According to an embodiment, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1419에서, 보간 윤곽선 이미지(예: 도 11의 정면, 측면 또는 후면 윤곽선 이미지(1110, 1120, 1130))에서 기준 측정점들을 획득할 수 있다. 상기 전자 장치(101)는, 예를 들어, 깊이 정보를 획득할 목적으로 라이다 센서(430)에 미리 설정된 측정점들(예: 도 10의 측정점들(1030))을 보간 윤곽선 이미지(예: 도 11의 정면, 측면 또는 후면 윤곽선 이미지(1110, 1120, 1130))에 마스킹(masking)하여, 상기 보간 윤곽선 이미지(910, 920, 930)의 기준점들(예: 도 9의 기준점들(P11, P12, P13, P14, P15, P16, P21, P22, P23, P24, P25, P26, P31, P32, P33, P34, P35, P36, P41, P42, P43, P44, P45, P46, P51, P52, P53, P54, P55, P56, P61, P62, P63, P64, P65, P66, P71, P72, P73, P74, P75, P76, P81))에 일치하거나, 가장 근접한 측정점들을 기준 측정점들로 획득할 수 있다. 상기 기준 측정점들은, 각 기준 측정점의 위치 정보(예: x축과 y축에 의한 좌표 값) 및/또는 깊이 정보(예: z축의 좌표 값)를 계산하는 것에 의해 획득될 수 있다.According to an embodiment, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1421에서, 보간 윤곽선 이미지(예: 도 11의 정면, 측면 또는 후면 윤곽선 이미지(1110, 1120, 1130))에서 보조 측정점들을 획득할 수 있다. 상기 전자 장치(101)는, 예를 들어, 주요 신체 부위 별로 획득한 두 개의 기준 측정점들을 연결하는 측정선(예: 도 11의 정면 측정선들(1112, 1113, 1114, 1115, 1116, 1117, 1118, 1119) 또는 측면 측정선들(1122, 1123, 1124, 1125, 1126, 1127, 1128) 또는 후면 측정선들(1132, 1133, 1134, 1135, 1136, 1137, 1138))을 형성할 때, 미리 설정된 측정점들(예: 도 10의 측정점들(1030)) 중 각 측정선 상에 배치된 측정점들을 해당 측정점 또는 해당 기준 측정점들에 대응한 보조 측정점들로 획득할 수 있다. 상기 보조 측정점들은 측정선들에 모두 동일하거나, 측정선 별로 상이할 수 있다. 상기 보조 측정점들은, 각 보조 측정점의 위치 정보(예: x축과 y축에 의한 좌표 값) 및/또는 깊이 정보(예: z축의 좌표 값)를 계산하는 것에 의해 획득될 수 있다.According to an embodiment, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1423에서, 측정선(예: 도 11의 정면 측정선들(1112, 1113, 1114, 1115, 1116, 1117, 1118, 1119) 또는 측면 측정선들(1122, 1123, 1124, 1125, 1126, 1127, 1128) 또는 후면 측정선들(1132, 1133, 1134, 1135, 1136, 1137, 1138)) 별로 신체 치수를 획득할 수 있다. 예컨대, 측정선들 중 가슴 둘레를 측정할 수 있는 정면 측정선(1114), 측면 측정선(1124) 또는 후면 측정선(1134) 중 적어도 하나를 구성하는 기준 측정점들과 보조 측정점들의 좌표 값과 깊이 값을 사용하여 상기 기준 측정점들과 상기 보조 측정점들 사이의 거리를 계산하고, 상기 계산된 거리의 합에 의해 가슴 둘레에 해당하는 치수 값을 획득할 수 있다. 그 외의 다른 주요 신체 부위 별 측정선들에 대해서도 동일한 방식에 의한 신체 치수를 획득할 수 있다. 상기 전자 장치(101)는 피사체에 대응하여 주요 신체 부위 별로 획득한 신체 치수를 메모리(예: 도 4의 메모리(450))에 기록할 수 있다. 상기 메모리(450)에 기록된 신체 치수는 추가적인 신체 치수 측정 없이도 사용자가 의류 구입 등에 이용할 수 있다. According to an embodiment, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1423에서, 피사체의 머리 끝(예: 도 12의 P_top)과 발뒤꿈치(예: 도 12의 P_bottom)을 획득하고, 상기 머리 끝(예: 도 12의 P_top)과 발뒤꿈치(예: 도 12의 P_bottom) 각각의 위치를 지시하는 좌표 값과 깊이 정보를 사용하여 상기 피사체의 신장(예: 도 9의 신장 측정선(1211, 1221)의 길이)을 획득할 수 있다.According to an embodiment, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1425에서, 측정선 별로 획득한 신체 치수를 사용하여 피사체의 신체 치수를 디스플레이(440)를 통해 출력할 수 있다. 상기 전자 장치(101)가 디스플레이(440)를 통해 피사체의 신체 치수를 출력한 예는 도 13에 도시된 바와 같다. 도 13에서는, 전자 장치(1300)에 마련된 디스플레이(1310)에 피사체의 이미지(1320) 및 신장(1331), 어깨(1332), 가슴(1333), 허리(1334), 골반(1335), 엉덩이(1336) 또는 허벅지(1337)와 같은 주요 신체 항목들에 대하여 측정된 치수가 표시된 예를 보이고 있다.According to an embodiment, in
일 실시예에 따르면, 전자 장치(101)는, 동작 1427에서, 사용자가 제품 사이즈를 요청하는지를 판단할 수 있다. 예컨대, 사용자는 전자 장치(101)에 마련된 물리적인 키 또는 디스플레이에 표시된 키를 조작하여 제품명, 의류 종류 또는 희망 핏과 같은 제품 관련 정보를 입력하는 것에 의해, 제품 사이즈를 요청할 수 있다. 상기 전자 장치(101)는, 사용자에 의해 제품 사이즈 요청이 접수되면, 동작 1429에서, 사용자에 의해 입력된 제품명, 의류 종류 또는 희망 핏과 같은 제품 관련 정보 및 상기 사용자에 대하여 측정된 신체 치수를 기반으로 원하는 제품에 대한 적합한 사이즈 정보를 생성하여 디스플레이(440)를 통해 출력할 수 있다.According to an embodiment, in
하기 <표 1>은 전자 장치(101)에서 신체 치수를 고려하여 제안될 수 있는 제품의 사이즈를 정의하고 있는 데이터 테이블의 일 예를 보이고 있다.Table 1 below shows an example of a data table defining the size of a product that can be suggested in consideration of the body size of the electronic device 101 .
상기 <표 1>에서 수치의 단위는 센티미터(cm)이고, 총장은 옆목에서 밑단까지의 길이가 될 수 있다.In <Table 1>, the unit of numerical value is centimeters (cm), and the total length can be the length from the side neck to the hem.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 디스플레이 장치, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a display device, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 문서에서 사용되는 '및/또는'이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다,' '가지다,' '구성되다' 등의 용어는 본 개시 상에 기재된 특징, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. For example, a component expressed in the singular number should be understood as a concept including a plurality of components unless the context clearly means only the singular number. It should be understood that the term 'and/or' as used herein encompasses any and all possible combinations of one or more of the listed items. Terms such as 'include,' 'have,' and 'consist of' used in this disclosure are only intended to designate that the features, components, parts, or combinations thereof described in this disclosure exist, and the use of these terms is not intended to exclude the possibility of the presence or addition of one or more other features, components, parts or combinations thereof. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited.
본 문서의 다양한 실시예들에서 사용된 용어 "~부" 또는 "~모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. "~부" 또는 "~모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, "~부" 또는 "~모듈"은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The terms "~unit" or "~module" used in various embodiments of this document may include a unit implemented as hardware, software, or firmware, and may include, for example, logic, logic blocks, components, or circuits. The same terms can be used interchangeably. "~unit" or "~module" may be an integrally constituted component or a minimum unit or part of the component that performs one or more functions. For example, according to one embodiment, “~ unit” or “~ module” may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들에서 사용된 용어 “할 경우”는 문맥에 따라 “할 때”, 또는 “할 시” 또는 “결정하는 것에 응답하여” 또는 “검출하는 것에 응답하여”를 의미하는 것으로 해석될 수 있다. 유사하게, “라고 결정되는 경우” 또는 “이 검출되는 경우”는 문맥에 따라 “결정 시” 또는 “결정하는 것에 응답하여”, 또는 “검출 시” 또는 “검출하는 것에 응답하여”를 의미하는 것으로 해석될 수 있다.The term "if" used in various embodiments of this document is interpreted to mean "when" or "when" or "in response to determining" or "in response to detecting" depending on the context. It can be. Similarly, "if it is determined" or "if is detected" is meant to mean "upon determining" or "in response to determining", or "upon detecting" or "in response to detecting", depending on the context. can be interpreted
본 문서를 통해 설명된 신체 치수 측정 장치(1)에 의해 실행되는 프로그램은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 프로그램은 컴퓨터로 읽을 수 있는 명령어들을 수행할 수 있는 모든 시스템에 의해 수행될 수 있다.A program executed by the body size measuring device 1 described throughout this document may be implemented as a hardware component, a software component, and/or a combination of hardware components and software components. A program can be executed by any system capable of executing computer readable instructions.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령어(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어는, 컴퓨터로 읽을 수 있는 저장 매체(computer-readable storage media)에 저장된 명령어를 포함하는 컴퓨터 프로그램으로 구현될 수 있다. 컴퓨터가 읽을 수 있는 저장 매체로는, 예를 들어 마그네틱 저장 매체(예컨대, ROM(Read-Only Memory), RAM(Random-Access Memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 저장 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 컴퓨터 프로그램은 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software may be implemented as a computer program including instructions stored in computer-readable storage media. Computer-readable storage media include, for example, magnetic storage media (eg, ROM (Read-Only Memory), RAM (Random-Access Memory), floppy disk, hard disk, etc.) and optical reading media (eg, CD-ROM) (CD-ROM) and DVD (Digital Versatile Disc). Computer-readable storage media may be distributed among networked computer systems so that computer-readable codes may be stored and executed in a distributed manner. The computer program may be distributed (eg downloaded or uploaded) online, via an application store (eg Play Store™) or directly between two user devices (eg smart phones). In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.
Claims (20)
촬영에 의한 이미지를 제공하도록 구성된 카메라 모듈;
미리 설정된 측정점들(data points)을 기반으로 상기 이미지에서의 깊이 정보(depth information)를 제공하도록 구성된 라이다 센서; 및
상기 카메라 모듈로부터 제공된 상기 이미지에 포함된 피사체에서 기준점들(reference points)을 식별하고, 상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들(target points)과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하도록 구성된 적어도 하나의 프로세서를 포함하는, 전자 장치.In electronic devices,
A camera module configured to provide an image by shooting;
a lidar sensor configured to provide depth information in the image based on preset data points; and
Reference points are identified in the subject included in the image provided from the camera module, and among the preset measurement points, target points corresponding to the identified reference points and the identified reference points are selected. and at least one processor configured to acquire a body size of the subject corresponding to each measurement line by using coordinate values and depth information of auxiliary measurement points located on the measurement lines prepared by the electronic device.
상기 적어도 하나의 프로세서의 제어에 의해, 상기 측정선들에 대응하여 획득한 신체 치수들 중 하나 또는 복수의 신체 치수들을 출력하도록 구성된 디스플레이를 더 포함하는, 전자 장치.According to claim 1,
The electronic device further comprises a display configured to output one or a plurality of body measurements among body measurements acquired in correspondence with the measurement lines, under the control of the at least one processor.
상기 적어도 하나의 프로세서가,
포즈 추정 (pose estimation) 기술을 기반으로 상기 피사체의 포즈를 식별하고, 상기 식별한 포즈가 미리 설정된 포즈이면, 상기 카메라 모듈을 제어하여 상기 피사체를 촬영하도록 구성된, 전자 장치.According to claim 1,
the at least one processor,
An electronic device configured to identify a pose of the subject based on a pose estimation technique and, if the identified pose is a preset pose, control the camera module to photograph the subject.
상기 적어도 하나의 프로세서가,
상기 카메라 모듈로부터 제공된 프리뷰 이미지에서 상기 피사체의 포즈를 식별하도록 구성된, 전자 장치.According to claim 3,
the at least one processor,
An electronic device configured to identify a pose of the subject in a preview image provided from the camera module.
상기 적어도 하나의 프로세서가,
상기 디스플레이를 제어하여 상기 미리 설정된 포즈를 안내하는 이미지를 표시하도록 구성된, 전자 장치.According to claim 3,
the at least one processor,
An electronic device configured to control the display to display an image guiding the preset pose.
상기 적어도 하나의 프로세서가,
상기 이미지로부터 상기 피사체의 윤곽선을 검출하고, 상기 검출한 윤곽선 내에 상기 식별한 포즈에 따른 신체 골격을 지시하는 주요점들(key points)을 마련하도록 구성된, 전자 장치.According to claim 3,
the at least one processor,
The electronic device configured to detect an outline of the subject from the image, and provide key points indicating a body skeleton according to the identified pose within the detected outline.
상기 적어도 하나의 프로세서는,
상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 매핑되는 측정점들을 상기 기준 측정점들로 설정하고,
상기 미리 설정된 측정점들 중 상기 측정선 상에 위치하는 측정점들에서 상기 기준 측정점들을 제외한 나머지 측정점들을 상기 보조 측정점들로 설정하는, 전자 장치.According to claim 1,
The at least one processor,
Setting measurement points mapped to the identified reference points among the preset measurement points as the reference measurement points;
The electronic device of claim 1 , wherein among the preset measurement points, measurement points located on the measurement line, except for the reference measurement points, are set as the auxiliary measurement points.
상기 카메라 모듈로부터 제공된 상기 이미지는, 상기 피사체의 정면 이미지, 측면 이미지 또는 후면 이미지 중 적어도 하나의 이미지를 포함하는, 전자 장치.According to claim 1,
The image provided from the camera module includes at least one image of a front image, a side image, or a back image of the subject.
상기 적어도 하나의 프로세서는,
적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 연결하는 선을 측정선으로 설정하는, 전자 장치.According to claim 1,
The at least one processor,
An electronic device, wherein a line connecting at least two reference measurement points and auxiliary measurement points disposed between the at least two reference measurement points is set as a measurement line.
상기 기준 측정점들은, 상기 미리 설정된 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점이고,
상기 측정선들은, 상기 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 두 개를 포함하는, 전자 장치.According to claim 1,
The reference measurement points are one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among the preset measurement points,
The measurement lines are a chest circumference line, a waist circumference line, a pelvis circumference line, a hip circumference line, and a right thigh via one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among the reference measurement points. An electronic device comprising at least two of a circumference line or a left thigh circumference line.
피사체의 이미지를 수집하는 동작;
미리 설정된 측정점들(data points)을 기반으로 상기 이미지에서의 깊이 정보(depth information)를 수집하는 동작;
상기 이미지에 포함된 상기 피사체에서 기준점들(reference points)을 식별하는 동작;
상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 대응한 기준 측정점들과 상기 식별된 기준점들에 의해 마련된 측정선들에 위치하는 보조 측정점들의 좌표 값 및 깊이 정보를 획득하는 동작; 및
상기 기준 측정점들과 상기 보조 측정점들에서 획득한 좌표 값 및 깊이 정보를 사용하여 각 측정선에 대응한 상기 피사체의 신체 치수를 획득하는 동작을 포함하는, 방법.A method for measuring body dimensions in an electronic device,
collecting an image of a subject;
collecting depth information from the image based on preset data points;
identifying reference points in the subject included in the image;
obtaining coordinate values and depth information of reference measurement points corresponding to the identified reference points among the preset measurement points and auxiliary measurement points located on measurement lines prepared by the identified reference points; and
and obtaining a body size of the subject corresponding to each measurement line using coordinate values and depth information obtained from the reference measurement points and the auxiliary measurement points.
상기 측정선들에 대응하여 획득한 신체 치수들 중 하나 또는 복수의 신체 치수들을 출력하는 동작을 더 포함하는, 방법.According to claim 11,
The method further comprises outputting one or a plurality of body measurements from among body measurements acquired in correspondence with the measurement lines.
포즈 추정(pose estimation) 기술을 기반으로 상기 피사체의 포즈를 식별하는 동작;
상기 식별한 포즈가 미리 설정된 포즈이면, 상기 피사체를 촬영하는 동작을 더 포함하는, 방법.According to claim 11,
identifying a pose of the subject based on a pose estimation technique;
If the identified pose is a preset pose, further comprising an operation of photographing the subject.
상기 피사체의 포즈를 식별하는 동작은,
상기 피사체에 대한 프리뷰 이미지에서 상기 피사체의 포즈를 식별하는 동작임을 특징으로 하는, 방법.According to claim 13,
The operation of identifying the pose of the subject,
Characterized in that the operation of identifying the pose of the subject in the preview image of the subject, the method.
상기 미리 설정된 포즈를 안내하는 이미지를 표시하는 동작을 더 포함하는, 방법.According to claim 13,
Further comprising an operation of displaying an image guiding the preset pose.
상기 피사체의 포즈를 식별하는 동작은,
상기 이미지로부터 상기 피사체의 윤곽선을 검출하는 동작; 및
상기 검출한 윤곽선 내에 상기 식별한 포즈에 따른 신체 골격을 지시하는 주요점들을 마련하는 동작을 포함하는, 방법.According to claim 13,
The operation of identifying the pose of the subject,
detecting an outline of the subject from the image; and
and providing main points indicating a body skeleton according to the identified pose within the detected contour line.
상기 좌표 값 및 깊이 정보를 획득하는 동작은,
상기 미리 설정된 측정점들 중 상기 식별된 기준점들에 매핑되는 측정점들을 상기 기준 측정점들로 설정하는 동작; 및
상기 미리 설정된 측정점들 중 상기 측정선 상에 위치하는 측정점들에서 상기 기준 측정점들을 제외한 나머지 측정점들을 상기 보조 측정점들로 설정하는 동작을 포함하는, 방법.According to claim 11,
The operation of obtaining the coordinate value and depth information,
setting measurement points mapped to the identified reference points among the preset measurement points as the reference measurement points; and
and setting, among the preset measurement points, measurement points located on the measurement line, other than the reference measurement points, as the auxiliary measurement points.
상기 이미지는, 상기 피사체의 정면 이미지, 측면 이미지 또는 후면 이미지 중 적어도 하나의 이미지를 포함하는, 방법.According to claim 11,
The image includes at least one image of a front image, a side image, or a back image of the subject.
적어도 두 개의 기준 측정점들과, 상기 적어도 두 개의 기준 측정점들 사이에 배치된 보조 측정점들을 연결하는 선을 측정선으로 설정하는 동작을 더 포함하는, 방법.According to claim 11,
The method further includes setting a line connecting at least two reference measurement points and auxiliary measurement points disposed between the at least two reference measurement points as a measurement line.
상기 기준 측정점들은, 상기 미리 설정된 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점이고,
상기 측정선들은, 상기 기준 측정점들 중 가슴, 허리, 골반, 엉덩이 또는 허벅지의 둘레에 위치하는 하나 또는 복수의 측정점을 경유하는 가슴 둘레선, 허리 둘레선, 골반 둘레선, 엉덩이 둘레선, 우측 허벅지 둘레선 또는 좌측 허벅지 둘레선 중 적어도 두 개를 포함하는, 방법.According to claim 11,
The reference measurement points are one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among the preset measurement points,
The measurement lines are a chest circumference line, a waist circumference line, a pelvis circumference line, a hip circumference line, and a right thigh via one or a plurality of measurement points located around the chest, waist, pelvis, hip, or thigh among the reference measurement points. At least two of a circumference line or a left thigh circumference line.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210170285 | 2021-12-01 | ||
KR1020210170285 | 2021-12-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230082523A true KR20230082523A (en) | 2023-06-08 |
Family
ID=86765853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220025899A KR20230082523A (en) | 2021-12-01 | 2022-02-28 | Apparatus and method for measuring size of part of body |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230082523A (en) |
-
2022
- 2022-02-28 KR KR1020220025899A patent/KR20230082523A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102664688B1 (en) | Method for providing shoot mode based on virtual character and electronic device performing thereof | |
KR102472156B1 (en) | Electronic Device and the Method for Generating Depth Information thereof | |
US20230221110A1 (en) | Detection device, detection system, detection method, and storage medium | |
WO2018028152A1 (en) | Image acquisition device and virtual reality device | |
WO2015197026A1 (en) | Method, apparatus and terminal for acquiring sign data of target object | |
WO2022012019A1 (en) | Height measuring method, height measuring device, and terminal | |
US11509815B2 (en) | Electronic device and method for processing image having human object and providing indicator indicating a ratio for the human object | |
US20210312179A1 (en) | Electronic device for providing recognition result of external object by using recognition information about image, similar recognition information related to recognition information, and hierarchy information, and operating method therefor | |
US11284020B2 (en) | Apparatus and method for displaying graphic elements according to object | |
TW202242716A (en) | Methods, apparatuses, devices and storage media for object matching | |
JP2011198270A (en) | Object recognition device and controller using the same, and object recognition method | |
KR20220094680A (en) | System and method for performing calibrations | |
KR20230082523A (en) | Apparatus and method for measuring size of part of body | |
KR20210048725A (en) | Method for controlling camera and electronic device therefor | |
US20220268935A1 (en) | Electronic device comprising camera and method thereof | |
JP2002027495A (en) | Three-dimensional image generating system, three- dimensional image generating method and three- dimensional information service system, and program providing medium | |
KR101755248B1 (en) | Method and system of generating 3D model and mobile device for the same | |
KR20200117460A (en) | Electronic device and method for controlling heat generation thereof | |
KR20200101803A (en) | Electronic device for generating depth map and method thereof | |
KR20200074780A (en) | Methord for processing image and electronic device thereof | |
CN112750157B (en) | Depth image generation method and device | |
CN113066084A (en) | Physical condition detection method and device, electronic equipment and storage medium | |
CN108475413A (en) | Consistently edit light field data | |
EP4012654A3 (en) | Feature determination, measurement, and virtualization from 2-d image capture | |
CN109328459B (en) | Intelligent terminal, 3D imaging method thereof and 3D imaging system |