KR102419299B1 - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
KR102419299B1
KR102419299B1 KR1020210040249A KR20210040249A KR102419299B1 KR 102419299 B1 KR102419299 B1 KR 102419299B1 KR 1020210040249 A KR1020210040249 A KR 1020210040249A KR 20210040249 A KR20210040249 A KR 20210040249A KR 102419299 B1 KR102419299 B1 KR 102419299B1
Authority
KR
South Korea
Prior art keywords
unit
light
sign language
area
under
Prior art date
Application number
KR1020210040249A
Other languages
Korean (ko)
Other versions
KR102419299B9 (en
KR20220079382A (en
Inventor
오은송
양대웅
Original Assignee
(주)딥인사이트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)딥인사이트 filed Critical (주)딥인사이트
Publication of KR20220079382A publication Critical patent/KR20220079382A/en
Application granted granted Critical
Publication of KR102419299B1 publication Critical patent/KR102419299B1/en
Publication of KR102419299B9 publication Critical patent/KR102419299B9/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • H04N5/2253
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • H04N5/2254
    • H04N5/36965

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 개시의 몇몇 실시예에 따른, 전자 장치가 개시된다. 상기 전자 장치는 디스플레이부의 제 1 영역의 하부에 위치하는 언더 디스플레이 카메라부; 및 상기 언더 디스플레이 카메라부를 통해 촬영된 제 1 객체를 인식하고, 상기 제 1 객체를 상기 디스플레이부의 상기 제 1 영역 상에 디스플레이하도록 디스플레이부를 제어하는 제어부를 포함할 수 있다.According to some embodiments of the present disclosure, an electronic device is disclosed. The electronic device may include an under-display camera unit positioned below the first area of the display unit; and a controller for recognizing a first object photographed through the under-display camera unit and controlling the display unit to display the first object on the first area of the display unit.

Description

전자 장치{ELECTRONIC DEVICE}Electronic device {ELECTRONIC DEVICE}

본 개시는 전자 장치에 관한 것으로, 구체적으로 객체 인식이 가능한 3차원 센싱 기능을 구비하는 전자 장치에 관한 것이다.The present disclosure relates to an electronic device, and more particularly, to an electronic device having a three-dimensional sensing function capable of object recognition.

최근, 인간이나 기타 사물 등의 객체 인식 기술에 대한 관심 및 활용도가 높아지고 있으며, 스마트 폰 등을 통해 일반 대중들이 쉽게 객체 인식 기술을 활용한 다양한 어플리케이션을 접할 수 있게 되었다. 따라서, 정밀한 3차원 형상 인식에 의해 객체의 형상, 위치나 움직임 등을 정확히 식별해야 할 필요성이 점차적으로 늘어나고 있다. 이를 위한 방법 중 하나로, 3차원 센싱 기술이 시도되고 있으며 이에 의해, 정밀한 모션 인식이 가능해지고 있다.Recently, interest in and utilization of object recognition technology such as humans and other objects is increasing, and the general public can easily access various applications using object recognition technology through smart phones. Accordingly, the necessity to accurately identify the shape, position, or movement of an object by means of precise three-dimensional shape recognition is gradually increasing. As one of the methods for this, a three-dimensional sensing technology is being tried, and thereby, precise motion recognition is enabled.

한편, e-나라지표에 따르면, 전년도인 2020년에 집계된 국내 청각 장애인은 대략 37만 7천명 정도가 존재하는 것으로 나타난다. 청각 장애인은 말 그대로 청각에 장애가 있는 사람으로서, 듣지 못하는 사람 및 듣지도 말하지도 못하는 사람을 의미할 수 있다. 청각 장애는 비록 개인에게 발생되는 문제지만, 이는 단순히 개인의 문제가 아니라 차별성에 대한 논란과 같은 사회적인 문제도 야기할 수 있다.On the other hand, according to the e-Nara indicator, there are approximately 377,000 people with hearing impairments in Korea counted in 2020, the previous year. A deaf person is literally a person who is deaf, and can refer to a person who is deaf and a person who cannot hear or speak. Although hearing impairment is an individual problem, it is not simply an individual problem, but can also cause social problems such as controversy over discrimination.

이에 따라, 국가 기관에서는 청각 장애인이 소외감을 느끼지 않고 일상 생활을 할 수 있도록 미디어 매체의 제공에 있어서 자막 또는 수어 등도 함께 제공할 것을 가이드하고 있다. 다만, 자막의 경우, 일반인의 생각과는 다르게 청각 장애인들이 쉽게 이해하기 어려울 수 있다. 이는 수어에는 조사 등이 부족하고 또한 수어와 글이 일치가 되지 않아 발생하는 문제로서, 청각 장애인의 자막 이해력은 일반인이 제 2 외국어를 배워 이해하는 것과 유사하다고도 한다. 그리하여, 이번 코로나-19와 같은 비상 브리핑 상황에서는 수어를 사용할 수 있는 수어 통역사가 화면의 하단에 한번도 빠짐없이 등장하기도 하였다.Accordingly, national institutions are guiding the deaf people to provide subtitles or sign language when providing media so that the hearing impaired can live their daily lives without feeling alienated. However, in the case of subtitles, it may be difficult for hearing impaired people to understand easily, contrary to what ordinary people think. This is a problem that occurs because there is insufficient research in sign language and the sign language and text do not match. Therefore, in an emergency briefing situation such as this Corona-19, a sign language interpreter who can use sign language appeared at the bottom of the screen without exception.

한편, 위와 같은 경우에서는 일반인과 청각 장애인 사이의 의사 소통을 돕기 위한 수어 통역사가 준비되어 있을 수 있지만, 일반적으로 일반인과 청각 장애인이 1:1로 대화를 하기 위하여 수어 통역사를 고용하는 것은 비용적인 문제로 인하여 쉽지 않을 수 있다. 더하여, 영상 통화와 같은 서비스에 있어서는 수어 통역사가 준비되어 있더라도 대화에 참여하기가 힘들다는 문제가 발생할 수 있다.On the other hand, in the above case, a sign language interpreter may be prepared to help communication between the general public and the hearing impaired, but in general, hiring a sign language interpreter for 1:1 conversation between the general public and the hearing impaired is a costly problem. It may not be easy because of In addition, in a service such as a video call, it may be difficult to participate in a conversation even if a sign language interpreter is available.

따라서, 수어 통역사가 없이도, 스마트 폰 또는 노트북과 같은 사용자 단말을 통해 일반인과 청각 장애인의 원활하게 대화할 수 있는 3차원 센싱 기술에 대한 수요가 존재한다.Therefore, there is a demand for a three-dimensional sensing technology capable of smoothly communicating with the general public and the hearing impaired through a user terminal such as a smart phone or a laptop without a sign language interpreter.

일본 등록특허 JP 6685887Japanese registered patent JP 6685887

본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 사용자와 관련된 객체의 인식이 가능한 3차원 센싱 기능을 구비하는 전자 장치를 제공하고자 한다.The present disclosure has been made in response to the above-described background technology, and an object of the present disclosure is to provide an electronic device having a three-dimensional sensing function capable of recognizing an object related to a user.

본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위한 본 개시의 일 실시예에 따라, 전자 장치가 개시된다. 상기 전자 장치는, 디스플레이부의 제 1 영역의 하부에 위치하는 언더 디스플레이 카메라부; 및 상기 언더 디스플레이 카메라부를 통해 촬영된 제 1 객체를 인식하고, 상기 제 1 객체를 상기 디스플레이부의 상기 제 1 영역 상에 디스플레이하도록 디스플레이부를 제어하는 제어부; 를 포함할 수 있다.According to an embodiment of the present disclosure for solving the above-described problems, an electronic device is disclosed. The electronic device may include an under-display camera unit positioned below the first area of the display unit; and a control unit for recognizing a first object photographed through the under-display camera unit and controlling the display unit to display the first object on the first area of the display unit. may include

또한, 상기 제 1 영역은, 상기 디스플레이부의 중심 영역일 수 있다.Also, the first area may be a central area of the display unit.

또한, 상기 제어부는, 상기 제 1 객체가 상기 제 1 영역과 상이한 제 2 영역에 디스플레이되는 경우, 상기 제 1 객체가 상기 제 1 영역에 디스플레이되도록 상기 언더 디스플레이 카메라부를 이동 수단에 의해 상기 제 2 영역으로 이동시킬 수 있다.In addition, when the first object is displayed in a second area different from the first area, the controller is configured to move the under-display camera unit to the second area by moving the under-display camera unit so that the first object is displayed in the first area. can be moved to

또한, 상기 제어부는, 상기 제 1 객체가 사용자의 손이고 상기 제 1 객체가 상기 제 2 영역에 디스플레이되는 경우, 상기 사용자의 손이 상기 제 1 영역 상에 디스플레이되도록 상기 언더 디스플레이 카메라부를 상기 이동 수단에 의해 상기 제 2 영역으로 이동시킬 수 있다.In addition, when the first object is a user's hand and the first object is displayed on the second area, the control unit may include the moving unit of the under-display camera unit such that the user's hand is displayed on the first area. can be moved to the second area by

또한, 상기 제어부는, 상기 제 1 객체가 사용자의 얼굴인 경우, 상기 디스플레이부 상에서 상기 사용자의 시선이 향하는 제 3 영역을 인식하고, 상기 언더 디스플레이 카메라부를 이동 수단에 의해 상기 제 3 영역으로 이동시킬 수 있다.In addition, when the first object is a user's face, the control unit recognizes a third area to which the user's gaze is directed on the display unit, and moves the under-display camera unit to the third area by a moving means. can

또한, 상기 제 1 객체로부터 감지되는 제 1 수어를 인식하여, 상기 제 1 수어에 대응하는 제 1 음성을 출력하는 수어-음성 출력부; 및 마이크를 통해 입력되는 제 2 음성을 인식하여, 상기 제 2 음성에 대응하는 제 2 수어를 출력하는 음성-수어 출력부; 를 더 포함할 수 있다.In addition, the sign language-to-speech output unit for recognizing a first sign language sensed from the first object and outputting a first voice corresponding to the first sign language; and a voice-signature output unit recognizing a second voice input through a microphone and outputting a second sign language corresponding to the second voice; may further include.

또한, 상기 수어-음성 출력부는, 상기 제 1 객체로부터 감지되는 상기 제 1 수어를 인식하는 수어 인식부; 인식된 상기 제 1 수어에 기초하여 적어도 하나의 수어 인덱스를 생성하는 제 1 인덱스 생성부; 상기 적어도 하나의 수어 인덱스 각각에 대응하는 적어도 하나의 단어를 매칭하는 수어-단어 매칭부; 상기 적어도 하나의 단어를 이용하여 적어도 하나의 문장을 생성하는 문장 생성부; 및 상기 적어도 하나의 문장에 대응하는 상기 제 1 음성을 출력하는 음성 출력부; 를 포함할 수 있다.The sign language-voice output unit may include: a sign language recognition unit for recognizing the first sign language sensed from the first object; a first index generator for generating at least one sign language index based on the recognized first sign language; a sign language-word matching unit matching at least one word corresponding to each of the at least one sign language index; a sentence generator for generating at least one sentence using the at least one word; and a voice output unit configured to output the first voice corresponding to the at least one sentence. may include

또한, 상기 음성-수어 출력부는, 상기 마이크를 통해 입력된 제 2 음성을 문자로 변환하는 음성 변환부; 상기 문자에 기초하여 적어도 하나의 수어 인덱스를 생성하는 제 2 인덱스 생성부; 상기 적어도 하나의 수어 인덱스 각각에 대응하는 적어도 하나의 이미지를 매칭하는 문자-이미지 매칭부; 상기 적어도 하나의 이미지를 이용하여 상기 제 2 수어를 생성하는 수어 생성부; 및 상기 제 2 수어를 출력하는 수어 출력부; 를 포함할 수 있다.In addition, the voice-sign output unit, the voice conversion unit for converting the second voice input through the microphone into text; a second index generator for generating at least one sign language index based on the character; a text-image matching unit matching at least one image corresponding to each of the at least one sign language index; a sign language generator for generating the second sign language by using the at least one image; and a sign language output unit for outputting the second sign language; may include

또한, 상기 언더 디스플레이 카메라부는, 제 1 기판; 상기 제 1 기판의 상부에 위치하는 제 2 기판; 상기 제 1 기판에 배치되는 광원 및 상기 광원과 동축으로 정렬되도록 상기 제 2 기판에 배치되는 광 생성 모듈을 포함하는 광 송신부; 및 상기 제 2 기판에 배치되는 광 가이드 모듈 및 상기 광 가이드 모듈과 동축으로 정렬되도록 상기 제 1 기판에 배치되는 광 센싱 모듈을 포함하는 광 수신부; 를 포함하고, 상기 광 생성 모듈은, 상기 광원의 광에 의해 상기 언더 디스플레이 카메라부의 외부로 조사되는 광 패턴을 생성하고, 상기 광 가이드 모듈은, 사전 결정된 패턴을 가지는 광 투과층을 가지고 상기 광 패턴에 의해 상기 언더 디스플레이 카메라부의 외부로부터 반사되는 광을 상기 광 투과층을 통해 상기 광 센싱 모듈로 통과시키고, 상기 광 센싱 모듈은, 상기 광 가이드 모듈을 통과한 광을 센싱함으로써 제 1 광학 이미지를 생성하고, 그리고 상기 제어부는, 상기 사전 결정된 패턴에 기초하여 상기 제 1 광학 이미지를 재구성함으로써 제 2 광학 이미지를 생성할 수 있다.In addition, the under display camera unit may include: a first substrate; a second substrate positioned on the first substrate; a light transmitter including a light source disposed on the first substrate and a light generating module disposed on the second substrate to be coaxially aligned with the light source; and a light receiving unit including a light guide module disposed on the second substrate and a light sensing module disposed on the first substrate to be coaxially aligned with the light guide module; including, wherein the light generating module generates a light pattern irradiated to the outside of the under-display camera unit by the light of the light source, and the light guide module has a light transmitting layer having a predetermined pattern and the light pattern by passing the light reflected from the outside of the under display camera unit to the light sensing module through the light transmitting layer, and the light sensing module senses the light passing through the light guide module to generate a first optical image And, the controller may generate a second optical image by reconstructing the first optical image based on the predetermined pattern.

또한, 상기 언더 디스플레이 카메라부는 TOF(Time Of Flight) 센서 모듈, 전하결합소자(Charge-Coupled Device, CCD) 모듈, CMOS(Complementary Metal-Oxide-Semiconductor) 모듈 또는 단광자 애벌런치 다이오드(SPAD, Single Photon Avalanche Diode) 모듈을 포함할 수 있다.In addition, the under-display camera unit includes a time-of-flight (TOF) sensor module, a charge-coupled device (CCD) module, a complementary metal-oxide-semiconductor (CMOS) module, or a single photon avalanche diode (SPAD, Single Photon) module. Avalanche Diode) module can be included.

본 개시에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical solutions obtainable in the present disclosure are not limited to the above-mentioned solutions, and other solutions not mentioned are clearly to those of ordinary skill in the art to which the present disclosure belongs from the description below. can be understood

본 개시의 몇몇 실시예에 따르면, 객체의 형상, 위치나 움직임 등을 정확히 식별할 수 있는 전자 장치를 제공하고자 한다.According to some embodiments of the present disclosure, an object is to provide an electronic device capable of accurately identifying the shape, position, or movement of an object.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. .

다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 특정 세부사항들 없이 실시될 수 있음은 명백할 것이다. 다른 예시들에서, 공지의 구조들 및 장치들이 하나 이상의 양상들의 기재를 용이하게 하기 위해 블록도 형태로 도시된다.
도 1은 본 개시의 몇몇 실시예에 따른 전자 장치의 일례를 설명하기 위한 블록 구성도이다.
도 2는 본 개시의 몇몇 실시예에 따른 언더 디스플레이 카메라의 일례를 설명하기 위한 도면이다.
도 3은 본 개시의 몇몇 실시예에 따른 전자 장치의 일례를 설명하기 위한 도면이다.
도 4는 본 개시의 몇몇 실시예에 따른 이동 수단의 일례를 설명하기 위한 도 3의 A-A' 단면도이다.
도 5는 본 개시의 몇몇 실시예에 따른 전자 장치의 제어부가 언더 디스플레이 카메라부를 이동시키는 방법의 일례를 설명하기 위한 흐름도이다.
도 6은 본 개시의 몇몇 실시예에 따른 디스플레이부에 디스플레이되는 제 1 객체의 일례를 설명하기 위한 도면이다.
도 7은 본 개시의 다른 몇몇 실시예에 따른 전자 장치의 제어부가 언더 디스플레이 카메라부를 이동시키는 방법의 일례를 설명하기 위한 흐름도이다.
도 8은 본 개시의 다른 몇몇 실시예에 따른 디스플레이부에 디스플레이되는 제 1 객체의 일례를 설명하기 위한 도면이다.
도 9는 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.
Various aspects are now described with reference to the drawings, wherein like reference numbers are used to refer to like elements throughout. In the following example, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. It will be apparent, however, that such aspect(s) may be practiced without these specific details. In other instances, well-known structures and devices are shown in block diagram form in order to facilitate describing one or more aspects.
1 is a block diagram illustrating an example of an electronic device according to some embodiments of the present disclosure;
2 is a view for explaining an example of an under display camera according to some embodiments of the present disclosure.
3 is a view for explaining an example of an electronic device according to some embodiments of the present disclosure.
4 is a cross-sectional view taken along line AA′ of FIG. 3 for explaining an example of a moving means according to some embodiments of the present disclosure.
5 is a flowchart illustrating an example of a method in which a controller of an electronic device moves an under-display camera unit according to some embodiments of the present disclosure.
6 is a view for explaining an example of a first object displayed on a display unit according to some embodiments of the present disclosure;
7 is a flowchart illustrating an example of a method in which a controller of an electronic device moves an under-display camera unit according to another exemplary embodiment of the present disclosure.
8 is a view for explaining an example of a first object displayed on a display unit according to some other exemplary embodiments of the present disclosure.
9 shows a general schematic diagram of an example computing environment in which embodiments of the present disclosure may be implemented.

다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 감지될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다. 구체적으로, 본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.Various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will also be appreciated by one of ordinary skill in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain illustrative aspects of one or more aspects. These aspects are illustrative, however, and some of various methods may be employed in the principles of the various aspects, and the descriptions set forth are intended to include all such aspects and their equivalents. Specifically, as used herein, “embodiment”, “example”, “aspect”, “exemplary”, etc. are not to be construed as advantageous or advantageous over any aspect or design described herein. It may not be.

이하, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략한다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다.Hereinafter, the same or similar components are assigned the same reference numerals regardless of reference numerals, and overlapping descriptions thereof will be omitted. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical ideas disclosed in the present specification are not limited by the accompanying drawings.

비록 제 1, 제 2 등이 다양한 소자나 구성요소들을 서술하기 위해서 사용되나, 이들 소자나 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자나 구성요소를 다른 소자나 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제 1 소자나 구성요소는 본 발명의 기술적 사상 내에서 제 2 소자나 구성요소 일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements or elements, these elements or elements are not limited by these terms, of course. These terms are only used to distinguish one element or component from another. Accordingly, it goes without saying that the first element or component mentioned below may be the second element or component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다. In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or.” That is, unless otherwise specified or clear from context, "X employs A or B" is intended to mean one of the natural implicit substitutions. That is, X employs A; X employs B; or when X employs both A and B, "X employs A or B" may apply to either of these cases. It should also be understood that the term “and/or” as used herein refers to and includes all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements, and/or groups thereof. should be understood as not Also, unless otherwise specified or unless it is clear from context to refer to a singular form, the singular in the specification and claims should generally be construed to mean “one or more”.

더불어, 본 명세서에서 사용되는 용어 "정보" 및 "데이터"는 종종 서로 상호교환 가능하도록 사용될 수 있다.In addition, as used herein, the terms “information” and “data” can often be used interchangeably.

어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

구성 요소(elements) 또는 층이 다른 구성 요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성 요소 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 구성 요소를 개재한 경우를 모두 포함한다. 반면, 구성 요소가 "직접 위(directly on)" 또는 "바로 위"로 지칭되는 것은 중간에 다른 구성 요소 또는 층을 개재하지 않은 것을 나타낸다.References to an element or layer “on” or “on” another component or layer mean that another layer or other component in between as well as directly above the other component or layer. Including all intervening cases. On the other hand, when a component is referred to as “directly on” or “immediately on”, it indicates that another component or layer is not interposed therebetween.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성 요소 또는 다른 구성 요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 소자의 서로 다른 방향을 포함하는 용어로 이해되어야 한다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe a component or a correlation with other components. The spatially relative terms should be understood as terms including different orientations of the device during use or operation in addition to the orientation shown in the drawings.

예를 들면, 도면에 도시되어 있는 구성 요소를 뒤집을 경우, 다른 구성 요소의 "아래(below)" 또는 "아래(beneath)"로 기술된 구성 요소는 다른 구성 요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성 요소는 다른 방향으로도 배향될 수 있고, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component may be placed “above” of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

이하의 설명에서 사용되는 구성 요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "part" for the components used in the following description are given or used in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.

본 개시의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 개시를 설명하는데 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로써 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.Objects and effects of the present disclosure, and technical configurations for achieving them will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. In describing the present disclosure, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the subject matter of the present disclosure, the detailed description thereof will be omitted. In addition, the terms described below are terms defined in consideration of functions in the present disclosure, which may vary according to intentions or customs of users and operators.

그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. Only the present embodiments are provided so that the present disclosure is complete, and to fully inform those of ordinary skill in the art to which the present disclosure belongs, the scope of the disclosure, and the present disclosure is only defined by the scope of the claims . Therefore, the definition should be made based on the content throughout this specification.

스마트 폰 또는 노트북을 이용하여 영상 통화 또는 화상 회의와 같은 온라인 대화를 수행함에 있어서, 사용자는 주로 화면의 정면을 바라볼 수 있다. 그러나, 종래의 전자 장치의 경우 일반적으로 카메라는 각 전자 장치의 상단에 위치하고 있을 수 있다. 이 경우, 사용자가 전자 장치를 바라보는 시선의 방향과 카메라가 사용자를 촬영하는 방향의 사이에는 각도가 형성되어, 사용자와 영상 통화 중인 상대방은 사용자의 시선이 정면보다 아래쪽을 향한다고 느낄 수 있다. 몇몇 사용자는 전자 장치의 화면의 정면을 바라보지 않고, 카메라를 바라보며 영상 통화를 수행할 수도 있다. 그러나, 이 경우에는 사용자가 자신의 전자 장치에 디스플레이 되고 있을 상대방을 제대로 보기 어렵다는 문제가 존재한다.In performing an online conversation such as a video call or a video conference using a smart phone or a laptop computer, the user may mainly look at the front of the screen. However, in the case of a conventional electronic device, in general, the camera may be located at an upper end of each electronic device. In this case, an angle is formed between the direction in which the user looks at the electronic device and the direction in which the camera captures the user, so that the user and the other party in the video call can feel that the user's gaze is downward rather than the front. Some users may perform a video call while looking at the camera instead of looking at the front of the screen of the electronic device. However, in this case, there is a problem in that it is difficult for the user to properly see the counterpart being displayed on his/her electronic device.

반면, 본 개시에서의 전자 장치는 디스플레이부의 하부에 위치하는 언더 디스플레이 카메라를 구비할 수 있다. 이 경우, 사용자를 촬영하는 방향과 사용자의 시선이 향하는 방향이 일치함에 따라, 사용자의 시선 처리가 자연스럽게 이루어질 수 있다. 이하, 도 1 내지 도 9를 통해 본 개시에 따른 전자 장치에 대해 설명한다.On the other hand, the electronic device according to the present disclosure may include an under display camera positioned below the display unit. In this case, as the direction in which the user is photographed coincides with the direction in which the user's gaze is directed, the user's gaze processing may be performed naturally. Hereinafter, an electronic device according to the present disclosure will be described with reference to FIGS. 1 to 9 .

도 1은 본 개시의 몇몇 실시예에 따른 전자 장치의 일례를 설명하기 위한 블록 구성도이다.1 is a block diagram illustrating an example of an electronic device according to some embodiments of the present disclosure;

도 1을 참조하면, 전자 장치(1000)는 언더 디스플레이 카메라부(100), 제어부(200), 수어-음성 출력부(300) 및 음성-수어 출력부(400)를 포함할 수 있다. 다만, 상술한 구성 요소들은 전자 장치(1000)를 구현하는데 있어서 필수적인 것은 아니어서, 전자 장치(1000)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 1 , the electronic device 1000 may include an under-display camera unit 100 , a control unit 200 , a sign language-voice output unit 300 , and a voice-sign language output unit 400 . However, since the above-described components are not essential for implementing the electronic device 1000 , the electronic device 1000 may have more or fewer components than those listed above.

전자 장치(1000)는 사용자가 소유하고 있는 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.The electronic device 1000 may include a personal computer (PC), a notebook (note book), a mobile terminal, a smart phone, a tablet PC, etc. owned by the user, It may include all types of terminals capable of accessing a wired/wireless network. However, the present invention is not limited thereto.

본 개시에서, 전자 장치(1000)는 영상 통화 또는 화상 회의와 같은 온라인 대화를 수행하기 위한 사용자의 단말일 수 있다. 다만, 이에 한정되는 것은 아니다.In the present disclosure, the electronic device 1000 may be a user terminal for performing an online conversation such as a video call or a video conference. However, the present invention is not limited thereto.

한편, 언더 디스플레이 카메라부(100)는 디스플레이부(미도시)의 제 1 영역의 하부에 위치할 수 있다. 여기서, 제 1 영역은 디스플레이부의 다양한 영역을 포함할 수 있다. 예를 들어, 제 1 영역은 디스플레이 상에서 객체가 디스플레이되는 영역일 수 있다. 일례로, 제 1 영역은 디스플레이부의 중심 영역일 수 있다. 온라인 대화에 있어서, 디스플레이부 상에서 사용자가 바라보게 되는 객체가 제 1 영역에 위치하는 경우에, 사용자의 시선이 자연스럽게 언더 디스플레이 카메라부(100)를 향할 수 있다.Meanwhile, the under-display camera unit 100 may be located below the first area of the display unit (not shown). Here, the first area may include various areas of the display unit. For example, the first area may be an area in which an object is displayed on the display. For example, the first area may be a central area of the display unit. In an online conversation, when the object viewed by the user on the display unit is located in the first area, the user's gaze may naturally point toward the under-display camera unit 100 .

한편, 본 개시에서 언더 디스플레이 카메라부(100)는 스마트 폰, 태블릿, 스마트 워치, 스마트 글래스, 자동차, 로봇, 드론에서 사용되는 2D 또는 3D 센싱 모듈(예를 들어, ToF 센서 모듈)일 수 있다. 또한, 언더 디스플레이 카메라부(100)는 전하결합소자(Charge-Coupled Device, CCD) 모듈, CMOS(Complementary Metal-Oxide-Semiconductor) 모듈 또는 단광자 애벌런치 다이오드(SPAD, Single Photon Avalanche Diode) 모듈을 포함할 수 있다. 이 경우, 언더 디스플레이 카메라부(100)는 전자 장치(1000)의 몇몇의 컴포넌트(예를 들어, 제어부)를 이용하여 일부 동작을 수행할 수 있다. 이하, 본 개시에 따른 언더 디스플레이 카메라부(100)에 대한 설명은 도 2를 통해 설명한다.Meanwhile, in the present disclosure, the under-display camera unit 100 may be a 2D or 3D sensing module (eg, ToF sensor module) used in a smart phone, a tablet, a smart watch, smart glasses, a car, a robot, or a drone. In addition, the under-display camera unit 100 includes a Charge-Coupled Device (CCD) module, a Complementary Metal-Oxide-Semiconductor (CMOS) module, or a Single Photon Avalanche Diode (SPAD) module. can do. In this case, the under-display camera unit 100 may perform some operations using some components (eg, control units) of the electronic device 1000 . Hereinafter, a description of the under-display camera unit 100 according to the present disclosure will be described with reference to FIG. 2 .

한편, 제어부(200)는 통상적으로 전자 장치(1000)의 전반적인 동작을 처리할 수 있다. 제어부(200)는 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 저장부(미도시)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.Meanwhile, the control unit 200 may typically process the overall operation of the electronic device 1000 . The control unit 200 may provide or process information or functions appropriate to the user by processing signals, data, information, etc. input or output through the components or by driving an application program stored in a storage unit (not shown).

한편, 본 개시에서 제어부(200)는 언더 디스플레이 카메라부(100)를 통해 촬영된 제 1 객체를 인식할 수 있다. 여기서, 제 1 객체는 다양한 객체를 포함할 수 있다. 예를 들어, 제 1 객체는 사용자의 얼굴 또는 손일 수 있다. 이 경우, 제어부(200)는 제 1 객체를 디스플레이부의 제 1 영역상에 디스플레이하도록 디스플레이부를 제어할 수 있다. 여기서, 제 1 영역은 디스플레이부의 중심 영역일 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the controller 200 may recognize the first object photographed through the under-display camera unit 100 . Here, the first object may include various objects. For example, the first object may be a user's face or hand. In this case, the controller 200 may control the display unit to display the first object on the first area of the display unit. Here, the first area may be a central area of the display unit. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 제어부(200)는 제 1 객체가 제 1 영역과 상이한 제 2 영역에 디스플레이되는지 여부를 인식할 수 있다. 그리고, 제어부(200)는 제 1 객체가 제 2 영역에 디스플레이되었다고 인식한 경우, 제 1 객체가 제 1 영역에 디스플레이되도록 언더 디스플레이 카메라부(100)를 이동 수단에 의해 제 2 영역으로 이동시킬 수 있다.Meanwhile, according to some embodiments of the present disclosure, the controller 200 may recognize whether the first object is displayed in a second area different from the first area. In addition, when recognizing that the first object is displayed in the second area, the controller 200 may move the under-display camera unit 100 to the second area by a moving means so that the first object is displayed in the first area. have.

한편, 본 개시의 몇몇 실시예에 따르면, 제어부(200)는 제 1 객체가 사용자의 손임을 인식할 수 있다. 이경우, 제어부(200)는 디스플레이부 상에서 사용자의 손이 디스플레이되는 제 2 영역을 인식할 수 있다. 여기서, 제 2 영역은 제 1 영역과 상이한 영역일 수 있다. 예를 들어, 제 2 영역은 제 1 영역인 디스플레이부의 중심 영역에서 벗어나는 영역일 수 있다. 그리고, 제어부(200)는 언더 디스플레이 카메라부(100)를 이동 수단에 의해 제 2 영역으로 이동시킬 수 있다. 이 경우에, 사용자의 손이 언더 디스플레이 카메라부(100)의 위치와 대응되도록 위치할 수 있다. 따라서, 수어와 같은 복잡한 손의 움직임에 의해 손의 위치가 이동함으로써 촬영 각도 내에 손이 위치하지 않는 경우를 줄일 수 있어, 언더 디스플레이 카메라부(100)는 손의 움직임을 정확하게 촬영할 수 있다. 다만, 이에 한정되는 것은 아니다. 이하, 본 개시에 따른 제어부(200)가 언더 디스플레이 카메라부(100)를 제 2 영역으로 이동시키는 방법의 일례는 도 5 및 도 6을 통해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the controller 200 may recognize that the first object is the user's hand. In this case, the controller 200 may recognize the second area where the user's hand is displayed on the display unit. Here, the second area may be a different area from the first area. For example, the second area may be an area that deviates from the center area of the display unit, which is the first area. In addition, the controller 200 may move the under-display camera unit 100 to the second area by a moving means. In this case, the user's hand may be positioned to correspond to the position of the under-display camera unit 100 . Accordingly, it is possible to reduce the case where the hand is not positioned within the shooting angle by moving the position of the hand due to a complicated hand movement such as sign language, so that the under-display camera unit 100 can accurately capture the movement of the hand. However, the present invention is not limited thereto. Hereinafter, an example of a method for the controller 200 according to the present disclosure to move the under-display camera unit 100 to the second area will be described with reference to FIGS. 5 and 6 .

한편, 본 개시의 몇몇 실시예에 따르면, 제어부(200)는 제 1 객체가 사용자의 얼굴임을 인식할 수 있다. 이 경우, 제어부(200)는 디스플레이부 상에서 사용자의 시선이 향하는 제 3 영역을 인식할 수 있다. 여기서, 제 3 영역은 제 1 영역과 상이한 영역일 수 있다. 예를 들어, 제 3 영역은 제 1 영역인 디스플레이부의 중심 영역에서 벗어나는 영역일 수 있다. 그리고, 제어부(200)는 언더 디스플레이 카메라부(100)를 이동 수단에 의해 제 3 영역으로 이동시킬 수 있다. 이 경우에, 사용자의 시선이 언더 디스플레이 카메라부(100)를 향하게 되고, 따라서 사용자 또는 타사용자의 전자 장치에 디스플레이되는 사용자의 얼굴이 부자연스럽게 느껴지는 것을 방지할 수 있다.Meanwhile, according to some embodiments of the present disclosure, the controller 200 may recognize that the first object is the user's face. In this case, the control unit 200 may recognize the third area to which the user's gaze is directed on the display unit. Here, the third area may be a different area from the first area. For example, the third area may be an area that deviates from the center area of the display unit, which is the first area. In addition, the controller 200 may move the under-display camera unit 100 to the third area by a moving means. In this case, the user's gaze is directed toward the under-display camera unit 100 , and thus, it is possible to prevent the user's face displayed on the electronic device of the user or other users from feeling unnatural.

한편, 본 개시의 몇몇 실시예에 따르면, 전자 장치(1000)는 수어-음성 출력부(300) 및 음성-수어 출력부(400)를 포함할 수 있다. 이 경우, 전자 장치(1000)는 제어부(200)가 인식한 사용자의 손인 제 1 객체로부터 수어를 인식하여 출력할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, the electronic device 1000 may include a sign language-voice output unit 300 and a voice-sign language output unit 400 . In this case, the electronic device 1000 may recognize and output sign language from the first object that is the user's hand recognized by the controller 200 .

구체적으로, 수어-음성 출력부(300)는 제 1 객체로부터 감지되는 제 1 수어를 인식하여, 제 1 수어에 대응하는 제 1 음성을 출력할 수 있다. 여기서, 제 1 수어는 수어를 구사하는 사용자의 손인 객체로부터 인식된 수어일 수 있다. 그리고, 제 1 음성은 상대방이 제 1 수어를 이해할 수 있도록, 출력되는 음성일 수 있다. 다만, 이에 한정되는 것은 아니다. 이하, 본 개시에 따른 수어-음성 출력부(300)에 대한 내용은 도 3을 통해 설명한다.Specifically, the sign language-voice output unit 300 may recognize a first sign language sensed from the first object and output a first voice corresponding to the first sign language. Here, the first sign language may be a sign language recognized from an object that is a hand of a user who speaks the sign language. And, the first voice may be a voice output so that the other party can understand the first sign language. However, the present invention is not limited thereto. Hereinafter, the sign language-voice output unit 300 according to the present disclosure will be described with reference to FIG. 3 .

한편, 음성-수어 출력부(400)는 마이크를 통해 입력되는 제 2 음성을 인식하여, 제 2 음성에 대응하는 제 2 수어를 출력할 수 있다. 여기서, 제 2 수어는 제 2 음성에 기초하여 생성되어, 디스플레이부에 디스플레이되는 수어일 수 있다. 다만, 이에 한정되는 것은 아니다. 이하, 본 개시에 따른 음성-수어 출력부(400)에 대한 내용은 도 3을 통해 설명한다.Meanwhile, the voice-sign output unit 400 may recognize the second voice input through the microphone and output the second sign language corresponding to the second voice. Here, the second sign language may be a sign language generated based on the second voice and displayed on the display unit. However, the present invention is not limited thereto. Hereinafter, the contents of the speech-sign language output unit 400 according to the present disclosure will be described with reference to FIG. 3 .

상술한 구성에 따르면, 전자 장치(1000)는 디스플레이부의 제 1 영역의 하부에 위치하는 언더 디스플레이 카메라부(100)를 구비할 수 있다. 이 경우, 사용자를 촬영하는 방향과 사용자의 시선이 향하는 방향이 일치함에 따라, 사용자의 시선 처리가 자연스럽게 이루어질 수 있다.According to the above configuration, the electronic device 1000 may include the under display camera unit 100 positioned below the first area of the display unit. In this case, as the direction in which the user is photographed coincides with the direction in which the user's gaze is directed, the user's gaze processing may be performed naturally.

도 2는 본 개시의 몇몇 실시예에 따른 언더 디스플레이 카메라의 일례를 설명하기 위한 도면이다.2 is a view for explaining an example of an under display camera according to some embodiments of the present disclosure.

도 2를 참조하면, 언더 디스플레이 카메라부(100)는 제 1 기판(110), 제 2 기판(120), 광 송신부(130), 광 수신부(140), 광학 필터부(150), 구동부(160), 제 1 지지부(170) 및 제 2 지지부(180)를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.Referring to FIG. 2 , the under-display camera unit 100 includes a first substrate 110 , a second substrate 120 , a light transmitter 130 , a light receiver 140 , an optical filter unit 150 , and a driver 160 . ), a first support part 170 and a second support part 180 may be included. However, the present invention is not limited thereto.

본 개시의 몇몇 실시예에 따라, 언더 디스플레이 카메라부(100)는 제 1 기판(110) 및 제 1 기판의 상부에 위치하는 제 2 기판(120)을 포함할 수 있다. 예를 들어, 제 1 기판(110) 및 제 2 기판(120)은 PCB 기판일 수 있으나, 이에 한정되지 않는다.According to some embodiments of the present disclosure, the under display camera unit 100 may include a first substrate 110 and a second substrate 120 positioned on the first substrate. For example, the first substrate 110 and the second substrate 120 may be a PCB substrate, but is not limited thereto.

제 1 기판(110)은 언더 디스플레이 카메라부(100)의 일면(190) 상에 위치할 수 있다. 예를 들어, 제 1 기판(110)은 언더 디스플레이 카메라부(100)의 뒷면 상단에 위치할 수 있다. 이 경우에, 제 2 기판(120)은 제 1 기판의 상부에 위치할 수 있다. 여기서 상부는 언더 디스플레이 카메라부(100)로부터 외부로 광이 조사되는 방향을 따라 언더 디스플레이 카메라부(100)에 상대적으로 원위인 위치를 의미할 수 있다. 따라서, 하부는 언더 디스플레이 카메라부(100)로부터 외부로 광이 조사되는 방향을 따라 언더 디스플레이 카메라부(100)에 상대적으로 근위인 위치를 의미할 수 있다.The first substrate 110 may be positioned on one surface 190 of the under-display camera unit 100 . For example, the first substrate 110 may be located on the upper back side of the under-display camera unit 100 . In this case, the second substrate 120 may be located on the first substrate. Here, the upper portion may mean a position relatively distal to the under display camera unit 100 along a direction in which light is irradiated to the outside from the under display camera unit 100 . Accordingly, the lower portion may mean a position relatively proximal to the under display camera unit 100 along a direction in which light is emitted from the under display camera unit 100 to the outside.

광 송신부(130) 및 광 수신부(140)는 별도의 기판 상에 별도의 모듈로서 구현되지 않고, 동일한 기판(예를 들어, 제 1 기판(110) 및 제 2 기판(120)) 상에 일체형으로 구현될 수 있다. 이를 위해, 광 송신부(130) 및 광 수신부(140)를 구성하는 컴포넌트들은 외부로 광을 조사하는 방향 및 외부로부터 광을 수신하는 방향에 따라 제 1 기판(110) 또는 제 2 기판(120)의 상응하는 위치에 배치될 수 있다.The light transmitter 130 and the light receiver 140 are not implemented as separate modules on separate substrates, but are integrally formed on the same substrate (eg, the first substrate 110 and the second substrate 120 ). can be implemented. To this end, the components constituting the light transmitting unit 130 and the light receiving unit 140 are formed of the first substrate 110 or the second substrate 120 according to a direction for irradiating light to the outside and a direction for receiving light from the outside. It can be placed in a corresponding position.

구체적으로 설명하면, 본 개시의 몇몇 실시예에 따라, 광 송신부(130)는 제 1 기판(110)에 배치되는 광원(131) 및 광원(131)과 동축으로 정렬되도록 제 2 기판(120)에 배치되는 광 생성 모듈(132)을 포함할 수 있다. 상술한 바와 같이, 광 송신부(130)는 광 수신부(140)와 함께 일체형으로 제 1 기판(110) 및 제 2 기판(120) 상에 구현될 수 있다.More specifically, according to some embodiments of the present disclosure, the light transmitter 130 is disposed on the second substrate 120 to be coaxially aligned with the light source 131 and the light source 131 disposed on the first substrate 110 . It may include an arranged light generating module 132 . As described above, the light transmitter 130 may be integrally implemented with the light receiver 140 on the first substrate 110 and the second substrate 120 .

광 송신부(130)는 동축으로 정렬되는 광원(131) 및 광 생성 모듈(132)을 통해 3D 센싱을 위한 광 패턴을 외부로 조사할 수 있다. 광 송신부(130)의 예시적인 동작은 다음과 같다.The light transmitter 130 may radiate a light pattern for 3D sensing to the outside through the coaxially aligned light source 131 and the light generation module 132 . An exemplary operation of the light transmitter 130 is as follows.

광원(131)은 일정한 범위의 파장 대역을 가지는 광을 출력할 수 있다. 예를 들어, 광원(131) IR(infrared) 광을 출력할 수 있다. IR 광은, 예를 들면 800 nm 이상의 파장 대역을 가지는 광일 수 있다. 광원(131)은 광을 투사하는 적어도 하나의 레이저 다이오드(Laser Diode), LED(Light Emitting Diode), VCSEL(Vertical Cavity Surface Emitting Laser), 또는 EEL(Edge Emitting Laser) 등을 포함할 수 있으나 이에 한정되지 않는다.The light source 131 may output light having a wavelength band of a certain range. For example, the light source 131 may output IR (infrared) light. The IR light may be, for example, light having a wavelength band of 800 nm or more. The light source 131 may include at least one laser diode that projects light, a light emitting diode (LED), a vertical cavity surface emitting laser (VCSEL), or an edge emitting laser (EEL), but is limited thereto. doesn't happen

본 개시의 몇몇 실시예에 따라, 광 생성 모듈(132)은 광원(131)의 광에 의해 언더 디스플레이 카메라부(100)의 외부로 조사되는 광 패턴을 생성할 수 있다. 광 생성 모듈(132)은 3D 센싱을 위한 광 패턴을 생성하기 위한 다양한 광학 소자를 포함할 수 있다. 예를 들어, 광 생성 모듈(132)은 마이크로 렌즈 어레이(Micro-lens arrays; MLA) 또는 회절형 광학 요소(diffractive optical element; DOE)를 포함할 수 있다. 광원(131)에 생성된 광은 광 생성 모듈(132)을 통과함으로써 광 패턴을 생성할 수 있다. 예를 들어, 언더 디스플레이 카메라부(100)가 ToF 모듈인 경우에, 광 생성 모듈(132)에 의해 생성되는 광 패턴은 마이크로렌즈 어레이(예를 들어, 수도 랜덤 MLA(Pseudo random MLA))를 이용하여 생성되는 면광원 패턴일 수 있다. 면광원 패턴은 복수의 마이크로 광학 소자의 도트 형태의 배치에 의해 발생하는 확산 효과에 의해 생성되는 패턴일 수 있다. 또한, 광 패턴은 라인 패턴, 매트릭스 패턴, 점 패턴 등을 포함할 수 있다. 또한, 광 패턴은 균일 또는 랜덤하게 배열되는 복수의 도트들의 패턴을 포함할 수 있다. 다만 이에 한정되지 않고, 광 생성 모듈(132)에 의해 생성되는 광 패턴은 다양한 패턴들을 포함할 수 있다.According to some embodiments of the present disclosure, the light generating module 132 may generate a light pattern irradiated to the outside of the under display camera unit 100 by the light of the light source 131 . The light generating module 132 may include various optical elements for generating a light pattern for 3D sensing. For example, the light generating module 132 may include micro-lens arrays (MLA) or diffractive optical elements (DOE). The light generated by the light source 131 may generate a light pattern by passing through the light generating module 132 . For example, when the under display camera unit 100 is a ToF module, the light pattern generated by the light generation module 132 uses a microlens array (eg, pseudo random MLA). It may be a surface light source pattern generated by The surface light source pattern may be a pattern generated by a diffusion effect generated by disposition of a plurality of micro-optical elements in a dot shape. In addition, the light pattern may include a line pattern, a matrix pattern, a dot pattern, and the like. Also, the light pattern may include a pattern of a plurality of dots that are uniformly or randomly arranged. However, the present invention is not limited thereto, and the light pattern generated by the light generating module 132 may include various patterns.

상술한 바와 같이, 광원(131) 및 광 생성 모듈(132)은 제 1 기판(110) 및 제 2 기판(120) 상에서 동축으로 정렬될 수 있다. 여기서, "동축으로 정렬된다"는 용어는 광이 언더 디스플레이 카메라부(100)로부터 외부로 조사되는 방향을 따라 같은 축 상에 위치함을 의미할 수 있다. 따라서, 광원(131) 및 광 생성 모듈(132)이 제 1 기판(110) 및 제 2 기판(120) 상에서 동축으로 정렬되는 경우, 광원(131) 및 광 생성 모듈(132)은 광원(131)에서 조사되는 광이 광 생성 모듈(132)을 통해 외부로 통과할 수 있는 방향으로 위치할 수 있다.As described above, the light source 131 and the light generating module 132 may be coaxially aligned on the first substrate 110 and the second substrate 120 . Here, the term “coaxially aligned” may mean that light is positioned on the same axis along a direction in which light is radiated from the under-display camera unit 100 to the outside. Accordingly, when the light source 131 and the light generating module 132 are coaxially aligned on the first substrate 110 and the second substrate 120 , the light source 131 and the light generating module 132 are the light sources 131 . It may be positioned in a direction in which the light irradiated from the light can pass through the light generating module 132 to the outside.

또한, 본 개시의 몇몇 실시예에 따라, 광 수신부(140)는 제 2 기판(120)에 배치되는 광 가이드 모듈(141), 및 광 가이드 모듈(141)과 동축으로 정렬되도록 제 1 기판(110)에 배치되는 광 센싱 모듈(142)을 포함할 수 있다. 상술한 바와 같이, 광 수신부(140)는 광 송신부(130)와 함께 일체형으로 제 1 기판(110) 및 제 2 기판(120) 상에 구현될 수 있다.In addition, according to some embodiments of the present disclosure, the light receiving unit 140 includes the light guide module 141 disposed on the second substrate 120 , and the first substrate 110 to be coaxially aligned with the light guide module 141 . ) may include a light sensing module 142 disposed in. As described above, the light receiving unit 140 may be integrally implemented with the light transmitting unit 130 on the first substrate 110 and the second substrate 120 .

광 수신부(140)는 동축으로 정렬되는 광 가이드 모듈(141) 및 광 센싱 모듈(142)을 통해 외부로부터의 광을 센싱하고, 광학 이미지를 생성할 수 있다. 광 송신부와 동일하게, 광 가이드 모듈(141) 및 광 센싱 모듈(142)이 제 1 기판(110) 및 제 2 기판(120) 상에서 동축으로 정렬되는 경우, 광 가이드 모듈(141) 및 광 센싱 모듈(142)은 외부로부터 입사되는 광이 광 가이드 모듈(141)을 통과하여 광 센싱 모듈 (142)에 도달할 수 있는 방향으로 위치할 수 있다.The light receiver 140 may sense light from the outside through the light guide module 141 and the light sensing module 142 that are coaxially aligned, and may generate an optical image. Similarly to the light transmitter, when the light guide module 141 and the light sensing module 142 are coaxially aligned on the first substrate 110 and the second substrate 120 , the light guide module 141 and the light sensing module Reference numeral 142 may be positioned in a direction in which light incident from the outside may pass through the light guide module 141 to reach the light sensing module 142 .

광 수신부(140)의 컴포넌트들의 예시적인 동작은 다음과 같다.Exemplary operations of the components of the light receiving unit 140 are as follows.

본 개시의 몇몇 실시예에 딸, 광 가이드 모듈(141)은 사전 결정된 패턴을 가지는 광 투과층을 가질 수 있다. 또한, 광 가이드 모듈(141)은 광 패턴에 의해 언더 디스플레이 카메라부(100)의 외부로부터 반사되는 광을 광 투과층을 통해 광 센싱 모듈(142)로 통과시킬 수 있다.According to some embodiments of the present disclosure, the light guide module 141 may have a light transmitting layer having a predetermined pattern. In addition, the light guide module 141 may pass the light reflected from the outside of the under display camera unit 100 by the light pattern to the light sensing module 142 through the light transmitting layer.

광 가이드 모듈(141)은 예를 들어, 사전 결정된 패턴으로 각인된 광 투과층을 가지는 투과성 필름일 수 있다. 광 가이드 모듈(141)은 사전 결정된 패턴을 가지는 광 투과층을 가지는, 입사되는 광의 위상 변위를 유도하는 페이즈 마스크(phase mask)일 수 있다. 이 경우에, 광 가이드 모듈(141)은 외부로부터 입사되는 광들이 사전 결정된 패턴에 따라 생성되는 간섭 패턴(Moirι pattern)을 가지도록 유도할 수 있다. 간섭 패턴은 간섭 무늬, 물결 무늬, 격자 무늬 등을 포함할 수 있다. 간섭 패턴은 규칙적으로 되풀이되는 모양을 여러 번 거듭하여 합쳐졌을 때, 주기의 차이에 따라 시각적으로 만들어지는 줄무늬를 의미할 수 있다. 이러한 간섭 패턴을 이루는 광은 광 센싱 모듈(142)에 의해 센싱됨으로써 제 1 광학 이미지를 생성하는데 사용될 수 있다.The light guide module 141 may be, for example, a transmissive film having a light transmitting layer engraved in a predetermined pattern. The light guide module 141 may be a phase mask inducing a phase shift of incident light having a light transmitting layer having a predetermined pattern. In this case, the light guide module 141 may guide light incident from the outside to have an interference pattern (Moirι pattern) generated according to a predetermined pattern. The interference pattern may include an interference pattern, a wave pattern, a grid pattern, and the like. The interference pattern may mean a stripe that is visually created according to a difference in a period when a regularly repeating shape is repeatedly combined several times. The light constituting the interference pattern may be sensed by the light sensing module 142 and used to generate the first optical image.

다른 예로, 광 가이드 모듈(141)은 사전 결정된 패턴을 가지는 광 투과층을 가지는 마이크로 광학 소자일 수 있다. 이 경우에, 광 가이드 모듈은 외부로 입사되는 광들이 마이크로 광학 소자의 구조(예를 들어, 도트 구조)에 의해 ‘확산 패턴(diffusing pattern)'을 가지도록 유도할 수 있다. 이러한 확산 패턴을 이루는 광은 광 센싱 모듈(142)에 의해 센싱됨으로써 제 1 광학 이미지를 생성하는데 사용될 수 있다. 광 투과층의 사전 결정된 패턴은 다양한 패턴을 가질 수 있다. 예를 들어, 사전 결정된 패턴은 서로 상이한 반경을 가지는 복수의 동심원 패턴을 포함할 수 있다. 여기서 복수의 동심원 패턴은 다양한 반경을 가질 수 있다. 또한, 이웃하는 동심원 간의 간격은 다양한 거리를 가질 수 있다. 복수의 동심원 패턴에 대한 설명은 본 출원에서 전체가 참조로서 통합되는 일본 특허출원 번호 제 2016-240818호(출원일: 2016.12.13, 출원인: HITACHI LTD)에서 구체적으로 논의된다.As another example, the light guide module 141 may be a micro-optical device having a light transmitting layer having a predetermined pattern. In this case, the light guide module may induce externally incident lights to have a 'diffusing pattern' by the structure (eg, dot structure) of the micro-optical device. The light forming the diffusion pattern may be sensed by the light sensing module 142 and used to generate the first optical image. The predetermined pattern of the light transmitting layer may have various patterns. For example, the predetermined pattern may include a plurality of concentric circle patterns having different radii. Here, the plurality of concentric circle patterns may have various radii. Also, intervals between adjacent concentric circles may have various distances. The description of the plurality of concentric circle patterns is specifically discussed in Japanese Patent Application No. 2016-240818 (application date: December 13, 2016, applicant: HITACHI LTD), which is incorporated herein by reference in its entirety.

또한, 광 투과층의 사전 결정된 패턴은 대칭 격자 패턴(일반적으로 홀수 개의 격자들의 대칭인)을 포함할 수 있다. 예를 들어, 사전 결정된 패턴은 직선 형태로 구성되는 대칭 격자 패턴일 수 있다. 다른 예를 들어, 사전 결정된 패턴은 곡선 형태로 구성되는 대칭 격자 패턴일 수 있다. 대칭 격자 패턴에 대한 설명은 본 출원에서 전체가 참조로서 통합되는 미국 특허출원 번호 제 15-547155호(출원일: 2016.12.13, 출원인: Rambus Inc.)에서 구체적으로 논의된다.Further, the predetermined pattern of the light transmitting layer may include a symmetric grating pattern (typically symmetric of an odd number of gratings). For example, the predetermined pattern may be a symmetrical lattice pattern configured in the form of a straight line. For another example, the predetermined pattern may be a symmetrical grid pattern configured in a curved shape. The description of symmetric grating patterns is specifically discussed in US Patent Application Serial No. 15-547155 (filed 12/13/2016, Applicant: Rambus Inc.), which is incorporated herein by reference in its entirety.

또한, 광 투과층의 사전 결정된 패턴은 면광원 패턴을 포함할 수 있다. 여기서, 면광원 패턴은 복수의 마이크로 광학 소자의 도트 형태의 배치에 의해 발생하는 확산 효과에 의해 생성되는 패턴일 수 있다.In addition, the predetermined pattern of the light transmitting layer may include a surface light source pattern. Here, the surface light source pattern may be a pattern generated by a diffusion effect generated by disposition of a plurality of micro-optical elements in a dot shape.

다만 이에 한정되지 않고, 광 투과층의 사전 결정된 패턴은 상술한 패턴 이외의 다양한 패턴을 가질 수 있다. 예를 들어, 사전 결정된 패턴은 라인 패턴, 매트릭스 패턴, 점 패턴 등을 포함할 수 있다. 또한, 사전 결정된 패턴은 균일 또는 랜덤하게 배열되는 복수의 도트들의 패턴을 포함할 수 있다. 사전 결정된 패턴은 광 가이드 모듈(141)을 통과한 광들이 사전 결정된 패턴에 따른 간섭 패턴 또는 확산 패턴을 가지도록 유도하므로, 사전 결정된 패턴은 제어부(200)에 의해 제 1 광학 이미지를 재구성하는 기준으로 사용될 수 있다.However, the present invention is not limited thereto, and the predetermined pattern of the light transmitting layer may have various patterns other than the above-described patterns. For example, the predetermined pattern may include a line pattern, a matrix pattern, a dot pattern, and the like. In addition, the predetermined pattern may include a pattern of a plurality of dots arranged uniformly or randomly. Since the predetermined pattern induces the light passing through the light guide module 141 to have an interference pattern or a diffusion pattern according to the predetermined pattern, the predetermined pattern is a reference for reconstructing the first optical image by the control unit 200 can be used

본 개시의 몇몇 실시예에 따라, 광 센싱 모듈(142)은 광 가이드 모듈(141)을 통과한 광을 센싱함으로써 제 1 광학 이미지를 생성할 수 있다. 또한, 제어부(200)는 사전 결정된 패턴에 기초하여 제 1 광학 이미지를 재구성함으로써 제 2 광학 이미지를 생성할 수 있다.According to some embodiments of the present disclosure, the light sensing module 142 may generate the first optical image by sensing the light passing through the light guide module 141 . Also, the controller 200 may generate the second optical image by reconstructing the first optical image based on the predetermined pattern.

광 센싱 모듈(142)은 입력 받은 광을 전기 신호로 변환할 수 있다. 광 센싱 모듈(142)은, 포토 다이오드(photo diode) 또는 CMOS(complementary metal-oxide semiconductor)를 포함하는 이미지 센서일 수 있다. 예를 들어, 광 센싱 모듈(142)은 광원(131)에서 조사되는 광의 파장 대역(예를 들어, IR 광의 파장 대역)을 센싱하도록 구성될 수 있다.The light sensing module 142 may convert the received light into an electrical signal. The light sensing module 142 may be an image sensor including a photo diode or a complementary metal-oxide semiconductor (CMOS). For example, the light sensing module 142 may be configured to sense a wavelength band of light irradiated from the light source 131 (eg, a wavelength band of IR light).

상술한 바와 같이, 광 투과층의 사전 결정된 패턴은 광 가이드 모듈(141)을 통과하는 광이 사전 결정된 패턴에 따른 특유한 간섭 패턴 또는 확산 패턴을 이루도록 유도할 수 있다. 이러한 광은 광 센싱 모듈(142)에 의해 센싱되어 제 1 광학 이미지를 생성하는데 사용될 수 있다.As described above, the predetermined pattern of the light transmitting layer may induce the light passing through the light guide module 141 to form a unique interference pattern or diffusion pattern according to the predetermined pattern. This light may be sensed by the light sensing module 142 and used to generate the first optical image.

상술한 바와 같이, 제 1 광학 이미지는 사전 결정된 패턴에 의해 생성되는 간섭 패턴(Moirι pattern) 또는 확산 패턴(diffusing pattern)을 가질 수 있다. 여기서 사용된 광 투과층의 사전 결정된 패턴은 직선 형태의 대칭 격자 패턴일 수 있다.As described above, the first optical image may have an interference pattern or a diffusing pattern generated by a predetermined pattern. The predetermined pattern of the light transmitting layer used herein may be a symmetrical lattice pattern in the form of a straight line.

한편, 제 1 지지부(170)는 제 1 기판(110)의 일부분 상에서 상부로 돌출할 수 있다. 이 경우에, 제 1 지지부(170)는 제 2 기판(120)의 측면을 지지할 수 있다. 따라서, 제 1 지지부(170)는 제 2 기판(120)을 제 1 기판(110)의 상부에 위치시킬 수 있다. 이 경우에, 제 1 지지부(170)는 광원(131) 및 광 센싱 모듈(142)을 내부에 수용할 수 있다. 제 1 지지부(170)는 플라스틱 또는 금속 재질로 구성될 수 있고, 이에 한정되지 않는다.Meanwhile, the first support unit 170 may protrude upward from a portion of the first substrate 110 . In this case, the first support unit 170 may support the side surface of the second substrate 120 . Accordingly, the first support unit 170 may position the second substrate 120 on the first substrate 110 . In this case, the first support unit 170 may accommodate the light source 131 and the light sensing module 142 therein. The first support unit 170 may be made of a plastic or metal material, but is not limited thereto.

한편, 제 2 지지부(180)는 제 1 지지부(170)의 외측인 제 1 기판(110)의 일부분 상에서 상부로 돌출할 수 있다. 따라서, 제 2 지지부(180)는 제 1 지지부를 감싸는 형태를 가질 수 있다. 또한, 제 2 지지부(180)는 광 생성 모듈(132) 및 광 가이드 모듈(141)을 내부에 수용할 수 있다. 제 2 지지부(180)는 플라스틱 또는 금속 재질로 구성될 수 있고, 이에 한정되지 않는다.Meanwhile, the second supporter 180 may protrude upward on a portion of the first substrate 110 that is outside the first supporter 170 . Accordingly, the second support 180 may have a shape surrounding the first support. In addition, the second support 180 may accommodate the light generating module 132 and the light guide module 141 therein. The second support unit 180 may be made of a plastic or metal material, but is not limited thereto.

한편, 광학 필터부(150)는 제 2 기판의 일측에 배치될 수 있다. 광학 필터부(150)는 광 센싱 모듈(142)에 도달하는 광의 파장 대역을 제한하는 기능을 수행할 수 있다. 예를 들어, 광원(131)의 광이 IR 광인 경우, 광학 필터부(150)는 IR 광에 대응하는 파장 대역의 광을 통과시키도록 구성될 수 있다. 광학 필터부(150)는 제 2 기판의 상부 측에 배치될 수 있다. 이 경우에, 제 2 지지부(180)는 제 2 기판의 상부에 위치하도록 광학 필터부(150)의 측면을 지지할 수 있다.Meanwhile, the optical filter unit 150 may be disposed on one side of the second substrate. The optical filter unit 150 may perform a function of limiting a wavelength band of light reaching the light sensing module 142 . For example, when the light from the light source 131 is IR light, the optical filter unit 150 may be configured to pass light of a wavelength band corresponding to the IR light. The optical filter unit 150 may be disposed on the upper side of the second substrate. In this case, the second support unit 180 may support the side surface of the optical filter unit 150 to be positioned on the second substrate.

한편, 구동부(driver)(160)는 광 송신부(130) 및 광 수신부(140)의 동작을 조절할 수 있다. 예를 들어, 구동부(160)는 제어부(200)에서 처리한 정보(예를 들어, 객체와의 거리, 입사되는 광량 등)에 따라 광 송신부(130)의 광원(131)과 광 생성 모듈(132)의 거리를 조절할 수 있다. 또한, 구동부(160)는 이동 가능한 차단막(미도시)을 이용하여 광 송신부(130)에서 조사되는 광의 일부를 차단하거나, 광 수신부(140)에 입사되는 광의 일부를 차단함으로써 광량을 조절할 수 있다. 또한, 구동부(160)는 광 송신부(130) 및 광 수신부(140)가 향하는 방향(또는 각도)을 조절할 수 있다. 다만 이에 한정되지 않고, 구동부(160)는 광 송신부(130) 및 광 수신부(140)의 다양한 동작을 조절할 수 있다. 본 개시의 언더 디스플레이 카메라부(100)는 모놀리식 아키텍처를 가지므로, 하나 또는 비교적 적은 수의 구동부(160)에 의해 광 송신부(130) 및 광 수신부(140)의 동작을 조절할 수 있다.Meanwhile, the driver 160 may control the operations of the light transmitter 130 and the light receiver 140 . For example, the driving unit 160 may include the light source 131 and the light generating module 132 of the light transmitting unit 130 according to the information processed by the control unit 200 (eg, the distance to the object, the amount of incident light, etc.). ) can be adjusted. In addition, the driving unit 160 may adjust the amount of light by blocking a portion of the light irradiated from the light transmitting unit 130 using a movable blocking film (not shown) or blocking a portion of the light incident on the light receiving unit 140 . Also, the driving unit 160 may adjust the direction (or angle) to which the light transmitting unit 130 and the light receiving unit 140 face. However, the present invention is not limited thereto, and the driving unit 160 may control various operations of the light transmitting unit 130 and the light receiving unit 140 . Since the under-display camera unit 100 of the present disclosure has a monolithic architecture, the operation of the light transmitter 130 and the light receiver 140 can be controlled by one or a relatively small number of drivers 160 .

한편, 본 개시의 몇몇 실시예에 따르면, 언더 디스플레이 카메라부(100)는 언더 디스플레이 카메라 제어부(미도시)를 포함할 수도 있다. 이 경우, 언더 디스플레이 카메라 제어부는 언더 디스플레이 카메라부(100)의 전반적인 동작을 처리할 수 있다. 예를 들어, 언더 디스플레이 카메라부(100)의 동작은 전자 장치의 제어부(200)에 의해 처리될 수도 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, according to some embodiments of the present disclosure, the under-display camera unit 100 may include an under-display camera control unit (not shown). In this case, the under-display camera control unit may process the overall operation of the under-display camera unit 100 . For example, the operation of the under-display camera unit 100 may be processed by the control unit 200 of the electronic device. However, the present invention is not limited thereto.

상술한 구성에 따르면, 언더 디스플레이 카메라부(100)는 광을 조사하는 광 수신부(140) 및 반사된 광을 수신하는 광 수신부(140)가 모놀리식 아키텍처로 구현될 수 있다. 구체적으로, 언더 디스플레이 카메라부(100)의 광 송신부(130) 및 광 수신부(140)는 별도의 기판 상에 별도의 모듈로서 구현되지 않고, 동일한 기판(예를 들어, 제 1 기판(110) 및 제 2 기판(120)) 상에 하나의 칩으로 일체형으로 구현될 수 있다. 모놀리식 아키텍처는 복잡한 구조 및 큰 부피를 가지는 복수의 회절 렌즈로 구성되는 광학 요소의 기능을 위에서 설명한 바와 같은 간섭 패턴 또는 확산 패턴을 생성하는 단순한 구조의 광학 요소와 이미지의 소프트웨어적 재구성을 통해 대체함으로써 가능할 수 있다. 모놀리식 아키텍처를 가지는 언더 디스플레이 카메라부(100)는 종래에 비해 단순한 제품 구성 및 제조 방식을 가질 수 있다. 따라서, 본 개시에 따른 언더 디스플레이 카메라부(100)는 낮은 조립 비용, 낮은 전력 소비량을 가질 수 있다.According to the above configuration, in the under display camera unit 100 , the light receiving unit 140 that emits light and the light receiving unit 140 that receives the reflected light may be implemented in a monolithic architecture. Specifically, the light transmitting unit 130 and the light receiving unit 140 of the under display camera unit 100 are not implemented as separate modules on separate substrates, but on the same substrate (eg, the first substrate 110 and The second substrate 120 may be integrally implemented as a single chip. The monolithic architecture replaces the function of an optical element composed of a plurality of diffractive lenses having a complex structure and large volume through software reconstruction of an optical element and image of a simple structure that generates an interference pattern or diffusion pattern as described above. It can be possible by doing The under-display camera unit 100 having a monolithic architecture may have a simpler product configuration and manufacturing method than in the related art. Accordingly, the under-display camera unit 100 according to the present disclosure may have a low assembly cost and low power consumption.

도 3은 본 개시의 몇몇 실시예에 따른 전자 장치의 일례를 설명하기 위한 도면이다.3 is a view for explaining an example of an electronic device according to some embodiments of the present disclosure.

본 개시의 몇몇 실시예에 따라, 전자 장치(1000)는 수어-음성 출력부(300) 및 음성-수어 출력부(400)를 포함할 수 있다. 그리고, 전자 장치(1000)는 청각 장애인과 일반인의 실시간 온라인 대화를 제공할 수 있다. 종래의 일반적인 카메라의 경우, 전자 장치의 상단의 일 영역에 구비되어 있을 수 있다. 이에 따라, 인식의 대상이 되는 사용자의 손과 같은 객체가 카메라에 의해 촬영되는 화면의 하단에 치우쳐져 촬영될 수 있다. 이 경우, 수어와 같은 복잡한 움직임에 있어서, 객체의 움직임을 정확하게 인식하지 못하는 문제점이 발생할 수 있다.According to some embodiments of the present disclosure, the electronic device 1000 may include a sign language-voice output unit 300 and a voice-sign language output unit 400 . Also, the electronic device 1000 may provide a real-time online conversation between the hearing impaired and the general public. In the case of a conventional camera, it may be provided in an area at the top of the electronic device. Accordingly, an object such as a user's hand, which is a target of recognition, may be photographed by being biased toward the lower end of the screen photographed by the camera. In this case, in a complex movement such as sign language, there may be a problem in that the movement of the object is not accurately recognized.

반면, 도 3을 참조하면, 본 발명에 따른 전자 장치(1000)의 언더 디스플레이 카메라부(100)는 디스플레이부 상에서 인식되는 객체가 디스플레이되는 제 1 영역에 위치할 수 있다. 이 경우, 언더 디스플레이 카메라부(100)가 객체를 향하게 되어, 제어부(200)는 언더 디스플레이 카메라부(100)를 통해 촬영된 사용자의 손과 같은 객체를 정확하게 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.On the other hand, referring to FIG. 3 , the under-display camera unit 100 of the electronic device 1000 according to the present invention may be located in a first area in which an object recognized on the display unit is displayed. In this case, the under-display camera unit 100 faces the object, so that the controller 200 can accurately recognize an object such as a user's hand photographed through the under-display camera unit 100 . However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 수어-음성 출력부(300)는 제어부(200)를 통해 인식된 제 1 객체로부터 감지되는 제 1 수어를 인식하고, 제 1 수어에 대응하는 제 1 음성을 출력할 수 있다.Meanwhile, according to some embodiments of the present disclosure, the sign language-voice output unit 300 recognizes a first sign language sensed from a first object recognized through the control unit 200, and a first voice corresponding to the first sign language. can be printed out.

이를 위해, 수어-음성 출력부(300)는 수어 인식부, 제 1 인덱스 생성부, 수어-단어 매칭부, 문장 생성부 및 음성 출력부를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.To this end, the sign language-to-speech output unit 300 may include a sign language recognition unit, a first index generation unit, a sign language-word matching unit, a sentence generation unit, and a voice output unit. However, the present invention is not limited thereto.

수어 인식부는 제어부(200)를 통해 인식된 제 1 객체로부터 감지되는 제 1 수어를 인식할 수 있다. 다만, 이에 한정되는 것은 아니고, 수어 인식부는 언더 디스플레이 카메라부(100)로부터 촬영된 영상으로부터 객체를 감지하여 제 1 수어를 인식할 수도 있다.The sign language recognition unit may recognize the first sign language detected from the first object recognized through the control unit 200 . However, the present invention is not limited thereto, and the sign language recognition unit may recognize the first sign language by detecting an object from the image captured by the under-display camera unit 100 .

한편, 제 1 인덱스 생성부는 인식된 제 1 수어에 기초하여 적어도 하나의 수어 인덱스를 생성할 수 있다. 여기서, 적어도 하나의 수어 인덱스는 수어 및 상기 수어에 대응하는 단어가 데이터베이스 형태로 저장된 수어 사전에서, 제 1 수어에 매칭되는 단어를 찾기 위한 것일 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, the first index generator may generate at least one sign language index based on the recognized first sign language. Here, the at least one sign language index may be for finding a word matching the first sign language in a sign language dictionary in which sign language and words corresponding to the sign language are stored in a database format. However, the present invention is not limited thereto.

한편, 수어-단어 매칭부는 적어도 하나의 수어 인덱스 각각에 대응하는 적어도 하나의 단어를 매칭할 수 있다.Meanwhile, the sign language-word matching unit may match at least one word corresponding to each of the at least one sign language index.

예를 들어, 수어-단어 매칭부는 저장부(미도시)에 저장된 수어 사전을 이용하여, 적어도 하나의 수어 인덱스 각각에 대응하는 적어도 하나의 단어를 매칭할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the sign language-word matching unit may match at least one word corresponding to each of the at least one sign language index by using a sign language dictionary stored in a storage unit (not shown). However, the present invention is not limited thereto.

한편, 문장 생성부는 적어도 하나의 단어를 이용하여 적어도 하나의 문장을 생성할 수 있다.Meanwhile, the sentence generator may generate at least one sentence using at least one word.

일반적으로, 수어에는 "은, 는, 이, 가"등과 같은 조사가 부족할 수 있다. 이에 따라, 수어-단어 매칭부를 통해 매칭된 적어도 하나의 단어만이 음성으로 출력되는 경우, 사용자 간의 대화가 원활하지 않을 수 있다. 따라서, 문장 생성부는 적어도 하나의 단어를 이용하여, 적어도 하나의 문장을 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.In general, sign language may lack propositions such as "silver, is, this, a". Accordingly, when only at least one word matched through the sign language-word matching unit is output as a voice, conversation between users may not be smooth. Accordingly, the sentence generator may generate at least one sentence by using at least one word. However, the present invention is not limited thereto.

한편, 음성 출력부는 생성된 적어도 하나의 문장에 대응하는 제 1 음성을 출력할 수 있다.Meanwhile, the voice output unit may output a first voice corresponding to the at least one generated sentence.

한편, 본 개시에서, 수어-음성 출력부는 텍스트 출력부를 더 포함할 수도 있다. 이 경우, 텍스트 출력부는 문장 생성부를 통해 생성된 적어도 하나의 문장을 텍스트로 출력할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the sign language-voice output unit may further include a text output unit. In this case, the text output unit may output at least one sentence generated through the sentence generation unit as text. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 음성-수어 출력부(400)는 마이크를 통해 입력되는 제 2 음성을 인식하여, 제 2 음성에 대응하는 제 2 수어를 출력할 수 있다.Meanwhile, according to some embodiments of the present disclosure, the voice-sign output unit 400 may recognize the second voice input through the microphone and output the second sign language corresponding to the second voice.

이를 위해, 음성-수어 출력부(400)는 음성 변환부, 제 2 인덱스 생성부, 문자-이미지 매칭부, 수어 생성부 및 수어 출력부를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.To this end, the speech-sign language output unit 400 may include a speech conversion unit, a second index generation unit, a text-image matching unit, a sign language generation unit, and a sign language output unit. However, the present invention is not limited thereto.

음성 변환부는 마이크를 통해 입력된 제 2 음성을 문자로 변환할 수 있다.The voice converter may convert the second voice input through the microphone into text.

일례로, 음성 변환부는 TTS(Text-To-Speech) 엔진을 기반으로 제 2 음성을 문자로 변환할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the voice converter may convert the second voice into text based on a text-to-speech (TTS) engine. However, the present invention is not limited thereto.

한편, 제 2 인덱스 생성부는 변환된 문자에 기초하여, 적어도 하나의 수어 인덱스를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, the second index generator may generate at least one sign language index based on the converted character. However, the present invention is not limited thereto.

한편, 문자-이미지 매칭부는 적어도 하나의 수어 인덱스 각각에 대응하는 적어도 하나의 이미지를 매칭할 수 있다.Meanwhile, the text-image matching unit may match at least one image corresponding to each of the at least one sign language index.

예를 들어, 문자-이미지 매칭부는 저장부(미도시)에 저장된 수어 사전을 이용하여, 적어도 하나의 수어 인덱스 각각에 대응하는 적어도 하나의 이미지를 매칭할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the text-image matching unit may match at least one image corresponding to each of the at least one sign language index by using a sign language dictionary stored in a storage unit (not shown). However, the present invention is not limited thereto.

한편, 수어 생성부는 매칭된 적어도 하나의 이미지를 이용하여 제 2 수어를 생성할 수 있다. 이 경우, 제 2 수어는 영상 또는 이미지일 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, the sign language generator may generate the second sign language by using at least one matched image. In this case, the second sign language may be an image or an image. However, the present invention is not limited thereto.

한편, 수어 출력부는 생성된 제 2 수어를 출력할 수 있다.Meanwhile, the sign language output unit may output the generated second sign language.

일례로, 제 2 수어는 영상 또는 이미지로 출력될 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the second sign language may be output as an image or an image. However, the present invention is not limited thereto.

한편, 본 개시에서, 음성-수어 출력부는 텍스트 출력부를 더 포함할 수도 있다. 이 경우, 텍스트 출력부는 음성 인식부를 통해 변환된 문자를 출력할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the speech-sign language output unit may further include a text output unit. In this case, the text output unit may output the converted text through the voice recognition unit. However, the present invention is not limited thereto.

상술한 구성에 따르면, 전자 장치(1000)는 청각 장애인과 일반인의 대화가 이루어지도록 할 수 있다. 이때, 제어부(200)는 디스플레이부에 객체에 디스플레이되는 영역에 위치하는 언더 디스플레이 카메라부(100)를 통해 촬영된 이미지로부터 사용자의 수어를 인식할 수 있다. 또한, 손의 위치가 이동하여 촬영 화면 내에서 벗어남으로써 객체(손)가 디스플레이부 상에서 디스플레이되는 영역이 변경되는 경우, 제어부(200)는 언더 디스플레이 카메라부(100)를 디스플레이부 상에서 객체가 디스플레이되는 영역으로 이동시킬 수 있다. 따라서, 언더 디스플레이 카메라부(100)는 이동한 손을 향하는 방향으로 배치될 수 있고, 제어부(200)는 사용자의 수어를 정확하게 인식하여 음성 또는 텍스트로 상대방에게 전달할 수 있다.According to the above-described configuration, the electronic device 1000 may allow a conversation between the hearing impaired and the general public. In this case, the control unit 200 may recognize the user's sign language from the image captured by the under-display camera unit 100 positioned in the area displayed on the object on the display unit. In addition, when the area where the object (hand) is displayed on the display unit is changed as the position of the hand is moved and deviated from the shooting screen, the controller 200 controls the under-display camera unit 100 to display the object on the display unit. area can be moved. Accordingly, the under-display camera unit 100 may be disposed in a direction toward the moved hand, and the control unit 200 may accurately recognize the user's sign language and transmit it to the other party by voice or text.

한편, 사용자가 전자 장치(1000)를 통해 온라인 대화를 함에 있어서, 디스플레이부 상에서 사용자가 바라보는 영역은 다양할 수 있다. 예를 들어, 다수가 참여하는 화상 미팅의 경우, 디스플레이 영역은 격자 형식으로 분할되고 각각의 영역에 복수의 상대방이 디스플레이될 수 있다. 이 경우, 사용자는 상대방을 바라보기 위하여 디스플레이부의 귀퉁이를 바라볼 수도 있다. 그리고, 사용자는 시선의 이동에 따라 자연스럽게 시선이 향하는 방향, 즉 디스플레이부의 귀퉁이에서 수어를 구사할 수도 있다. 이 경우, 카메라가 촬영 중인 화면 상에서 사용자의 손이 벗어남에 따라 사용자의 손이 인식되기 어려울 수 있다. 또한, 사용자의 시선이 카메라를 향하지 않게 되므로, 전자 장치 상에서 디스플레이되는 사용자는 부자연스럽게 보일 수 있다. 본 개시에서의 언더 디스플레이 카메라부(100)는 제어부(200)의 제어 하에 디스플레이부의 다양한 영역으로 이동할 수 있어, 상술한 문제점이 해결될 수 있다. 이하, 본 개시에 따른 제어부(200)가 언더 디스플레이 카메라부(100)를 이동시키는 방법의 일례를 설명한다.Meanwhile, when a user has an online conversation through the electronic device 1000 , an area viewed by the user on the display unit may vary. For example, in the case of a video meeting in which a plurality of people participate, the display area may be divided in a grid format, and a plurality of counterparts may be displayed in each area. In this case, the user may look at the corner of the display unit to look at the other party. In addition, the user may speak sign language in the direction in which the gaze naturally faces according to the movement of the gaze, that is, at the corner of the display unit. In this case, it may be difficult to recognize the user's hand as the user's hand deviates from the screen being photographed by the camera. Also, since the user's gaze does not face the camera, the user displayed on the electronic device may look unnatural. The under-display camera unit 100 in the present disclosure can move to various areas of the display unit under the control of the control unit 200, so that the above-described problem can be solved. Hereinafter, an example of a method in which the control unit 200 moves the under-display camera unit 100 according to the present disclosure will be described.

도 4는 본 개시의 몇몇 실시예에 따른 이동 수단의 일례를 설명하기 위한 도 3의 A-A' 단면도이다.4 is a cross-sectional view taken along line A-A' of FIG. 3 for explaining an example of a moving means according to some embodiments of the present disclosure.

도 4의 (a)를 참조하면, 전자 장치(1000)는 언더 디스플레이 카메라부(100), 하우징(500) 및 이동 수단(600)을 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.Referring to FIG. 4A , the electronic device 1000 may include an under-display camera unit 100 , a housing 500 , and a moving unit 600 . However, the present invention is not limited thereto.

하우징(500)은 전자 장치(1000)의 외관을 형성할 수 있다. 그리고, 하우징(500)은 일면에 디스플레이부(510)를 구비할 수 있다. 다만, 이에 한정되는 것은 아니다.The housing 500 may form the exterior of the electronic device 1000 . In addition, the housing 500 may include a display unit 510 on one surface. However, the present invention is not limited thereto.

이동 수단(600)은 언더 디스플레이 카메라부(100)와 고정되는 일단과, 지지 부재(610)와 체결되는 타단을 포함할 수 있다.The moving means 600 may include one end fixed to the under-display camera unit 100 and the other end fastened to the support member 610 .

일례로, 이동 수단(600)과 지지 부재(610)는 랙(rack) 및 피니언 기어(pinion gear) 구조를 통해 체결될 수 있다.For example, the moving means 600 and the support member 610 may be coupled through a rack and pinion gear structure.

구체적으로, 이동 수단(600)의 내부에는 모터(미도시)가 구비되고, 모터의 샤프트에는 피니언 기어가 체결될 수 있다. 그리고, 이동 수단(600)의 피니언 기어는 지지 부재(610)의 일단에 형성된 랙과 체결될 수 있다. 이 경우, 이동 수단(600)은 모터의 구동에 따라 지지 부재(610)의 상측 및 하측 방향으로 이동할 수 있다. 여기서, 지지 부재(610)의 상측 및 하측 방향은 사용자가 일반적으로 전자 장치(1000)를 사용하기 위해 디스플레이부(510)를 바라보는 방향에 있어서, 디스플레이부(510)의 상측 및 하측 방향과 동일할 수 있다. 다만, 이에 한정되는 것은 아니고, 이동 수단(600)과 지지 부재(610)는 레일을 통해 체결될 수도 있다.Specifically, a motor (not shown) may be provided inside the moving means 600 , and a pinion gear may be coupled to the shaft of the motor. In addition, the pinion gear of the moving means 600 may be coupled to a rack formed at one end of the support member 610 . In this case, the moving means 600 may move in the upper and lower directions of the support member 610 according to the driving of the motor. Here, the upper and lower directions of the support member 610 are the same as the upper and lower directions of the display unit 510 in a direction in which a user generally looks at the display unit 510 to use the electronic device 1000 . can do. However, the present invention is not limited thereto, and the moving means 600 and the support member 610 may be coupled through a rail.

한편, 본 개시에서, 지지 부재(610)는 좌측 및 우측 방향으로 이동할 수 있다. 여기서, 좌측 및 우측 방향은 디스플레이부(510)의 좌측 및 우측 방향과 동일할 수 있다.Meanwhile, in the present disclosure, the support member 610 may move in left and right directions. Here, the left and right directions may be the same as the left and right directions of the display unit 510 .

일례로, 지지 부재(610)의 상단 및 하단은 하우징(500)의 내측면에 구비된 레일(미도시)에 체결될 수 있다. 이 경우, 지지 부재(610)는 제어부(200)의 제어 하에 하우징(500)의 좌측 및 우측 방향으로 이동될 수 있다.For example, upper and lower ends of the support member 610 may be fastened to a rail (not shown) provided on the inner surface of the housing 500 . In this case, the support member 610 may be moved in the left and right directions of the housing 500 under the control of the controller 200 .

상술한 구성에 따라, 언더 디스플레이 카메라부(100)는 제어부(200)의 제어하에 디스플레이부(510)의 하부에서 상하좌우 방향으로 이동될 수 있다.According to the above-described configuration, the under-display camera unit 100 may be moved up, down, left, and right at the bottom of the display unit 510 under the control of the control unit 200 .

한편, 본 개시의 몇몇 실시예에 따르면, 언더 디스플레이 카메라부(100) 또는 이동 수단(600) 중 적어도 하나는 각도가 조절될 수 있도록 틸팅(tilting) 장치가 구비될 수도 있다.Meanwhile, according to some embodiments of the present disclosure, at least one of the under-display camera unit 100 or the moving means 600 may be provided with a tilting device so that an angle can be adjusted.

일례로, 앞서 설명한 바와 같이 언더 디스플레이 카메라부(100)의 구동부(160)는 광 송신부(130) 및 광 수신부(140)가 향하는 각도를 조절하기 위한 틸팅부를 더 구비할 수도 있다. 다만, 이에 한정되는 것은 아니다.For example, as described above, the driving unit 160 of the under-display camera unit 100 may further include a tilting unit for adjusting the angles of the light transmitting unit 130 and the light receiving unit 140 . However, the present invention is not limited thereto.

상술한 구성에 따르면, 언더 디스플레이 카메라부(100)는 제어부(200)의 제어하에 디스플레이부(510)의 하부에서 상하좌우 방향으로 이동될 수 있고 또한 각도가 조절될 수도 있다. 이 경우, 사용자를 촬영하는 방향과 사용자의 시선이 향하는 방향이 일치함에 따라, 사용자의 시선 처리가 자연스럽게 이루어질 수 있다.According to the above-described configuration, the under-display camera unit 100 may be moved up, down, left, and right under the control of the control unit 200 in the lower portion of the display unit 510 , and the angle may be adjusted. In this case, as the direction in which the user is photographed coincides with the direction in which the user's gaze is directed, the user's gaze processing may be performed naturally.

도 5는 본 개시의 몇몇 실시예에 따른 전자 장치의 제어부가 언더 디스플레이 카메라부를 이동시키는 방법의 일례를 설명하기 위한 흐름도이다. 도 6은 본 개시의 몇몇 실시예에 따른 디스플레이부에 디스플레이되는 제 1 객체의 일례를 설명하기 위한 도면이다.5 is a flowchart illustrating an example of a method in which a control unit of an electronic device moves an under-display camera unit according to some embodiments of the present disclosure; 6 is a view for explaining an example of a first object displayed on a display unit according to some embodiments of the present disclosure;

도 5를 참조하면, 전자 장치(1000)의 제어부(200)는 제 1 객체가 제 1 영역과 상이한 제 2 영역에 디스플레이되는지 여부를 인식할 수 있다(S110).Referring to FIG. 5 , the controller 200 of the electronic device 1000 may recognize whether a first object is displayed in a second area different from the first area ( S110 ).

구체적으로, 제어부(200)는 언더 디스플레이 카메라부(100)를 통해 촬영된 제 1 객체를 인식할 수 있다. 그리고, 제어부(200)는 제 1 객체가 제 1 영역과 상이한 제 2 영역에 디스플레이되는지 여부를 인식할 수 있다. 여기서, 제 1 영역은 디스플레이부의 중심 영역일 수 있다.Specifically, the controller 200 may recognize the first object photographed through the under-display camera unit 100 . In addition, the controller 200 may recognize whether the first object is displayed in a second area different from the first area. Here, the first area may be a central area of the display unit.

예를 들어, 도 6의 (a)를 참조하면, 제어부(200)가 인식한 제 1 객체(700)는 사용자의 손일 수 있다. 그리고, 제어부(200)는 제 1 객체가 제 1 영역과 상이한 제 2 영역에 디스플레이되고 있다고 인식할 수 있다.For example, referring to FIG. 6A , the first object 700 recognized by the controller 200 may be the user's hand. In addition, the controller 200 may recognize that the first object is being displayed in a second area different from the first area.

한편, 도 5를 참조하면, 전자 장치(1000)의 제어부(200)는 제 1 객체가 제 1 영역과 상이한 제 2 영역에 디스플레이되고 있다고 인식한 경우, 제 1 객체가 제 1 영역에 디스플레이되도록 언더 디스플레이 카메라부(100)를 이동 수단(600)에 의해 제 2 영역으로 이동시킬 수 있다(S120).Meanwhile, referring to FIG. 5 , when the control unit 200 of the electronic device 1000 recognizes that the first object is being displayed in a second area different from the first area, under the first object to be displayed in the first area. The display camera unit 100 may be moved to the second area by the moving means 600 ( S120 ).

구체적으로, 제 1 객체가 제 2 영역에 디스플레이되고 있다는 것은, 인식의 대상이 되는 사용자의 손과 같은 제 1 객체가 언더 디스플레이 카메라부(100)에 의해 촬영되는 화면의 일 영역에 치우쳐서 촬영된다는 것을 의미할 수 있다. 이 경우, 수어와 같은 복잡한 움직임에 있어서, 제어부(200)가 제 1 객체의 움직임을 정확하게 인식하지 못할 수 있다. 따라서, 제어부(200)는 제 1 객체가 제 1 영역에 디스플레이되도록 언더 디스플레이 카메라부(100)를 이동 수단(600)에 의해 제 2 영역으로 이동시킬 수 있다.Specifically, that the first object is displayed in the second area means that the first object, such as the user's hand, which is the target of recognition, is photographed biasedly toward one area of the screen photographed by the under-display camera unit 100 . can mean In this case, in a complex movement such as sign language, the controller 200 may not accurately recognize the movement of the first object. Accordingly, the controller 200 may move the under-display camera unit 100 to the second area by the moving means 600 so that the first object is displayed in the first area.

예를 들어, 도 6의 (b)를 참조하면, 제어부(200)는 언더 디스플레이 카메라부(100)를 이동 수단(600)에 의해 제 1 객체(700)가 디스플레이되고 있는 제 2 영역으로 이동시킬 수 있다. 이 경우, 언더 디스플레이 카메라부(100)가 촬영하는 방향과, 사용자의 손이 위치하는 방향이 대응될 수 있다.For example, referring to FIG. 6B , the control unit 200 may move the under-display camera unit 100 to the second area where the first object 700 is displayed by the moving means 600 . can In this case, the direction in which the under-display camera unit 100 takes a picture may correspond to the direction in which the user's hand is positioned.

도 6의 (c)를 참조하면, 언더 디스플레이 카메라부(100)가 사용자의 손을 촬영하는 위치가 사용자의 손이 위치하는 방향에 대응하므로 제 1 객체(700)는 전자 장치(1000)의 디스플레이부의 제 1 영역에 디스플레이될 수 있다. 환언하면, 언더 디스플레이 카메라부(100)가 사용자의 손을 정면에서 촬영함으로써, 제어부(200)는 제 1 객체(700)를 전자 장치(1000)의 디스플레이부의 제 1 영역에 디스플레이할 수 있다.Referring to FIG. 6C , since the position in which the under-display camera unit 100 captures the user's hand corresponds to the direction in which the user's hand is located, the first object 700 is displayed on the display of the electronic device 1000 . It may be displayed in the first area of the sub. In other words, when the under-display camera unit 100 captures the user's hand from the front, the controller 200 may display the first object 700 on the first area of the display unit of the electronic device 1000 .

상술한 구성에 따르면, 제어부(200)는 언더 디스플레이 카메라부(100)의 위치와 언더 디스플레이 카메라부(100)가 촬영하는 사용자의 손과 같은 제 1 객체와 제 1 객체의 위치가 대응되도록 할 수 있다. 이 경우, 언더 디스플레이 카메라부(100)를 통해 촬영된 제 1 객체의 움직임을 정확하게 인식할 수 있다.According to the above-described configuration, the control unit 200 can make the position of the under-display camera unit 100 correspond to a first object such as a user's hand photographed by the under-display camera unit 100 and the position of the first object. have. In this case, the movement of the first object photographed through the under-display camera unit 100 may be accurately recognized.

또한, 제어부(200)가 제 1 객체를 디스플레이부의 중심 영역에 디스플레이 되도록 함에 따라, 사용자와 온라인 대화를 수행하는 상대방도 제 1 객체를 편안하게 응시할 수 있다.In addition, as the controller 200 displays the first object on the central region of the display unit, a counterpart who performs an online conversation with the user may also gaze at the first object comfortably.

도 7은 본 개시의 다른 몇몇 실시예에 따른 전자 장치의 제어부가 언더 디스플레이 카메라부를 이동시키는 방법의 일례를 설명하기 위한 흐름도이다. 도 8은 본 개시의 다른 몇몇 실시예에 따른 디스플레이부에 디스플레이되는 제 1 객체의 일례를 설명하기 위한 도면이다.7 is a flowchart illustrating an example of a method in which a controller of an electronic device moves an under-display camera unit according to another exemplary embodiment of the present disclosure. 8 is a view for explaining an example of a first object displayed on a display unit according to some other exemplary embodiments of the present disclosure.

도 7을 참조하면, 전자 장치(1000)의 제어부(200)는 언더 디스플레이 카메라부(100)를 통해 촬영된 제 1 객체가 사용자의 얼굴인지 여부를 인식할 수 있다(S210).Referring to FIG. 7 , the control unit 200 of the electronic device 1000 may recognize whether the first object photographed through the under-display camera unit 100 is the user's face ( S210 ).

일례로, 제어부(200)는 얼굴 윤곽, 눈썹, 코, 입, 귀의 위치와 형상정보 등에 기초하여, 제 1 객체가 사용자의 얼굴인지 여부를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the controller 200 may recognize whether the first object is the user's face based on the position and shape information of the face contour, eyebrows, nose, mouth, and ears. However, the present invention is not limited thereto.

한편, 전자 장치(1000)의 제어부(200)는 제 1 객체가 사용자의 얼굴인 경우, 디스플레이부 상에서 사용자의 시선이 향하는 제 3 영역을 인식할 수 있다(S220).Meanwhile, when the first object is the user's face, the controller 200 of the electronic device 1000 may recognize a third area on the display unit toward which the user's gaze is directed ( S220 ).

예를 들어, 도 8의 (a)를 참조하면, 실제 사용자는 전자 장치(1000)의 디스플레이부의 좌상측을 바라볼 수 있다. 이 경우, 전자 장치(1000)의 디스플레이부에 디스플레이되는 사용자의 영상도 디스플레이부의 좌상측을 바라보는 것처럼 디스플레이될 수 있다. 이에 따라, 사용자와 온라인 대화를 수행하는 상대방은 사용자의 시선이 정면보다 좌상측을 바라보는 것처럼 보여 사용자의 시선 처리가 어색하다고 느낄 수 있다. 이를 방지하기 위해, 제어부(200)는 사용자의 시선 처리가 자연스러워질 수 있도록 언더 디스플레이 카메라부(100)를 이동시키기 위해, 사용자의 시선이 향하는 제 3 영역을 인식할 수 있다. 이 경우에, 제어부(200)는 사용자의 시선이 향하는 제 3 영역으로 언더 디스플레이 카메라부(100)를 이동 수단(600)에 의해 이동시킬 수 있다.For example, referring to FIG. 8A , the actual user may look at the upper left side of the display unit of the electronic device 1000 . In this case, the user's image displayed on the display unit of the electronic device 1000 may also be displayed as if looking at the upper left side of the display unit. Accordingly, the other party performing an online conversation with the user may feel that the user's gaze is awkward because the user's gaze looks to the upper left side rather than the front. To prevent this, the controller 200 may recognize a third area to which the user's gaze is directed in order to move the under-display camera unit 100 so that the processing of the user's gaze becomes natural. In this case, the control unit 200 may move the under-display camera unit 100 to the third area to which the user's gaze is directed by the moving means 600 .

구체적으로 설명하면, 사용자의 시선이 향하는 제 3 영역을 인식하기 위해 제어부(200)는 시선 수집부(미도시)와 같은 모듈로부터 전달받은 사용자의 시선 위치 데이터를 이용할 수 있다. 여기서, 시선 수집부는 디스플레이부에 구비되는 센서를 통해 사용자의 시선을 분석하고, 시선 위치 데이터를 실시간으로 수집하는 모듈일 수 있다. 예를 들어, 시선 수집부는 디스플레이부와 사용자의 눈과의 거리 그리고 사용자의 눈동자의 움직임을 센서, 거리 센서 등을 통해 정확하게 파악하도록 구성될 수 있다. 다만, 이에 한정되는 것은 아니고, 시선 수집 데이터는 언더 디스플레이 카메라부(100)에 의해 수집될 수도 있다.Specifically, in order to recognize the third area to which the user's gaze is directed, the controller 200 may use the user's gaze position data received from a module such as a gaze collection unit (not shown). Here, the gaze collecting unit may be a module that analyzes the user's gaze through a sensor provided in the display unit and collects gaze position data in real time. For example, the gaze collection unit may be configured to accurately grasp the distance between the display unit and the user's eyes and the movement of the user's pupils through a sensor, a distance sensor, or the like. However, the present invention is not limited thereto, and the gaze collection data may be collected by the under-display camera unit 100 .

한편, 전자 장치(1000)의 제어부(200)는 제 3 영역이 인식된 경우, 언더 디스플레이 카메라부(100)를 이동 수단(600)에 의해 제 3 영역으로 이동시킬 수 있다(S230).Meanwhile, when the third area is recognized, the control unit 200 of the electronic device 1000 may move the under-display camera unit 100 to the third area by the moving means 600 ( S230 ).

예를 들어, 도 8의 (b)를 참조하면, 제어부(200)는 언더 디스플레이 카메라부(100)를 이동 수단(600)에 의해 제 3 영역으로 이동시킬 수 있다. 이 경우, 언더 디스플레이 카메라부(100)가 사용자의 얼굴을 촬영하는 방향과, 사용자의 시선이 향하는 방향이 대응될 수 있다.For example, referring to FIG. 8B , the control unit 200 may move the under-display camera unit 100 to the third area by the moving means 600 . In this case, the direction in which the under-display camera unit 100 captures the user's face may correspond to the direction in which the user's gaze is directed.

이에 따라, 도 8의 (c)를 참조하면, 전자 장치(1000)의 디스플레이부에 디스플레이되는 사용자의 시선은 디스플레이부의 중앙을 바라보도록 디스플레이될 수 있다. 즉, 사용자를 촬영하는 방향과 사용자의 시선이 향하는 방향이 일치함에 따라, 사용자의 시선 처리가 자연스럽게 이루어질 수 있다. 다만, 이에 한정되는 것은 아니다.Accordingly, referring to FIG. 8C , the user's gaze displayed on the display unit of the electronic device 1000 may be displayed to face the center of the display unit. That is, as the direction in which the user is photographed coincides with the direction in which the user's gaze is directed, the user's gaze processing can be performed naturally. However, the present invention is not limited thereto.

도 9는 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.9 shows a general schematic diagram of an example computing environment in which embodiments of the present disclosure may be implemented.

본 개시내용이 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시내용 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.Although the present disclosure has been described above generally in the context of computer-executable instructions that may be executed on one or more computers, those skilled in the art will appreciate that the present disclosure may be implemented as a combination of hardware and software and/or in combination with other program modules. you will know

일반적으로, 본 명세서에서의 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로시져, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.Generally, modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types. In addition, those skilled in the art will appreciate that the methods of the present disclosure can be applied to single-processor or multiprocessor computer systems, minicomputers, mainframe computers as well as personal computers, handheld computing devices, microprocessor-based or programmable consumer electronics, etc. (each of which is It will be appreciated that other computer system configurations may be implemented, including those that may operate in connection with one or more associated devices.

본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.The described embodiments of the present disclosure may also be practiced in distributed computing environments where certain tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.

컴퓨터는 통상적으로 다양한컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체 로서, 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. Computers typically include a variety of computer-readable media. Media accessible by a computer includes volatile and nonvolatile media, transitory and non-transitory media, removable and non-removable media. By way of example, and not limitation, computer-readable media may include computer-readable storage media and computer-readable transmission media.

컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.Computer readable storage media includes volatile and nonvolatile media, temporary and non-transitory media, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. includes media. A computer-readable storage medium may be RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage device, magnetic cassette, magnetic tape, magnetic disk storage device, or other magnetic storage device. device, or any other medium that can be accessed by a computer and used to store the desired information.

컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.Computer readable transmission media typically embodies computer readable instructions, data structures, program modules or other data in a modulated data signal such as a carrier wave or other transport mechanism, and Includes all information delivery media. The term modulated data signal means a signal in which one or more of the characteristics of the signal is set or changed so as to encode information in the signal. By way of example, and not limitation, computer-readable transmission media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above are also intended to be included within the scope of computer-readable transmission media.

컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.An example environment 1100 implementing various aspects of the disclosure is shown including a computer 1102 , the computer 1102 including a processing unit 1104 , a system memory 1106 , and a system bus 1108 . do. A system bus 1108 couples system components, including but not limited to system memory 1106 , to the processing device 1104 . The processing device 1104 may be any of a variety of commercially available processors. Dual processor and other multiprocessor architectures may also be used as processing unit 1104 .

시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.The system bus 1108 may be any of several types of bus structures that may further interconnect a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures. System memory 1106 includes read only memory (ROM) 1110 and random access memory (RAM) 1112 . A basic input/output system (BIOS) is stored in non-volatile memory 1110, such as ROM, EPROM, EEPROM, etc., the BIOS is the basic input/output system (BIOS) that helps transfer information between components within computer 1102, such as during startup. contains routines. RAM 1112 may also include high-speed RAM, such as static RAM, for caching data.

컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)―이 내장형 하드 디스크 드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음―, 자기 플로피 디스크 드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 예를 들어, USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.The computer 1102 may also include an internal hard disk drive (HDD) 1114 (eg, EIDE, SATA) - this internal hard disk drive 1114 may also be configured for external use within a suitable chassis (not shown). Yes—a magnetic floppy disk drive (FDD) 1116 (eg, for reading from or writing to removable diskette 1118), and an optical disk drive 1120 (eg, a CD-ROM) for reading from, or writing to, disk 1122, or other high capacity optical media, such as DVD. The hard disk drive 1114 , the magnetic disk drive 1116 , and the optical disk drive 1120 are connected to the system bus 1108 by the hard disk drive interface 1124 , the magnetic disk drive interface 1126 , and the optical drive interface 1128 , respectively. ) can be connected to The interface 1124 for external drive implementation includes, for example, at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.

이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 저장 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 저장 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.These drives and their associated computer-readable media provide non-volatile storage of data, data structures, computer-executable instructions, and the like. In the case of computer 1102, drives and media correspond to storing any data in a suitable digital format. Although the description of computer readable storage media above refers to HDDs, removable magnetic disks, and removable optical media such as CDs or DVDs, those skilled in the art will use zip drives, magnetic cassettes, flash memory cards, cartridges, It will be appreciated that other tangible computer-readable storage media and the like may also be used in the exemplary operating environment and any such media may include computer-executable instructions for performing the methods of the present disclosure. .

운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.A number of program modules may be stored in the drive and RAM 1112 , including an operating system 1130 , one or more application programs 1132 , other program modules 1134 , and program data 1136 . All or portions of the operating system, applications, modules, and/or data may also be cached in RAM 1112 . It will be appreciated that the present disclosure may be implemented in various commercially available operating systems or combinations of operating systems.

사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.A user may enter commands and information into the computer 1102 via one or more wired/wireless input devices, for example, a pointing device such as a keyboard 1138 and a mouse 1140 . Other input devices (not shown) may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like. Although these and other input devices are connected to the processing unit 1104 through an input device interface 1142 that is often connected to the system bus 1108, parallel ports, IEEE 1394 serial ports, game ports, USB ports, IR interfaces, It may be connected by other interfaces, etc.

모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.A monitor 1144 or other type of display device is also coupled to the system bus 1108 via an interface, such as a video adapter 1146 . In addition to the monitor 1144, the computer typically includes other peripheral output devices (not shown), such as speakers, printers, and the like.

컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 서버 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 1148 via wired and/or wireless communications. Remote computer(s) 1148 may be workstations, server computers, routers, personal computers, portable computers, microprocessor-based entertainment devices, peer devices, or other common network nodes, and are generally Although including many or all of the components described, only memory storage device 1150 is shown for simplicity. The logical connections shown include wired/wireless connections to a local area network (LAN) 1152 and/or a larger network, eg, a wide area network (WAN) 1154 . Such LAN and WAN networking environments are common in offices and companies, and facilitate enterprise-wide computer networks, such as intranets, all of which can be connected to a worldwide computer network, for example, the Internet.

LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 서버에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.When used in a LAN networking environment, the computer 1102 is coupled to the local network 1152 through a wired and/or wireless communication network interface or adapter 1156 . Adapter 1156 may facilitate wired or wireless communication to LAN 1152 , which LAN 1152 also includes a wireless access point installed therein for communicating with wireless adapter 1156 . When used in a WAN networking environment, the computer 1102 may include a modem 1158 , connected to a communication server on the WAN 1154 , or otherwise establishing communications over the WAN 1154 , such as over the Internet. have the means A modem 1158 , which may be internal or external and a wired or wireless device, is coupled to the system bus 1108 via a serial port interface 1142 . In a networked environment, program modules described for computer 1102 , or portions thereof, may be stored in remote memory/storage device 1150 . It will be appreciated that the network connections shown are exemplary and other means of establishing a communication link between the computers may be used.

컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.The computer 1102 may be associated with any wireless device or object that is deployed and operates in wireless communication, for example, a printer, scanner, desktop and/or portable computer, portable data assistant (PDA), communication satellite, wireless detectable tag. It operates to communicate with any device or place and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, the communication may be a predefined structure as in a conventional network or may simply be an ad hoc communication between at least two devices.

Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.Wi-Fi (Wireless Fidelity) makes it possible to connect to the Internet, etc. without a wired connection. Wi-Fi is a wireless technology such as cell phones that allows these devices, eg, computers, to transmit and receive data indoors and outdoors, ie anywhere within range of a base station. Wi-Fi networks use a radio technology called IEEE 802.11 (a, b, g, etc.) to provide secure, reliable, and high-speed wireless connections. Wi-Fi can be used to connect computers to each other, to the Internet, and to wired networks (using IEEE 802.3 or Ethernet). Wi-Fi networks may operate in unlicensed 2.4 and 5 GHz radio bands, for example, at 11 Mbps (802.11a) or 54 Mbps (802.11b) data rates, or in products that include both bands (dual band). have.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.Those of ordinary skill in the art of the present disclosure will recognize that the various illustrative logical blocks, modules, processors, means, circuits, and algorithm steps described in connection with the embodiments disclosed herein include electronic hardware, (convenience For this purpose, it will be understood that it may be implemented by various forms of program or design code (referred to herein as "software") or a combination of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. A person skilled in the art of the present disclosure may implement the described functionality in various ways for each specific application, but such implementation decisions should not be interpreted as a departure from the scope of the present disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다.The various embodiments presented herein may be implemented as methods, apparatus, or articles of manufacture using standard programming and/or engineering techniques. The term “article of manufacture” includes a computer program or media accessible from any computer-readable device. For example, computer-readable storage media include magnetic storage devices (eg, hard disks, floppy disks, magnetic strips, etc.), optical disks (eg, CDs, DVDs, etc.), smart cards, and flash drives. memory devices (eg, EEPROMs, cards, sticks, key drives, etc.). The term “machine-readable medium” includes, but is not limited to, wireless channels and various other media that can store, hold, and/or convey instruction(s) and/or data.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not intended to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.

Claims (10)

디스플레이부의 제 1 영역의 하부에 위치하는 언더 디스플레이 카메라부; 및
상기 언더 디스플레이 카메라부를 통해 촬영된 제 1 객체를 인식하고, 상기 제 1 객체를 상기 디스플레이부의 상기 제 1 영역 상에 디스플레이하도록 디스플레이부를 제어하는 제어부;
를 포함하고,
상기 제어부는:
상기 제 1 객체가 사용자의 얼굴인 경우, 실시간으로 수집되는 시선 위치 데이터에 기초하여 상기 디스플레이부 상에서 상기 사용자의 시선이 향하는 제 3 영역을 인식하고, 그리고
상기 제 3 영역이 상기 제 1 영역과 상이한 경우에, 상기 언더 디스플레이 카메라부가 상기 사용자의 얼굴을 촬영하는 방향과 상기 사용자의 시선이 향하는 방향이 대응될 수 있도록, 상기 언더 디스플레이 카메라부를 이동 수단에 의해 상기 제 3 영역으로 이동시키는,
전자 장치.
an under-display camera unit located below the first area of the display unit; and
a control unit for recognizing a first object photographed through the under-display camera unit and controlling the display unit to display the first object on the first area of the display unit;
including,
The control unit is:
When the first object is a user's face, a third area to which the user's gaze is directed is recognized on the display unit based on gaze position data collected in real time, and
When the third area is different from the first area, the under-display camera unit is moved by the moving means so that the direction in which the under-display camera unit captures the user's face and the direction in which the user's gaze is directed correspond to each other. moving to the third area,
electronic device.
제 1 항에 있어서,
상기 제 1 영역은,
상기 디스플레이부의 중심 영역인,
전자 장치.
The method of claim 1,
The first area is
The central area of the display unit,
electronic device.
제 1 항에 있어서,
상기 제어부는,
상기 제 1 객체가 상기 제 1 영역과 상이한 제 2 영역에 디스플레이되는 경우, 상기 제 1 객체가 상기 제 1 영역에 디스플레이되도록 상기 언더 디스플레이 카메라부를 상기 이동 수단에 의해 상기 제 2 영역으로 이동시키는,
전자 장치.
The method of claim 1,
The control unit is
when the first object is displayed in a second area different from the first area, moving the under-display camera unit to the second area by the moving means so that the first object is displayed in the first area;
electronic device.
제 3 항에 있어서,
상기 제어부는,
상기 제 1 객체가 사용자의 손이고 상기 제 1 객체가 상기 제 2 영역에 디스플레이되는 경우, 상기 사용자의 손이 상기 제 1 영역 상에 디스플레이되도록 상기 언더 디스플레이 카메라부를 상기 이동 수단에 의해 상기 제 2 영역으로 이동시키는,
전자 장치.
4. The method of claim 3,
The control unit is
When the first object is a user's hand and the first object is displayed on the second area, the under display camera unit is moved by the moving means so that the user's hand is displayed on the first area. moving to
electronic device.
삭제delete 제 1 항에 있어서,
상기 제 1 객체로부터 감지되는 제 1 수어를 인식하여, 상기 제 1 수어에 대응하는 제 1 음성을 출력하는 수어-음성 출력부; 및
마이크를 통해 입력되는 제 2 음성을 인식하여, 상기 제 2 음성에 대응하는 제 2 수어를 출력하는 음성-수어 출력부;
를 더 포함하는,
전자 장치.
The method of claim 1,
a sign language-voice output unit recognizing a first sign language sensed from the first object and outputting a first voice corresponding to the first sign language; and
a voice-sign language output unit recognizing a second voice input through a microphone and outputting a second sign language corresponding to the second voice;
further comprising,
electronic device.
제 6 항에 있어서,
상기 수어-음성 출력부는,
상기 제 1 객체로부터 감지되는 상기 제 1 수어를 인식하는 수어 인식부;
인식된 상기 제 1 수어에 기초하여 적어도 하나의 수어 인덱스를 생성하는 제 1 인덱스 생성부;
상기 적어도 하나의 수어 인덱스 각각에 대응하는 적어도 하나의 단어를 매칭하는 수어-단어 매칭부;
상기 적어도 하나의 단어를 이용하여 적어도 하나의 문장을 생성하는 문장 생성부; 및
상기 적어도 하나의 문장에 대응하는 상기 제 1 음성을 출력하는 음성 출력부;
를 포함하는,
전자 장치.
7. The method of claim 6,
The sign language-voice output unit,
a sign language recognition unit for recognizing the first sign language sensed from the first object;
a first index generator for generating at least one sign language index based on the recognized first sign language;
a sign language-word matching unit matching at least one word corresponding to each of the at least one sign language index;
a sentence generator for generating at least one sentence using the at least one word; and
a voice output unit for outputting the first voice corresponding to the at least one sentence;
containing,
electronic device.
제 6 항에 있어서,
상기 음성-수어 출력부는,
상기 마이크를 통해 입력된 제 2 음성을 문자로 변환하는 음성 변환부;
상기 문자에 기초하여 적어도 하나의 수어 인덱스를 생성하는 제 2 인덱스 생성부;
상기 적어도 하나의 수어 인덱스 각각에 대응하는 적어도 하나의 이미지를 매칭하는 문자-이미지 매칭부;
상기 적어도 하나의 이미지를 이용하여 상기 제 2 수어를 생성하는 수어 생성부; 및
상기 제 2 수어를 출력하는 수어 출력부;
를 포함하는,
전자 장치.
7. The method of claim 6,
The voice-sign output unit,
a voice converter converting the second voice input through the microphone into text;
a second index generator for generating at least one sign language index based on the character;
a text-image matching unit matching at least one image corresponding to each of the at least one sign language index;
a sign language generator for generating the second sign language by using the at least one image; and
a sign language output unit for outputting the second sign language;
containing,
electronic device.
제 1 항에 있어서,
상기 언더 디스플레이 카메라부는,
제 1 기판;
상기 제 1 기판의 상부에 위치하는 제 2 기판;
상기 제 1 기판에 배치되는 광원 및 상기 광원과 동축으로 정렬되도록 상기 제 2 기판에 배치되는 광 생성 모듈을 포함하는 광 송신부; 및
상기 제 2 기판에 배치되는 광 가이드 모듈 및 상기 광 가이드 모듈과 동축으로 정렬되도록 상기 제 1 기판에 배치되는 광 센싱 모듈을 포함하는 광 수신부;
를 포함하고,
상기 광 생성 모듈은, 상기 광원의 광에 의해 상기 언더 디스플레이 카메라부의 외부로 조사되는 광 패턴을 생성하고,
상기 광 가이드 모듈은, 사전 결정된 패턴을 가지는 광 투과층을 가지고 상기 광 패턴에 의해 상기 언더 디스플레이 카메라부의 외부로부터 반사되는 광을 상기 광 투과층을 통해 상기 광 센싱 모듈로 통과시키고,
상기 광 센싱 모듈은, 상기 광 가이드 모듈을 통과한 광을 센싱함으로써 제 1 광학 이미지를 생성하고, 그리고
상기 제어부는, 상기 사전 결정된 패턴에 기초하여 상기 제 1 광학 이미지를 재구성함으로써 제 2 광학 이미지를 생성하는,
전자 장치.
The method of claim 1,
The under display camera unit,
a first substrate;
a second substrate positioned on the first substrate;
a light transmitter including a light source disposed on the first substrate and a light generating module disposed on the second substrate to be coaxially aligned with the light source; and
a light receiver including a light guide module disposed on the second substrate and a light sensing module disposed on the first substrate to be coaxially aligned with the light guide module;
including,
The light generating module generates a light pattern irradiated to the outside of the under display camera unit by the light of the light source,
The light guide module has a light transmitting layer having a predetermined pattern and passes light reflected from the outside of the under display camera unit by the light pattern to the light sensing module through the light transmitting layer,
The light sensing module generates a first optical image by sensing the light passing through the light guide module, and
The control unit generates a second optical image by reconstructing the first optical image based on the predetermined pattern,
electronic device.
제 1 항에 있어서,
상기 언더 디스플레이 카메라부는 TOF(Time Of Flight) 센서 모듈, 전하결합소자(Charge-Coupled Device, CCD) 모듈, CMOS(Complementary Metal-Oxide-Semiconductor) 모듈 또는 단광자 애벌런치 다이오드(SPAD, Single Photon Avalanche Diode) 모듈을 포함하는,
전자 장치.
The method of claim 1,
The under-display camera unit includes a Time Of Flight (TOF) sensor module, a Charge-Coupled Device (CCD) module, a Complementary Metal-Oxide-Semiconductor (CMOS) module, or a Single Photon Avalanche Diode (SPAD) module. ) containing the module,
electronic device.
KR1020210040249A 2020-12-04 2021-03-29 Electronic device KR102419299B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200168193 2020-12-04
KR20200168193 2020-12-04

Publications (3)

Publication Number Publication Date
KR20220079382A KR20220079382A (en) 2022-06-13
KR102419299B1 true KR102419299B1 (en) 2022-07-11
KR102419299B9 KR102419299B9 (en) 2023-12-08

Family

ID=81984238

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210021941A KR102406921B1 (en) 2020-12-04 2021-02-18 Optical device with Monolithic Architecture, and production method thereof
KR1020210040249A KR102419299B1 (en) 2020-12-04 2021-03-29 Electronic device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210021941A KR102406921B1 (en) 2020-12-04 2021-02-18 Optical device with Monolithic Architecture, and production method thereof

Country Status (1)

Country Link
KR (2) KR102406921B1 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101056207B1 (en) * 2004-06-21 2011-08-11 에스케이 텔레콤주식회사 Automatic Tracking Method for Face of Video Communication Camera
KR101148508B1 (en) * 2010-07-16 2012-05-25 한국과학기술원 A method and device for display of mobile device, and mobile device using the same
CN106104296B (en) * 2014-03-14 2020-01-21 赫普塔冈微光有限公司 Optical imaging module and optical detection module including time-of-flight sensor
KR102450803B1 (en) * 2016-02-11 2022-10-05 한국전자통신연구원 Duplex sign language translation apparatus and the apparatus for performing the duplex sign language translation method
JP6685887B2 (en) 2016-12-13 2020-04-22 株式会社日立製作所 Imaging device
US11082547B2 (en) * 2017-07-07 2021-08-03 Huawei Technologies Co., Ltd. Terminal provided with camera and shooting method
EP3525004B1 (en) * 2018-02-08 2020-10-14 Cedes AG Tof sensor with test transmitter
DE102018109544A1 (en) * 2018-04-20 2019-10-24 Sick Ag Optoelectronic sensor and method for distance determination
KR102537592B1 (en) * 2018-09-13 2023-05-26 엘지이노텍 주식회사 Light emitting module and camera module

Also Published As

Publication number Publication date
KR102419299B9 (en) 2023-12-08
KR102406921B1 (en) 2022-06-10
KR102406921B9 (en) 2023-12-08
KR20220079382A (en) 2022-06-13

Similar Documents

Publication Publication Date Title
US10897607B2 (en) Mobile terminal and method for controlling the same
US10462568B2 (en) Terminal and vehicle control method of mobile terminal using machine learning
US11114093B2 (en) Intelligent voice recognizing method, apparatus, and intelligent computing device
KR102384641B1 (en) Method for controlling an intelligent system that performs multilingual processing
US10073201B2 (en) See through near-eye display
US8520912B2 (en) Fingerprint recognition device
CN102063223B (en) Pointing device and electronic apparatus
KR101892013B1 (en) Mobile terminal
KR20170005649A (en) 3d camera module and mobile terminal comprising the 3d camera module
KR101961666B1 (en) Mobile terminal and method for controlling the same
US20120245920A1 (en) Communication device for multiple language translation system
CN107533635A (en) For irradiation light to shoot the method and apparatus of iris
EP4207735A1 (en) Camera having meta-lens and electronic device comprising same
US20230177870A1 (en) Recognition method of 3d vein pattern and recognition device thereof
KR102419299B1 (en) Electronic device
US20200257124A1 (en) Electronic device
US11558555B2 (en) Mobile terminal and method for controlling same
KR102043156B1 (en) Mobile terminal and method for controlling the same
KR102067599B1 (en) Mobile terminal and method for controlling the same
US10691261B2 (en) Non-planar reflective folded optics
CN115407308A (en) 3D sensing module, 3D sensing method and electronic equipment
CN116830065A (en) Electronic device for tracking user gaze and providing augmented reality service and method thereof
KR102637419B1 (en) Mobile terminal and 3D image conversion method thereof
KR20240025380A (en) Electronic device for applying an effect to an image and method for controlling thereof
KR20240028254A (en) Lens assembly comprising light emitting element disposed on a support lens and wearable electronic device comprising the same

Legal Events

Date Code Title Description
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]