KR20230047871A - Content output control method using eye tracking and electronic device therefor - Google Patents

Content output control method using eye tracking and electronic device therefor Download PDF

Info

Publication number
KR20230047871A
KR20230047871A KR1020210173922A KR20210173922A KR20230047871A KR 20230047871 A KR20230047871 A KR 20230047871A KR 1020210173922 A KR1020210173922 A KR 1020210173922A KR 20210173922 A KR20210173922 A KR 20210173922A KR 20230047871 A KR20230047871 A KR 20230047871A
Authority
KR
South Korea
Prior art keywords
processor
eye
content
electronic device
display
Prior art date
Application number
KR1020210173922A
Other languages
Korean (ko)
Inventor
엄준훤
김승년
윤건호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20230047871A publication Critical patent/KR20230047871A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to technology for controlling video and audio operations using eye-tracking cameras. An electronic device, according to an embodiment of the present invention, comprises: a camera; a display; and at least one processor operatively connected to the camera and the display. The at least one processor outputs at least one content through the display, sets an operation mode of the camera to a low power mode while outputting the at least one content, obtains image data corresponding to the user's eye area through the camera with the camera set to the low power mode, identifies the eye movement based on the acquired image data, determines whether the identified eye movement is valid, and controls parameters related to the output of the content based on the eye movement in response to determining that the eye movement is valid. In addition, various embodiments identified through the specification are possible.

Description

시선 추적을 이용한 콘텐트 출력 제어방법 및 그 전자 장치{CONTENT OUTPUT CONTROL METHOD USING EYE TRACKING AND ELECTRONIC DEVICE THEREFOR}CONTENT OUTPUT CONTROL METHOD USING EYE TRACKING AND ELECTRONIC DEVICE THEREFOR

본 문서에서 개시되는 다양한 실시 예들은, 시선 추적 카메라를 이용하여 비디오 및 오디오 동작을 제어하는 기술에 관한 것이다.Various embodiments disclosed in this document relate to a technique for controlling video and audio operations using an eye tracking camera.

가상현실(virtual reality, VR)은 실제 환경과 유사하나 실제로 존재하지 않는 가상의 환경을 컴퓨터와 같은 전자 장치를 이용하여 인공적으로 만들어내는 기술을 의미한다. 증강현실(augmented reality, AR)은 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 기술을 의미한다.Virtual reality (VR) refers to a technology that artificially creates a virtual environment that is similar to a real environment but does not actually exist using an electronic device such as a computer. Augmented reality (AR) refers to a technology that synthesizes virtual objects or information in a real environment to make them look like objects existing in the original environment.

휴대폰 단말 기기에서 미디어가 재생되는 동안 영상을 앞 또는 뒤로 넘길 때 휴대폰 단말 기기와 연동된 AR/VR 기기에서는 터치 입력을 통해 재생을 조절할 수 있다.When the video is skipped forward or backward while media is being played on the mobile phone terminal device, playback can be controlled through touch input in the AR/VR device linked with the mobile phone terminal device.

AR/VR 기기에서 미디어 재생 시 제어를 위해 컨트롤러 또는 휴대폰과 같은 별도의 제어 기기 또는 기기 내의 터치 키 등을 이용해 재생을 조절할 수 있다.To control playback of media in an AR/VR device, playback can be controlled using a controller or a separate control device such as a mobile phone or a touch key within the device.

한편, 종래의 AR/VR 기기에서 미디어 재생의 제어를 하기 위해서는 별도의 컨트롤러가 필요하고 일부 기기는 휴대폰과 같은 별도의 제어기기가 필요하다.On the other hand, in order to control media playback in conventional AR/VR devices, a separate controller is required, and some devices require a separate controller such as a mobile phone.

따라서, 별도의 제어기기가 없는 일부 기기에서는 기기 내의 별도의 키 또는 제스쳐를 이용하여 미디어의 재생을 제어하는데, 별도의 키를 누르는 것은 사용성이 저하되고 제스쳐를 이용하는 경우 소모전류가 크고 정확성이 떨어질 수 있다.Therefore, in some devices without a separate control device, media playback is controlled using a separate key or gesture within the device. Pressing a separate key degrades usability, and when a gesture is used, current consumption is high and accuracy may be reduced. there is.

본 문서에서 개시되는 다양한 실시 예들은 AR/VR 기기에서 미디어의 재생 제어를 위해 별도의 기기를 사용하지 않고 눈의 움직임만으로 미디어를 제어하는 장치 및 방법 등을 제공할 수 있다.Various embodiments disclosed in this document may provide a device and method for controlling media reproduction in an AR/VR device without using a separate device and controlling media only with eye movements.

일 실시 예에 따른 전자 장치는, 카메라, 디스플레이 및 상기 카메라 및 상기 디스플레이와 작동적으로 연결되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 상기 디스플레이를 통해 적어도 하나의 콘텐트를 출력하고, 상기 적어도 하나의 콘텐트를 출력하는 동안, 상기 카메라의 동작 모드를 저전력 모드로 설정하고, 상기 카메라가 상기 저전력 모드로 설정된 상태에서, 상기 카메라를 통해 사용자의 눈 영역에 대응하는 이미지 데이터를 획득하고, 상기 획득된 이미지 데이터에 기반하여 상기 눈의 움직임을 식별하고, 상기 식별된 눈의 움직임이 유효한지 여부를 판단하고, 상기 눈의 움직임이 유효한 것으로 판단되는 것에 응답하여, 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어할 수 있다.An electronic device according to an embodiment includes a camera, a display, and at least one processor operatively connected to the camera and the display, wherein the at least one processor outputs at least one content through the display; While outputting the at least one content, setting an operation mode of the camera to a low power mode, and obtaining image data corresponding to an eye region of a user through the camera in a state in which the camera is set to the low power mode; Identifying the eye movement based on the obtained image data, determining whether the identified eye movement is valid, and in response to determining that the eye movement is valid, based on the eye movement Parameters related to the output of the content may be controlled.

일 실시 예에 따른 전자 장치의 동작 방법은, 디스플레이를 통해 적어도 하나의 콘텐트를 출력하는 동작, 상기 적어도 하나의 콘텐트를 출력하는 동안, 카메라의 동작 모드를 저전력 모드로 설정하는 동작, 상기 카메라가 상기 저전력 모드로 설정된 상태에서, 상기 카메라를 통해 사용자의 눈 영역에 대응하는 이미지 데이터를 획득하는 동작, 상기 획득된 이미지 데이터에 기반하여 상기 눈의 움직임을 식별하는 동작, 상기 식별된 눈의 움직임이 유효한지 여부를 판단하는 동작 및 상기 눈의 움직임이 유효한 것으로 판단되는 것에 응답하여, 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어하는 동작을 포함할 수 있다.An operating method of an electronic device according to an embodiment includes outputting at least one content through a display, setting an operating mode of a camera to a low power mode while outputting the at least one content, and setting the camera to the low power consumption mode. Obtaining image data corresponding to the user's eye region through the camera in a state in which the low-power mode is set, identifying the eye movement based on the acquired image data, and the identified eye movement being effective. and controlling a parameter related to the output of the content based on the eye movement in response to determining that the eye movement is valid.

본 문서에 개시된 다양한 실시 예들에 따르면, 별도의 기기를 사용하지 않고 눈의 깜빡임으로 미디어를 제어함으로써 사용자에게 편리성을 제공할 수 있다.According to various embodiments disclosed in this document, convenience may be provided to a user by controlling media with a blink of an eye without using a separate device.

본 문서에 개시된 다양한 실시 예들에 따르면, 별도의 터치 입력 또는 제스쳐 없이 눈의 깜빡임으로 미디어를 제어함으로써 소모전류를 감소시키고 정확도를 높일 수 있다.According to various embodiments disclosed in this document, current consumption may be reduced and accuracy may be increased by controlling media with eye blinking without a separate touch input or gesture.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition to this, various effects identified directly or indirectly through this document may be provided.

도 1은 일 실시 예에 따른 전자 장치의 사시도이다.
도 2는 일 실시 예에 따른 전자 장치의 블록도다.
도 3은 일 실시 예에 따른 전자 장치가 눈의 움직임에 따라 콘텐트 출력을 제어하는 동작의 흐름도이다.
도 4는 일 실시 예에 따른 전자 장치가 카메라의 동작 모드를 변경하는 동작의 흐름도이다.
도 5는 일 실시 예에 따른 전자 장치가 응시 영역에 대응하는 사용자 인터페이스(user interface, UI)를 출력하는 동작의 흐름도이다.
도 6은 일 실시 예에 따른 전자 장치에서 눈의 움직임에 기초하여 콘텐트의 출력을 제어하는 동작의 흐름도이다.
도 7a는 일 실시 예에 따른 전자 장치에서 눈의 움직임에 기초하여 콘텐트의 재생을 제어하는 것을 도시한다.
도 7b는 일 실시 예에 따른 전자 장치에서 눈의 움직임에 기초하여 콘텐트의 음량을 제어하는 것을 도시한다.
도 7c는 일 실시 예에 따른 전자 장치에서 눈의 움직임에 기초하여 콘텐트의 밝기를 제어하는 것을 도시한다.
도 8은 일 실시 예에 따른 전자 장치에서 UI 및 눈의 움직임에 대응되는 파라미터들을 예시한 도면이다.
도 9a는 일 실시 예에 따른 전자 장치(100)에서 눈의 움직임에 기초하여 콘텐트의 크기 및/또는 밝기를 증가시키는 것을 나타낸 도면이다.
도 9b는 일 실시 예에 따른 전자 장치(100)에서 눈의 움직임에 기초하여 콘텐트의 크기 및/또는 밝기를 감소시키는 것을 나타낸 도면이다.
도 10은 일 실시 예에 따른 전자 장치에서 눈의 움직임에 기초하여 가상 객체를 제어하는 것을 나타낸 도면이다.
도 11은 일 실시 예에 따른 전자 장치에서 제1 모드를 설정 또는 설정 해제하는 화면을 나타낸 도면이다.
도 12는 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
1 is a perspective view of an electronic device according to an exemplary embodiment.
2 is a block diagram of an electronic device according to an exemplary embodiment.
3 is a flowchart of an operation of controlling content output according to eye movement by an electronic device according to an exemplary embodiment.
4 is a flowchart of an operation of changing an operation mode of a camera by an electronic device according to an exemplary embodiment.
5 is a flowchart of an operation of outputting a user interface (UI) corresponding to a gaze area by an electronic device according to an exemplary embodiment.
6 is a flowchart of an operation of controlling an output of content based on eye movements in an electronic device according to an exemplary embodiment.
7A illustrates controlling reproduction of content based on eye movements in an electronic device according to an exemplary embodiment.
7B illustrates controlling the volume of content based on eye movements in an electronic device according to an embodiment.
7C illustrates controlling the brightness of content based on eye movements in an electronic device according to an embodiment.
8 is a diagram illustrating parameters corresponding to a UI and eye movements in an electronic device according to an embodiment.
9A is a diagram illustrating increasing the size and/or brightness of content based on eye movements in the electronic device 100 according to an embodiment.
9B is a diagram illustrating reducing the size and/or brightness of content based on eye movements in the electronic device 100 according to an embodiment.
10 is a diagram illustrating controlling a virtual object based on an eye movement in an electronic device according to an exemplary embodiment.
11 is a diagram illustrating a screen for setting or releasing a first mode in an electronic device according to an embodiment.
12 is a block diagram of an electronic device in a network environment according to various embodiments.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar elements.

이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. However, it should be understood that this is not intended to limit the present invention to the specific embodiments, and includes various modifications, equivalents, and/or alternatives of the embodiments of the present invention.

도 1은 일 실시 예에 따른 전자 장치(100)의 사시도이다.1 is a perspective view of an electronic device 100 according to an exemplary embodiment.

도 1을 참조하면, 일 실시 예에 따른 전자 장치(100)는 힌지(113-L, 113-R)를 통해 전자 장치(100)의 물리적인 상태가 변경될 수 있다. 예를 들어, 전자 장치(100)는 힌지(113-L, 113-R)를 통해 안경 다리가 접힌 상태가 되거나 안경 다리가 펼쳐진 상태가 될 수 있다.Referring to FIG. 1 , a physical state of the electronic device 100 according to an embodiment may be changed through hinges 113-L and 113-R. For example, the electronic device 100 may be in a state in which the temples of the temples are folded or the temples are unfolded through the hinges 113-L and 113-R.

일 실시 예에 따르면, 전자 장치(100)는 제1 광 출력 모듈(101-L), 제2 광 출력 모듈(101-R), 제1 디스플레이(103-L), 제2 디스플레이(103-R), 제1 카메라(105-L, 105-R), 제2 카메라(107-L, 107-R), 제3 카메라(109), 제1 PCB(printed circuit board)(111-L), 제2 PCB(111-R), 힌지(113-L, 113-R), 제1 광학 부재(115-L), 제2 광학 부재(115-R), 마이크(117-L, 117-R, 117-C(center)), 스피커(119-L, 119-R), 제1 배터리(121-L), 제2 배터리(121-R), 제1 투명 부재(123-L), 제2 투명 부재(123-R)를 포함할 수 있다. 다양한 실시 예에서, 전자 장치(100)는 도 1에 도시된 구성요소 외에 추가적인 구성요소를 포함하거나, 도 1에 도시된 구성요소 중 적어도 하나를 생략할 수 있다.According to an embodiment, the electronic device 100 includes a first light output module 101-L, a second light output module 101-R, a first display 103-L, and a second display 103-R. ), the first cameras 105-L and 105-R, the second cameras 107-L and 107-R, the third camera 109, the first printed circuit board (PCB) 111-L, 2 PCB 111-R, hinges 113-L and 113-R, first optical member 115-L, second optical member 115-R, microphones 117-L, 117-R and 117 -C (center)), speakers 119-L, 119-R, first battery 121-L, second battery 121-R, first transparent member 123-L, second transparent member (123-R). In various embodiments, the electronic device 100 may include additional components in addition to the components shown in FIG. 1 or may omit at least one of the components shown in FIG. 1 .

일 실시 예에 따르면, 도 1에 기재된 식별 부호들의 말미에 위치하는 "R" 및 "L"은 각각 전자 장치(100) 착용 시를 기준으로 우측 및 좌측에 위치하는 구성임을 의미할 수 있다. 예를 들어, 전자 장치(100)의 착용 시를 기준으로 좌측에 위치하는 구성은 제1 배터리(121-L)로부터 출력되는 전력에 의해 구동될 수 있다. 착용 시를 기준으로 우측에 위치하는 구성은 제2 배터리(121-R)로부터 출력되는 전력에 의해 구동될 수 있다.According to an embodiment, “R” and “L” located at the end of the identification codes described in FIG. 1 may mean components located on the right and left sides of the electronic device 100 when worn, respectively. For example, components located on the left side of the electronic device 100 when worn may be driven by power output from the first battery 121-L. Components located on the right side based on when worn may be driven by power output from the second battery 121-R.

또한, 도 1에서 안경 다리(temple)에 위치하는 구성들(예: 제1 PCB(111-L), 제2 PCB(111-R), 힌지(113-L, 113-R), 스피커(119-L, 119-R), 제1 배터리(121-L), 제2 배터리(121-R))이 외부로 노출되도록 도시하였지만, 이는 설명의 편의를 위한 것일 뿐, 상기 구성들은 안경 다리의 내부에 위치하여 외부로 노출되지 않을 수 있다.In addition, in FIG. 1, the components located on the temple (eg, the first PCB 111-L, the second PCB 111-R), the hinges 113-L and 113-R, and the speaker 119 -L, 119-R), the first battery 121-L, and the second battery 121-R) are shown to be exposed to the outside, but this is only for convenience of description. may not be exposed to the outside.

일 실시 예에 따르면, 제1 광 출력 모듈(101-L) 및 제2 광 출력 모듈(101-R)은 광 출력 모듈(101)로 지칭될 수 있다. 제1 디스플레이(103-L) 및 제2 디스플레이(103-R)는 디스플레이(103)(예: 도 2의 디스플레이(230))로 지칭될 수 있다. 제1 PCB(111-L) 및 제2 PCB(111-R)는 PCB(111)로 지칭될 수 있다. 제1 광학 부재(115-L) 및 제2 광학 부재(115-R)는 광학 부재(115)로 지칭될 수 있다. 제1 배터리(121-L) 및 제2 배터리(121-R)는 배터리(121-L, 121-R) 및/또는 배터리(121)로 지칭될 수 있다. 제1 투명 부재(123-L) 및 제2 투명 부재(123-R)는 투명 부재(123)로 지칭될 수 있다.According to an embodiment, the first light output module 101 -L and the second light output module 101 -R may be referred to as the light output module 101 . The first display 103 -L and the second display 103 -R may be referred to as the display 103 (eg, the display 230 of FIG. 2 ). The first PCB 111 -L and the second PCB 111 -R may be referred to as a PCB 111 . The first optical member 115 -L and the second optical member 115 -R may be referred to as an optical member 115 . The first battery 121 -L and the second battery 121 -R may be referred to as batteries 121 -L and 121 -R and/or battery 121 . The first transparent member 123 -L and the second transparent member 123 -R may be referred to as a transparent member 123 .

일 실시 예에 따르면, 전자 장치(100)는 착용 가능한 전자 장치일 수 있다. 예를 들어, 전자 장치(100)는 안경 형태의 착용형 전자 장치(예: 증강 현실 안경(AR glass, augmented reality glass), 스마트 글라스(smart glass), 또는 머리 착용형 장치(head mounted device))일 수 있다. 그러나, 이는 예시적일 뿐, 본 개시가 이에 한정되는 것은 아니다. 상기 안경 형태의 전자 장치(100)는 사용자의 얼굴에 착용된 상태로 동작할 수 있다. 사용자의 얼굴에 전자 장치(100)가 착용된 상태에서도 사용자가 외부를 볼 수 있도록 투명 부재(123)는 투명 또는 반투명한 유리(glass) 플레이트, 플라스틱 플레이트 또는 폴리머 재질일 수 있다. 일 실시 예에서, 제1 투명 부재(123-L)는 사용자의 좌안에 대면하게 배치될 수 있고, 제2 투명 부재(123-R)는 사용자의 우안에 대면하게 배치될 수 있다.According to an embodiment, the electronic device 100 may be a wearable electronic device. For example, the electronic device 100 may be a wearable electronic device in the form of glasses (eg, augmented reality glass (AR glass), smart glass, or a head mounted device). can be However, this is only exemplary, and the present disclosure is not limited thereto. The electronic device 100 in the form of eyeglasses may operate while being worn on the user's face. The transparent member 123 may be a transparent or translucent glass plate, a plastic plate, or a polymer material so that the user can see the outside even when the electronic device 100 is worn on the user's face. In one embodiment, the first transparent member 123-L may be disposed to face the user's left eye, and the second transparent member 123-R may be disposed to face the user's right eye.

일 실시 예에 따르면, 전자 장치(100)는 제3 카메라(109)를 통해 현실 세계의 영상을 획득(촬영)하고, 획득된 영상의 위치 또는 획득된 영상에 포함된 오브젝트(예: 물건, 또는 건물)와 관련된 증강 현실 오브젝트(AR object)를 다른 전자 장치(예: 스마트 폰, 컴퓨터, 태블릿 PC, 또는 서버)로부터 수신하여 광 출력 모듈(101), 광학 부재(115), 및 디스플레이(103)를 통해 사용자에게 제공할 수 있다.According to an embodiment, the electronic device 100 acquires (photographs) an image of the real world through the third camera 109, and the location of the acquired image or an object included in the acquired image (eg, an object, or A light output module 101, an optical member 115, and a display 103 by receiving an AR object related to a building) from another electronic device (eg, a smart phone, a computer, a tablet PC, or a server) can be provided to the user.

일 실시 예에 따르면, 전자 장치(100)의 광학 부재(115)를 통해 보고 있는 현재 장면 또는 환경을 인식하기 위해 제1 카메라(105-L, 105-R), 제2 카메라(107-L, 107-R), 및 제3 카메라(109)를 활용할 수 있다.According to an embodiment, in order to recognize a current scene or environment viewed through the optical member 115 of the electronic device 100, the first cameras 105-L and 105-R, the second cameras 107-L, 107-R), and a third camera 109 may be utilized.

일 실시 예에 따르면, 전자 장치(100)는 마이크(117-L, 117-R, 117-C)를 통해 오디오 신호를 수신하고, 스피커(119-L, 119-R)를 통해 오디오 신호를 출력할 수 있다.According to an embodiment, the electronic device 100 receives an audio signal through the microphones 117-L, 117-R, and 117-C, and outputs the audio signal through the speakers 119-L and 119-R. can do.

일 실시 예에 따르면, 제1 PCB(111-L)상에 제1 충전 모듈이 배치될 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제1 충전 모듈(112-L)을 통해 제1 배터리(121-L)를 충전할 수 있다. 일 실시 예에 따르면, 제2 PCB(111-R)상에 제2 충전 모듈이 배치될 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제2 충전 모듈(112-R)을 통해 제2 배터리(121-R)를 충전할 수 있다.According to one embodiment, the first charging module may be disposed on the first PCB 111-L. According to an embodiment, the electronic device 100 may charge the first battery 121-L through the first charging module 112-L. According to one embodiment, the second charging module may be disposed on the second PCB 111-R. According to an embodiment, the electronic device 100 may charge the second battery 121-R through the second charging module 112-R.

도 2는 일 실시 예에 따른 전자 장치(100)의 블록도다.2 is a block diagram of an electronic device 100 according to an embodiment.

도 2를 참조하면, 일 실시 예에 따른 전자 장치(100)는, 프로세서(210), 카메라(220), 디스플레이(230) 및 메모리(240)를 포함할 수 있다. 다양한 실시 예에서, 전자 장치(100)는 도 2에 도시된 구성요소 외에 추가적인 구성요소를 포함하거나, 도 2에 도시된 구성요소 중 적어도 하나를 생략할 수 있다.Referring to FIG. 2 , an electronic device 100 according to an embodiment may include a processor 210, a camera 220, a display 230, and a memory 240. In various embodiments, the electronic device 100 may include additional components other than those shown in FIG. 2 or may omit at least one of the components shown in FIG. 2 .

일 실시 예에 따르면, 프로세서(210)는 메모리(240)에 저장된 인스트럭션들을 이용하여 전자 장치(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 중앙처리장치(CPU), 그래픽처리장치(GPU), MCU(micro controller unit), 센서허브, 보조프로세서(supplementary processor), 통신프로세서(communication processor), 애플리케이션 프로세서(application processor), ASIC(application specific integrated circuit), FPGA(field programmable gate arrays) 중 적어도 하나를 포함할 수 있으며, 복수의 코어들을 가질 수 있다.According to an embodiment, the processor 210 may execute calculations or data processing related to control and/or communication of at least one other element of the electronic device 100 using instructions stored in the memory 240 . According to one embodiment, the processor 210 may include a central processing unit (CPU), a graphic processing unit (GPU), a micro controller unit (MCU), a sensor hub, a supplementary processor, a communication processor, and an application. It may include at least one of a processor, an application specific integrated circuit (ASIC), and a field programmable gate array (FPGA), and may have a plurality of cores.

일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 이미지를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득된 이미지 내에 사용자의 눈이 포함되었는지 여부를 판단할 수 있다. 예를 들어 사용자의 눈은 동공, 홍채, 공막, 눈썹 및 눈꺼풀을 포함할 수 있다.According to one embodiment, the processor 210 may acquire an image through the camera 220 . According to an embodiment, the processor 210 may determine whether the user's eyes are included in the image acquired through the camera 220 . For example, a user's eye may include a pupil, an iris, a sclera, an eyebrow, and an eyelid.

일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득한 사용자의 눈을 포함하는 적어도 하나의 이미지를 이용하여 사용자의 눈의 움직임을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득한 사용자의 눈을 포함하는 적어도 하나의 이미지에 기반하여 사용자의 눈의 깜빡임을 식별할 수 있다. 예를 들어, 프로세서(210)는 사용자의 눈을 포함하는 적어도 하나의 이미지에 기반하여, 눈의 깜빡임 횟수 및/또는 눈의 깜빡임 주기를 식별할 수 있다.According to an embodiment, the processor 210 may identify the movement of the user's eyes using at least one image including the user's eyes acquired through the camera 220 . According to an embodiment, the processor 210 may identify blinking of the user's eyes based on at least one image including the user's eyes acquired through the camera 220 . For example, the processor 210 may identify the number of eye blinks and/or the eye blink cycle based on at least one image including the user's eyes.

일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 사용자의 눈을 포함하는 적어도 하나의 이미지를 획득하여, 사용자의 시선 위치를 식별 또는 추적할 수 있다. 예를 들어, 프로세서(210)는 사용자의 눈을 포함하는 적어도 하나의 이미지에 기반하여 디스플레이(230) 내 사용자의 응시 영역을 식별할 수 있다.According to an embodiment, the processor 210 may acquire at least one image including the user's eyes through the camera 220 to identify or track the location of the user's gaze. For example, the processor 210 may identify a gaze region of the user within the display 230 based on at least one image including the user's eyes.

일 실시 예에 따르면, 프로세서(210)는 사용자의 눈의 움직임 및/또는 사용자의 시선 위치에 기반하여, 디스플레이(230)를 통한 콘텐트의 출력을 제어할 수 있다. 예를 들어, 프로세서(210)는 사용자의 눈의 움직임 및/또는 사용자의 시선 위치에 기반하여 콘텐트의 음량, 재생 속도 또는 재생을 제어할 수 있다. 또한 예를 들어, 프로세서(210)는 사용자의 눈의 움직임 및/또는 사용자의 시선 위치에 기반하여 디스플레이(230)에 표시되는 화면의 밝기를 제어할 수 있다.According to an embodiment, the processor 210 may control the output of content through the display 230 based on the user's eye movement and/or the user's gaze position. For example, the processor 210 may control the volume, reproduction speed, or reproduction of content based on the user's eye movement and/or the user's gaze position. Also, for example, the processor 210 may control the brightness of a screen displayed on the display 230 based on the user's eye movement and/or the user's gaze position.

프로세서(210)의 동작과 관련된 구체적인 내용은 도 3 내지 도 6을 참조하여 후술한다.Details related to the operation of the processor 210 will be described later with reference to FIGS. 3 to 6 .

일 실시 예에 따르면, 카메라(220)는 영상(예: 정지 영상 및 동영상)을 획득(acquire)(또는 촬영)할 수 있다. 예를 들면, 카메라(220)와 전기적으로 연결되는 이미지 시그널 프로세서는, 영상(예: 프리뷰 영상 또는 메모리(240)에 저장된 영상)에 포함된 객체(예: 사람, 동물, 사물)와 배경을 구분할 수 있다. 일 실시 예에 따르면, 이미지 시그널 프로세서는 카메라(220)로부터 분리되거나, 프로세서(210)의 일부로서 구현될 수 있다. 일 실시 예에 따르면, 카메라(220)는 이미지 센서(예: 도 12의 이미지 센서(1230))를 포함할 수 있다. 일 실시 예에 따르면, 이미지 센서는 색상 정보를 획득 및/또는 처리할 수 있다.According to an embodiment, the camera 220 may acquire (or capture) images (eg, still images and moving images). For example, the image signal processor electrically connected to the camera 220 can distinguish objects (eg, people, animals, objects) included in an image (eg, a preview image or an image stored in the memory 240) and a background. can According to one embodiment, the image signal processor may be separated from the camera 220 or implemented as part of the processor 210 . According to an embodiment, the camera 220 may include an image sensor (eg, the image sensor 1230 of FIG. 12 ). According to an embodiment, the image sensor may acquire and/or process color information.

일 실시 예에 따르면, 카메라(220)는 사용자의 눈을 포함하는 적어도 하나의 이미지 프레임을 획득할 수 있다. 예를 들어, 사용자의 눈은 홍채, 동공, 공막 및 눈꺼풀 중 적어도 하나를 포함할 수 있다.According to an embodiment, the camera 220 may acquire at least one image frame including the user's eyes. For example, the user's eye may include at least one of an iris, a pupil, a sclera, and an eyelid.

일 실시 예에 따르면, 디스플레이(230)는, 프로세서(210)에서 처리된 영상 신호, 데이터 신호, OSD(on screen display) 신호, 제어 신호 등을 변환하여 구동 신호를 생성할 수 있다. 일 실시 예에 따르면, 디스플레이(230)는 PDP(plasma display panel), LCD(liquid crystal display), OLED(organic light emitting diode), 플렉서블 디스플레이(flexible display) 등으로 구현될 수 있으며, 또한, 3차원 디스플레이(3D display)로 구현될 수 있다. 일 실시 예에 따르면, 디스플레이(230)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용될 수 있다.According to an embodiment, the display 230 may generate a driving signal by converting an image signal, a data signal, an on screen display (OSD) signal, a control signal, and the like processed by the processor 210 . According to an embodiment, the display 230 may be implemented as a plasma display panel (PDP), a liquid crystal display (LCD), an organic light emitting diode (OLED), a flexible display, or the like, and may also display a 3D display. It can be implemented as a display (3D display). According to an embodiment, the display 230 is configured as a touch screen and may be used as an input device in addition to an output device.

일 실시 예에 따르면, 디스플레이(230)는 적어도 하나의 콘텐트 또는 미디어를 출력할 수 있다. 예를 들어, 적어도 하나의 콘텐트 또는 미디어는 어플리케이션의 실행화면, 이미지, 동영상, 텍스트 및 가상 객체 중 적어도 하나를 포함할 수 있다.According to an embodiment, the display 230 may output at least one piece of content or media. For example, the at least one piece of content or media may include at least one of an execution screen of an application, an image, a video, text, and a virtual object.

일 실시 예에 따르면, 메모리(240)는, 하나 이상의 메모리 집합을 의미할 수 있다. 일 실시 예에 따르면, 메모리(240)는, 다른 구성 요소들(예: 프로세서(210), 디스플레이(230))로부터 수신되거나 다른 구성요소들에 의해 생성된 데이터 및/또는 명령을 저장할 수 있다.According to one embodiment, the memory 240 may refer to one or more memory sets. According to an embodiment, the memory 240 may store data and/or commands received from or generated by other components (eg, the processor 210 or the display 230).

도 3은 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))가 눈의 움직임에 따라 콘텐트 출력을 제어하는 동작의 흐름도이다.3 is a flowchart of an operation of controlling content output according to eye movements by an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment.

도 3을 참조하면, 일 실시 예에 따른 프로세서(210)는 동작 310에서 디스플레이(예: 도 1의 디스플레이(103) 또는 도 2의 디스플레이(230))를 통해 적어도 하나의 콘텐트를 출력할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 디스플레이(230)를 통해 어플리케이션의 실행화면, 이미지, 동영상, 텍스트 및 가상 객체 중 적어도 하나를 출력할 수 있다.Referring to FIG. 3 , the processor 210 according to an embodiment may output at least one content through a display (eg, the display 103 of FIG. 1 or the display 230 of FIG. 2 ) in operation 310. . According to an embodiment, the processor 210 may output at least one of an execution screen of an application, an image, a video, text, and a virtual object through the display 230 .

일 실시 예에 따르면, 프로세서(210)는 전자 장치(100) 내에 설치된 적어도 하나의 어플리케이션을 실행하고, 디스플레이(230)를 통해 실행 화면을 표시할 수 있다. 예를 들어, 전자 장치(100)는 동영상 재생 어플리케이션을 실행하고, 디스플레이(230)를 통해 실행 화면을 표시할 수 있다. According to an embodiment, the processor 210 may execute at least one application installed in the electronic device 100 and display an execution screen through the display 230 . For example, the electronic device 100 may execute a video playback application and display an execution screen through the display 230 .

일 실시 예에 따르면, 프로세서(210)는 동작 320에서 적어도 하나의 콘텐트를 출력하는 동안, 카메라(예: 도 2의 카메라(220))의 동작 모드를 저전력 모드로 설정할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 사용자의 시선 위치를 식별(또는 추적)하는 카메라(220)의 동작 모드를 저전력 모드로 설정할 수 있다. 일 실시 예에 따르면, 저전력 모드는 카메라(220)의 해상도 및/또는 프레임 레이트(frame rate)를 낮춤으로써 소모전류를 감소시키는 모드를 포함할 수 있다.According to an embodiment, the processor 210 may set an operation mode of a camera (eg, the camera 220 of FIG. 2 ) to a low power mode while outputting at least one content in operation 320 . According to an embodiment, the processor 210 may set the operation mode of the camera 220 that identifies (or tracks) the position of the user's gaze to a low power mode. According to an embodiment, the low power mode may include a mode in which current consumption is reduced by lowering the resolution and/or frame rate of the camera 220 .

일 실시 예에 따르면, 프로세서(210)는 디스플레이(230)를 통해 적어도 하나의 콘텐트가 출력되는 것으로 판단되는 경우 카메라(220)의 동작 모드를 저전력 모드로 변경할 수 있다. 예를 들어, 프로세서(210)는 동영상 재생 어플리케이션이 실행되는 것으로 판단되는 경우 카메라(220)의 동작 모드를 저전력 모드로 변경할 수 있다. 또한 예를 들어, 프로세서(210)는 디스플레이(230)를 통해 동영상이 재생되는 것으로 판단되는 경우 카메라(220)의 동작 모드를 저전력 모드로 변경할 수 있다.According to an embodiment, the processor 210 may change the operation mode of the camera 220 to a low power mode when it is determined that at least one piece of content is output through the display 230 . For example, the processor 210 may change the operation mode of the camera 220 to a low power mode when it is determined that a video playback application is being executed. Also, for example, the processor 210 may change the operation mode of the camera 220 to a low power mode when it is determined that a video is reproduced through the display 230 .

상술한 실시 예에 따르면, 본 개시에 따른 전자 장치(100)는 적어도 하나의 콘텐트 또는 미디어가 출력되는 것으로 판단되는 경우 카메라(220)의 동작 모드를 저전력 모드로 변경함으로써 소모전류를 감소시킬 수 있다.According to the above-described embodiment, the electronic device 100 according to the present disclosure can reduce current consumption by changing the operation mode of the camera 220 to a low power mode when it is determined that at least one content or media is being output. .

일 실시 예에 따르면, 프로세서(210)는 동작 330에서 카메라(220)가 저전력 모드로 설정된 상태에서, 카메라(220)를 통해 사용자의 눈 영역에 대응하는 이미지 데이터를 획득할 수 있다. 예를 들어, 사용자의 눈 영역에는 눈썹, 눈꺼풀, 동공, 홍채 및 공막 중 적어도 하나가 포함될 수 있다.According to an embodiment, the processor 210 may obtain image data corresponding to the eye region of the user through the camera 220 in a state in which the camera 220 is set to the low power mode in operation 330 . For example, the user's eye region may include at least one of an eyebrow, an eyelid, a pupil, an iris, and a sclera.

일 실시 예에 따르면, 프로세서(210)는 동작 340에서 획득된 이미지 데이터에 기반하여 눈의 움직임을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득한 이미지 데이터에 기반하여 눈 추적(eye tracking) 기술을 이용하여 사용자의 시선을 검출할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 이미지 데이터에 포함된 동공의 위치 및/또는 방향으로부터 사용자의 시선(또는 시선 방향)을 검출할 수 있다.According to an embodiment, the processor 210 may identify the eye movement based on the image data acquired in operation 340. According to an embodiment, the processor 210 may detect the user's gaze using eye tracking technology based on image data obtained through the camera 220 . According to an embodiment, the processor 210 may detect the user's gaze (or gaze direction) from the position and/or direction of the pupil included in the image data.

일 실시 예에 따르면, 프로세서(210)는 이미지 데이터에 기반하여 눈의 깜빡임을 식별할 수 있다. 예를 들어, 프로세서(210)는 눈의 깜빡임 횟수, 눈의 깜빡임 주기 및 눈의 깜빡임 속도 중 적어도 하나를 식별할 수 있다. 또한 예를 들어, 프로세서(210)는 지정된 시간 동안 발생하는 눈의 깜빡임 횟수, 지정된 시간 내 눈의 깜빡임 주기 및 지정된 시간 내 눈의 깜빡임 속도 중 적어도 하나를 식별할 수 있다.According to an embodiment, the processor 210 may identify eye blinking based on image data. For example, the processor 210 may identify at least one of an eye blink count, an eye blink cycle, and an eye blink speed. Also, for example, the processor 210 may identify at least one of the number of eye blinks occurring during a specified time period, an eye blink period within a specified time period, and an eye blink speed within a specified time period.

일 실시 예에 따르면, 프로세서(210)는 카메라(220)가 저전력 모드로 설정된 상태에서 획득된 이미지 데이터에 기반하여 눈의 움직임을 식별할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자의 눈에 적외선을 조사하는 적외선 LED(light emitting diode)를 적게 사용하고 해상도 및 프레임 레이트를 낮춘 상태에서 획득된 이미지 데이터에 기반하여 눈의 움직임을 식별할 수 있다. 예를 들어, 전자 장치(100)는 적외선 LED를 1개만 사용하고 카메라(220)의 해상도를 320 x 240으로 축소하고, 프레임 레이트를 96fps에서 20fps로 줄인 상태에서 눈의 움직임 또는 눈의 깜빡임을 식별할 수 있다.According to an embodiment, the processor 210 may identify eye movements based on image data acquired while the camera 220 is set to the low power mode. According to an embodiment, the electronic device 100 uses fewer infrared light emitting diodes (LEDs) that radiate infrared rays to the user's eyes and detects eye movements based on image data acquired while lowering the resolution and frame rate. can be identified. For example, the electronic device 100 identifies eye movements or eye blinks while using only one infrared LED, reducing the resolution of the camera 220 to 320 x 240, and reducing the frame rate from 96 fps to 20 fps can do.

일 실시 예에 따르면, 프로세서(210)는 동작 350에서 식별된 눈의 움직임이 유효(valid)한지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 이미지 데이터에 기반하여 눈의 움직임이 유효한지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 눈의 움직임이 유효한지 여부를 판단하기 위하여 눈의 깜빡임 속도가 지정된 범위 내의 속도인지 여부를 판단할 수 있다. 예를 들어, 프로세서(210)는 눈의 움직임이 유효한지 여부를 판단하기 위하여 눈의 깜빡임 속도가 500~100ms 범위 내의 속도인지 여부를 판단할 수 있다.According to an embodiment, the processor 210 may determine whether the eye movement identified in operation 350 is valid. According to an embodiment, the processor 210 may determine whether the eye movement is effective based on the image data. According to an embodiment, the processor 210 may determine whether an eye blink speed is within a specified range in order to determine whether the eye movement is effective. For example, the processor 210 may determine whether an eye blink speed is within a range of 500 ms to 100 ms in order to determine whether the eye movement is effective.

일 실시 예에 따르면, 프로세서(210)는 지정된 시간 동안의 눈의 깜빡임 횟수 및 지정된 시간 동안의 눈의 깜빡임 주기에 기반하여 눈의 깜빡임 속도를 획득할 수 있다.According to an embodiment, the processor 210 may obtain an eye blink rate based on the number of eye blinks for a designated time period and the eye blink cycle for a designated time period.

일 실시 예에 따르면, 프로세서(210)는 동작 360에서 눈의 움직임이 유효한 것으로 판단되는 것에 응답하여, 눈의 움직임에 기초하여 콘텐트의 출력과 관련된 파라미터를 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 눈의 깜빡임 속도가 지정된 범위 내의 속도인 것으로 판단되는 경우 눈의 움직임이 유효한 것으로 판단할 수 있다. 예를 들어, 프로세서(210)는 눈의 깜빡임 속도가 500~100ms 범위 내의 속도인 것으로 판단되는 경우 눈의 움직임이 유효한 것으로 판단할 수 있다.According to an embodiment, in response to determining that the eye movement is valid in operation 360, the processor 210 may control parameters related to content output based on the eye movement. According to an embodiment, the processor 210 may determine that the eye movement is valid when it is determined that the eye blink speed is within a specified range. For example, the processor 210 may determine that the eye movement is effective when it is determined that the eye blink speed is within a range of 500 ms to 100 ms.

일 실시 예에 따르면, 프로세서(210)는 눈의 움직임이 유효한 것으로 판단되는 경우, 눈의 좌우 위치, 눈의 깜빡임 횟수, 눈의 깜빡임 주기, 눈이 감긴 시간 중 적어도 하나에 기반하여 콘텐트의 출력과 관련된 파라미터를 제어할 수 있다. 예를 들어, 프로세서(210)는 눈의 좌우 위치, 눈의 깜빡임 횟수 및 눈이 감긴 시간 중 적어도 하나에 기반하여, 재생 또는 재생 대기중인 콘텐트의 재생 속도, 음량, 밝기, 재생 이동 및 재생 중 적어도 하나를 제어할 수 있다. 눈의 움직임 및 파라미터의 관계에 대한 구체적인 설명은 도 8을 참조하여 후술한다.According to an embodiment, when it is determined that the eye movement is valid, the processor 210 outputs the content and outputs the content based on at least one of the left and right positions of the eyes, the number of eye blinks, the eye blink cycle, and the time the eyes are closed. You can control related parameters. For example, the processor 210 determines at least one of playback speed, volume, brightness, playback movement, and playback of content that is being played or is waiting to be played, based on at least one of the left and right positions of the eyes, the number of eye blinks, and the time the eyes are closed. You can control one. A detailed description of the relationship between eye movements and parameters will be described later with reference to FIG. 8 .

도 4는 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))가 카메라의 동작 모드를 변경하는 동작의 흐름도이다. 도 4의 내용과 관련하여 전술한 내용과 유사하거나 중복되는 내용은 간략히 하거나 생략한다.4 is a flowchart of an operation of changing an operation mode of a camera by an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment. In relation to the contents of FIG. 4 , similar or overlapping contents to those described above are simplified or omitted.

도 4를 참조하면, 일 실시 예에 따른 프로세서(210)는 동작 410에서 적어도 하나의 콘텐트를 출력할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 디스플레이(230)를 통해 어플리케이션의 실행화면, 이미지, 동영상, 텍스트 및 가상 객체 중 적어도 하나를 출력할 수 있다.Referring to FIG. 4 , the processor 210 according to an embodiment may output at least one piece of content in operation 410 . According to an embodiment, the processor 210 may output at least one of an execution screen of an application, an image, a video, text, and a virtual object through the display 230 .

일 실시 예에 따르면, 프로세서(210)는 전자 장치(100) 내에 설치된 적어도 하나의 어플리케이션을 실행하고, 디스플레이(230)를 통해 실행 화면을 표시할 수 있다. 예를 들어, 전자 장치(100)는 동영상 재생 어플리케이션을 실행하고, 디스플레이(230)를 통해 실행 화면을 표시할 수 있다.According to an embodiment, the processor 210 may execute at least one application installed in the electronic device 100 and display an execution screen through the display 230 . For example, the electronic device 100 may execute a video playback application and display an execution screen through the display 230 .

일 실시 예에 따르면, 프로세서(210)는 음악 재생 어플리케이션을 실행하고, 오디오(미도시)를 통해 소리를 출력할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 음악 재생 어플리케이션을 실행하고, 디스플레이(230)를 통해 실행화면을 표시할 수 있다.According to an embodiment, the processor 210 may execute a music playback application and output sound through audio (not shown). According to an embodiment, the processor 210 may execute a music playback application and display an execution screen through the display 230 .

일 실시 예에 따르면, 프로세서(210)는 동작 420에서 제1 모드 허용(또는 설정) 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 눈의 움직임에 기초하여 콘텐트의 출력과 관련된 파라미터를 제어하는 제1 모드가 허용되어 있는지 여부를 판단할 수 있다.According to an embodiment, the processor 210 may determine whether to allow (or set) the first mode in operation 420. According to an embodiment, the processor 210 may determine whether the first mode for controlling parameters related to content output is allowed based on eye movements.

예를 들어, 제1 모드는, 제1 모드 설정 UI에 대한 사용자 입력에 기반하여 설정될 수 있다. 구체적으로, 프로세서(210)는 제1 모드를 허용하는 UI에 대한 사용자의 터치 입력 또는 드래그 입력에 응답하여 제1 모드를 설정할 수 있다.For example, the first mode may be set based on a user input to the first mode setting UI. Specifically, the processor 210 may set the first mode in response to a user's touch input or drag input to the UI allowing the first mode.

또한 예를 들어, 프로세서(210)는 미리 정해진 제스처가 인식되는 경우 제1 모드를 설정할 수 있다. 다른 예를 들어, 프로세서(210)는 카메라(220)를 통해 사용자가 특정 UI(예: 눈 아이콘)를 일정 시간 이상 응시하는 것으로 판단되는 경우 제1 모드를 설정할 수 있다.Also, for example, the processor 210 may set the first mode when a predetermined gesture is recognized. For another example, the processor 210 may set the first mode when it is determined through the camera 220 that the user gazes at a specific UI (eg, an eye icon) for a predetermined period of time or more.

일 실시 예에 따르면, 프로세서(210)는 오디오 및/또는 UI를 통해 제1 모드 허용 여부에 대한 알림을 제공할 수 있다.According to an embodiment, the processor 210 may provide notification of whether the first mode is permitted through audio and/or UI.

일 실시 예에 따르면, 프로세서(210)는 동작 430에서 카메라(예: 도 2의 카메라(220))의 동작 모드를 저전력 모드로 설정할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 모드가 설정된 것으로 판단되는 것에 응답하여 카메라(220)의 동작 모드를 저전력 모드로 설정할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 모드가 설정된 것으로 판단되는 경우 카메라(220)의 동작 모드를 카메라(220)의 해상도 및/또는 프레임 레이트를 낮추는 저전력 모드로 변경할 수 있다.According to an embodiment, the processor 210 may set an operation mode of a camera (eg, the camera 220 of FIG. 2 ) to a low power mode in operation 430 . According to an embodiment, the processor 210 may set the operation mode of the camera 220 to a low power mode in response to determining that the first mode is set. According to an embodiment, when it is determined that the first mode is set, the processor 210 may change the operation mode of the camera 220 to a low power mode that lowers the resolution and/or frame rate of the camera 220 .

도 5는 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))가 응시 영역에 대응하는 사용자 인터페이스(user interface, UI)를 출력하는 동작의 흐름도이다. 도 5와 관련하여 전술한 내용과 중복되거나 유사한 내용은 간략히 하거나 생략한다.5 is a flowchart of an operation of outputting a user interface (UI) corresponding to a gaze area by an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment. In relation to FIG. 5 , overlapping or similar contents to those described above are simplified or omitted.

도 5를 참조하면, 일 실시 예에 따른 프로세서(210)는 동작 510에서 눈 영역에 대응하는 이미지 데이터를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 카메라(220)가 저전력 모드로 설정된 상태에서 카메라(220)로부터 눈 영역에 대응하는 이미지 데이터를 획득할 수 있다.Referring to FIG. 5 , the processor 210 according to an embodiment may acquire image data corresponding to the eye area in operation 510 . According to an embodiment, the processor 210 may obtain image data corresponding to the eye region from the camera 220 in a state in which the camera 220 is set to a low power mode.

일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 사용자의 눈을 포함하는 이미지 프레임을 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 눈을 포함하는 이미지 프레임으로부터 눈 영역에 대응하는 이미지 데이터를 획득할 수 있다. 예를 들어, 사용자의 눈 영역에는 눈썹, 눈꺼풀, 동공, 홍채 및 공막 중 적어도 하나가 포함될 수 있다. According to an embodiment, the processor 210 may acquire an image frame including the user's eyes through the camera 220 . According to an embodiment, the processor 210 may obtain image data corresponding to the eye region from an image frame including the eye. For example, the user's eye region may include at least one of an eyebrow, an eyelid, a pupil, an iris, and a sclera.

일 실시 예에 따르면, 프로세서(210)는 동작 520에서 디스플레이(예: 도 1의 디스플레이(103) 또는 도 2의 디스플레이(230)) 내 응시 영역을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득한 이미지 데이터에 기반하여 사용자의 시선을 검출할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 눈 추적 기술을 이용하여 이미지 데이터로부터 사용자의 시선을 검출할 수 있다.According to an embodiment, the processor 210 may identify a gaze region within a display (eg, the display 103 of FIG. 1 or the display 230 of FIG. 2 ) in operation 520 . According to an embodiment, the processor 210 may detect the user's gaze based on image data acquired through the camera 220 . According to an embodiment, the processor 210 may detect the user's gaze from image data using eye tracking technology.

일 실시 예에 따르면, 프로세서(210)는 동공의 위치 및/또는 방향으로부터 사용자의 시선(또는 시선 방향)을 검출할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 사용자가 임의의 영역을 응시(또는 주시)하는지 여부를 판단할 수 있다. 예를 들어, 프로세서(210)는 이미지 데이터 내 얼굴 표정, 눈꺼풀 움직임, 시선 고정 시간 또는 동공의 변화에 기반하여 사용자가 임의의 영역을 응시하는지 여부를 판단할 수 있다.According to an embodiment, the processor 210 may detect the user's gaze (or gaze direction) from the location and/or direction of the pupil. According to an embodiment, the processor 210 may determine whether the user gazes (or gazes) at a certain area. For example, the processor 210 may determine whether the user gazes at a certain area based on a facial expression, eyelid movement, gaze fixation time, or pupil change in image data.

일 실시 예에 따르면, 프로세서(210)는 사용자가 임의의 영역을 응시하는 것으로 판단되는 경우, 이미지 데이터에 기반하여 응시 영역을 결정할 수 있다. 예를 들어, 프로세서(210)는 이미지 데이터 내 얼굴 표정, 눈꺼풀 움직임, 시선 고정 시간 또는 동공의 변화에 기반하여 응시 영역을 결정할 수 있다.According to an embodiment, when it is determined that the user is gazing at a certain area, the processor 210 may determine the gazing area based on image data. For example, the processor 210 may determine the gaze region based on a facial expression, eyelid movement, gaze fixation time, or pupil change in image data.

본 문서에서, 응시 영역은 사용자가 일정 시간 이상 응시하는 디스플레이 내 영역을 의미할 수 있다.In this document, the gaze area may refer to an area within a display on which a user gazes for a certain period of time or more.

일 실시 예에 따르면, 프로세서(210)는 동작 530에서 응시 영역에 대응되는 사용자 인터페이스(user interface, UI)를 출력할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 응시 영역이 결정(또는 식별)되는 경우, 응시 영역에 대응되는 UI를 출력할 수 있다. 예를 들어, 프로세서(210)는 응시 영역이 콘텐트 실행화면의 하단 영역인 것으로 판단되는 경우 재생 제어와 관련된 UI를 표시할 수 있다. 또한 예를 들어, 프로세서(210)는 응시 영역이 콘텐트 실행화면의 좌측 영역인 것으로 판단되는 경우, 음량 제어에 대한 UI를 표시할 수 있다. 또한 예를 들어, 프로세서(210)는 응시 영역이 콘텐트 실행화면의 우측 영역인 것으로 판단되는 경우, 밝기 제어에 대한 UI를 표시할 수 있다.According to an embodiment, the processor 210 may output a user interface (UI) corresponding to the gaze area in operation 530. According to an embodiment, when the gaze region is determined (or identified), the processor 210 may output a UI corresponding to the gaze region. For example, the processor 210 may display a UI related to playback control when it is determined that the gaze area is the lower area of the content execution screen. Also, for example, the processor 210 may display a UI for volume control when it is determined that the gaze area is the left area of the content execution screen. Also, for example, the processor 210 may display a UI for brightness control when it is determined that the gaze area is the right area of the content execution screen.

일 실시 예에 따르면, 프로세서(210)는 응시 영역에 대응되는 UI를 콘텐트와 중첩되도록 표시할 수 있다. 예를 들어, 프로세서(210)는 콘텐트가 재생 중인 경우, 재생 중인 콘텐트와 응시 영역에 대응되는 UI를 중첩하여 표시할 수 있다.According to an embodiment, the processor 210 may display the UI corresponding to the gaze area so as to overlap the content. For example, when content is being reproduced, the processor 210 may overlap and display the reproduced content and the UI corresponding to the gaze area.

일 실시 예에 따르면, 프로세서(210)는 응시 영역에 대응되는 UI가 표시된 후, 제1 시간 동안 콘텐트 출력과 관련된 제어가 없는 것으로 판단되는 경우 제2 시간 후 UI의 표시를 삭제할 수 있다.According to an embodiment, the processor 210 may delete the display of the UI after a second time period when it is determined that there is no control related to content output during the first time period after the UI corresponding to the gaze area is displayed.

도 6은 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))에서 눈의 움직임에 기초하여 콘텐트의 출력을 제어하는 동작의 흐름도이다.6 is a flowchart of an operation of controlling the output of content based on eye movements in an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment.

도 6을 참조하면, 일 실시 예에 따른 프로세서(210)는 동작 610에서 눈 영역에 대응하는 이미지 데이터에 기반하여 눈의 움직임을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득한 이미지 데이터에 기반하여 눈 추적 기술을 이용하여 사용자의 시선을 검출할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 이미지 데이터에 포함된 동공의 위치 및/또는 방향으로부터 사용자의 시선(또는 시선 방향)을 검출할 수 있다.Referring to FIG. 6 , in operation 610, the processor 210 according to an embodiment may identify eye movement based on image data corresponding to the eye region. According to an embodiment, the processor 210 may detect the user's gaze using eye tracking technology based on image data acquired through the camera 220 . According to an embodiment, the processor 210 may detect the user's gaze (or gaze direction) from the position and/or direction of the pupil included in the image data.

일 실시 예에 따르면, 프로세서(210)는 이미지 데이터에 기반하여 눈의 깜빡임을 식별할 수 있다. 예를 들어, 프로세서(210)는 눈의 깜빡임 횟수, 눈의 깜빡임 주기 및 눈의 깜빡임 속도 중 적어도 하나를 식별할 수 있다. 또한 예를 들어, 프로세서(210)는 지정된 시간 동안 발생하는 눈의 깜빡임 횟수, 지정된 시간 내 눈의 깜빡임 주기 및 지정된 시간 내 눈의 깜빡임 속도 중 적어도 하나를 식별할 수 있다.According to an embodiment, the processor 210 may identify eye blinking based on image data. For example, the processor 210 may identify at least one of an eye blink count, an eye blink cycle, and an eye blink speed. Also, for example, the processor 210 may identify at least one of the number of eye blinks occurring during a specified time period, an eye blink period within a specified time period, and an eye blink speed within a specified time period.

일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해, 안면 영역에 대응하는 이미지 데이터를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득한 이미지 데이터에 기반하여 눈 깜빡임으로 인해 발생하는 안면 근육의 움직임을 감지할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 안면 근육의 움직임에 대한 데이터 및 눈 영역에 대응하는 이미지 데이터에 기반하여 눈의 움직임을 식별할 수 있다. 다양한 실시 예에 따라 안면 근육 움직임을 감지하기 위해 상기 카메라(220)와 다른 별도의 카메라(미도시)가 사용될 수 있으며, 각 카메라로부터 획득한 데이터를 이용하여 눈의 움직임을 식별할 수 있다. According to an embodiment, the processor 210 may obtain image data corresponding to the facial region through the camera 220 . According to an embodiment, the processor 210 may detect movement of facial muscles caused by eye blinking based on image data obtained through the camera 220 . According to an embodiment, the processor 210 may identify eye movement based on data on movement of facial muscles and image data corresponding to the eye region. According to various embodiments, a separate camera (not shown) different from the camera 220 may be used to detect facial muscle movements, and eye movements may be identified using data acquired from each camera.

일 실시 예에 따르면, 프로세서(210)는 카메라(220)가 저전력 모드로 설정된 상태에서 획득된 이미지 데이터에 기반하여 눈의 움직임을 식별할 수 있다.According to an embodiment, the processor 210 may identify eye movements based on image data acquired while the camera 220 is set to the low power mode.

일 실시 예에 따르면, 프로세서(210)는 동작 620에서 눈의 움직임이 유효한지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 이미지 데이터에 기반하여 눈의 움직임이 유효한지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 눈의 움직임이 유효한지 여부를 판단하기 위하여 눈의 깜빡임 속도가 지정된 범위 내의 속도인지 여부를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 눈의 깜빡임 속도가 지정된 범위 내의 속도인 경우 눈의 움직임이 유효한 것으로 판단할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 양쪽 눈이 함께 깜빡이는 것으로 판단되는 경우 눈의 움직임이 유효하지 않은 것으로 판단할 수 있다.According to an embodiment, the processor 210 may determine whether the eye movement is effective in operation 620. According to an embodiment, the processor 210 may determine whether the eye movement is effective based on the image data. According to an embodiment, the processor 210 may determine whether an eye blink speed is within a specified range in order to determine whether the eye movement is effective. According to an embodiment, the processor 210 may determine that the eye movement is valid when the eye blink speed is within a specified range. According to an embodiment, the processor 210 may determine that the eye movement is invalid when it is determined that both eyes are blinking together.

일 실시 예에 따르면, 프로세서(210)는 동작 630에서 눈의 움직임에 기초하여 콘텐트의 출력과 관련된 파라미터를 식별할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 눈의 움직임이 유효한 것으로 판단되는 것에 응답하여, 눈의 움직임에 기초하여 콘텐트의 밝기, 음량, 재생 이동 또는 재생 속도와 관련된 파라미터를 식별할 수 있다. 예를 들어, 프로세서(210)는 눈의 깜빡임 횟수에 기반하여 재생 이동 또는 재생 속도와 관련된 파라미터를 식별할 수 있다. 또한 예를 들어, 프로세서(210)는 눈이 감긴 시간에 기반하여 음량 또는 밝기 파라미터를 식별할 수 있다.According to an embodiment, the processor 210 may identify a parameter related to the output of the content based on the eye movement in operation 630 . According to an embodiment, the processor 210 may identify parameters related to brightness, volume, reproduction movement, or reproduction speed of content based on the eye movement in response to determining that the eye movement is valid. For example, the processor 210 may identify parameters related to playback movement or playback speed based on the number of eye blinks. Also, for example, the processor 210 may identify a volume or brightness parameter based on the time the eyes are closed.

일 실시 예에 따르면, 프로세서(210)는 동작 640에서 파라미터에 기초하여 출력되는 콘텐트를 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 식별된 파라미터에 따라 콘텐트를 제어할 수 있다. 예를 들어, 프로세서(210)는 눈의 깜빡임 횟수에 기반하여 재생 이동과 관련된 파라미터를 식별한 경우, 식별된 파라미터에 따라 콘텐트의 재생 위치를 앞으로 또는 뒤로 이동시킬 수 있다. 또한 예를 들어, 프로세서(210)는 눈의 깜빡임 횟수에 기반하여 재생 속도와 관련된 파라미터를 식별한 경우, 식별된 파라미터에 따라 콘텐트의 재생 속도를 조절할 수 있다.According to an embodiment, the processor 210 may control output content based on parameters in operation 640 . According to an embodiment, the processor 210 may control content according to the identified parameters. For example, if a parameter related to reproduction movement is identified based on the number of eye blinks, the processor 210 may move the reproduction position of the content forward or backward according to the identified parameter. Also, for example, if a parameter related to the reproduction speed is identified based on the number of eye blinks, the processor 210 may adjust the reproduction speed of the content according to the identified parameter.

또한 예를 들어, 프로세서(210)는 눈이 감긴 시간에 기반하여 음량과 관련된 파라미터를 식별한 경우, 식별된 파라미터에 따라 음량을 증가하거나 감소할 수 있다. 또한 예를 들어, 프로세서(210)는 눈이 감긴 시간에 기반하여 밝기와 관련된 파라미터를 식별한 경우, 식별된 파라미터에 따라 밝기를 증가하거나 감소할 수 있다.Also, for example, when the processor 210 identifies a volume-related parameter based on the time the eyes are closed, the processor 210 may increase or decrease the volume according to the identified parameter. Also, for example, if a parameter related to brightness is identified based on the time the eyes are closed, the processor 210 may increase or decrease the brightness according to the identified parameter.

도 7a는 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))에서 눈의 움직임에 기초하여 콘텐트의 재생을 제어하는 것을 도시한다.FIG. 7A illustrates controlling reproduction of content based on eye movements in an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment.

도 7a를 참조하면, 일 실시 예에 따른 프로세서(210)는 제1 상태(710)에서 제1 콘텐트(700)를 디스플레이(230)를 통해 출력할 수 있다. 예를 들어, 프로세서(210)는 동영상 재생 어플리케이션의 실행화면을 디스플레이(230)에 표시할 수 있다.Referring to FIG. 7A , the processor 210 according to an embodiment may output the first content 700 through the display 230 in a first state 710 . For example, the processor 210 may display an execution screen of a video playback application on the display 230 .

일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득한 이미지 데이터에 기반하여 제1 응시 영역(701)(예: 실행화면의 하단 영역)을 결정할 수 있다. 예를 들어, 프로세서(210)는 이미지 데이터 내 얼굴 표정, 눈꺼풀 움직임, 시선 고정 시간 또는 동공의 변화에 기반하여 제1 응시 영역(701)을 결정할 수 있다.According to an embodiment, the processor 210 may determine the first gaze area 701 (eg, the lower area of the execution screen) based on image data obtained through the camera 220 . For example, the processor 210 may determine the first gaze region 701 based on a facial expression, eyelid movement, gaze fixation time, or pupil change in image data.

일 실시 예에 따르면, 프로세서(210)는 제1 응시 영역(701)이 결정된 것으로 판단되면 제2 상태(720)에서 제1 UI(711)(예: 재생 바(bar))를 표시할 수 있다. 예를 들어, 제1 UI(711)는 콘텐트의 재생과 관련된 UI를 포함할 수 있다.According to an embodiment, when it is determined that the first gaze area 701 is determined, the processor 210 may display the first UI 711 (eg, a play bar) in the second state 720. . For example, the first UI 711 may include a UI related to reproduction of content.

일 실시 예에 따르면, 프로세서(210)는 제2 상태(720)에서 제1 UI(711)를 제1 콘텐트(700)에 중첩하여 표시할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제2 상태(720)에서 제1 UI(711)를 제1 응시 영역(701)에 대응되는 영역에 표시할 수 있다. 예를 들면, 프로세서(210)는 제2 상태(720)에서 제1 UI(711)를 실행화면의 하단 영역에 표시할 수 있다.According to an embodiment, the processor 210 may display the first UI 711 overlapping the first content 700 in the second state 720 . According to an embodiment, the processor 210 may display the first UI 711 in an area corresponding to the first gaze area 701 in the second state 720 . For example, the processor 210 may display the first UI 711 in the lower area of the execution screen in the second state 720 .

도 7b는 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))에서 눈의 움직임에 기초하여 콘텐트의 음량을 제어하는 것을 도시한다.FIG. 7B illustrates controlling the volume of content based on eye movements in an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment.

도 7b를 참조하면, 일 실시 예에 따른 프로세서(210)는 제1 상태(710)에서 제1 콘텐트(700)를 디스플레이(230)를 통해 출력할 수 있다. 예를 들어, 프로세서(210)는 동영상 재생 어플리케이션의 실행화면을 디스플레이(230)에 표시할 수 있다.Referring to FIG. 7B , the processor 210 according to an embodiment may output the first content 700 through the display 230 in a first state 710 . For example, the processor 210 may display an execution screen of a video playback application on the display 230 .

일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득한 이미지 데이터에 기반하여 제2 응시 영역(703)(예: 실행화면의 좌측 영역)을 결정할 수 있다. 예를 들어, 프로세서(210)는 이미지 데이터 내 얼굴 표정, 눈꺼풀 움직임, 시선 고정 시간 또는 동공의 변화에 기반하여 제2 응시 영역(703)을 결정할 수 있다.According to an embodiment, the processor 210 may determine the second gaze area 703 (eg, the left area of the execution screen) based on image data obtained through the camera 220 . For example, the processor 210 may determine the second gaze region 703 based on facial expression, eyelid movement, gaze fixation time, or pupil change in image data.

일 실시 예에 따르면, 프로세서(210)는 제2 응시 영역(703)이 결정된 것으로 판단되면 제2 상태(720)에서 제2 UI(713)(예: 음량 바(bar))를 표시할 수 있다. 예를 들어, 제2 UI(713)는 콘텐트의 음량 제어와 관련된 UI를 포함할 수 있다.According to an embodiment, when it is determined that the second gaze area 703 is determined, the processor 210 may display the second UI 713 (eg, a volume bar) in the second state 720. . For example, the second UI 713 may include a UI related to volume control of content.

일 실시 예에 따르면, 프로세서(210)는 제2 상태(720)에서 제2 UI(713)를 제1 콘텐트(700)에 중첩하여 표시할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제2 상태(720)에서 제2 UI(713)를 제2 응시 영역(703)에 대응되는 영역에 표시할 수 있다. 예를 들면, 프로세서(210)는 제2 상태(720)에서 제2 UI(713)를 실행화면의 좌측 영역에 표시할 수 있다.According to an embodiment, the processor 210 may display the second UI 713 overlapping the first content 700 in the second state 720 . According to an embodiment, the processor 210 may display the second UI 713 in an area corresponding to the second gaze area 703 in the second state 720 . For example, the processor 210 may display the second UI 713 on the left area of the execution screen in the second state 720 .

도 7c는 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))에서 눈의 움직임에 기초하여 콘텐트의 밝기를 제어하는 것을 도시한다.7C illustrates controlling the brightness of content based on eye movements in an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment.

도 7c를 참조하면, 일 실시 예에 따른 프로세서(210)는 제1 상태(710)에서 제1 콘텐트(700)를 디스플레이(230)를 통해 출력할 수 있다. 예를 들어, 프로세서(210)는 동영상 재생 어플리케이션의 실행화면을 디스플레이(230)에 표시할 수 있다.Referring to FIG. 7C , the processor 210 according to an embodiment may output the first content 700 through the display 230 in a first state 710 . For example, the processor 210 may display an execution screen of a video playback application on the display 230 .

일 실시 예에 따르면, 프로세서(210)는 카메라(220)를 통해 획득한 이미지 데이터에 기반하여 제3 응시 영역(705)(예: 실행화면의 우측 영역)을 결정할 수 있다. 예를 들어, 프로세서(210)는 이미지 데이터 내 얼굴 표정, 눈꺼풀 움직임, 시선 고정 시간 또는 동공의 변화에 기반하여 제3 응시 영역(705)을 결정할 수 있다.According to an embodiment, the processor 210 may determine the third gaze region 705 (eg, the right region of the execution screen) based on image data acquired through the camera 220 . For example, the processor 210 may determine the third gaze region 705 based on facial expression, eyelid movement, gaze fixation time, or pupil change in image data.

일 실시 예에 따르면, 프로세서(210)는 제3 응시 영역(705)이 결정된 것으로 판단되면 제2 상태(720)에서 제3 UI(715)(예: 밝기 바(bar))를 표시할 수 있다. 예를 들어, 제3 UI(715)는 콘텐트의 밝기 제어와 관련된 UI를 포함할 수 있다.According to an embodiment, if it is determined that the third gaze area 705 is determined, the processor 210 may display the third UI 715 (eg, a brightness bar) in the second state 720. . For example, the third UI 715 may include a UI related to content brightness control.

일 실시 예에 따르면, 프로세서(210)는 제2 상태(720)에서 제3 UI(715)를 제1 콘텐트(700)에 중첩하여 표시할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제2 상태(720)에서 제3 UI(715)를 제3 응시 영역(705)에 대응되는 영역에 표시할 수 있다. 예를 들면, 프로세서(210)는 제2 상태(720)에서 제3 UI(715)를 실행화면의 우측 영역에 표시할 수 있다.According to an embodiment, the processor 210 may overlap and display the third UI 715 on the first content 700 in the second state 720 . According to an embodiment, the processor 210 may display the third UI 715 in an area corresponding to the third gaze area 705 in the second state 720 . For example, the processor 210 may display the third UI 715 in the right area of the execution screen in the second state 720 .

도 8은 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))에서 UI 및 눈의 움직임에 대응되는 파라미터들을 예시한 도면이다.8 is a diagram illustrating parameters corresponding to a UI and eye movements in an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment.

도 8을 참조하면, 일 실시 예에 따른 프로세서(210)는 콘텐트 실행화면의 제1 영역(예: 도 7a의 제1 영역(701))에 재생과 관련된 UI(예: 도 7a의 제1 UI(711))가 출력된 후, 사용자의 눈의 움직임에 기초하여 콘텐츠의 재생과 관련된 파라미터를 제어할 수 있다. 예를 들어, 프로세서(210)는 좌측 눈이 2회 깜빡이는 것으로 판단되는 경우 콘텐트의 재생을 10초 뒤로 이동시킬 수 있다. 또한 예를 들어, 프로세서(210)는 우측 눈이 2회 깜빡이는 것으로 판단되는 경우 콘텐트의 재생을 10초 앞으로 이동시킬 수 있다.Referring to FIG. 8 , the processor 210 according to an embodiment displays a playback-related UI (eg, the first UI of FIG. 7A ) in a first area (eg, the first area 701 of FIG. 7A ) of the content execution screen. After 711) is output, parameters related to reproduction of the content may be controlled based on the movement of the user's eyes. For example, if it is determined that the left eye blinks twice, the processor 210 may move the reproduction of the content back by 10 seconds. Also, for example, if it is determined that the right eye blinks twice, the processor 210 may move the reproduction of the content forward by 10 seconds.

예를 들어, 프로세서(210)는 좌측 눈이 3회 깜빡이는 것으로 판단되는 경우 콘텐트의 재생 속도를 0.5배속으로 조절할 수 있다. 또한 예를 들어, 프로세서(210)는 우측 눈이 3회 깜빡이는 것으로 판단되는 경우 콘텐트의 재생 속도를 2배속으로 조절할 수 있다.For example, when it is determined that the left eye blinks 3 times, the processor 210 may adjust the reproduction speed of the content to 0.5 times. Also, for example, if it is determined that the right eye blinks three times, the processor 210 may adjust the playback speed of the content to twice the speed.

또한 예를 들어, 프로세서(210)는 양쪽 눈이 1초 이상 감긴 것으로 판단되는 경우 재생(play) 중인 콘텐트를 정지(stop)하거나, 정지된 콘텐트를 재생시킬 수 있다.Also, for example, if it is determined that both eyes are closed for one second or longer, the processor 210 may stop playing content or reproduce the stopped content.

일 실시 예에 따른 프로세서(210)는 콘텐트 실행화면의 제2 영역(예: 도 7b의 제2 영역(703))에 음량과 관련된 UI(예: 도 7b의 제2 UI(713))가 출력된 후, 사용자의 눈의 움직임에 기초하여 콘텐츠의 음량과 관련된 파라미터를 제어할 수 있다. 예를 들어, 프로세서(210)는 좌측 눈이 1초 이상 감긴 것으로 판단되는 경우 음량을 한 단계 줄일 수 있다. 또한 예를 들어, 프로세서(210)는 우측 눈이 1초 이상 감긴 것으로 판단되는 경우 음량을 한 단계 키울 수 있다.The processor 210 according to an embodiment outputs a UI related to volume (eg, the second UI 713 of FIG. 7B ) to the second area (eg, the second area 703 of FIG. 7B ) of the content execution screen. After that, a parameter related to the volume of the content may be controlled based on the user's eye movement. For example, the processor 210 may reduce the volume by one level when it is determined that the left eye is closed for 1 second or more. Also, for example, the processor 210 may increase the volume by one level when it is determined that the right eye is closed for 1 second or longer.

일 실시 예에 따른 프로세서(210)는 콘텐트 실행화면의 제3 영역(예: 도 7c의 제3 영역(705))에 밝기와 관련된 UI(예: 도 7c의 제3 UI(715))가 출력된 후, 사용자의 눈의 움직임에 기초하여 콘텐츠의 밝기와 관련된 파라미터를 제어할 수 있다. 예를 들어, 프로세서(210)는 좌측 눈이 1초 이상 감긴 것으로 판단되는 경우 밝기를 한 단계 줄일 수 있다. 또한 예를 들어, 프로세서(210)는 우측 눈이 1초 이상 감긴 것으로 판단되는 경우 밝기를 한 단계 키울 수 있다.The processor 210 according to an embodiment outputs a UI related to brightness (eg, the third UI 715 in FIG. 7C) to the third area (eg, the third area 705 in FIG. 7C) of the content execution screen. After that, parameters related to the brightness of the content can be controlled based on the user's eye movements. For example, if it is determined that the left eye is closed for 1 second or longer, the processor 210 may reduce the brightness by one level. Also, for example, the processor 210 may increase the brightness by one level when it is determined that the right eye is closed for 1 second or longer.

도 8에서는 설명의 편의성을 위하여, 눈의 움직임과 파라미터의 관계의 일 예시를 도시하였다. 다만, 눈의 움직임에 따라 제어되는 파라미터는 이에 한정되지 않으며, 다양한 실시예들에 따라 눈의 움직임에 기초하여 콘텐트의 출력을 제어할 수 있다.8 shows an example of the relationship between eye movements and parameters for convenience of description. However, parameters controlled according to eye movements are not limited thereto, and the output of content may be controlled based on eye movements according to various embodiments.

도 9a는 일 실시 예에 따른 전자 장치(100)에서 눈의 움직임에 기초하여 콘텐트의 크기 및/또는 밝기를 증가시키는 것을 나타낸 도면이다.9A is a diagram illustrating increasing the size and/or brightness of content based on eye movements in the electronic device 100 according to an embodiment.

도 9a를 참조하면, 일 실시 예에 따른 전자 장치(100)는 제1 상태(910)에서 제1 콘텐트(901)를 디스플레이(230)를 통해 출력할 수 있다. 일 실시 예에 따르면, 제1 콘텐트(901)는 어플리케이션의 실행화면을 포함할 수 있다. 예를 들어, 제1 콘텐트(901)는 알람, 날씨, 네비게이션, 메신저, 메모 중 적어도 하나를 포함하는 어플리케이션의 실행화면을 포함할 수 있다.Referring to FIG. 9A , the electronic device 100 according to an embodiment may output first content 901 through the display 230 in a first state 910 . According to one embodiment, the first content 901 may include an execution screen of an application. For example, the first content 901 may include an execution screen of an application including at least one of alarm, weather, navigation, messenger, and memo.

일 실시 예에 따르면, 전자 장치(100)는 사용자의 눈의 움직임에 기초하여 제1 콘텐트(901)의 출력과 관련된 파라미터를 제어할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자의 눈의 움직임에 기반하여, 제1 콘텐트(901)에 포함된 이미지 또는 텍스트의 크기를 변경할 수 있다.According to an embodiment, the electronic device 100 may control parameters related to the output of the first content 901 based on the user's eye movements. According to an embodiment, the electronic device 100 may change the size of an image or text included in the first content 901 based on the user's eye movement.

예를 들어, 전자 장치(100)는 우측 눈이 일정 횟수 이상 깜빡이거나 일정 시간 이상 감긴 것으로 판단되는 경우 제2 상태(920)에서 제1 콘텐트(901)에 포함된 이미지 또는 텍스트를 확대할 수 있다. For example, the electronic device 100 may enlarge an image or text included in the first content 901 in the second state 920 when it is determined that the right eye blinks a certain number of times or is closed for a certain period of time or more. .

일 실시 예에 따르면, 전자 장치(100)는 사용자의 눈의 움직임에 기반하여, 제1 콘텐트(901)가 출력되는 밝기를 변경할 수 있다. 예를 들어, 프로세서(210)는 우측 눈이 일정 횟수 이상 깜빡이거나 일정 시간 이상 감긴 것으로 판단되는 경우 제2 상태(920)에서 제1 콘텐트(901)의 출력 밝기를 증가시킬 수 있다. According to an embodiment, the electronic device 100 may change the brightness at which the first content 901 is output based on the user's eye movement. For example, the processor 210 may increase the output brightness of the first content 901 in the second state 920 when it is determined that the right eye blinks a predetermined number of times or is closed for a predetermined period of time or more.

다만, 도 9a는 설명의 편의를 위해 눈의 움직임에 따라 파라미터를 제어하는 일 실시 예를 도시한 것이며, 이에 한정되지 않는다.However, FIG. 9A illustrates an embodiment of controlling parameters according to eye movements for convenience of description, but is not limited thereto.

도 9b는 일 실시 예에 따른 전자 장치(100)에서 눈의 움직임에 기초하여 콘텐트의 크기 및/또는 밝기를 감소시키는 것을 나타낸 도면이다.9B is a diagram illustrating reducing the size and/or brightness of content based on eye movements in the electronic device 100 according to an embodiment.

도 9b를 참조하면, 일 실시 예에 따른 전자 장치(100)는 제1 상태(910)에서 제2 콘텐트(903)를 디스플레이(230)를 통해 출력할 수 있다. 일 실시 예에 따르면, 제2 콘텐트(903)는 어플리케이션의 실행화면을 포함할 수 있다. 예를 들어, 제2 콘텐트(903)는 알람, 날씨, 네비게이션, 메신저, 메모 중 적어도 하나를 포함하는 어플리케이션의 실행화면을 포함할 수 있다.Referring to FIG. 9B , the electronic device 100 according to an embodiment may output second content 903 through the display 230 in a first state 910 . According to an embodiment, the second content 903 may include an execution screen of an application. For example, the second content 903 may include an execution screen of an application including at least one of alarm, weather, navigation, messenger, and memo.

일 실시 예에 따르면, 전자 장치(100)는 사용자의 눈의 움직임에 기초하여 제2 콘텐트(903)의 출력과 관련된 파라미터를 제어할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자의 눈의 움직임에 기반하여, 제2 콘텐트(903)에 포함된 이미지 또는 텍스트의 크기를 변경할 수 있다.According to an embodiment, the electronic device 100 may control parameters related to the output of the second content 903 based on the user's eye movements. According to an embodiment, the electronic device 100 may change the size of an image or text included in the second content 903 based on the user's eye movement.

예를 들어, 전자 장치(100)는 좌측 눈이 일정 횟수 이상 깜빡이거나 일정 시간 이상 감긴 것으로 판단되는 경우 제2 상태(920)에서 제2 콘텐트(903)에 포함된 이미지 또는 텍스트를 축소할 수 있다. For example, the electronic device 100 may reduce an image or text included in the second content 903 in the second state 920 when it is determined that the left eye blinks a certain number of times or is closed for a certain amount of time or more. .

일 실시 예에 따르면, 전자 장치(100)는 사용자의 눈의 움직임에 기반하여, 제2 콘텐트(903)가 출력되는 밝기를 변경할 수 있다. 예를 들어, 프로세서(210)는 좌측 눈이 일정 횟수 이상 깜빡이거나 일정 시간 이상 감긴 것으로 판단되는 경우 제2 상태(920)에서 제2 콘텐트(903)의 출력 밝기를 감소시킬 수 있다. According to an embodiment, the electronic device 100 may change the brightness at which the second content 903 is output based on the user's eye movement. For example, the processor 210 may reduce the output brightness of the second content 903 in the second state 920 when it is determined that the left eye blinks a predetermined number of times or is closed for a predetermined period of time.

다만, 도 9b는 설명의 편의를 위해 눈의 움직임에 따라 파라미터를 제어하는 일 실시 예를 도시한 것이며, 이에 한정되지 않는다.However, for convenience of description, FIG. 9B illustrates an embodiment of controlling parameters according to eye movements, but is not limited thereto.

도 10은 일 실시 예에 따른 전자 장치(100)에서 눈의 움직임에 기초하여 가상 객체를 제어하는 것을 나타낸 도면이다.10 is a diagram illustrating controlling a virtual object based on an eye movement in the electronic device 100 according to an exemplary embodiment.

도 10을 참조하면, 일 실시 예에 따른 전자 장치(100)는 제1 상태(1010)에서 디스플레이(230)를 통해 가상 객체(1000)를 표시할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 현실 객체(1005)가 가상 객체(1000)가 중첩되어 표시될 수 있도록 디스플레이(230)를 제어할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 가상 객체(1000)와 현실 객체(1005)가 중첩되어 표시될 때, 현실 객체(1005)가 사용자에게 보일 수 있도록 투명 또는 반투명으로 디스플레이(230)에 표시할 수 있다. 가상 객체(1000)는, 예를 들어, 아이콘 또는 텍스트일 수 있으며, 또는 현실에 존재하는 객체(예: 인물, 건물, 자연물)를 이미지화 한 것일 수 있다.Referring to FIG. 10 , the electronic device 100 according to an embodiment may display a virtual object 1000 through a display 230 in a first state 1010 . According to an embodiment, the electronic device 100 may control the display 230 so that the real object 1005 overlaps the virtual object 1000 and is displayed. According to an embodiment, when the virtual object 1000 and the real object 1005 are overlapped and displayed, the processor 210 displays the real object 1005 on the display 230 as transparent or translucent so that the user can see it. can do. The virtual object 1000 may be, for example, an icon or text, or may be an image of an object (eg, a person, a building, or a natural object) existing in reality.

일 실시 예에 따르면, 전자 장치(100)는 사용자의 눈의 움직임에 기초하여 가상 객체(1000)의 출력과 관련된 파라미터를 제어할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자의 눈의 움직임에 기초하여 제2 상태(1020)에서 가상 객체(1000)의 위치 및/또는 크기를 조절할 수 있다. 예를 들어, 전자 장치(100)는 눈의 위치 및 눈의 깜빡임 횟수에 기반하여 가상 객체(1000)의 위치를 변경할 수 있다. 또한 예를 들어, 전자 장치(100)는 눈의 위치 및 눈이 감긴 횟수에 기반하여 가상 객체(1000)의 크기를 변경할 수 있다. 다만, 도 10은 설명의 편의를 위해 눈의 움직임에 따라 파라미터를 제어하는 일 실시 예를 도시한 것이며, 이에 한정되지 않는다.According to an embodiment, the electronic device 100 may control parameters related to the output of the virtual object 1000 based on the user's eye movements. According to an embodiment, the electronic device 100 may adjust the position and/or size of the virtual object 1000 in the second state 1020 based on the user's eye movement. For example, the electronic device 100 may change the position of the virtual object 1000 based on the position of the eyes and the number of blinks of the eyes. Also, for example, the electronic device 100 may change the size of the virtual object 1000 based on the position of the eyes and the number of times the eyes are closed. However, FIG. 10 illustrates an embodiment of controlling parameters according to eye movements for convenience of description, but is not limited thereto.

도 11은 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))에서 제1 모드를 허용 또는 차단하는 제1 화면(1100)을 나타낸 도면이다.11 is a diagram illustrating a first screen 1100 allowing or blocking a first mode in an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment.

도 11을 참조하면, 일 실시 예에 따른 전자 장치(100)는 제1 화면(1100)에서 눈의 움직임에 기초하여 콘텐트의 출력과 관련된 파라미터를 제어하도록 허용하는 제1 모드를 허용하거나 차단할 수 있다.Referring to FIG. 11 , the electronic device 100 according to an embodiment may allow or block a first mode allowing parameters related to content output based on eye movements on the first screen 1100 to be controlled. .

일 실시 예에 따르면, 전자 장치(100)는 제1 화면(1100)에 포함된 제1 모드 설정 UI(1110)에 대한 사용자 입력에 응답하여 제1 모드를 허용 또는 차단할 수 있다. 예를 들어, 사용자 입력은 제1 모드를 설정 UI(1110)에 대한 터치 입력 또는 드래그 입력을 포함할 수 있다.According to an embodiment, the electronic device 100 may allow or block the first mode in response to a user input to the first mode setting UI 1110 included in the first screen 1100 . For example, the user input may include a touch input or a drag input to the first mode setting UI 1110 .

일 실시 예에 따르면, 제1 화면(1100)은 눈의 움직임과 관련되어 콘텐트의 출력을 제어하는 파라미터를 설정하는 UI를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(210)는 제1 화면(1100)에 포함된 파라미터를 설정하는 UI에 대한 사용자 입력에 기반하여, 콘텐트의 출력을 제어하는 파라미터를 결정할 수 있다.According to an embodiment, the first screen 1100 may include a UI for setting parameters for controlling the output of content in relation to eye movements. According to an embodiment, the processor 210 may determine a parameter for controlling the output of content based on a user input to the UI for setting parameters included in the first screen 1100 .

도 12는 일 실시 예에 따른 네트워크 환경(1200) 내의 전자 장치(1201)(예: 도 1 및 도 2의 전자 장치(100))의 블록도다. 12 is a block diagram of an electronic device 1201 (eg, the electronic device 100 of FIGS. 1 and 2 ) within the network environment 1200 according to an embodiment.

도 12를 참조하면, 네트워크 환경(1200)에서 전자 장치(1201)는 제 1 네트워크(1298)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(1202)와 통신하거나, 또는 제 2 네트워크(1299)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(1204) 또는 서버(1208) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1201)는 서버(1208)를 통하여 전자 장치(1204)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1201)는 프로세서(1210)(예: 도 2의 프로세서(210)), 메모리(1230), 입력 모듈(1250), 음향 출력 모듈(1255), 디스플레이 모듈(1260), 오디오 모듈(1270), 센서 모듈(1276), 인터페이스(1277), 연결 단자(1278), 햅틱 모듈(1279), 카메라 모듈(1280), 전력 관리 모듈(1288), 배터리(1289), 통신 모듈(1290), 가입자 식별 모듈(1296), 또는 안테나 모듈(1297)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(1201)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(1278))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(1276), 카메라 모듈(1280), 또는 안테나 모듈(1297))은 하나의 구성요소(예: 디스플레이 모듈(1260))로 통합될 수 있다. Referring to FIG. 12 , in a network environment 1200, an electronic device 1201 communicates with an electronic device 1202 through a first network 1298 (eg, a short-range wireless communication network) or through a second network 1299. It may communicate with at least one of the electronic device 1204 or the server 1208 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 1201 may communicate with the electronic device 1204 through the server 1208 . According to an embodiment, the electronic device 1201 includes a processor 1210 (eg, the processor 210 of FIG. 2 ), a memory 1230, an input module 1250, a sound output module 1255, and a display module 1260. ), audio module 1270, sensor module 1276, interface 1277, connection terminal 1278, haptic module 1279, camera module 1280, power management module 1288, battery 1289, communication module 1290 , subscriber identification module 1296 , or antenna module 1297 . In some embodiments, in the electronic device 1201, at least one of these components (eg, the connection terminal 1278) may be omitted or one or more other components may be added. In some embodiments, some of these components (eg, sensor module 1276, camera module 1280, or antenna module 1297) are integrated into a single component (eg, display module 1260). It can be.

프로세서(1220)는, 예를 들면, 소프트웨어(예: 프로그램(1240))를 실행하여 프로세서(1220)에 연결된 전자 장치(1201)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(1220)는 다른 구성요소(예: 센서 모듈(1276) 또는 통신 모듈(1290))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1232)에 저장하고, 휘발성 메모리(1232)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(1234)에 저장할 수 있다. 일실시예에 따르면, 프로세서(1220)는 메인 프로세서(1221)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(1223)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(1201)가 메인 프로세서(1221) 및 보조 프로세서(1223)를 포함하는 경우, 보조 프로세서(1223)는 메인 프로세서(1221)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(1223)는 메인 프로세서(1221)와 별개로, 또는 그 일부로서 구현될 수 있다. The processor 1220, for example, executes software (eg, the program 1240) to cause at least one other component (eg, hardware or software component) of the electronic device 1201 connected to the processor 1220. It can control and perform various data processing or calculations. According to one embodiment, as at least part of data processing or operation, the processor 1220 transfers instructions or data received from other components (e.g., sensor module 1276 or communication module 1290) to volatile memory 1232. , processing commands or data stored in the volatile memory 1232 , and storing resultant data in the non-volatile memory 1234 . According to one embodiment, the processor 1220 may include a main processor 1221 (eg, a central processing unit or an application processor) or an auxiliary processor 1223 (eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor). For example, when the electronic device 1201 includes a main processor 1221 and an auxiliary processor 1223, the auxiliary processor 1223 may use less power than the main processor 1221 or be set to be specialized for a designated function. can The auxiliary processor 1223 may be implemented separately from or as part of the main processor 1221 .

보조 프로세서(1223)는, 예를 들면, 메인 프로세서(1221)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1221)를 대신하여, 또는 메인 프로세서(1221)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(1221)와 함께, 전자 장치(1201)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(1260), 센서 모듈(1276), 또는 통신 모듈(1290))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(1223)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(1280) 또는 통신 모듈(1290))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(1223)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(1201) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(1208))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The secondary processor 1223 may, for example, take the place of the main processor 1221 while the main processor 1221 is inactive (eg, sleep), or when the main processor 1221 is active (eg, running an application). ) state, together with the main processor 1221, at least one of the components of the electronic device 1201 (eg, the display module 1260, the sensor module 1276, or the communication module 1290) It is possible to control at least some of the related functions or states. According to one embodiment, the auxiliary processor 1223 (eg, image signal processor or communication processor) may be implemented as part of other functionally related components (eg, camera module 1280 or communication module 1290). there is. According to an embodiment, the auxiliary processor 1223 (eg, a neural network processing device) may include a hardware structure specialized for processing an artificial intelligence model. AI models can be created through machine learning. Such learning may be performed, for example, in the electronic device 1201 itself where the artificial intelligence model is executed, or may be performed through a separate server (eg, the server 1208). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited. The artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples. The artificial intelligence model may include, in addition or alternatively, a software structure in addition to a hardware structure.

메모리(1230)는, 전자 장치(1201)의 적어도 하나의 구성요소(예: 프로세서(1220) 또는 센서 모듈(1276))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(1240)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(1230)는, 휘발성 메모리(1232) 또는 비휘발성 메모리(1234)를 포함할 수 있다. The memory 1230 may store various data used by at least one component (eg, the processor 1220 or the sensor module 1276) of the electronic device 1201 . The data may include, for example, input data or output data for software (eg, the program 1240) and commands related thereto. The memory 1230 may include a volatile memory 1232 or a non-volatile memory 1234 .

프로그램(1240)은 메모리(1230)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(1242), 미들 웨어(1244) 또는 어플리케이션(1246)을 포함할 수 있다. The program 1240 may be stored as software in the memory 1230 and may include, for example, an operating system 1242 , middleware 1244 , or an application 1246 .

입력 모듈(1250)은, 전자 장치(1201)의 구성요소(예: 프로세서(1220))에 사용될 명령 또는 데이터를 전자 장치(1201)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(1250)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 1250 may receive a command or data to be used by a component (eg, the processor 1220) of the electronic device 1201 from an outside of the electronic device 1201 (eg, a user). The input module 1250 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).

음향 출력 모듈(1255)은 음향 신호를 전자 장치(1201)의 외부로 출력할 수 있다. 음향 출력 모듈(1255)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다. The sound output module 1255 may output sound signals to the outside of the electronic device 1201 . The sound output module 1255 may include, for example, a speaker or receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. A receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.

디스플레이 모듈(1260)은 전자 장치(1201)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(1260)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(1260)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 1260 can visually provide information to the outside of the electronic device 1201 (eg, a user). The display module 1260 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to one embodiment, the display module 1260 may include a touch sensor configured to detect a touch or a pressure sensor configured to measure the intensity of force generated by the touch.

오디오 모듈(1270)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(1270)은, 입력 모듈(1250)을 통해 소리를 획득하거나, 음향 출력 모듈(1255), 또는 전자 장치(1201)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1202))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다. The audio module 1270 may convert sound into an electrical signal or vice versa. According to an embodiment, the audio module 1270 acquires sound through the input module 1250, the sound output module 1255, or an external electronic device connected directly or wirelessly to the electronic device 1201 (eg: Sound may be output through the electronic device 1202 (eg, a speaker or a headphone).

센서 모듈(1276)은 전자 장치(1201)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(1276)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 1276 detects an operating state (eg, power or temperature) of the electronic device 1201 or an external environment state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 1276 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.

인터페이스(1277)는 전자 장치(1201)가 외부 전자 장치(예: 전자 장치(1202))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(1277)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다. The interface 1277 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 1201 to an external electronic device (eg, the electronic device 1202). According to one embodiment, the interface 1277 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(1278)는, 그를 통해서 전자 장치(1201)가 외부 전자 장치(예: 전자 장치(1202))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(1278)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다. The connection terminal 1278 may include a connector through which the electronic device 1201 may be physically connected to an external electronic device (eg, the electronic device 1202). According to one embodiment, the connection terminal 1278 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).

햅틱 모듈(1279)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(1279)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다. The haptic module 1279 may convert electrical signals into mechanical stimuli (eg, vibration or movement) or electrical stimuli that a user may perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 1279 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(1280)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(1280)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다. The camera module 1280 may capture still images and moving images. According to one embodiment, the camera module 1280 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(1288)은 전자 장치(1201)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(1288)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다. The power management module 1288 may manage power supplied to the electronic device 1201 . According to one embodiment, the power management module 1288 may be implemented as at least part of a power management integrated circuit (PMIC), for example.

배터리(1289)는 전자 장치(1201)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(1289)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다. The battery 1289 may supply power to at least one component of the electronic device 1201 . According to one embodiment, the battery 1289 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.

통신 모듈(1290)은 전자 장치(1201)와 외부 전자 장치(예: 전자 장치(1202), 전자 장치(1204), 또는 서버(1208)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1290)은 프로세서(1220)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(1290)은 무선 통신 모듈(1292)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1294)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(1298)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(1299)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(1204)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(1292)은 가입자 식별 모듈(1296)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(1298) 또는 제 2 네트워크(1299)와 같은 통신 네트워크 내에서 전자 장치(1201)를 확인 또는 인증할 수 있다. The communication module 1290 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 1201 and an external electronic device (eg, the electronic device 1202, the electronic device 1204, or the server 1208). Establishment and communication through the established communication channel may be supported. The communication module 1290 may include one or more communication processors that operate independently of the processor 1220 (eg, an application processor) and support direct (eg, wired) communication or wireless communication. According to one embodiment, the communication module 1290 may be a wireless communication module 1292 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1294 (eg, a : a local area network (LAN) communication module or a power line communication module). Among these communication modules, the corresponding communication module is a first network 1298 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 1299 (eg, legacy It may communicate with the external electronic device 1204 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a telecommunications network such as a computer network (eg, a LAN or a WAN). These various types of communication modules may be integrated as one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips). The wireless communication module 1292 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 1296 within a communication network such as the first network 1298 or the second network 1299. The electronic device 1201 may be identified or authenticated.

무선 통신 모듈(1292)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(1292)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(1292)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(1292)은 전자 장치(1201), 외부 전자 장치(예: 전자 장치(1204)) 또는 네트워크 시스템(예: 제 2 네트워크(1299))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(1292)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다. The wireless communication module 1292 may support a 5G network after a 4G network and a next-generation communication technology, eg, NR access technology (new radio access technology). NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)). -latency communications)) can be supported. The wireless communication module 1292 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example. The wireless communication module 1292 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported. The wireless communication module 1292 may support various requirements defined for the electronic device 1201, an external electronic device (eg, the electronic device 1204), or a network system (eg, the second network 1299). According to one embodiment, the wireless communication module 1292 may include a peak data rate for eMBB realization (eg, 20 Gbps or more), a loss coverage for mMTC realization (eg, 164 dB or less), or a U-plane latency for URLLC realization (eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) may be supported.

안테나 모듈(1297)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(1297)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(1297)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(1298) 또는 제 2 네트워크(1299)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(1290)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(1290)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(1297)의 일부로 형성될 수 있다. The antenna module 1297 may transmit or receive signals or power to the outside (eg, an external electronic device). According to an embodiment, the antenna module 1297 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to one embodiment, the antenna module 1297 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 1298 or the second network 1299 is selected from the plurality of antennas by, for example, the communication module 1290. can be chosen A signal or power may be transmitted or received between the communication module 1290 and an external electronic device through the selected at least one antenna. According to some embodiments, other components (eg, a radio frequency integrated circuit (RFIC)) may be additionally formed as a part of the antenna module 1297 in addition to the radiator.

다양한 실시예에 따르면, 안테나 모듈(1297)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. According to various embodiments, the antenna module 1297 may form a mmWave antenna module. According to one embodiment, the mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first surface (eg, a lower surface) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, array antennas) disposed on or adjacent to a second surface (eg, a top surface or a side surface) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다. At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( e.g. commands or data) can be exchanged with each other.

일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(1299)에 연결된 서버(1208)를 통해서 전자 장치(1201)와 외부의 전자 장치(1204)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(1202, 또는 1004) 각각은 전자 장치(1201)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(1201)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(1202, 1004, 또는 1008) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(1201)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(1201)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(1201)로 전달할 수 있다. 전자 장치(1201)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(1201)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(1204)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(1208)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(1204) 또는 서버(1208)는 제 2 네트워크(1299) 내에 포함될 수 있다. 전자 장치(1201)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to an embodiment, commands or data may be transmitted or received between the electronic device 1201 and the external electronic device 1204 through the server 1208 connected to the second network 1299 . Each of the external electronic devices 1202 or 1004 may be the same as or different from the electronic device 1201 . According to an embodiment, all or part of operations executed in the electronic device 1201 may be executed in one or more external electronic devices among the external electronic devices 1202 , 1004 , or 1008 . For example, when the electronic device 1201 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 1201 instead of executing the function or service by itself. Alternatively or additionally, one or more external electronic devices may be requested to perform the function or at least part of the service. One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 1201 . The electronic device 1201 may provide the result as at least part of a response to the request as it is or additionally processed. To this end, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device 1201 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 1204 may include an internet of things (IoT) device. Server 1208 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 1204 or server 1208 may be included in the second network 1299 . The electronic device 1201 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다. Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(1201)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1236) 또는 외장 메모리(1238))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1240))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(1201))의 프로세서(예: 프로세서(1220))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. Various embodiments of this document provide one or more instructions stored in a storage medium (eg, internal memory 1236 or external memory 1238) readable by a machine (eg, electronic device 1201). It may be implemented as software (eg, the program 1240) including them. For example, a processor (eg, the processor 1220) of a device (eg, the electronic device 1201) may call at least one command among one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.

일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다. According to one embodiment, the method according to various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다. According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.

상술한 바와 같이, 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))는 카메라(예: 도 2의 카메라(220)), 디스플레이(예: 도 2의 디스플레이(230)) 및 상기 카메라 및 상기 디스플레이와 작동적으로 연결되는 적어도 하나의 프로세서(예: 도 2의 프로세서(210))를 포함하고, 상기 적어도 하나의 프로세서는 상기 디스플레이를 통해 적어도 하나의 콘텐트를 출력하고, 상기 적어도 하나의 콘텐트를 출력하는 동안, 상기 카메라의 동작 모드를 저전력 모드로 설정하고, 상기 카메라가 상기 저전력 모드로 설정된 상태에서, 상기 카메라를 통해 사용자의 눈 영역에 대응하는 이미지 데이터를 획득하고, 상기 획득된 이미지 데이터에 기반하여 상기 눈의 움직임을 식별하고, 상기 식별된 눈의 움직임이 유효한지 여부를 판단하고, 상기 눈의 움직임이 유효한 것으로 판단되는 것에 응답하여, 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어할 수 있다.As described above, an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment includes a camera (eg, the camera 220 of FIG. 2 ), a display (eg, the display of FIG. 2 ( 230)) and at least one processor (e.g., the processor 210 of FIG. 2) operatively connected to the camera and the display, wherein the at least one processor outputs at least one content through the display. and while outputting the at least one content, set an operation mode of the camera to a low power mode, and obtain image data corresponding to an eye region of the user through the camera in a state in which the camera is set to the low power mode. and identifying the eye movement based on the obtained image data, determining whether the identified eye movement is valid, and in response to determining that the eye movement is valid, to determine the eye movement. Based on this, it is possible to control parameters related to the output of the content.

일 실시 예에 따르면, 적어도 하나의 프로세서(예: 도 2의 프로세서(210))는 상기 눈의 움직임이 유효한지 여부를 판단하기 위하여 지정된 시간 동안의 상기 눈의 깜빡임 횟수 및 상기 눈의 깜빡임 주기를 식별할 수 있다.According to an embodiment, at least one processor (eg, the processor 210 of FIG. 2 ) determines the number of eye blinks and the eye blink cycle for a specified time to determine whether the eye movement is effective. can be identified.

일 실시 예에 따르면, 적어도 하나의 프로세서(예: 도 2의 프로세서(210))는 상기 지정된 시간 동안의 상기 눈의 깜빡임 횟수 및 상기 눈의 깜빡임 주기에 기반하여, 상기 눈의 깜빡임 속도가 지정된 범위 내인 경우 상기 눈의 움직임이 유효한 것으로 판단할 수 있다.According to an embodiment, at least one processor (eg, the processor 210 of FIG. 2 ) determines the eye blink speed within a specified range based on the number of eye blinks and the eye blink cycle for the specified time period. In the case of the inner eye, it may be determined that the eye movement is effective.

일 실시 예에 따르면, 상기 콘텐트의 출력과 관련된 상기 파라미터는, 상기 콘텐트의 재생 속도, 음량, 밝기 및 재생 중 적어도 하나를 포함할 수 있다.According to an embodiment, the parameter related to the output of the content may include at least one of a reproduction speed, volume, brightness, and reproduction of the content.

일 실시 예에 따르면, 적어도 하나의 프로세서(예: 도 2의 프로세서(210))는, 상기 눈의 좌우 위치, 상기 눈의 깜빡임 횟수 및 상기 눈이 감긴 시간 중 적어도 하나에 기반하여 상기 콘텐트의 재생 속도, 상기 음량, 상기 밝기 및 상기 재생 중 적어도 하나를 제어할 수 있다.According to an embodiment, at least one processor (eg, the processor 210 of FIG. 2 ) reproduces the content based on at least one of the left and right positions of the eyes, the number of blinks of the eyes, and the time the eyes are closed. At least one of the speed, the volume, the brightness, and the reproduction may be controlled.

일 실시 예에 따르면, 적어도 하나의 프로세서(예: 도 2의 프로세서(210))는 상기 획득된 이미지 데이터에 기반하여 사용자의 시선 위치를 식별하고, 상기 시선 위치에 따라 상기 디스플레이(예: 도 2의 디스플레이(230)) 내 응시 영역을 결정하고, 상기 결정된 응시 영역에 대응되는 UI를 표시하도록 상기 디스플레이를 제어할 수 있다.According to an embodiment, at least one processor (eg, the processor 210 of FIG. 2 ) identifies a gaze position of the user based on the acquired image data, and the display (eg, the processor 210 of FIG. 2 ) according to the gaze position. A gaze area within the display 230 of the user may be determined, and the display may be controlled to display a UI corresponding to the determined gaze area.

일 실시 예에 따르면, 적어도 하나의 프로세서(예: 도 2의 프로세서(210))는 상기 콘텐트가 재생 중인 경우, 상기 디스플레이(예: 도 2의 디스플레이(230))를 통해 상기 응시 영역에 대응되는 상기 UI를 상기 콘텐트와 중첩되도록 표시할 수 있다.According to an embodiment, at least one processor (eg, the processor 210 of FIG. 2 ), when the content is being reproduced, displays a message corresponding to the gaze area through the display (eg, the display 230 of FIG. 2 ). The UI may be displayed to overlap with the content.

일 실시 예에 따르면, 적어도 하나의 프로세서(예: 도 2의 프로세서(210))는, 상기 응시 영역에 대응되는 상기 UI가 표시된 후 제1 시간동안 상기 콘텐트의 출력과 관련된 제어가 식별되지 않는 경우, 제2 시간 후 상기 UI의 표시를 삭제할 수 있다.According to an embodiment, at least one processor (eg, the processor 210 of FIG. 2 ) determines whether a control related to the output of the content is not identified for a first time after the UI corresponding to the gaze region is displayed. , the display of the UI may be deleted after the second time.

일 실시 예에 따르면, 상기 카메라는 사용자의 눈에 적외선을 조사하는 2 이상의 LED들을 포함할 수 있고, 상기 적어도 하나의 프로세서(예: 도 2의 프로세서(210))는 상기 카메라의 해상도, 프레임 레이트 또는 상기 LED들 중 활성화되는 LED 개수를 감소시킴으로써 상기 카메라의 동작 모드를 저전력 모드로 설정할 수 있다.According to an embodiment, the camera may include two or more LEDs that radiate infrared rays to the user's eyes, and the at least one processor (eg, the processor 210 of FIG. 2 ) controls the resolution and frame rate of the camera. Alternatively, the operating mode of the camera may be set to a low power mode by reducing the number of activated LEDs among the LEDs.

일 실시 예에 따르면, 적어도 하나의 프로세서(예: 도 2의 프로세서(210))는 상기 전자 장치가 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어하도록 허용하는 제1 모드가 설정되어 있는지 여부를 판단하고, 상기 제1 모드가 설정된 것으로 판단되는 것에 응답하여 상기 카메라(예: 도 2의 카메라(220))의 동작 모드를 상기 저전력 모드로 설정할 수 있다.According to an embodiment, at least one processor (eg, the processor 210 of FIG. 2 ) sets a first mode that allows the electronic device to control a parameter related to the output of the content based on the eye movement. It is determined whether or not the first mode is set, and in response to determining that the first mode is set, the operation mode of the camera (eg, the camera 220 of FIG. 2 ) may be set to the low power mode.

일 실시 예에 따르면, 적어도 하나의 콘텐트는 어플리케이션의 실행화면, 이미지, 동영상, 텍스트 및 가상 객체 중 적어도 하나를 포함할 수 있다.According to an embodiment, the at least one content may include at least one of an execution screen of an application, an image, a video, text, and a virtual object.

상술한 바와 같이, 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법은, 디스플레이(예: 도 2의 디스플레이(230))를 통해 적어도 하나의 콘텐트를 출력하는 동작, 상기 적어도 하나의 콘텐트를 출력하는 동안, 카메라(예: 도 2의 카메라(220))의 동작 모드를 저전력 모드로 설정하는 동작, 상기 카메라가 상기 저전력 모드로 설정된 상태에서, 상기 카메라를 통해 사용자의 눈 영역에 대응하는 이미지 데이터를 획득하는 동작, 상기 획득된 이미지 데이터에 기반하여 상기 눈의 움직임을 식별하는 동작, 상기 식별된 눈의 움직임이 유효한지 여부를 판단하는 동작 및 상기 눈의 움직임이 유효한 것으로 판단되는 것에 응답하여, 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어하는 동작을 포함할 수 있다.As described above, in the operating method of an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) according to an embodiment, at least one content is displayed through a display (eg, the display 230 of FIG. 2 ). An operation of outputting the at least one content, an operation of setting an operation mode of a camera (eg, the camera 220 of FIG. 2 ) to a low power mode while outputting the at least one content, in a state in which the camera is set to the low power mode, the Obtaining image data corresponding to the eye region of the user through a camera, identifying the eye movement based on the acquired image data, determining whether the identified eye movement is valid, and In response to determining that the eye movement is valid, an operation of controlling a parameter related to the output of the content based on the eye movement may be included.

일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법은, 상기 눈의 움직임이 유효한지 여부를 판단하기 위하여 지정된 시간 동안의 상기 눈의 깜빡임 횟수 및 상기 눈의 깜빡임 주기를 식별하는 동작을 포함할 수 있다.According to an embodiment, an operating method of an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) includes the number of blinks of the eyes for a specified time period and An operation of identifying the eye blink cycle may be included.

일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법은, 상기 지정된 시간 동안의 상기 눈의 깜빡임 횟수 및 상기 눈의 깜빡임 주기에 기반하여, 상기 눈의 깜빡임 속도가 지정된 범위 내인 경우 상기 눈의 움직임이 유효한 것으로 판단하는 동작을 포함할 수 있다.According to an embodiment, a method of operating an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) may, based on the number of eye blinks and the eye blink cycle for the specified time, the eye blinking cycle. An operation of determining that the eye movement is valid when the blinking speed of is within a specified range may be included.

일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법에서 상기 콘텐트의 출력과 관련된 상기 파라미터는, 상기 콘텐트의 재생 속도, 음량, 밝기 및 재생 중 적어도 하나를 포함할 수 있다.According to an embodiment, in the operating method of an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ), the parameter related to the output of the content is at least one of a playback speed, volume, brightness, and playback of the content. may contain one.

일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법은, 상기 눈의 좌우 위치, 상기 눈의 깜빡임 횟수 및 상기 눈이 감긴 시간 중 적어도 하나에 기반하여 상기 콘텐트의 재생 속도, 상기 음량, 상기 밝기 및 상기 재생 중 적어도 하나를 제어하는 동작을 포함할 수 있다.According to an embodiment, the operating method of the electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) is based on at least one of the left and right positions of the eyes, the number of blinks of the eyes, and the time the eyes are closed. and controlling at least one of the playback speed, the volume, the brightness, and the playback of the content.

일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법은, 상기 획득된 이미지 데이터에 기반하여 사용자의 시선 위치를 식별하는 동작, 상기 시선 위치에 따라 상기 디스플레이(예: 도 2의 디스플레이(230)) 내 응시 영역을 결정하는 동작 및 상기 결정된 응시 영역에 대응되는 UI를 표시하도록 상기 디스플레이를 제어하는 동작을 포함할 수 있다.According to an embodiment, an operating method of an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) includes an operation of identifying a gaze position of a user based on the obtained image data, and an operation of identifying a gaze position of a user based on the obtained image data. An operation of determining a gaze area within the display (eg, the display 230 of FIG. 2 ) and an operation of controlling the display to display a UI corresponding to the determined gaze area may be included.

일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법은, 상기 콘텐트가 재생 중인 경우, 상기 디스플레이(예: 도 2의 디스플레이(230))를 통해 상기 응시 영역에 대응되는 상기 UI를 상기 콘텐트와 중첩되도록 표시하는 동작을 포함할 수 있다.According to an embodiment, a method of operating an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ), when the content is being reproduced, through the display (eg, the display 230 of FIG. 2 ). An operation of displaying the UI corresponding to the gaze area so as to overlap the content.

일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법은, 상기 응시 영역에 대응되는 상기 UI가 표시된 후 제1 시간동안 상기 콘텐트의 출력과 관련된 제어가 식별되지 않는 경우, 제2 시간 후 상기 UI의 표시를 삭제하는 동작을 포함할 수 있다.According to an embodiment, the operating method of an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) includes control related to the output of the content for a first time after the UI corresponding to the gaze region is displayed. When is not identified, an operation of deleting the display of the UI after a second time may be included.

일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법에서, 상기 적어도 하나의 콘텐트는 어플리케이션의 실행화면, 이미지, 동영상, 텍스트 및 가상 객체 중 적어도 하나를 포함할 수 있다.According to an embodiment, in the operating method of an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ), the at least one content is at least one of an application execution screen, an image, a video, text, and a virtual object. can include

일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))의 동작 방법은, 상기 전자 장치가 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어하도록 허용하는 제1 모드가 설정되어 있는지 여부를 판단하는 동작 및 상기 제1 모드가 설정된 것으로 판단되는 것에 응답하여 상기 카메라(예: 도 2의 카메라(220))의 동작 모드를 상기 저전력 모드로 설정하는 동작을 포함할 수 있다.According to an embodiment, an operating method of an electronic device (eg, the electronic device 100 of FIGS. 1 and 2 ) allows the electronic device to control a parameter related to the output of the content based on the eye movement. An operation of determining whether a first mode to operate is set, and an operation of setting an operation mode of the camera (eg, the camera 220 of FIG. 2 ) to the low power mode in response to determining that the first mode is set. can include

Claims (20)

전자 장치에 있어서,
카메라;
디스플레이; 및
상기 카메라 및 상기 디스플레이와 작동적으로 연결되는 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는:
상기 디스플레이를 통해 적어도 하나의 콘텐트를 출력하고,
상기 적어도 하나의 콘텐트를 출력하는 동안, 상기 카메라의 동작 모드를 저전력 모드로 설정하고,
상기 카메라가 상기 저전력 모드로 설정된 상태에서, 상기 카메라를 통해 사용자의 눈 영역에 대응하는 이미지 데이터를 획득하고,
상기 획득된 이미지 데이터에 기반하여 상기 눈의 움직임을 식별하고,
상기 식별된 눈의 움직임이 유효한지 여부를 판단하고,
상기 눈의 움직임이 유효한 것으로 판단되는 것에 응답하여, 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어하는, 전자 장치.
In electronic devices,
camera;
display; and
at least one processor in operative connection with the camera and the display;
The at least one processor is:
outputting at least one content through the display;
While outputting the at least one content, setting an operation mode of the camera to a low power mode;
Obtaining image data corresponding to an eye region of a user through the camera in a state in which the camera is set to the low power mode;
Identifying the movement of the eye based on the acquired image data;
determining whether the identified eye movement is valid;
An electronic device that controls a parameter related to output of the content based on the eye movement in response to determining that the eye movement is valid.
청구항 1에 있어서,
상기 적어도 하나의 프로세서는 상기 눈의 움직임이 유효한지 여부를 판단하기 위하여 지정된 시간 동안의 상기 눈의 깜빡임 횟수 및 상기 눈의 깜빡임 주기를 식별하는, 전자 장치.
The method of claim 1,
The electronic device of claim 1 , wherein the at least one processor identifies the number of eye blinks and the eye blink cycle for a specified time period in order to determine whether the eye movement is effective.
청구항 2에 있어서,
상기 적어도 하나의 프로세서는 상기 지정된 시간 동안의 상기 눈의 깜빡임 횟수 및 상기 눈의 깜빡임 주기에 기반하여, 상기 눈의 깜빡임 속도가 지정된 범위 내인 경우 상기 눈의 움직임이 유효한 것으로 판단하는, 전자 장치.
The method of claim 2,
Wherein the at least one processor determines that the eye movement is effective when the eye blink rate is within a specified range based on the number of eye blinks and the eye blink cycle for the designated time period.
청구항 1에 있어서,
상기 콘텐트의 출력과 관련된 상기 파라미터는, 상기 콘텐트의 재생 속도, 음량, 밝기 및 재생 중 적어도 하나를 포함하는, 전자 장치.
The method of claim 1,
The parameter related to the output of the content includes at least one of a reproduction speed, volume, brightness, and reproduction of the content.
청구항 4에 있어서,
상기 적어도 하나의 프로세서는, 상기 눈의 좌우 위치, 상기 눈의 깜빡임 횟수 및 상기 눈이 감긴 시간 중 적어도 하나에 기반하여 상기 콘텐트의 재생 속도, 상기 음량, 상기 밝기 및 상기 재생 중 적어도 하나를 제어하는, 전자 장치.
The method of claim 4,
The at least one processor controls at least one of the reproduction speed, the volume, the brightness, and the reproduction of the content based on at least one of the left and right positions of the eyes, the number of blinks of the eyes, and the time the eyes are closed. , electronic devices.
청구항 1에 있어서,
상기 적어도 하나의 프로세서는:
상기 획득된 이미지 데이터에 기반하여 사용자의 시선 위치를 식별하고,
상기 시선 위치에 따라 상기 디스플레이 내 응시 영역을 결정하고,
상기 결정된 응시 영역에 대응되는 UI를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.
The method of claim 1,
The at least one processor is:
Identifying a gaze position of a user based on the obtained image data;
Determine a gaze area in the display according to the gaze position;
Controlling the display to display a UI corresponding to the determined gaze region.
청구항 6에 있어서,
상기 적어도 하나의 프로세서는 상기 콘텐트가 재생 중인 경우, 상기 디스플레이를 통해 상기 응시 영역에 대응되는 상기 UI를 상기 콘텐트와 중첩되도록 표시하는, 전자 장치.
The method of claim 6,
Wherein the at least one processor displays the UI corresponding to the gaze region through the display so as to overlap the content when the content is being reproduced.
청구항 6에 있어서,
상기 적어도 하나의 프로세서는, 상기 응시 영역에 대응되는 상기 UI가 표시된 후 제1 시간동안 상기 콘텐트의 출력과 관련된 제어가 식별되지 않는 경우, 제2 시간 후 상기 UI의 표시를 삭제하는, 전자 장치.
The method of claim 6,
The electronic device, wherein the at least one processor deletes the display of the UI after a second time, when a control related to the output of the content is not identified for a first time after the UI corresponding to the gaze region is displayed.
청구항 1에 있어서,
상기 카메라는 사용자의 눈에 적외선을 조사하는 2 이상의 LED들을 포함하고,
상기 적어도 하나의 프로세서는 상기 카메라의 해상도, 프레임 레이트 또는 상기 LED들 중 활성화되는 LED 개수를 감소시킴으로써 상기 카메라의 동작 모드를 저전력 모드로 설정하는, 전자 장치.
The method of claim 1,
The camera includes two or more LEDs for irradiating infrared rays to the user's eyes;
The electronic device of claim 1 , wherein the at least one processor sets an operation mode of the camera to a low power mode by reducing a resolution, a frame rate, or the number of activated LEDs among the LEDs of the camera.
청구항 1에 있어서,
상기 적어도 하나의 프로세서는:
상기 전자 장치가 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어하도록 허용하는 제1 모드가 설정되어 있는지 여부를 판단하고,
상기 제1 모드가 설정된 것으로 판단되는 것에 응답하여 상기 카메라의 동작 모드를 상기 저전력 모드로 설정하는, 전자 장치.
The method of claim 1,
The at least one processor is:
Determining whether a first mode allowing the electronic device to control a parameter related to output of the content based on the eye movement is set;
The electronic device that sets the operation mode of the camera to the low power mode in response to determining that the first mode is set.
청구항 1에 있어서,
상기 적어도 하나의 콘텐트는 어플리케이션의 실행화면, 이미지, 동영상, 텍스트 및 가상 객체 중 적어도 하나를 포함하는, 전자 장치.
The method of claim 1,
The electronic device, wherein the at least one content includes at least one of an execution screen of an application, an image, a video, text, and a virtual object.
전자 장치의 동작 방법에 있어서,
디스플레이를 통해 적어도 하나의 콘텐트를 출력하는 동작;
상기 적어도 하나의 콘텐트를 출력하는 동안, 카메라의 동작 모드를 저전력 모드로 설정하는 동작;
상기 카메라가 상기 저전력 모드로 설정된 상태에서, 상기 카메라를 통해 사용자의 눈 영역에 대응하는 이미지 데이터를 획득하는 동작;
상기 획득된 이미지 데이터에 기반하여 상기 눈의 움직임을 식별하는 동작;
상기 식별된 눈의 움직임이 유효한지 여부를 판단하는 동작; 및
상기 눈의 움직임이 유효한 것으로 판단되는 것에 응답하여, 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어하는 동작을 포함하는, 전자 장치의 동작 방법.
In the operating method of the electronic device,
outputting at least one piece of content through a display;
setting an operation mode of a camera to a low power mode while outputting the at least one content;
obtaining image data corresponding to an eye region of a user through the camera in a state in which the camera is set to the low power mode;
identifying the movement of the eye based on the obtained image data;
determining whether the identified eye movement is valid; and
and controlling a parameter related to output of the content based on the eye movement in response to determining that the eye movement is valid.
청구항 12에 있어서,
상기 눈의 움직임이 유효한지 여부를 판단하기 위하여 지정된 시간 동안의 상기 눈의 깜빡임 횟수 및 상기 눈의 깜빡임 주기를 식별하는 동작을 포함하는, 전자 장치의 동작 방법.
The method of claim 12,
and identifying the number of eye blinks and the eye blink cycle for a specified time period in order to determine whether the eye movement is effective.
청구항 13에 있어서,
상기 지정된 시간 동안의 상기 눈의 깜빡임 횟수 및 상기 눈의 깜빡임 주기에 기반하여, 상기 눈의 깜빡임 속도가 지정된 범위 내인 경우 상기 눈의 움직임이 유효한 것으로 판단하는 동작을 포함하는, 전자 장치의 동작 방법.
The method of claim 13,
and determining that the eye movement is effective when the eye blink rate is within a specified range based on the number of eye blinks and the eye blink cycle during the designated time period.
청구항 12에 있어서,
상기 콘텐트의 출력과 관련된 상기 파라미터는, 상기 콘텐트의 재생 속도, 음량, 밝기 및 재생 중 적어도 하나를 포함하는, 전자 장치의 동작 방법.
The method of claim 12,
The parameter related to the output of the content includes at least one of reproduction speed, volume, brightness, and reproduction of the content.
청구항 15에 있어서,
상기 눈의 좌우 위치, 상기 눈의 깜빡임 횟수 및 상기 눈이 감긴 시간 중 적어도 하나에 기반하여 상기 콘텐트의 재생 속도, 상기 음량, 상기 밝기 및 상기 재생 중 적어도 하나를 제어하는 동작을 포함하는, 전자 장치의 동작 방법.
The method of claim 15
and controlling at least one of a reproduction speed, volume, brightness, and reproduction of the content based on at least one of the left and right positions of the eyes, the number of blinks of the eyes, and the time the eyes were closed. how it works.
청구항 12에 있어서,
상기 획득된 이미지 데이터에 기반하여 사용자의 시선 위치를 식별하는 동작;
상기 시선 위치에 따라 상기 디스플레이 내 응시 영역을 결정하는 동작; 및
상기 결정된 응시 영역에 대응되는 UI를 표시하도록 상기 디스플레이를 제어하는 동작을 포함하는, 전자 장치의 동작 방법.
The method of claim 12,
identifying a gaze position of a user based on the obtained image data;
determining a gaze area in the display according to the gaze position; and
and controlling the display to display a UI corresponding to the determined gaze region.
청구항 17에 있어서,
상기 콘텐트가 재생 중인 경우, 상기 디스플레이를 통해 상기 응시 영역에 대응되는 상기 UI를 상기 콘텐트와 중첩되도록 표시하는 동작을 포함하는, 전자 장치의 동작 방법.
The method of claim 17
and displaying, through the display, the UI corresponding to the gaze region so as to overlap with the content when the content is being reproduced.
청구항 17에 있어서,
상기 응시 영역에 대응되는 상기 UI가 표시된 후 제1 시간동안 상기 콘텐트의 출력과 관련된 제어가 식별되지 않는 경우, 제2 시간 후 상기 UI의 표시를 삭제하는 동작을 포함하는, 전자 장치.
The method of claim 17
and deleting the display of the UI after a second time if a control related to the output of the content is not identified for a first time after the UI corresponding to the gaze region is displayed.
청구항 12에 있어서,
상기 전자 장치가 상기 눈의 움직임에 기초하여 상기 콘텐트의 출력과 관련된 파라미터를 제어하도록 허용하는 제1 모드가 설정되어 있는지 여부를 판단하는 동작; 및
상기 제1 모드가 설정된 것으로 판단되는 것에 응답하여 상기 카메라의 동작 모드를 상기 저전력 모드로 설정하는 동작을 포함하는, 전자 장치.

The method of claim 12,
determining whether a first mode allowing the electronic device to control a parameter related to output of the content based on the eye movement is set; and
and setting an operation mode of the camera to the low power mode in response to determining that the first mode is set.

KR1020210173922A 2021-10-01 2021-12-07 Content output control method using eye tracking and electronic device therefor KR20230047871A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210131122 2021-10-01
KR1020210131122 2021-10-01

Publications (1)

Publication Number Publication Date
KR20230047871A true KR20230047871A (en) 2023-04-10

Family

ID=85984501

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210173922A KR20230047871A (en) 2021-10-01 2021-12-07 Content output control method using eye tracking and electronic device therefor

Country Status (1)

Country Link
KR (1) KR20230047871A (en)

Similar Documents

Publication Publication Date Title
US11947728B2 (en) Electronic device for executing function based on hand gesture and method for operating thereof
KR20220012073A (en) Method and apparatus for performing virtual user interaction
US20230152900A1 (en) Wearable electronic device for displaying virtual object and method of controlling the same
US20230094073A1 (en) Electronic device and method for representing contents
KR20230088100A (en) Electronic device for using of virtual input device and method of operating the same
KR20230047871A (en) Content output control method using eye tracking and electronic device therefor
KR20230023304A (en) Method and electronic system for outputting video data and audio data
KR20220062938A (en) Electronic device and method for providing vitural reality service
US20240078069A1 (en) Electronic device and method for controlling display of at least one external object among one or more external objects
US20240046578A1 (en) Wearable electronic device displaying virtual object and method for controlling the same
US20240104695A1 (en) Electronic device for controlling resolution of each of plurality of areas included in image acquired from camera and method thereof
US20240073508A1 (en) Wearable electronic device for controlling camera module and method for operating thereof
US20220390752A1 (en) Wearable electronic device
US20230204985A1 (en) Wearable electronic device
US20240103289A1 (en) Wearable electronic device and method for controlling power path thereof
US20240036323A1 (en) Electronic device and method for adjusting volume using acoustic signal output from external object
KR20220103382A (en) Electronic device identifying emotion state and operating method thereof
KR20230044833A (en) Electronic device and the method for representing contents
KR20220149191A (en) Electronic device for executing function based on hand gesture and method for operating thereof
KR20230071680A (en) Waearable electronic device displaying virtual object and method for controlling the same
KR20220030806A (en) Method and electronic device for changing setting of display
KR20230029472A (en) Wearable electronic device for displaying augmented reality object and method for operating the same
KR20220162956A (en) Electronic device for supporting various communication during video call and operating method thereof
KR20230118010A (en) Augmented reality device for changing input mode and method of the same
CN118140169A (en) Electronic device and method for displaying content