KR20240025440A - Electronic apparatus for displaying 3d image and operating method for the same - Google Patents

Electronic apparatus for displaying 3d image and operating method for the same Download PDF

Info

Publication number
KR20240025440A
KR20240025440A KR1020220153816A KR20220153816A KR20240025440A KR 20240025440 A KR20240025440 A KR 20240025440A KR 1020220153816 A KR1020220153816 A KR 1020220153816A KR 20220153816 A KR20220153816 A KR 20220153816A KR 20240025440 A KR20240025440 A KR 20240025440A
Authority
KR
South Korea
Prior art keywords
image
training
base
frame
layer
Prior art date
Application number
KR1020220153816A
Other languages
Korean (ko)
Inventor
이여울
진보라
박철성
윤영진
이지혜
임경민
이선일
이재성
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/011987 priority Critical patent/WO2024039154A1/en
Publication of KR20240025440A publication Critical patent/KR20240025440A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/52Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 개시는 디스플레이, 적어도 하나의 명령어(instruction)를 저장하는 메모리 및 메모리에 저장된 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는 구성 요소를 포함하는 입력 문서를 획득하고, 입력 문서로부터 구성 요소를 인식하고, 인식된 구성 요소의 종류에 기초하여 입력 문서의 유형을 분류하고, 분류된 입력 문서의 유형에 기초하여 식별된 순서에 따라 인식된 구성 요소를 하나의 행으로 정렬하여 보정 문서를 획득하며, 획득된 보정 문서를 디스플레이 상에 표시하는 전자 장치 및 전자 장치의 동작 방법을 포함한다.The present disclosure includes a display, a memory storing at least one instruction, and at least one processor executing the at least one instruction stored in the memory, wherein the at least one processor acquires an input document including components; , recognizes components from the input document, classifies the type of input document based on the type of recognized component, and organizes the recognized components into one row according to the identified order based on the type of the classified input document. It includes an electronic device that sorts and obtains a corrected document, and displays the obtained corrected document on a display, and a method of operating the electronic device.

Figure P1020220153816
Figure P1020220153816

Description

3D 영상을 표시하기 위한 전자 장치 및 전자 장치의 동작 방법{ELECTRONIC APPARATUS FOR DISPLAYING 3D IMAGE AND OPERATING METHOD FOR THE SAME}Electronic device and operating method of electronic device for displaying 3D image {ELECTRONIC APPARATUS FOR DISPLAYING 3D IMAGE AND OPERATING METHOD FOR THE SAME}

본 개시는 3D 영상을 표시하기 위한 전자 장치 및 전자 장치의 동작 방법에 관한 것이다.This disclosure relates to an electronic device for displaying a 3D image and a method of operating the electronic device.

전자 기술의 발달에 힘입어 다양한 유형의 전자기기가 개발 및 보급 되고 있다. 영상을 표시하는 디스플레이 장치를 포함하는 전자 장치는 최근 수년 간 급속도로 발전하고 있다.Thanks to the development of electronic technology, various types of electronic devices are being developed and distributed. Electronic devices, including display devices that display images, have been developing rapidly in recent years.

디스플레이 장치가 발전함에 따라, 디스플레이 장치에서 표시하는 영상의 종류도 다양해졌다. 2D(two dimension) 영상뿐만 아니라 3D(three dimension) 영상까지 표시할 수 있는 디스플레이 장치가 개발되고 있다.As display devices develop, the types of images displayed by the display devices also become more diverse. Display devices that can display not only two-dimensional (2D) images but also three-dimensional (3D) images are being developed.

최근 들어, 3D 영상을 표시하기 위하여, 3D 공간에서 물체를 표시할 수 있는 볼류메트릭 디스플레이(volumetric display)를 이용하여 3D 영상을 표시하는 장치 및 방법이 제안되었다. 특히, 적층된 복수의 디스플레이 패널을 포함하고, 복수의 디스플레이 패널 각각에 영상을 표시하여 3D 영상을 제공하는 적층형 디스플레이(stacked display)가 제안되었다. Recently, in order to display 3D images, devices and methods for displaying 3D images using a volumetric display that can display objects in 3D space have been proposed. In particular, a stacked display has been proposed that includes a plurality of display panels stacked and displays an image on each of the plurality of display panels to provide a 3D image.

적층형 디스플레이는 서로 다른 뷰(view)에서 촬영된 라이트 필드(light field) 영상에 기초하여 획득한 복수의 영상들을 적층된 복수의 디스플레이 패널들에 각각 표시하여 3D 영상을 표시한다.A stacked display displays a 3D image by displaying a plurality of images obtained based on light field images taken from different views on a plurality of stacked display panels.

본 개시의 일 실시예에 따른 전자 장치(100)는 베이스 패널(211), 베이스 패널(211) 상에 배치된 레이어 패널(212), 적어도 하나의 명령어(instruction)를 저장하는 메모리(230) 및 메모리(230)에 저장된 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서(220)를 포함할 수 있다. 적어도 하나의 프로세서(220)는 적어도 하나의 명령어를 실행함으로써, 입력 콘텐츠의 제1 프레임에서의 제1 프레임 영상 및 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상을 획득할 수 있다. 적어도 하나의 프로세서(220)는 제1 프레임 영상 및 제2 프레임 영상을 영상 생성 모듈에 적용함으로써, 제1 프레임에서 베이스 패널에 대응되는 베이스 영상 및 제1 프레임에서 레이어 패널에 대응되고, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 레이어 영상을 생성할 수 있다. 적어도 하나의 프로세서(220)는 베이스 영상 또는 레이어 영상을 영상 보정 모듈에 적용함으로써, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 보정-베이스 영상을 생성할 수 있다. 적어도 하나의 프로세서(220)는 보정-베이스 영상을 베이스 패널에 표시하고, 레이어 영상을 레이어 패널에 표시할 수 있다. The electronic device 100 according to an embodiment of the present disclosure includes a base panel 211, a layer panel 212 disposed on the base panel 211, a memory 230 that stores at least one instruction, and It may include at least one processor 220 that executes at least one instruction stored in the memory 230. At least one processor 220 may acquire a first frame image in the first frame of the input content and a second frame image in the second frame, which is the frame immediately before the first frame, by executing at least one command. . At least one processor 220 applies the first frame image and the second frame image to the image generation module, thereby creating a base image corresponding to the base panel in the first frame and a layer panel in the first frame, and A layer image can be created based on the movement between the image and the second frame image. At least one processor 220 may generate a correction-base image based on the movement between the first frame image and the second frame image by applying the base image or layer image to the image correction module. At least one processor 220 may display the correction-base image on the base panel and display the layer image on the layer panel.

본 개시의 다른 실시예는, 베이스 패널(211) 및 베이스 패널(211) 상에 배치된 레이어 패널(212)을 포함하는 전자 장치(100)의 동작 방법을 제공한다. 전자 장치(100)의 동작 방법은 입력 콘텐츠의 제1 프레임에서의 제1 프레임 영상 및 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상을 획득하는 단계를 포함할 수 있다. 전자 장치(100)의 동작 방법은 제1 프레임 영상 및 제2 프레임 영상을 영상 생성 모듈에 적용함으로써 제1 프레임에서 베이스 패널(211)에 대응되는 베이스 영상 및 제1 프레임에서 레이어 패널(212)에 대응되고, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 레이어 영상을 생성하는 단계를 포함할 수 있다. 전자 장치(100)의 동작 방법은 베이스 영상 또는 상기 레이어 영상을 영상 보정 모듈에 적용함으로써, 상기 제1 프레임 영상과 상기 제2 프레임 영상 간의 움직임에 기초한 보정-베이스 영상을 생성하는 단계를 포함할 수 있다. 전자 장치(100)의 동작 방법은 보정-베이스 영상을 베이스 패널(211)에 표시하고, 레이어 영상을 레이어 패널(212)에 표시하는 단계를 포함할 수 있다.Another embodiment of the present disclosure provides a method of operating an electronic device 100 including a base panel 211 and a layer panel 212 disposed on the base panel 211. The method of operating the electronic device 100 may include acquiring a first frame image in a first frame of input content and a second frame image in a second frame that is the frame immediately preceding the first frame. The operating method of the electronic device 100 is to generate a base image corresponding to the base panel 211 in the first frame and a layer panel 212 in the first frame by applying the first frame image and the second frame image to the image generation module. It may include generating a corresponding layer image based on movement between the first frame image and the second frame image. The method of operating the electronic device 100 may include generating a correction-base image based on the movement between the first frame image and the second frame image by applying the base image or the layer image to an image correction module. there is. The method of operating the electronic device 100 may include displaying a correction-base image on the base panel 211 and displaying a layer image on the layer panel 212.

본 개시의 일 실시예로, 개시된 동작 방법의 실시예 중 적어도 하나의 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다.In one embodiment of the present disclosure, a computer-readable recording medium on which a program for performing at least one method among the disclosed operating method embodiments is recorded on a computer may be provided.

본 개시는, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 개시의 일 실시예에 따른 전자 장치를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.
도 4는 본 개시의 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 순서도이다.
도 5는 본 개시의 일 실시예에 따른 광학층을 포함하는 전자 장치의 동작을 설명하기 위한 순서도이다.
도 6은 본 개시의 일 실시예에 따른 레이어 영상 및 보정-베이스 영상을 생성하는 전자 장치의 동작을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시예에 따른, 제1 프레임 영상과 제2 프레임 영상 간의 움직임을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시예에 따른 레이어 영상 및 복수의 서브 보정-베이스 영상들을 포함하는 보정-베이스 영상을 생성하는 전자 장치의 동작을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시예에 따른, 제2 인공 지능 모델을 포함하는 영상 보정 모듈을 통하여 보정-베이스 영상을 생성하는 전자 장치의 동작을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시예에 따른, 쉬프트 값을 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시예에 따른, 영상 생성 모듈에 포함된 제1 인공 지능 모델 및 영상 보정 모듈에 포함된 제2 인공 지능 모델의 훈련 과정을 설명하기 위한 도면이다.
도 12a는 본 개시의 일 실시예에 따른, 제1 인공 지능 모델을 훈련시키기 위한 제1 손실 함수를 설명하기 위한 도면이다.
도 12b는 본 개시의 일 실시예에 따른, 제1 인공 지능 모델을 훈련시키기 위한 제2 손실 함수를 설명하기 위한 도면이다.
도 12c는 본 개시의 일 실시예에 따른, 제2 인공 지능 모델을 훈련시키기 위한 제3 손실 함수를 설명하기 위한 도면이다.
The present disclosure may be understood in combination with the following detailed description and accompanying drawings, where reference numerals refer to structural elements.
1 is a diagram for explaining an electronic device according to an embodiment of the present disclosure.
FIG. 2 is a diagram for explaining the operation of an electronic device according to an embodiment of the present disclosure.
Figure 3 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure.
FIG. 4 is a flowchart for explaining the operation of an electronic device according to an embodiment of the present disclosure.
FIG. 5 is a flowchart for explaining the operation of an electronic device including an optical layer according to an embodiment of the present disclosure.
FIG. 6 is a diagram for explaining the operation of an electronic device that generates a layer image and a correction-base image according to an embodiment of the present disclosure.
FIG. 7 is a diagram for explaining movement between a first frame image and a second frame image according to an embodiment of the present disclosure.
FIG. 8 is a diagram for explaining the operation of an electronic device that generates a correction-base image including a layer image and a plurality of sub-correction-base images according to an embodiment of the present disclosure.
FIG. 9 is a diagram for explaining the operation of an electronic device that generates a correction-base image through an image correction module including a second artificial intelligence model, according to an embodiment of the present disclosure.
FIG. 10 is a diagram for explaining shift values according to an embodiment of the present disclosure.
FIG. 11 is a diagram illustrating a training process of a first artificial intelligence model included in an image generation module and a second artificial intelligence model included in an image correction module, according to an embodiment of the present disclosure.
FIG. 12A is a diagram illustrating a first loss function for training a first artificial intelligence model according to an embodiment of the present disclosure.
FIG. 12B is a diagram illustrating a second loss function for training a first artificial intelligence model according to an embodiment of the present disclosure.
FIG. 12C is a diagram illustrating a third loss function for training a second artificial intelligence model according to an embodiment of the present disclosure.

본 개시에서 사용되는 용어에 대해 간략히 설명하고, 본 개시의 일 실시예에 대해 구체적으로 설명하기로 한다.Terms used in the present disclosure will be briefly described, and an embodiment of the present disclosure will be described in detail.

본 개시에서 사용되는 용어는 본 개시의 일 실시예에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 본 개시의 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present disclosure have selected general terms that are currently widely used as much as possible while considering the function in an embodiment of the present disclosure, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. there is. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding embodiment of the present disclosure. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than simply the name of the term.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 명세서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. Singular expressions may include plural expressions, unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as generally understood by a person of ordinary skill in the technical field described herein.

본 개시 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 본 개시에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Throughout the present disclosure, when a part “includes” a certain element, this means that it may further include other elements rather than excluding other elements, unless specifically stated to the contrary. In addition, terms such as "... unit" and "module" described in the present disclosure refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. there is.

본 개시에서 사용된 표현 “~하도록 구성된(또는 설정된)(configured to)”은 상황에 따라, 예를 들면, “~에 적합한(suitable for)”, “~하는 능력을 가지는(having the capacity to)”, “~하도록 설계된(designed to)”, “~하도록 변경된(adapted to)”, “~하도록 만들어진(made to)”, 또는 “~를 할 수 있는(capable of)”과 바꾸어 사용될 수 있다. 용어 “~하도록 구성된(또는 설정된)”은 하드웨어적으로 “특별히 설계된(specifically designed to)” 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, “~하도록 구성된 시스템”이라는 표현은, 그 시스템이 다른 장치 또는 부품들과 함께 “~할 수 있는” 것을 의미할 수 있다. 예를 들면, 문구 “A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서”는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression “configured to” used in the present disclosure means, for example, “suitable for,” “having the capacity to,” depending on the situation. ”, “designed to”, “adapted to”, “made to”, or “capable of”. The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware. Instead, in some situations, the expression “system configured to” may mean that the system is “able to” work with other devices or components. For example, the phrase “processor configured (or set) to perform A, B, and C” refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored in memory. It may refer to a general-purpose processor (e.g., CPU or application processor) that can perform the corresponding operations.

또한, 본 개시에서 일 구성요소가 다른 구성요소와 “연결된다” 거나 “접속된다” 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, in the present disclosure, when a component is referred to as “connected” or “connected” to another component, the component may be directly connected or directly connected to the other component, but in particular, the contrary It should be understood that unless a base material exists, it may be connected or connected through another component in the middle.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시의 일 실시예는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시의 일 실시예를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 본 개시 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily practice them. However, an embodiment of the present disclosure may be implemented in various different forms and is not limited to the embodiment described herein. In order to clearly describe an embodiment of the present disclosure in the drawings, parts that are not related to the description are omitted, and similar parts are assigned similar reference numerals throughout the present disclosure.

이하에서는 도면을 참조하여 본 개시의 실시예들을 상세하게 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

도 1은 본 개시의 일 실시예에 따른 전자 장치를 설명하기 위한 도면이다.1 is a diagram for explaining an electronic device according to an embodiment of the present disclosure.

도 1을 참조하면, 본 개시의 일 실시예로 전자 장치(100)는 디스플레이(130)를 포함할 수 있다. 전자 장치(100)는 디스플레이(130)를 통하여 영상(160)을 표시할 수 있다.Referring to FIG. 1, in one embodiment of the present disclosure, the electronic device 100 may include a display 130. The electronic device 100 may display an image 160 through the display 130.

일 실시예에서, 사용자(150)의 위치에 따라 전자 장치(100)가 디스플레이(130)를 통해 사용자(150)에게 제공하는 영상(160)은 달라질 수 있다. 일 실시예에서, 전자 장치(100)가 제공하는 영상(160)은 전자 장치(100)를 사용하는 사용자(150)에게 입체감(three dimensional effect)을 제공할 수 있는 영상일 수 있다. In one embodiment, the image 160 that the electronic device 100 provides to the user 150 through the display 130 may vary depending on the location of the user 150. In one embodiment, the image 160 provided by the electronic device 100 may be an image that can provide a three-dimensional effect to the user 150 using the electronic device 100.

일 실시예에서, 전자 장치(100)는 현실의 물체에서 반사되어 사용자(150)에게 제공되는 광을 재현한다. 일 실시예에서, 전자 장치(100)는 현실의 물체에서 반사되어 사용자150)에게 제공되는 광과 동일한 경로를 갖는 광(140)을 사용자(150)에게 제공한다. 사용자(150)는 전자 장치(100)에 표시되는 영상(160)을 통하여 현실의 물체로부터 반사되어 제공되는 광과 동일한 경로를 갖는 광(140)을 제공받는다. 이에 따라, 사용자(150)는 현실의 물체를 보는 것과 같이, 전자 장치(100)에 표시되는 영상(160)에 포함되는 물체의 입체감을 느낄 수 있다.In one embodiment, the electronic device 100 reproduces light reflected from a real-world object and provided to the user 150. In one embodiment, the electronic device 100 provides the user 150 with light 140 having the same path as the light reflected from a real object and provided to the user 150. The user 150 is provided with light 140 having the same path as light reflected from a real object through the image 160 displayed on the electronic device 100. Accordingly, the user 150 can feel the three-dimensional effect of the object included in the image 160 displayed on the electronic device 100, as if viewing a real object.

일 실시예에서, 전자 장치(100)는 사용자(150)의 위치에 따라 각각 다른 영상(160)을 제공하여, 사용자(150)가 영상(160)에 포함된 물체의 입체감을 느끼게 할 수도 있다. 설명의 편의를 위하여, 영상(160)이 도 1에 도시된 것처럼 육면체(hexahedron)의 형상을 가지는 물체를 포함하고 있는 것으로 설명한다.In one embodiment, the electronic device 100 may provide different images 160 depending on the location of the user 150, allowing the user 150 to feel the three-dimensional effect of the object included in the image 160. For convenience of explanation, the image 160 is described as including an object having a hexahedron shape as shown in FIG. 1.

일 실시예에서, 사용자(150)가 전자 장치(100)의 정면에 위치하는 경우에, 전자 장치(100)는 사용자(150)에게 물체의 정면을 포함하는 영상(160)을 제공할 수 있다. In one embodiment, when the user 150 is located in front of the electronic device 100, the electronic device 100 may provide the user 150 with an image 160 including the front of an object.

일 실시예에서, 사용자(150)가 전자 장치(100)의 정면이 아닌, 정면에 수직한 방향과 교차하는 제1 방향에 위치하는 경우에, 전자 장치(100)는 사용자(150)에게 물체의 제1 측면 및 정면을 포함하는 영상(160)을 제공할 수 있다. 일 실시예에서, 정면에 수직한 방향과 제1 방향 사이의 각도에 따라, 전자 장치(100)가 사용자(150)에게 제공하는 물체의 제1 측면 및 물체의 정면은 달라질 수 있다. 일 실시예에서, 정면에 수직한 방향과 제1 방향 사이의 각도에 따라, 전자 장치(100)는 사용자(150)에게 물체의 제1 측면만을 포함하는 영상(160)을 제공할 수도 있다. In one embodiment, when the user 150 is located in a first direction that intersects the direction perpendicular to the front, rather than in the front of the electronic device 100, the electronic device 100 sends the user 150 an object. An image 160 including a first side and a front view may be provided. In one embodiment, the first side of the object and the front of the object that the electronic device 100 provides to the user 150 may vary depending on the angle between the direction perpendicular to the front and the first direction. In one embodiment, depending on the angle between the direction perpendicular to the front and the first direction, the electronic device 100 may provide the user 150 with an image 160 including only the first side of the object.

일 실시예에서, 사용자(150)가 전자 장치(100)의 정면에 수직한 방향과 교차하고, 제1 방향과 다른 제2 방향에 위치하는 경우에, 전자 장치(100)는 사용자(150)에게 물체의 제1 측면과 다른 제2 측면 및 정면을 포함하는 영상(160)을 제공할 수 있다. 일 실시예에서, 정면에 수직한 방향과 제2 방향 사이의 각도에 따라, 전자 장치(100)가 사용자(150)에게 제공하는 물체의 제2 측면 및 물체의 정면은 달라질 수 있다. 일 실시예에서, 정면에 수직한 방향과 제2 방향 사이의 각도에 따라, 전자 장치(100)는 사용자(150)에게 물체의 제2 측면만을 포함하는 영상160)을 제공할 수도 있다.In one embodiment, when the user 150 intersects the direction perpendicular to the front of the electronic device 100 and is located in a second direction different from the first direction, the electronic device 100 An image 160 including a second side and a front side different from the first side of the object may be provided. In one embodiment, the second side of the object and the front of the object that the electronic device 100 provides to the user 150 may vary depending on the angle between the direction perpendicular to the front and the second direction. In one embodiment, depending on the angle between the direction perpendicular to the front and the second direction, the electronic device 100 may provide the user 150 with an image 160 including only the second side of the object.

일 실시예에서, 물체의 제1 측면과 정면은 현실에서 사용자(150)가 물체의 정면에 수직한 방향과 교차하는 제1 방향에서 물체를 바라볼 때 볼 수 있는 물체의 영역일 수 있다. 일 실시예에서, 물체의 제2 측면과 정면은 현실에서 사용자(150)가 물체의 정면에 수직한 방향과 교차하는 제2 방향에서 물체를 바라볼 때 볼 수 있는 물체의 영역일 수 있다.In one embodiment, the first side and front of the object may be areas of the object that can be seen in reality when the user 150 looks at the object in a first direction that intersects a direction perpendicular to the front of the object. In one embodiment, the second side and the front of the object may be areas of the object that can be seen in reality when the user 150 looks at the object in a second direction that intersects a direction perpendicular to the front of the object.

일 실시예에서, 전자 장치(100)는 영상(160)을 통하여 사용자(150)에게 현실에서 물체를 바라보는 것과 같은 광(140)을 제공할 수 있다. 따라서 사용자(150)는 전자 장치(100)가 표시하는 영상(160)에 포함되는 물체의 입체감을 느낄 수 있다.In one embodiment, the electronic device 100 may provide the user 150 with light 140 through the image 160, similar to viewing an object in reality. Accordingly, the user 150 can feel the three-dimensional effect of the object included in the image 160 displayed by the electronic device 100.

일 실시예에서, 전자 장치(100)는 사용자(150)의 좌안(left eye)과 우안(right eye)에 각각 다른 영상(160)을 제공하여, 사용자(150)가 양안 시차(binocular disparity)를 느끼게 할 수 있다. 일 실시예에서, 제1 방향은 사용자(150)가 좌안을 통하여 전자 장치(100)를 바라보는 방향일 수 있다. 제2 방향은 사용자(150)가 우안을 통하여 전자 장치(100)를 바라보는 방향일 수 있다. 사용자(150)는 우안과 좌안에 제공되는 영상(160)이 서로 달라 양안 시차를 느낄 수 있고, 이를 통하여 물체의 입체감을 느낄 수도 있다.In one embodiment, the electronic device 100 provides different images 160 to the left eye and right eye of the user 150, allowing the user 150 to maintain binocular disparity. It can make you feel it. In one embodiment, the first direction may be a direction in which the user 150 looks at the electronic device 100 through the left eye. The second direction may be a direction in which the user 150 looks at the electronic device 100 through the right eye. The user 150 can feel binocular disparity because the images 160 provided to the right eye and the left eye are different, and through this, the user 150 can also feel the three-dimensional effect of an object.

일 실시예에서, 디스플레이(130)는 복수의 패널들(110, 120)을 포함할 수 있다. 일 실시예에서, 복수의 패널들(110, 120)은 적층되어 배치될 수 있다. 도 1에는 디스플레이(130)가 두 개의 패널들(110, 120)을 포함하는 것으로 도시되어 있으나, 본 개시는 이에 제한되지 않는다. 디스플레이(130)는 세 개 이상의 패널들을 포함할 수도 있다. 또한, 디스플레이(130)는 복수의 패널들 사이에 배치된 광학층(213, 도 3 참조)를 포함할 수도 있다. 전자 장치(100)는 두 개의 패널들(110, 120) 각각에 후술할 베이스 영상 및 레이어 영상을 표시하여 사용자(150)에게 영상(160)을 제공할 수 있다.In one embodiment, display 130 may include a plurality of panels 110 and 120. In one embodiment, the plurality of panels 110 and 120 may be stacked and arranged. Although the display 130 is shown in FIG. 1 as including two panels 110 and 120, the present disclosure is not limited thereto. Display 130 may include three or more panels. Additionally, the display 130 may include an optical layer 213 (see FIG. 3) disposed between a plurality of panels. The electronic device 100 may provide the image 160 to the user 150 by displaying a base image and a layer image, which will be described later, on each of the two panels 110 and 120.

도 2는 본 개시의 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 도면이다. 이하, 도 1에서 설명한 구성과 동일한 구성에 대한 중복되는 설명은 생략하도록 한다.FIG. 2 is a diagram for explaining the operation of an electronic device according to an embodiment of the present disclosure. Hereinafter, overlapping descriptions of the same components as those described in FIG. 1 will be omitted.

도 2를 참조하면, 전자 장치(100)는 디스플레이(210), 적어도 하나의 명령어(instruction)를 저장하는 메모리(230) 및 적어도 하나의 프로세서(220)를 포함할 수 있다. 적어도 하나의 프로세서(220)는 메모리(230)에 포함된 적어도 하나의 명령어를 실행함으로써, 전자 장치(100)의 동작을 제어할 수 있다. 일 실시예에서, 디스플레이(210)는 베이스 패널(211), 레이어 패널(212), 광학층(213) 및 백라이트(214)를 포함할 수 있다. Referring to FIG. 2 , the electronic device 100 may include a display 210, a memory 230 that stores at least one instruction, and at least one processor 220. At least one processor 220 may control the operation of the electronic device 100 by executing at least one instruction included in the memory 230. In one embodiment, the display 210 may include a base panel 211, a layer panel 212, an optical layer 213, and a backlight 214.

일 실시예에서, 입력 콘텐츠(240)는 전자 장치(100)를 통하여 사용자(250)에게 제공하고자 하는 영상(260)에 대한 정보를 포함할 수 있다. 입력 콘텐츠(240)는 복수의 프레임들(frames)에 각각 대응되는 복수의 프레임 영상들을 포함할 수 있다. 입력 콘텐츠(240)는 복수의 프레임 영상들이 순차적으로 나열되어 표시되는 영상(260)에 대한 정보를 포함할 수 있다. In one embodiment, the input content 240 may include information about the image 260 to be provided to the user 250 through the electronic device 100. The input content 240 may include a plurality of frame images, each corresponding to a plurality of frames. The input content 240 may include information about the image 260 in which a plurality of frame images are sequentially displayed.

일 실시예에서, 입력 콘텐츠(240)는 서로 다른 복수의 뷰(view)에서 현실의 물체를 촬영하여 획득된 정보일 수 있다. 입력 콘텐츠(240)는 복수의 프레임 동안 서로 다른 복수의 뷰(view)에서 현실의 물체를 촬영하여 획득된 정보일 수 있다. 다만, 본 개시는 이에 제한되지 않고, 입력 콘텐츠(240)는 사용자(250)에게 서로 다른 복수의 뷰에서의 물체의 영상을 제공하기 위하여 생성된 정보를 포함할 수도 있다.In one embodiment, the input content 240 may be information obtained by photographing a real-world object from a plurality of different views. The input content 240 may be information obtained by photographing a real object from a plurality of different views during a plurality of frames. However, the present disclosure is not limited thereto, and the input content 240 may include information generated to provide the user 250 with images of an object from a plurality of different views.

일 실시예에서, 복수의 프레임 동안 현실의 물체가 움직이는 경우에 입력 콘텐츠(240)에 포함된 각각의 복수의 프레임 영상들에 포함된 물체들의 위치는 서로 다를 수 있다. 일 예로, 복수의 프레임 동안 현실의 물체가 움직이는 경우, 각각의 복수의 프레임 영상들에 포함된 물체들의 위치는 서로 다를 수 있다. 복수의 프레임 동안 현실의 물체의 일부가 움직이는 경우, 각각의 복수의 프레임 영상들에 포함된 물체들 중 현실의 물체가 움직이는 부분에 대응되는 부분의 위치는 서로 다를 수 있다.In one embodiment, when a real object moves during a plurality of frames, the positions of the objects included in each of the plurality of frame images included in the input content 240 may be different. For example, when a real object moves during a plurality of frames, the positions of the objects included in each plurality of frame images may be different. When a part of a real object moves during a plurality of frames, the positions of the parts corresponding to the moving part of the real object among the objects included in each plurality of frame images may be different.

일 실시예에서, 적어도 하나의 프로세서(220)는 입력 콘텐츠(240)의 제1 프레임에서의 제1 프레임 영상(240_1) 및 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상(240_2)을 획득할 수 있다. 입력 콘텐츠(240)가 제1 프레임 및 제2 프레임 동안 움직이는 영상(260)에 대한 정보를 포함하는 경우, 제1 프레임 영상(240_1)에 포함된 물체의 위치와, 제2 프레임 영상(240_2)에 포함된 물체의 위치는 서로 다를 수 있다.In one embodiment, the at least one processor 220 processes a first frame image 240_1 in a first frame of the input content 240 and a second frame image 240_2 in a second frame that is the frame immediately preceding the first frame. ) can be obtained. When the input content 240 includes information about the moving image 260 during the first frame and the second frame, the location of the object included in the first frame image 240_1 and the second frame image 240_2 The positions of the included objects may be different.

일 실시예에서, 입력 콘텐츠(240)는 물체를 서로 다른 복수의 뷰에서 촬영하여 획득된 복수의 뷰 영상들을 포함할 수 있다. 일 실시예에서, 복수의 뷰 영상들 각각은 서로 다른 위치에 배치되어 서로 다른 뷰에서 물체를 촬영하는 복수의 카메라를 통하여 획득된 영상일 수 있다. 또한, 일 실시예에서, 복수의 뷰 영상들 각각은, 마이크로 렌즈 어레이(micro lens array)를 포함하는 카메라를 통하여, 서로 다른 뷰에서 획득된 영상일 수 있다. 이하, 설명의 편의를 위하여 복수의 뷰 영상들은 서로 다른 뷰에서 물체를 촬영하는 복수의 카메라를 통하여 획득된 영상들로 정의한다. In one embodiment, the input content 240 may include multiple view images obtained by photographing an object from multiple different views. In one embodiment, each of the plurality of view images may be an image acquired through a plurality of cameras disposed at different locations and photographing objects from different views. Additionally, in one embodiment, each of the plurality of view images may be an image acquired from different views through a camera including a micro lens array. Hereinafter, for convenience of explanation, multiple view images are defined as images acquired through multiple cameras that photograph objects from different views.

일 실시예에서, 입력 콘텐츠(240)에 포함된 제1 프레임 영상(240_1) 및 제2 프레임 영상(240_2) 각각은 서로 다른 복수의 뷰를 갖는 영상들을 포함할 수 있다.In one embodiment, each of the first frame image 240_1 and the second frame image 240_2 included in the input content 240 may include images having a plurality of different views.

도 2에는 사람의 얼굴을 포함하는 입력 콘텐츠(240)가 도시되어 있다. 입력 콘텐츠(240)는 제1 프레임 및 제2 프레임 동안 표정이 변하는 사람의 얼굴을 촬영하여 획득된 정보를 포함할 수 있다. 제1 프레임 영상(240_1)에 포함된 사람의 얼굴 표정과 제2 프레임 영상(240_2)에 포함된 사람의 얼굴 표정은 서로 상이할 수 있다. 다만, 도 2의 도시는 설명의 편의를 위한 것이며, 물체는 사람의 얼굴 형상으로 제한되지 않는다. 입력 콘텐츠(240)는 다양한 종류의 물체를 촬영하여 획득한 정보를 포함할 수 있다.Figure 2 shows input content 240 including a human face. The input content 240 may include information obtained by photographing a person's face whose expression changes during the first frame and the second frame. The facial expression of the person included in the first frame image 240_1 may be different from the facial expression of the person included in the second frame image 240_2. However, the illustration in FIG. 2 is for convenience of explanation, and the object is not limited to the shape of a human face. Input content 240 may include information obtained by photographing various types of objects.

일 실시예에서, 전자 장치(100)는 입력 콘텐츠(240)를 제공받는다. 일 실시예에서, 전자 장치(100)에 포함된 적어도 하나의 프로세서(220)는 제1 프레임 영상(240_1) 및 제2 프레임 영상(240_2)을 제공받을 수 있다.In one embodiment, the electronic device 100 is provided with input content 240. In one embodiment, at least one processor 220 included in the electronic device 100 may receive a first frame image 240_1 and a second frame image 240_2.

적어도 하나의 프로세서(220)는 메모리(230)에 포함된 적어도 하나의 명령어(instruction)를 실행하여, 입력 콘텐츠(240)의 제1 프레임에서의 영상인 제1 프레임 영상(240_1) 및 입력 콘텐츠(240)의 제2 프레임에서의 영상인 제2 프레임 영상(240_2)에 기초하여 제1 프레임에서 디스플레이(210)에 표시할 보정-베이스 영상 및 레이어 영상을 생성할 수 있다.At least one processor 220 executes at least one instruction included in the memory 230 to create the first frame image 240_1, which is an image in the first frame of the input content 240, and the input content ( A correction-base image and a layer image to be displayed on the display 210 in the first frame may be generated based on the second frame image 240_2, which is the image in the second frame of 240).

적어도 하나의 프로세서(220)는 보정-베이스 영상을 베이스 패널(211)에 표시하고, 레이어 영상을 레이어 패널(212)에 표시하여 사용자(250)에게 촬영한 물체를 재현하는 영상(260)을 제공할 수 있다. At least one processor 220 displays a correction-base image on the base panel 211 and a layer image on the layer panel 212 to provide the user 250 with an image 260 that reproduces the captured object. can do.

이하, 적어도 하나의 프로세서(220)가 보정-베이스 영상 및 레이어 영상을 생성하는 것에 대하여는 도 4 내지 도 12b에서 후술하도록 한다.Hereinafter, the process by which at least one processor 220 generates a correction-base image and a layer image will be described later with reference to FIGS. 4 to 12B.

일 실시예에서, 도 2에는 디스플레이(210)가 백라이트(back light, 214) 및 광학층(213)을 포함하는 것으로 도시되어 있다. 일 실시예에서, 백라이트(214)는 광을 생성하여 사용자(250)에게 제공할 수 있다. 일 실시예에서, 백라이트(214)가 생성하는 광은 백색 광일 수 있다. 다만, 본 개시는 이에 한정되지 않고, 백라이트(214)가 제공하는 광은 백색이 아닌, 다른 색을 가질 수도 있다.In one embodiment, the display 210 is shown in FIG. 2 as including a back light 214 and an optical layer 213. In one embodiment, backlight 214 may generate light and provide it to user 250. In one embodiment, the light generated by the backlight 214 may be white light. However, the present disclosure is not limited to this, and the light provided by the backlight 214 may have a color other than white.

일 실시예에서, 베이스 패널(211) 및 레이어 패널(212) 각각은 복수의 픽셀들을 포함할 수 있다. 일 실시예에서, 베이스 패널(211) 및 레이어 패널(212)이 액정 표시(liquid crystal) 디스플레이인 경우, 베이스 패널(211) 및 레이어 패널(212) 각각은 복수의 컬러 필터(color filter)들을 포함하는 필터층일 수 있다. 일 실시예에서, 복수의 픽셀들 각각은 복수의 컬러 필터들에 대응될 수 있다.In one embodiment, the base panel 211 and the layer panel 212 may each include a plurality of pixels. In one embodiment, when the base panel 211 and the layer panel 212 are liquid crystal displays, each of the base panel 211 and the layer panel 212 includes a plurality of color filters. It may be a filter layer that does. In one embodiment, each of the plurality of pixels may correspond to a plurality of color filters.

일 실시예에서, 베이스 패널(211) 또는 레이어 패널(212) 중 적어도 하나는 복수의 레드, 그린 및 블루 픽셀들을 포함할 수도 있다. 일 실시예에서, 베이스 패널(211) 또는 레이어 패널(212) 중 적어도 하나는 복수의 레드, 그린, 블루 컬러 픽셀들 및 광을 필터링하지 않는 개구부들을 포함할 수도 있다. 일 실시예에서, 베이스 패널(211) 또는 레이어 패널(212) 중 적어도 하나는 복수의 옐로우, 블루 픽셀 등을 포함할 수도 있다. In one embodiment, at least one of the base panel 211 or the layer panel 212 may include a plurality of red, green, and blue pixels. In one embodiment, at least one of the base panel 211 or the layer panel 212 may include a plurality of red, green, and blue color pixels and openings that do not filter light. In one embodiment, at least one of the base panel 211 or the layer panel 212 may include a plurality of yellow or blue pixels.

다만, 본 개시는 이에 한정되지 않는다. 일 실시예에서, 백라이트(214)에서 제공하는 광의 파장 및 백라이트(214)에서 제공되는 광을 이용하여 영상(260)을 표시하기 위한 색의 조합 등에 따라 베이스 패널(211) 및 레이어 패널(212)에 포함되는 복수의 픽셀들의 색은 달라질 수 있다. However, the present disclosure is not limited to this. In one embodiment, the base panel 211 and the layer panel 212 are divided according to the wavelength of light provided by the backlight 214 and the combination of colors for displaying the image 260 using the light provided by the backlight 214. The colors of a plurality of pixels included in may vary.

일 실시예에서, 광학층(213)은 베이스 패널(211) 및 레이어 패널(212) 사이에 배치될 수 있다. 광학층(213)에 의하여 베이스 패널(211)을 투과한 광(270)은 굴절(refraction), 반사(reflection), 분산(dispersion) 등이 된 후 레이어 패널(212)에 제공될 수 있다. 도 2에는 광학층(213)이 베이스 패널(211)과 레이어 패널(212) 사이에 배치된 것으로 도시되었으나, 본 개시는 이에 한정되지 않는다. 일 실시예에서, 디스플레이(210)가 세 개 이상의 패널들을 포함할 경우, 광학층(213)은 베이스 패널(211)과 레이어 패널(212) 사이가 아닌, 다른 곳에 배치될 수도 있다. 또한, 일 실시예에서, 광학층(213)은 생략될 수도 있다. 이하, 설명의 편의를 위하여, 광학층(213)을 지나는 광(270)은 굴절되는 것으로 설명한다.In one embodiment, the optical layer 213 may be disposed between the base panel 211 and the layer panel 212. The light 270 that has transmitted through the base panel 211 by the optical layer 213 may be refracted, reflected, dispersed, etc., and then provided to the layer panel 212. In FIG. 2, the optical layer 213 is shown as disposed between the base panel 211 and the layer panel 212, but the present disclosure is not limited thereto. In one embodiment, when the display 210 includes three or more panels, the optical layer 213 may be disposed somewhere other than between the base panel 211 and the layer panel 212. Additionally, in one embodiment, the optical layer 213 may be omitted. Hereinafter, for convenience of explanation, the light 270 passing through the optical layer 213 will be described as being refracted.

일 실시예에서, 백라이트(214)에서 제공되는 광(270)은 베이스 패널(211) 및 레이어 패널(212)을 각각 투과하여 사용자(250)에게 제공될 수 있다. In one embodiment, the light 270 provided from the backlight 214 may pass through the base panel 211 and the layer panel 212, respectively, and be provided to the user 250.

일 실시예에서, 백라이트(214)에서 생성된 광(270)은 베이스 패널(211)에 포함된 어느 하나의 픽셀 및 레이어 패널(212)에 포함된 어느 하나의 픽셀을 거쳐 사용자(250)에게 제공될 수 있다. 백라이트(214)에서 생성된 광(270)이 지나가는 베이스 패널(211)의 픽셀 및 레이어 패널(212)의 픽셀 각각의 색 또는 투과율 중 적어도 하나에 따라 사용자(250)에게 제공되는 광(270)의 파장 및 세기가 결정된다. 백라이트(214)에서 생성된 광(270)이 지나가는 베이스 패널(211)의 픽셀과 레이어 패널(212)의 픽셀의 조합에 따라 사용자(250)에게 제공되는 광(270)의 파장 및 세기가 결정된다. In one embodiment, light 270 generated by the backlight 214 is provided to the user 250 through one pixel included in the base panel 211 and one pixel included in the layer panel 212. It can be. Light 270 provided to the user 250 according to at least one of the color or transmittance of each pixel of the base panel 211 and the layer panel 212 through which the light 270 generated by the backlight 214 passes. Wavelength and intensity are determined. The wavelength and intensity of the light 270 provided to the user 250 are determined according to the combination of the pixels of the base panel 211 and the pixels of the layer panel 212 through which the light 270 generated by the backlight 214 passes. .

이때, 사용자(250)의 위치에 따라, 사용자(250)에게 도달하기 위하여 백라이트(214)에서 생성된 광(270)이 지나가는 베이스 패널(211)의 픽셀과 레이어 패널(212)의 픽셀이 달라진다. 구체적으로, 사용자(250)의 위치에 따라, 사용자(250)에게 도달하기 위하여 백라이트(214)에서 생성된 광(270)이 지나가는 베이스 패널(211)의 픽셀 및 레이어 패널(212)의 픽셀 각각의 색 또는 투과율 등이 달라질 수 있다. 일 실시예에서, 사용자(250)의 위치에 따라 사용자(250)에 도달하기 위하여 백라이트(214)에서 생성된 광(270)이 지나가는 베이스 패널(211)의 픽셀과 레이어 패널(212)의 픽셀의 조합이 달라질 수 있다.At this time, depending on the location of the user 250, the pixels of the base panel 211 and the pixels of the layer panel 212 through which the light 270 generated by the backlight 214 passes to reach the user 250 change. Specifically, depending on the location of the user 250, each pixel of the base panel 211 and the pixel of the layer panel 212 through which the light 270 generated by the backlight 214 passes to reach the user 250. Color or transmittance may vary. In one embodiment, the pixels of the base panel 211 and the pixels of the layer panel 212 through which the light 270 generated by the backlight 214 passes to reach the user 250 according to the location of the user 250. Combinations may vary.

일 실시예에서, 디스플레이(210)가 광학층(213)을 포함하는 경우, 백라이트(214)에서 제공되는 광(270)은 베이스 패널(211)을 투과되고, 광학층(213)에 의하여 굴절된 후 레이어 패널(212)을 투과하여 사용자(250)에게 제공될 수 있다. 광학층(213)에 의하여 굴절되어 경로가 변경된 광은, 변경된 경로에 대응되는 위치의 사용자(250)에게 제공될 수 있다. In one embodiment, when the display 210 includes an optical layer 213, light 270 provided from the backlight 214 transmits through the base panel 211 and is refracted by the optical layer 213. After passing through the layer panel 212, it may be provided to the user 250. The light whose path has been changed by being refracted by the optical layer 213 may be provided to the user 250 at a location corresponding to the changed path.

일 실시예에서, 광학층(213)은 적어도 하나의 렌즈를 포함할 수 있다. 도 2에는 광학층(213)이 세 개의 렌즈를 포함하는 것으로 도시되었으나, 본 개시는 이에 제한되지 않는다. 광학층(213)은 두 개 이하의 렌즈, 또는 네 개 이상의 렌즈를 포함할 수도 있다.In one embodiment, optical layer 213 may include at least one lens. Although the optical layer 213 is shown in FIG. 2 as including three lenses, the present disclosure is not limited thereto. The optical layer 213 may include two or fewer lenses, or four or more lenses.

일 실시예에서, 베이스 패널(211)에 포함된 픽셀과 광학층(213)에 포함된 적어도 하나의 렌즈의 위치 관계, 적어도 하나의 렌즈의 개수, 형상 및 굴절률에 따라, 베이스 패널(211)을 지나간 광(270)이 굴절되어 레이어 패널(212)을 향하는 경로가 변경될 수 있다. 광학층(213)에 의하여 경로가 굴절된 광은, 레이어 패널(212)을 투과한 후, 해당 경로에 대응되는 위치에서 전자 장치(100)를 보는 사용자(250)에게 제공될 수 있다. 따라서, 사용자(150)의 위치에 따라 서로 다른 베이스 패널(211)의 픽셀과 레이어 패널(212)의 픽셀을 지나간 광이 사용자(250)에게 제공되어, 사용자(250)에게 물체의 다른 면을 포함하는 영상(260)을 제공할 수 있다.In one embodiment, the base panel 211 is formed according to the positional relationship between the pixels included in the base panel 211 and at least one lens included in the optical layer 213, and the number, shape, and refractive index of the at least one lens. The passing light 270 may be refracted and the path toward the layer panel 212 may be changed. The light whose path is refracted by the optical layer 213 may pass through the layer panel 212 and then be provided to the user 250 who views the electronic device 100 at a position corresponding to the path. Accordingly, light passing through different pixels of the base panel 211 and pixels of the layer panel 212 is provided to the user 250 depending on the position of the user 150, and includes different sides of the object to the user 250. A video 260 can be provided.

일 실시예에서, 디스플레이(210)가 광학층(213)을 포함하는 경우, 광학층(213)을 포함하지 않는 경우와 비교할 때, 베이스 패널(211)을 투과한 광의 경로가 전자 장치(100)의 정면에 수직한 방향과 이루는 각도가 커질 수 있다. 따라서 사용자(250)가 전자 장치(100)를 통하여 영상(260)을 시인할 수 있는 시야각(Viewing Angle)이 커질 수 있다. 또한, 광학층(213)에 포함된 적어도 하나의 렌즈의 개수, 형상, 굴절률 등을 조절하여, 사용자(250)에게 제공하는 복수의 뷰의 개수 및 인접한 뷰의 간격을 다르게 할 수도 있다.In one embodiment, when the display 210 includes the optical layer 213, compared to the case where the display 210 does not include the optical layer 213, the path of light passing through the base panel 211 is the electronic device 100. The angle formed with the direction perpendicular to the front may increase. Accordingly, the viewing angle at which the user 250 can view the image 260 through the electronic device 100 may increase. Additionally, the number, shape, and refractive index of at least one lens included in the optical layer 213 may be adjusted to vary the number of views provided to the user 250 and the spacing between adjacent views.

이때, '뷰'는 사용자(250)가 전자 장치(100)를 통하여 표시되는 영상(260)에 포함된 물체의 서로 다른 면을 볼 수 있는 위치에 대응될 수 있다. 전자 장치(100)는 사용자(250)의 위치가 복수의 뷰 중 어느 하나의 뷰에 대응됨에 따라, 사용자(250)에게 서로 다른 물체의 면을 포함하는 영상(260)을 제공하여 사용자(250)가 입체감을 느끼도록 할 수 있다.At this time, 'view' may correspond to a position where the user 250 can see different sides of the object included in the image 260 displayed through the electronic device 100. As the location of the user 250 corresponds to one of the plurality of views, the electronic device 100 provides the user 250 with images 260 including sides of different objects to It can create a three-dimensional feeling.

이하, 설명의 편의를 위하여, 베이스 패널(211)을 투과하는 광을 베이스 패널(211)에 표시되는 베이스 영상이라 지칭하고, 레이어 패널(212)을 투과하는 광을 레이어 패널(212)에 표시되는 레이어 영상이라 지칭한다. 이때, 베이스 영상은 베이스 패널(211)을 투과하는 광에 대응되는 복수의 픽셀들의 투과율 및 색 등의 정보를 포함할 수도 있다. 레이어 영상은 레이어 패널(212)을 투과하는 광에 대응되는 복수의 픽셀들의 투과율 및 색 등의 정보를 포함할 수도 있다.Hereinafter, for convenience of explanation, the light passing through the base panel 211 will be referred to as the base image displayed on the base panel 211, and the light passing through the layer panel 212 will be referred to as the base image displayed on the layer panel 212. It is called a layer image. At this time, the base image may include information such as the transmittance and color of a plurality of pixels corresponding to the light passing through the base panel 211. The layer image may include information such as transmittance and color of a plurality of pixels corresponding to light passing through the layer panel 212.

일 실시예에서, 베이스 패널(211)에 포함되는 베이스 영상은 서로 다른 복수의 뷰에 각각 대응되는 복수의 서브 베이스 영상들을 포함할 수 있다. 복수의 서브 베이스 영상들 각각에서 나온 광은 광학층(213)에 의하여 굴절된 후 레이어 패널(212)로 제공될 수 있다. 복수의 서브 베이스 영상들 각각에서 나온 광은, 광학층(213)에 의하여, 서로 다른 경로로 굴절되어 레이어 패널(212)로 제공될 수 있다. 서로 다른 경로로 레이어 패널(212)로 제공된 광은, 레이어 영상의 서로 다른 영역을 투과한 후 각각의 뷰에서 사용자(250)에게 제공될 수 있다. In one embodiment, the base image included in the base panel 211 may include a plurality of sub-base images each corresponding to a plurality of different views. Light emitted from each of the plurality of sub-base images may be refracted by the optical layer 213 and then provided to the layer panel 212. Light emitted from each of the plurality of sub-base images may be refracted in different paths by the optical layer 213 and provided to the layer panel 212. Light provided to the layer panel 212 through different paths may pass through different areas of the layer image and then be provided to the user 250 in each view.

따라서, 전자 장치(100)는 사용자(250)의 위치 변화에 대응하여 달라지는 영상(260)을 사용자(250)에게 제공할 수 있다. 사용자(250)는 사용자(250)의 위치 변화에 대응하여 전자 장치(100)가 제공하는 영상(260)이 달라지는 것에 기초하여, 영상(260)에 포함된 물체의 입체감을 느낄 수 있다.Accordingly, the electronic device 100 may provide the user 250 with an image 260 that changes in response to a change in the user 250's location. The user 250 can feel the three-dimensional effect of the object included in the image 260 based on the image 260 provided by the electronic device 100 changing in response to a change in the user's 250 location.

일 실시예에서, 사용자(250)가 전자 장치(100)의 정면에 수직한 방향과 교차하는 제1 방향에 위치하는 경우에 전자 장치(100)가 사용자(250)에게 제공하는 영상(260)과 사용자(250)가 전자 장치(100)의 정면에 수직한 방향과 교차하고, 제1 방향과 다른 제2 방향에 위치하는 경우에 전자 장치(100)가 사용자(250)에게 제공하는 영상(260)은 서로 다를 수 있다.In one embodiment, when the user 250 is located in a first direction that intersects the direction perpendicular to the front of the electronic device 100, the image 260 provided by the electronic device 100 to the user 250 and Image 260 provided by the electronic device 100 to the user 250 when the user 250 intersects the direction perpendicular to the front of the electronic device 100 and is located in a second direction different from the first direction. may be different.

일 실시예에서, 전자 장치(100)는 제1 방향에 위치한 사용자(250)에게, 제1 방향에서 물체를 바라보는 것처럼 느끼게 하는 영상(260)을 제공할 수 있다. 일 실시예에서, 전자 장치(100)는 제2 방향에 위치한 사용자(250)에게, 제2 방향에서 물체를 바라보는 것처럼 느끼게 하는 영상(260)을 제공할 수 있다. 따라서 사용자(250)는 전자 장치(100)가 표시하는 영상(260)에 포함된 물체의 입체감을 느낄 수 있다.In one embodiment, the electronic device 100 may provide the user 250 located in the first direction with an image 260 that makes the user 250 feel as if he or she is looking at an object in the first direction. In one embodiment, the electronic device 100 may provide the user 250 located in the second direction with an image 260 that makes the user 250 feel as if he or she is looking at an object in the second direction. Accordingly, the user 250 can feel the three-dimensional effect of the object included in the image 260 displayed by the electronic device 100.

다만, 본 개시는 이에 한정되지 않고, 베이스 패널(211) 또는 레이어 패널(212) 중 적어도 하나는 유기 발광 다이오드 디스플레이, 무기 발광 다이오드 디스플레이 등과 같이, 베이스 패널(211) 및 레이어 패널(212) 각각이 스스로 광을 생성하는 디스플레이일 수도 있다. 베이스 패널(211) 및 레이어 패널(212)이 모두 스스로 광을 생성하는 패널인 경우, 디스플레이(210)는 백라이트(214)를 포함하지 않을 수 있다. 이 경우, 전자 장치(100)는 각각의 패널에서 생성되는 광의 세기, 파장 및 각 서브 패널의 투과율 등을 조절하여 사용자(250)의 위치에 따라 다른 영상(260)을 사용자(250)에게 제공할 수도 있다.However, the present disclosure is not limited to this, and at least one of the base panel 211 and the layer panel 212 is each of the base panel 211 and the layer panel 212, such as an organic light emitting diode display, an inorganic light emitting diode display, etc. It could be a display that generates light on its own. If both the base panel 211 and the layer panel 212 are panels that generate light by themselves, the display 210 may not include the backlight 214. In this case, the electronic device 100 adjusts the intensity, wavelength, and transmittance of each sub-panel of the light generated from each panel to provide a different image 260 to the user 250 depending on the location of the user 250. It may be possible.

도 3은 본 개시의 일 실시예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다. 이하, 도 1 및 도 2에서 설명한 구성과 동일한 구성에 대한 중복되는 설명은 생략하도록 한다.Figure 3 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure. Hereinafter, overlapping descriptions of the same components as those described in FIGS. 1 and 2 will be omitted.

도 2 및 도 3을 참조하면, 일 실시예에서, 전자 장치(100)는 디스플레이(210), 메모리(230), 적어도 하나의 프로세서(220) 및 통신 인터페이스(280)를 포함할 수 있다. 그러나, 도 3에 도시된 구성 요소가 모두 필수 구성 요소인 것은 아니다. 도 3에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(100)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 전자 장치(100)는 구현될 수 있다. 디스플레이(210), 메모리(230), 적어도 하나의 프로세서(220) 및 통신 인터페이스(280)는 각각 전기적 및/또는 물리적으로 서로 연결될 수 있다. Referring to FIGS. 2 and 3 , in one embodiment, the electronic device 100 may include a display 210, a memory 230, at least one processor 220, and a communication interface 280. However, not all components shown in FIG. 3 are essential components. The electronic device 100 may be implemented with more components than those shown in FIG. 3, or may be implemented with fewer components. The display 210, memory 230, at least one processor 220, and communication interface 280 may each be electrically and/or physically connected to each other.

일 실시예에서, 디스플레이(210)는 액정 표시(liquid crystal) 디스플레이, 플라즈마(plasma) 디스플레이, 유기 발광 다이오드(organic light emitting diodes) 디스플레이, 무기 발광 다이오드(inorganic light emitting diodes) 디스플레이 중 어느 하나의 디스플레이를 포함할 수 있다. 다만, 본 개시는 이에 제한되지 않고, 디스플레이(210)는 사용자(250)에게 영상(260)을 제공할 수 있는 다른 종류의 디스플레이를 포함할 수 있다.In one embodiment, the display 210 is one of a liquid crystal display, a plasma display, an organic light emitting diodes display, and an inorganic light emitting diodes display. may include. However, the present disclosure is not limited thereto, and the display 210 may include other types of displays capable of providing the image 260 to the user 250.

일 실시예에서, 디스플레이(210)는 베이스 패널(211), 레이어 패널(212), 광학층(213) 및 백라이트(214)를 포함할 수 있다. 그러나, 디스플레이(210)는 도 2에 도시된 구성 요소보다 많은 구성 요소를 포함할 수도 있고, 그보다 적은 구성 요소를 포함할 수도 있다. 일 예로, 디스플레이(210)는 베이스 패널(211) 및 레이어 패널(212) 만을 포함할 수도 있다. 또한, 디스플레이(210)는 광학층(213), 백라이트(214) 외에 세 개 이상의 패널들을 포함할 수도 있다.In one embodiment, the display 210 may include a base panel 211, a layer panel 212, an optical layer 213, and a backlight 214. However, the display 210 may include more or fewer components than those shown in FIG. 2 . As an example, the display 210 may include only the base panel 211 and the layer panel 212. Additionally, the display 210 may include three or more panels in addition to the optical layer 213 and the backlight 214.

일 실시예에서, 메모리(230)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 메모리(230)에는 전자 장치(100)의 기능 또는 동작들을 수행하기 위한 명령어들 또는 프로그램 코드가 저장될 수 있다. 메모리(230)에 저장되는 명령어들, 알고리즘, 데이터 구조, 프로그램 코드 및 애플리케이션 프로그램은 예를 들어, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다.In one embodiment, the memory 230 is a flash memory type, hard disk type, multimedia card micro type, or card type memory (e.g., SD or XD). Memory, etc.), RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), Mask ROM, Flash ROM, etc.), a hard disk drive (HDD), or a solid state drive (SSD). The memory 230 may store instructions or program codes for performing functions or operations of the electronic device 100. Instructions, algorithms, data structures, program codes, and application programs stored in the memory 230 may be implemented in programming or scripting languages such as C, C++, Java, assembler, etc.

일 실시예에서, 메모리(230)에는 디스플레이(210)를 통하여 영상(260)을 사용자(250)에게 제공하는데 이용될 수 있는 다양한 종류의 모듈들이 저장될 수 있다. 메모리(230)에는 입력 콘텐츠 획득 모듈(231), 영상 생성 모듈(232) 및 영상 보정 모듈(233)이 저장될 수 있다. 그러나, 도 3에 도시된 모듈 모두가 필수 모듈인 것은 아니다. 메모리(230)에는 도 3에 도시된 모듈보다 더 많은 모듈들이 저장될 수도 있고, 그보다 적은 모듈들이 저장될 수도 있다. 일 실시예에서, 메모리(230)에는 획득한 입력 콘텐츠를 전처리 하기 위한 모듈 등이 더 저장될 수도 있다.In one embodiment, various types of modules that can be used to provide the image 260 to the user 250 through the display 210 may be stored in the memory 230. The memory 230 may store an input content acquisition module 231, an image generation module 232, and an image correction module 233. However, not all modules shown in FIG. 3 are essential modules. The memory 230 may store more or fewer modules than the modules shown in FIG. 3 . In one embodiment, the memory 230 may further store a module for preprocessing the obtained input content.

메모리(230)에 포함되는 '모듈'은 적어도 하나의 프로세서(220)에 의해 수행되는 기능이나 동작을 처리하는 단위를 의미할 수 있다. 메모리(230)에 포함되는 '모듈'은 명령어들(instructions), 알고리즘, 데이터 구조, 또는 프로그램 코드와 같은 소프트웨어로 구현될 수 있다.A 'module' included in the memory 230 may refer to a unit that processes functions or operations performed by at least one processor 220. The 'module' included in the memory 230 may be implemented as software such as instructions, algorithms, data structures, or program code.

일 실시예에서, 입력 콘텐츠 획득 모듈(231)은 입력 콘텐츠(240)를 획득하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 입력 콘텐츠 획득 모듈(231)은 외부의 서버 또는 주변의 전자 장치들로부터 입력 콘텐츠(240)를 수신하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 입력 콘텐츠 획득 모듈(231)은 입력 콘텐츠(240)의 제1 프레임에서의 제1 프레임 영상(240_1) 및 제2 프레임에서의 제2 프레임 영상(240_2)을 획득하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, the input content acquisition module 231 may be composed of instructions or program code related to an operation or function of acquiring the input content 240. The input content acquisition module 231 may be composed of commands or program codes related to an operation or function of receiving input content 240 from an external server or surrounding electronic devices. In one embodiment, the input content acquisition module 231 is an operation or function of acquiring the first frame image 240_1 in the first frame and the second frame image 240_2 in the second frame of the input content 240. It may consist of instructions or program code related to.

일 실시예에서, 영상 생성 모듈(232)은 획득한 입력 콘텐츠(240)에 기초하여, 제1 프레임에서 베이스 패널(211)에 대응되는 베이스 영상 및 제1 프레임에서 레이어 패널(212)에 대응되는 레이어 영상을 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 레이어 영상은 제1 프레임에서 레이어 패널(212)에 표시되는 영상일 수 있다.In one embodiment, the image generation module 232 generates a base image corresponding to the base panel 211 in the first frame and a layer panel 212 in the first frame based on the acquired input content 240. It may consist of instructions or program code related to the operation or function of creating a layer image. In one embodiment, the layer image may be an image displayed on the layer panel 212 in the first frame.

일 실시예에서, 영상 생성 모듈(232)은 팩토리제이션(factorization)을 수행하여 베이스 영상 및 레이어 영상을 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 영상 생성 모듈(232)은 입력 콘텐츠(240)에 기초하여, 팩토리제이션(factorization)을 수행하여 베이스 영상 및 레이어 영상을 추론하는 제1 인공 지능 모델을 포함할 수 있다. 일 실시예에서, 영상 생성 모듈(232)에 포함된 제1 인공 지능 모델은 머신 러닝(machine learning) 또는 딥 러닝(deep learning) 모델을 포함할 수 있다.In one embodiment, the image generation module 232 may be composed of instructions or program code related to an operation or function of generating a base image and a layer image by performing factorization. In one embodiment, the image generation module 232 may include a first artificial intelligence model that infers the base image and the layer image by performing factorization based on the input content 240. In one embodiment, the first artificial intelligence model included in the image generation module 232 may include a machine learning or deep learning model.

일 실시예에서, 레이어 영상 생성 모듈(330)에 포함된 제1 인공 지능 모델은 제1 프레임 영상(240_1) 및 제2 프레임 영상(240_2)에 기초하여, 제1 프레임에서 베이스 패널에 대응되는 베이스 영상 및 제1 프레임에서 레이어 패널에 대응되는 레이어 영상을 추론하기 위하여 훈련(trained)된 인공 지능 모델일 수 있다. In one embodiment, the first artificial intelligence model included in the layer image generation module 330 is based on the first frame image 240_1 and the second frame image 240_2, and the base corresponding to the base panel in the first frame is It may be an artificial intelligence model trained to infer a layer image corresponding to a layer panel from the image and the first frame.

일 실시예에서, 전자 장치(100)는 영상 생성 모듈(232)에 포함된 제1 인공 지능 모델을 훈련시킬 수 있다. 전자 장치(100)는 영상 생성 모듈(232)에 포함된 제1 인공 지능 모델을 훈련시키기 위하여, 사전 학습 모델을 이용한 전이 학습(transfer learning)을 할 수도 있다. 다만, 본 개시는 이에 한정되지 않고, 영상 생성 모듈(232)은 팩토리제이션을 수행하여 제1 프레임 영상(240_1) 및 제2 프레임 영상(240_2)에 기초하여 제1 프레임에서의 베이스 영상 및 레이어 영상을 추론하기 위해 학습된 제1 인공지능 모델을 통신 인터페이스(280)를 통하여 외부의 서버 또는 주변의 전자 장치들로부터 수신할 수도 있다. 이하, 영상 생성 모듈(232)의 동작 및 영상 생성 모듈(232)에 포함된 제1 인공 지능 모델의 훈련은 도 6 내지 도 11에서 후술하도록 한다.In one embodiment, the electronic device 100 may train a first artificial intelligence model included in the image generation module 232. The electronic device 100 may perform transfer learning using a pre-learning model to train the first artificial intelligence model included in the image generation module 232. However, the present disclosure is not limited to this, and the image generation module 232 performs factorization to create a base image and a layer image in the first frame based on the first frame image 240_1 and the second frame image 240_2. The first artificial intelligence model learned to infer may be received from an external server or surrounding electronic devices through the communication interface 280. Hereinafter, the operation of the image generation module 232 and the training of the first artificial intelligence model included in the image generation module 232 will be described later with reference to FIGS. 6 to 11.

일 실시예에서, 영상 보정 모듈(233)은 베이스 영상 또는 레이어 영상에 기초하여, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 보정-베이스 영상을 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 영상 보정 모듈(233)은 베이스 영상 또는 레이어 영상에 기초하여, 제1 프레임 영상과 제2 프레임 영상 간의 움직임이 반영되고, 제1 프레임에서 베이스 패널에 표시되는 보정-베이스 영상을 생성할 수 있다.In one embodiment, the image correction module 233 includes instructions or programs related to an operation or function of generating a correction-base image based on the movement between the first frame image and the second frame image, based on the base image or layer image. It can be composed of code. In one embodiment, the image correction module 233 reflects the movement between the first frame image and the second frame image based on the base image or the layer image, and produces a correction-base image displayed on the base panel in the first frame. can be created.

일 실시예에서, 디스플레이(210)가 광학층(213)을 포함하고, 베이스 영상이 서로 다른 복수의 뷰에 대응되는 복수의 서브 베이스 영상을 포함하는 경우, 영상 보정 모듈(233)은 베이스 영상 또는 레이어 영상에 기초하여, 복수의 서브 베이스 영상들 간의 차이에 기초하고, 복수의 서브 보정-베이스 영상들을 포함하는 보정-베이스 영상을 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 영상 보정 모듈(233)은 베이스 영상 또는 레이어 영상에 기초하여, 복수의 서브 베이스 영상들 간의 차이가 반영되고, 제1 프레임에서 서로 다른 복수의 뷰에 대응되어 베이스 패널에 표시되는 보정-베이스 영상을 생성할 수 있다.In one embodiment, when the display 210 includes the optical layer 213 and the base image includes a plurality of sub-base images corresponding to a plurality of different views, the image correction module 233 is configured to operate the base image or Based on the layer image, based on the difference between a plurality of sub-base images, it may be composed of instructions or program code related to an operation or function of generating a correction-base image including a plurality of sub-correction-base images. . In one embodiment, the image correction module 233 reflects differences between a plurality of sub-base images based on the base image or layer image and displays the image on the base panel in correspondence to a plurality of different views in the first frame. A correction-base image can be created.

일 실시예에서, 영상 보정 모듈(233)은 베이스 영상에 기초하여 보정-베이스 영상을 추론하는 제2 인공 지능 모델을 포함할 수 있다. 일 실시예에서, 영상 보정 모듈(233)에 포함된 제2 인공 지능 모델은 머신 러닝(machine learning) 또는 딥 러닝(deep learning) 모델을 포함할 수 있다.In one embodiment, the image correction module 233 may include a second artificial intelligence model that infers a correction-base image based on the base image. In one embodiment, the second artificial intelligence model included in the image correction module 233 may include a machine learning or deep learning model.

일 실시예에서, 영상 보정 모듈(233)에 포함된 제2 인공 지능 모델은 베이스 영상에 기초하여, 제1 프레임에서 베이스 패널에 표시되는 보정-베이스 영상을 추론하기 위하여 훈련(trained)된 인공 지능 모델일 수 있다. In one embodiment, the second artificial intelligence model included in the image correction module 233 is an artificial intelligence trained to infer the correction-base image displayed on the base panel in the first frame, based on the base image. It could be a model.

일 실시예에서, 전자 장치(100)는 영상 보정 모듈(233)에 포함된 제2 인공 지능 모델을 훈련시킬 수 있다. 전자 장치(100)는 영상 보정 모듈(233)에 포함된 제2 인공 지능 모델을 훈련시키기 위하여, 사전 학습 모델을 이용한 전이 학습(transfer learning)을 할 수도 있다. 다만, 본 개시는 이에 한정되지 않고, 영상 보정 모듈(233)은 베이스 영상에 기초하여 보정-베이스 영상을 추론하기 위해 학습된 제2 인공지능 모델을 통신 인터페이스(280)를 통하여 외부의 서버 또는 주변의 전자 장치들로부터 수신할 수도 있다. 이하, 영상 보정 모듈(233)의 동작 및 영상 보정 모듈(233)에 포함된 제2 인공 지능 모델의 훈련은 도 6 내지 도 9, 도 12a 및 도 12b에서 후술하도록 한다.In one embodiment, the electronic device 100 may train a second artificial intelligence model included in the image correction module 233. The electronic device 100 may perform transfer learning using a pre-learning model to train the second artificial intelligence model included in the image correction module 233. However, the present disclosure is not limited to this, and the image correction module 233 uses the learned second artificial intelligence model to infer the correction-base image based on the base image to an external server or surrounding area through the communication interface 280. It can also be received from electronic devices. Hereinafter, the operation of the image correction module 233 and the training of the second artificial intelligence model included in the image correction module 233 will be described later with reference to FIGS. 6 to 9, 12A, and 12B.

일 실시예에서, 영상 생성 모듈(232)에 포함된 제1 인공 지능 모델 및 영상 보정 모듈(233)에 포함된 제2 인공 지능 모델은 복수의 신경망 레이어들을 포함할 수 있다. 각각의 신경망 레이어는 복수의 가중치(weight values)을 가지고 있으며, 이전(previous) 신경망 레이어의 연산 결과와 복수의 가중치의 연산을 통해 현재(present) 신경망 레이어의 연산을 수행할 수 있다. 인공 지능 모델의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network), 심층 Q-네트워크 (Deep Q-Networks), GAN(Generative Adversarial Networks), VAE(Variational Auto Encoder) 등이 있으며, 본 개시에서의 제1 인공 지능 모델 및 제2 인공 지능 모델은 전술한 예에 한정되지 않는다.In one embodiment, the first artificial intelligence model included in the image generation module 232 and the second artificial intelligence model included in the image correction module 233 may include a plurality of neural network layers. Each neural network layer has a plurality of weight values, and the calculation of the current neural network layer can be performed through the calculation result of the previous neural network layer and the calculation of the plurality of weights. Examples of artificial intelligence models include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), and Bidirectional Recurrent Deep Neural Network (BRDNN). , Deep Q-Networks, GAN (Generative Adversarial Networks), VAE (Variational Auto Encoder), etc., and the first artificial intelligence model and the second artificial intelligence model in the present disclosure are limited to the examples described above. It doesn't work.

일 실시예에서, 메모리(230)에는 획득한 입력 콘텐츠(240)를 전처리하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성된 전처리 모듈이 더 저장될 수 있다. 전처리 모듈은 재구성(wrangling), 변환(transformation), 통합(integration), 클리닝(cleaning), 축소(reduction), 이산화(discretization) 등을 수행하여 입력 콘텐츠(240)를 전처리하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 영상 생성 모듈(232)은 전처리 모듈을 통하여 전처리된 입력 콘텐츠(240)에 기초하여 베이스 영상 및 레이어 영상을 생성할 수도 있다.In one embodiment, the memory 230 may further store a preprocessing module consisting of instructions or program code related to an operation or function for preprocessing the acquired input content 240. The preprocessing module is a command for the operation or function of preprocessing the input content 240 by performing wrangling, transformation, integration, cleaning, reduction, discretization, etc. It may consist of fields or program code. The image generation module 232 may generate a base image and a layer image based on the input content 240 preprocessed through the preprocessing module.

일 실시예에서, 통신 인터페이스(280)는 적어도 하나의 프로세서(220)의 제어에 의해 외부의 서버와 데이터 통신을 수행할 수 있다. 또한, 통신 인터페이스(280)는 외부의 서버뿐 아니라, 다른 주변 전자 장치들과도 데이터 통신을 수행할 수 있다. 통신 인터페이스(280)는 예를 들어, 유선 랜, 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(zigbee), WFD(Wi-Fi Direct), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication), 와이브로(Wireless Broadband Internet, Wibro), 와이맥스(World Interoperability for Microwave Access, WiMAX), SWAP(Shared Wireless Access Protocol), 와이기그(Wireless Gigabit Allicance, WiGig) 및 RF 통신을 포함하는 데이터 통신 방식 중 적어도 하나를 이용하여 서버 또는 다른 주변 전자 장치들과 데이터 통신을 수행할 수 있다. In one embodiment, the communication interface 280 may perform data communication with an external server under the control of at least one processor 220. Additionally, the communication interface 280 can perform data communication not only with an external server but also with other peripheral electronic devices. The communication interface 280 includes, for example, wired LAN, wireless LAN, Wi-Fi, Bluetooth, zigbee, WFD (Wi-Fi Direct), and infrared communication (IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC (Near Field Communication), Wibro (Wireless Broadband Internet, Wibro), WiMAX (World Interoperability for Microwave Access, WiMAX), SWAP (Shared Wireless Access Protocol), WiGig Data communication may be performed with a server or other surrounding electronic devices using at least one of data communication methods including (Wireless Gigabit Allicance, WiGig) and RF communication.

일 실시예에서, 적어도 하나의 프로세서(220)는 통신 인터페이스(280)를 통하여 입력 콘텐츠(240)를 외부의 서버 또는 주변의 전자 장치들로부터 수신할 수 있다. 일 실시예에서, 적어도 하나의 프로세서(220)는 통신 인터페이스(280)를 통하여 생성한 보정-베이스 영상 및 레이어 영상을 외부의 서버 또는 주변의 전자 장치들로 송신할 수도 있다.In one embodiment, at least one processor 220 may receive input content 240 from an external server or surrounding electronic devices through the communication interface 280. In one embodiment, at least one processor 220 may transmit the generated correction-base image and layer image to an external server or surrounding electronic devices through the communication interface 280.

도 4는 본 개시의 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 순서도이다.FIG. 4 is a flowchart for explaining the operation of an electronic device according to an embodiment of the present disclosure.

도 2, 도 3 및 도 4를 참조하면, 일 실시예에서, 전자 장치(100)의 동작 방법은, 입력 콘텐츠(240)의 제1 프레임에서의 제1 프레임 영상(240_1) 및 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상(240_2)을 획득하는 단계(S100)를 포함할 수 있다. 적어도 하나의 프로세서(220)는 입력 콘텐츠 획득 모듈(231)을 실행하여, 제1 프레임 영상(240_1) 및 제2 프레임 영상(240_2)을 획득할 수 있다. Referring to FIGS. 2, 3, and 4, in one embodiment, the operating method of the electronic device 100 includes the first frame image 240_1 in the first frame of the input content 240 and the first frame. It may include acquiring the second frame image 240_2 in the second frame, which is the previous frame (S100). At least one processor 220 may execute the input content acquisition module 231 to obtain the first frame image 240_1 and the second frame image 240_2.

일 실시예에서, 전자 장치(100)의 동작 방법은, 제1 프레임 영상(240_1) 및 제2 프레임 영상(240_2)을 영상 생성 모듈(232)에 적용함으로써, 제1 프레임에서 베이스 패널(211)에 대응되는 베이스 영상 및 제1 프레임에서 레이어 패널(212)에 대응되고, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 레이어 영상을 생성하는 단계(S200)를 포함할 수 있다. 적어도 하나의 프로세서(220)는 영상 생성 모듈(232)을 실행하여, 제1 프레임 영상(240_1) 및 제2 프레임 영상(240_2)에 기초하여 제1 프레임에서 베이스 패널(211)에 대응되는 베이스 영상 및 제1 프레임에서 레이어 패널(212)에 대응되고, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 레이어 영상을 생성할 수 있다. 이하, 베이스 영상 및 레이어 영상은 도 6 내지 도 8에서 자세히 설명하도록 한다.In one embodiment, the method of operating the electronic device 100 includes applying the first frame image 240_1 and the second frame image 240_2 to the image generation module 232 to generate the base panel 211 in the first frame. It may include generating a layer image corresponding to the layer panel 212 in the base image and the first frame and based on the movement between the first frame image and the second frame image (S200). At least one processor 220 executes the image generation module 232 to generate a base image corresponding to the base panel 211 in the first frame based on the first frame image 240_1 and the second frame image 240_2. And it corresponds to the layer panel 212 in the first frame and can generate a layer image based on the movement between the first frame image and the second frame image. Hereinafter, the base image and layer image will be described in detail with reference to FIGS. 6 to 8.

일 실시예에서, 전자 장치(100)의 동작 방법은, 베이스 영상 또는 레이어 영상을 영상 보정 모듈(233)에 적용함으로써, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 보정-베이스 영상을 생성하는 단계(S300)를 포함할 수 있다. 적어도 하나의 프로세서(220)는 영상 보정 모듈(233)을 실행하여, 베이스 영상 또는 레이어 영상에 기초하여 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 보정-베이스 영상을 생성할 수 있다.In one embodiment, the method of operating the electronic device 100 generates a correction-base image based on the movement between the first frame image and the second frame image by applying the base image or layer image to the image correction module 233. It may include a step (S300). At least one processor 220 may execute the image correction module 233 to generate a correction-base image based on the movement between the first frame image and the second frame image based on the base image or layer image.

일 실시예에서, 보정-베이스 영상을 생성하는 단계(S300)에서, 제1 프레임 영상 및 레이어 영상을 영상 보정 모듈(233)에 적용함으로써 보정-베이스 영상을 생성할 수도 있다. 적어도 하나의 프로세서(220)는 영상 보정 모듈(233)을 실행하여, 제1 프레임 영상 및 레이어 영상에 기초하여 보정-베이스 영상을 생성할 수도 있다. In one embodiment, in the step of generating a correction-base image (S300), the correction-base image may be generated by applying the first frame image and the layer image to the image correction module 233. At least one processor 220 may execute the image correction module 233 to generate a correction-base image based on the first frame image and the layer image.

일 실시예에서, 보정-베이스 영상을 생성하는 단계(S300)에서, 베이스 영상에 기초하여 보정-베이스 영상을 생성할 수도 있다. 적어도 하나의 프로세서(220)는 영상 보정 모듈(233)을 실행하여, 베이스 영상에 기초하여 보정-베이스 영상을 생성할 수도 있다. 이하, 보정-베이스 영상은 도 6 내지 도 8에서 자세히 설명하도록 한다.In one embodiment, in the step of generating the correction-base image (S300), the correction-base image may be generated based on the base image. At least one processor 220 may execute the image correction module 233 to generate a correction-base image based on the base image. Hereinafter, the correction-base image will be described in detail in FIGS. 6 to 8.

일 실시예에서, 전자 장치(100)의 동작 방법은, 보정-베이스 영상을 베이스 패널(211)에 표시하고, 레이어 영상을 레이어 패널(212)에 표시하는 단계(S400)를 포함할 수 있다. 적어도 하나의 프로세서(220)는 보정-베이스 영상을 표시하도록 베이스 패널(211)을 제어하고, 레이어 영상을 표시하도록 레이어 패널(212)을 제어할 수 있다.In one embodiment, the method of operating the electronic device 100 may include displaying a correction-base image on the base panel 211 and displaying a layer image on the layer panel 212 (S400). At least one processor 220 may control the base panel 211 to display a correction-base image and control the layer panel 212 to display a layer image.

도 5는 본 개시의 일 실시예에 따른 광학층을 포함하는 전자 장치의 동작을 설명하기 위한 순서도이다. 이하, 도 4에서 설명한 단계와 동일한 단계에 대하여는, 동일한 도면 부호를 부여하고 설명은 생략하도록 한다.FIG. 5 is a flowchart for explaining the operation of an electronic device including an optical layer according to an embodiment of the present disclosure. Hereinafter, steps that are the same as those described in FIG. 4 will be given the same reference numerals and descriptions will be omitted.

도 2, 도 3 및 도 5를 참조하면, 전자 장치(100)가 베이스 패널(211)과 레이어 패널(212) 사이에 배치된 광학층(213)을 더 포함하는 경우, 베이스 영상은 서로 다른 복수의 뷰에 각각 대응되는 복수의 서브 베이스 영상들을 포함할 수 있다. 베이스 패널(211)을 통하여 제공되는 복수의 서브 베이스 영상들 각각은 광학층(213)에 의하여 서로 다른 방향으로 굴절되어 레이어 패널(212)에 제공될 수 있다.2, 3, and 5, when the electronic device 100 further includes an optical layer 213 disposed between the base panel 211 and the layer panel 212, the base image is divided into a plurality of different It may include a plurality of sub-base images, each corresponding to a view. Each of the plurality of sub-base images provided through the base panel 211 may be refracted in different directions by the optical layer 213 and provided to the layer panel 212.

일 실시예에서, 베이스 영상 및 레이어 영상을 생성하는 단계(S200a)에서는, 제1 프레임 영상 및 제2 프레임 영상을 영상 생성 모듈(232)에 적용함으로써, 제1 프레임에서 베이스 패널(211)에 대응되고, 서로 다른 복수의 뷰에 각각 대응되는 복수의 서브 베이스 영상들을 포함하는 베이스 영상 및 레이어 영상을 생성할 수 있다. 적어도 하나의 프로세서(220)는 영상 생성 모듈(232)을 실행하여, 제1 프레임 영상 및 제2 프레임 영상에 기초하여, 제1 프레임에서 베이스 패널(211)에 대응되고, 서로 다른 복수의 뷰에 각각 대응되는 복수의 서브 베이스 영상들을 포함하는 베이스 영상 및 제1 프레임에서 레이어 패널(212)에 대응되는 레이어 영상을 생성할 수 있다.In one embodiment, in the step of generating the base image and the layer image (S200a), the first frame image and the second frame image are applied to the image generation module 232 to correspond to the base panel 211 in the first frame. And, a base image and a layer image including a plurality of sub-base images respectively corresponding to a plurality of different views can be generated. At least one processor 220 executes the image generation module 232 to generate a plurality of different views corresponding to the base panel 211 in the first frame based on the first frame image and the second frame image. A layer image corresponding to the layer panel 212 may be generated from the base image and the first frame, each of which includes a plurality of corresponding sub-base images.

일 실시예에서, 보정-베이스 영상을 생성하는 단계(S300a)에서는, 베이스 영상 및 레이어 영상을 영상 보정 모듈(233)에 적용함으로써, 서로 다른 복수의 뷰에 따른 복수의 서브 베이스 영상들 간의 차이에 기초하고, 복수의 서브 보정-베이스 영상들을 포함하는 보정-베이스 영상을 생성할 수 있다. 적어도 하나의 프로세서(220)는 영상 보정 모듈(233)을 실행하여, 베이스 영상 및 레이어 영상에 기초하여 서로 다른 복수의 뷰에 따른 복수의 서브 베이스 영상들 간의 차이에 기초하고, 복수의 서브 보정-베이스 영상들을 포함하는 보정-베이스 영상을 생성할 수 있다. 이하, 전자 장치(100)가 광학층(213)을 포함하는 경우의 베이스 영상 및 보정-베이스 영상에 대하여는 도 7 및 도 8에서 후술하도록 한다.In one embodiment, in the step of generating a correction-base image (S300a), the base image and the layer image are applied to the image correction module 233 to determine the difference between a plurality of sub-base images according to a plurality of different views. A correction-base image that includes a plurality of sub-correction-base images can be generated. At least one processor 220 executes an image correction module 233 to perform correction based on differences between a plurality of sub-base images according to a plurality of different views based on the base image and a layer image, and perform a plurality of sub-correction- A correction-base image including base images can be generated. Hereinafter, the base image and the correction-base image when the electronic device 100 includes the optical layer 213 will be described later with reference to FIGS. 7 and 8.

도 6은 본 개시의 일 실시예에 따른 레이어 영상 및 보정-베이스 영상을 생성하는 전자 장치의 동작을 설명하기 위한 도면이다. 도 7은 본 개시의 일 실시예에 따른, 제1 프레임 영상과 제2 프레임 영상 간의 움직임을 설명하기 위한 도면이다. 이하 도 3에서 설명한 구성과 동일한 구성에 대한 중복되는 설명은 생략하도록 한다.FIG. 6 is a diagram for explaining the operation of an electronic device that generates a layer image and a correction-base image according to an embodiment of the present disclosure. FIG. 7 is a diagram for explaining movement between a first frame image and a second frame image according to an embodiment of the present disclosure. Hereinafter, overlapping descriptions of the same components as those described in FIG. 3 will be omitted.

도 6은 전자 장치(100)가 베이스 패널(211) 및 레이어 패널(212)을 포함하는 경우의 전자 장치(100)의 동작을 설명하기 위한 도면이다. 이때, 전자 장치(100)는 베이스 패널(211) 및 레이어 패널(212)에 광을 제공하는 백라이트(214)를 더 포함할 수도 있다. FIG. 6 is a diagram for explaining the operation of the electronic device 100 when the electronic device 100 includes a base panel 211 and a layer panel 212. At this time, the electronic device 100 may further include a backlight 214 that provides light to the base panel 211 and the layer panel 212.

도 3, 도 4 및 도 6을 참조하면, 일 실시예에서, 적어도 하나의 프로세서(220)는 입력 콘텐츠(630)를 획득할 수 있다. 입력 콘텐츠(630)는 입력 콘텐츠(630)의 제1 프레임에서의 제1 프레임 영상(630_1) 및 입력 콘텐츠(630)의 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상(630_2)을 포함할 수 있다. 제1 프레임 영상(630_1)은 서로 다른 복수의 뷰에서 획득된 복수의 뷰 영상들(631)을 포함할 수 있다. 제2 프레임 영상(630_2)은 서로 다른 복수의 뷰에서 획득된 복수의 뷰 영상들(632)을 포함할 수 있다.3, 4, and 6, in one embodiment, at least one processor 220 may obtain input content 630. The input content 630 includes a first frame image 630_1 in the first frame of the input content 630 and a second frame image 630_2 in the second frame, which is the frame immediately preceding the first frame of the input content 630. may include. The first frame image 630_1 may include multiple view images 631 obtained from multiple different views. The second frame image 630_2 may include multiple view images 632 obtained from multiple different views.

일 실시예에서, 입력 콘텐츠(630)는 복수의 프레임들 동안 움직이는 물체에 대한 정보를 포함할 수 있다. 다만, 본 개시는 이에 제한되지 않고, 입력 콘텐츠(630)는 복수의 프레임들 동안 물체의 형상, 크기 또는 물체 중 일부(예를 들어, 사람의 얼굴의 표현 변화 등)가 변하는 물체에 대한 정보를 포함할 수도 있다. 따라서, 입력 콘텐츠에 포함된 복수의 프레임들 중 제1 프레임에서의 제1 프레임 영상에 포함된 정보와 및 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상에 포함된 정보는 상이할 수 있다.In one embodiment, input content 630 may include information about an object moving during a plurality of frames. However, the present disclosure is not limited thereto, and the input content 630 includes information about an object whose shape, size, or part of the object (for example, a change in the expression of a person's face, etc.) changes during a plurality of frames. It may also be included. Accordingly, among the plurality of frames included in the input content, the information included in the first frame image in the first frame and the information included in the second frame image in the second frame, which is the frame immediately preceding the first frame, may be different. You can.

도 6 및 도 7을 참조하면, 도 7에는 제1 프레임 영상(731_1) 및 제2 프레임 영상(732_1)이 도시되어 있다. 제1 프레임 영상(731_1) 및 제2 프레임 영상(732_1)에는 각각 제1 물체(733_1, 733_2) 및 제2 물체(734_1, 734_2)의 정보가 포함되어 있다.Referring to FIGS. 6 and 7 , a first frame image 731_1 and a second frame image 732_1 are shown in FIG. 7 . The first frame image 731_1 and the second frame image 732_1 include information about the first objects 733_1 and 733_2 and the second objects 734_1 and 734_2, respectively.

일 실시예에서, 입력 콘텐츠(630)에 포함된 제1 물체(733)는 복수의 프레임들 동안 움직이는 물체일 수 있다. 입력 콘텐츠(630)에 포함된 제2 물체(734)는 복수의 프레임들 동안 움직이지 않는 물체일 수 있다. 따라서, 제1 프레임 영상(731_1)에 포함된 제1 물체(733_1)의 위치와 제2 프레임 영상(732_1)에 포함된 제1 물체(733_2)의 위치는 서로 상이할 수 있다. 제1 프레임 영상(731_1)에 포함된 제2 물체(734_1)와 제2 프레임 영상(732_1)에 포함된 제2 물체(734_2)의 위치는 서로 동일할 수 있다.In one embodiment, the first object 733 included in the input content 630 may be an object that moves during a plurality of frames. The second object 734 included in the input content 630 may be an object that does not move for a plurality of frames. Accordingly, the location of the first object 733_1 included in the first frame image 731_1 and the location of the first object 733_2 included in the second frame image 732_1 may be different from each other. The positions of the second object 734_1 included in the first frame image 731_1 and the second object 734_2 included in the second frame image 732_1 may be the same.

일 실시예에서, 제1 프레임 영상(731_1)과 제2 프레임 영상(732_1)을 비교하여 제1 프레임 영상(731_1)과 제2 프레임 영상(732_1) 간의 움직임(735)이 계산될 수 있다. 제1 프레임 영상(731_1)과 제2 프레임 영상(732_1) 간의 움직임(735)은 연속되는 프레임인 제1 프레임 영상(731_1)과 제2 프레임 영상(732_2)에 기초하여 계산된 광학 흐름(Optical Flow)을 의미할 수 있다. In one embodiment, the movement 735 between the first frame image 731_1 and the second frame image 732_1 may be calculated by comparing the first frame image 731_1 and the second frame image 732_1. The movement 735 between the first frame image 731_1 and the second frame image 732_1 is an optical flow calculated based on the first frame image 731_1 and the second frame image 732_2, which are consecutive frames. ) can mean.

일 실시예에서, 제1 프레임 영상(731_1)과 제2 프레임 영상(732_1) 간의 움직임(735)은, 제1 프레임 영상(731_1)에 포함된 제1 물체(733_1)와 제2 프레임 영상(732_1)에 포함된 제1 물체(733_2)의 움직임에 대한 정보를 포함할 수 있다. 제1 프레임 영상(731_1)과 제2 프레임 영상(732_1) 간의 움직임(735)은, 제2 프레임에서 제1 프레임동안 제1 물체(733)가 이동한 방향 및 거리에 대한 정보를 포함할 수 있다. 이하, 제1 프레임 영상(731_1)과 제2 프레임 영상(732_1) 간의 움직임(735)을 계산하는 방법에 대하여는, 도 12a에서 후술하도록 한다.In one embodiment, the movement 735 between the first frame image 731_1 and the second frame image 732_1 is caused by the movement of the first object 733_1 and the second frame image 732_1 included in the first frame image 731_1. ) may include information about the movement of the first object 733_2 included in . Movement 735 between the first frame image 731_1 and the second frame image 732_1 may include information about the direction and distance in which the first object 733 moved from the second frame to the first frame. . Hereinafter, a method for calculating the movement 735 between the first frame image 731_1 and the second frame image 732_1 will be described later with reference to FIG. 12A.

일 실시예에서, 적어도 하나의 프로세서(220)는 제1 프레임 영상(630_1) 및 제2 프레임 영상(630_2)을 영상 생성 모듈(610)에 적용함으로써, 디스플레이(210)에 대응되는 패널 영상(640)을 생성할 수 있다. 디스플레이(210)에 베이스 패널(211) 및 레이어 패널(212)이 포함된 경우, 제1 프레임 영상(630_1) 및 제2 프레임 영상(630_2)을 영상 생성 모듈(610)에 적용함으로써, 베이스 패널(211)에 대응되는 베이스 영상(640_2) 및 레이어 패널(212)에 대응되는 레이어 영상(640_1)을 생성할 수 있다.In one embodiment, the at least one processor 220 applies the first frame image 630_1 and the second frame image 630_2 to the image generation module 610 to generate a panel image 640 corresponding to the display 210. ) can be created. When the display 210 includes the base panel 211 and the layer panel 212, the first frame image 630_1 and the second frame image 630_2 are applied to the image generation module 610, so that the base panel ( A base image 640_2 corresponding to 211) and a layer image 640_1 corresponding to the layer panel 212 may be generated.

일 실시예에서, 베이스 영상(640_2) 및 레이어 영상(640_1)은, 각각 베이스 패널(211) 및 레이어 패널(212)에 표시되어, 베이스 영상(640_2)과 레이어 영상(640_1)의 조합으로 입력 콘텐츠(630)에 포함된 물체를 재현하는, 입체감 있는 영상(260, 도 2 참조)을 사용자(250, 도 2 참조)에게 제공할 수 있는 영상이다.In one embodiment, the base image 640_2 and the layer image 640_1 are displayed on the base panel 211 and the layer panel 212, respectively, and are input content as a combination of the base image 640_2 and the layer image 640_1. This is an image that can provide a three-dimensional image (260, see FIG. 2) that reproduces the object included in 630 to the user (250, see FIG. 2).

일 실시예에서, 베이스 패널(211)과 레이어 패널(212)이 모두 액정 표시 디스플레이와 같은 비-자발광 디스플레이(non-self-emitting display)인 경우, 베이스 영상(640_2)과 레이어 영상(640_1)이 합해진 영상(260)이 사용자(250)에게 제공될 수 있다.In one embodiment, when both the base panel 211 and the layer panel 212 are non-self-emitting displays, such as a liquid crystal display, the base image 640_2 and the layer image 640_1 This combined image 260 may be provided to the user 250.

일 실시예에서, 레이어 패널(212)이 유기 발광 다이오드 디스플레이, 무기 발광 다이오드 디스플레이 등과 같은 자발광 디스플레이(self-emitting display)인 경우, 베이스 영상(640_2)과 레이어 영상(640_1)이 곱해진 영상(260)이 사용자(250)에게 제공될 수 있다.In one embodiment, when the layer panel 212 is a self-emitting display such as an organic light emitting diode display, an inorganic light emitting diode display, etc., an image obtained by multiplying the base image 640_2 and the layer image 640_1 ( 260) may be provided to the user 250.

일 실시예에서, 영상 생성 모듈(610)은 제1 프레임 영상(630_1) 및 제2 프레임 영상(630_2)에 기초하여, 베이스 영상(640_2) 및 레이어 영상(640_1)을 추론하도록 훈련된 제1 인공 지능 모델을 포함할 수 있다. In one embodiment, the image generation module 610 generates a first artificial image trained to infer the base image 640_2 and the layer image 640_1 based on the first frame image 630_1 and the second frame image 630_2. May include intelligence models.

일 실시예에서, 제1 인공 지능 모델은 제1 프레임 영상(630_1) 및 제2 프레임 영상(630_2)에 기초하여, 제1 프레임에서 베이스 패널(211)에 대응되는 베이스 영상(640_2) 및 제1 프레임에서 레이어 패널(212)에 대응되고, 제1 프레임 영상(630_1)과 제2 프레임 영상(630_2) 간의 움직임(735)에 기초한 레이어 영상(640_1)을 추론하도록 훈련된 인공 지능 모델일 수 있다. In one embodiment, the first artificial intelligence model is based on the first frame image 630_1 and the second frame image 630_2, and the base image 640_2 and the first frame image 640_2 corresponding to the base panel 211 in the first frame. It may be an artificial intelligence model that corresponds to the layer panel 212 in the frame and is trained to infer the layer image 640_1 based on the movement 735 between the first frame image 630_1 and the second frame image 630_2.

일 실시예에서, 제1 인공 지능 모델은 제1 프레임 영상(630_1) 및 제2 프레임 영상(630_2)에 기초하여, 제1 프레임 영상(630_1)과 제2 프레임 영상(630_2) 간의 움직임(735)을 반영한 레이어 영상(640_1)을 추론하도록 훈련된 모델일 수 있다. In one embodiment, the first artificial intelligence model generates movement 735 between the first frame image 630_1 and the second frame image 630_2 based on the first frame image 630_1 and the second frame image 630_2. It may be a model trained to infer the layer image 640_1 that reflects .

일 실시예에서, 제1 프레임 영상(630_1)에 포함된 물체 및 제2 프레임 영상(630_2)에 포함된 물체는 각각 베이스 영상 및 레이어 영상의 조합에 의하여 영상으로 재현된다. 제1 프레임 영상(630_1)에 포함된 물체의 위치와 제2 프레임 영상(630_2)에 포함된 물체의 위치가 서로 상이할 때, 제1 프레임 영상(630_1)에 기초하여 생성되는 제1 프레임에서의 베이스 영상과 제2 프레임 영상(630_2)에 기초하여 생성되는 제2 프레임에서의 베이스 영상도 서로 달라질 수 있다.In one embodiment, the object included in the first frame image 630_1 and the object included in the second frame image 630_2 are each reproduced as an image by combining a base image and a layer image. When the position of the object included in the first frame image 630_1 and the position of the object included in the second frame image 630_2 are different from each other, in the first frame generated based on the first frame image 630_1 The base image in the second frame generated based on the base image and the second frame image 630_2 may also be different.

이때, 제1 프레임에서의 베이스 영상과 제2 프레임에서의 베이스 영상은 제2 프레임에서 제1 프레임으로의 움직임이 반영되지 않고, 각각 제1 프레임 영상(630_1)과 제2 프레임 영상(630_2)에만 기초하여 생성되므로, 제1 프레임에서의 베이스 영상과 제2 프레임에서의 베이스 영상에 각각 포함된 물체의 위치 정보뿐만 아니라, 물체의 휘도, 계조, 색상 등의 정보도 서로 상이할 수 있다. At this time, the base image in the first frame and the base image in the second frame do not reflect the movement from the second frame to the first frame, and only appear in the first frame image 630_1 and the second frame image 630_2, respectively. Since it is generated based on the base image in the first frame and the base image in the second frame, not only the position information of the object but also information such as luminance, gradation, and color of the object may be different from each other.

또한, 제1 프레임 영상(630_1)에 기초하여 생성되는 제1 프레임에서의 레이어 영상과 제2 프레임 영상(630_2)에 기초하여 생성되는 제2 프레임에서의 레이어 영상도 각각 제1 프레임에서의 베이스 영상과 제2 프레임에서의 베이스 영상에 대응되도록 생성될 수 있다. 따라서, 제1 프레임에서의 레이어 영상과 제2 프레임에서의 레이어 영상에 각각 포함된 물체의 위치 정보뿐만 아니라, 물체의 휘도, 계조, 색상 등의 정보도 서로 상이할 수 있다.In addition, the layer image in the first frame generated based on the first frame image 630_1 and the layer image in the second frame generated based on the second frame image 630_2 are also the base images in the first frame, respectively. and may be generated to correspond to the base image in the second frame. Accordingly, not only the position information of the object included in the layer image in the first frame and the layer image in the second frame, but also information such as luminance, grayscale, and color of the object may be different.

일 실시예에서, 제1 프레임에서의 레이어 영상 및 베이스 영상에 포함된 물체의 휘도, 계조 또는 색상 중 적어도 하나의 정보와 제2 프레임에서의 레이어 영상 및 베이스 영상에 포함된 물체의 휘도, 계조 또는 색상 중 적어도 하나의 정보가 상이할 경우, 제2 프레임에서 제1 프레임동안 영상(260)에 포함된 물체의 움직임 외에, 물체의 휘도, 계조 또는 색상 중 적어도 하나가 변하여 사용자(250)에게 플리커(flicker)가 시인될 수 있다. 따라서 사용자(250)의 시인성 및 영상(260)의 품질이 낮아질 수 있다.In one embodiment, at least one information of the luminance, grayscale, or color of an object included in the layer image and the base image in the first frame and the luminance, grayscale, or color of the object included in the layer image and the base image in the second frame When information on at least one of the colors is different, in addition to the movement of the object included in the image 260 from the second frame to the first frame, at least one of the luminance, gradation, or color of the object changes, causing flicker (flicker) to the user 250. flicker) may be recognized. Accordingly, the visibility of the user 250 and the quality of the image 260 may be reduced.

본 개시의 영상 생성 모듈(610)은 제1 프레임 영상(630_1)과 제2 프레임 영상(630_2) 간의 움직임(735)을 반영하여 제1 프레임에서의 레이어 영상(640_1)을 추론하도록 훈련된 제1 인공 지능 모델을 포함함에 따라, 제1 프레임 영상(630_1)에 포함된 물체의 위치와 제2 프레임 영상(630_2)에 포함된 물체의 위치가 서로 상이할 때, 제2 프레임에서의 레이어 영상과 비교하여, 물체의 위치 정보만이 상이하고, 물체의 휘도, 계조, 색상 등의 정보는 제2 프레임에서의 레이어 영상과 차이가 적은 제1 프레임에서의 레이어 영상을 생성할 수 있다. 이하, 제1 인공 지능 모델의 훈련 방법은 도 11 내지 도 12b에서 후술하도록 한다.The image generation module 610 of the present disclosure is trained to infer the layer image 640_1 in the first frame by reflecting the movement 735 between the first frame image 630_1 and the second frame image 630_2. Due to the inclusion of an artificial intelligence model, when the position of the object included in the first frame image 630_1 and the position of the object included in the second frame image 630_2 are different from each other, comparison is made with the layer image in the second frame. Thus, it is possible to generate a layer image in the first frame in which only the location information of the object is different, and information such as luminance, gradation, and color of the object has little difference from the layer image in the second frame. Hereinafter, the training method of the first artificial intelligence model will be described later with reference to FIGS. 11 to 12B.

일 실시예에서, 영상 보정 모듈(620)은 제1 프레임 영상(630_1)과 레이어 영상(640_1)에 따라 보정-베이스 영상(650)을 생성하는 동작이나 기능을 수행하기 위한 명령어 또는 프로그램 코드를 포함할 수 있다. In one embodiment, the image correction module 620 includes instructions or program code to perform an operation or function of generating a correction-base image 650 according to the first frame image 630_1 and the layer image 640_1. can do.

일 실시예에서, 영상 보정 모듈(620)은 베이스 패널(211)과 레이어 패널(212)의 디스플레이 종류에 기초하여, 제1 프레임 영상(630_1)과 레이어 영상(640_1)에 따라 보정-베이스 영상(650)을 생성하는 동작이나 기능을 수행하기 위한 명령어 또는 프로그램 코드를 포함할 수 있다. In one embodiment, the image correction module 620 corrects the base image (base image) according to the first frame image 630_1 and the layer image 640_1, based on the display types of the base panel 211 and the layer panel 212. 650) may include instructions or program code to perform an operation or function.

일 실시예에서, 제1 프레임 영상(630_1)은 전자 장치(100)가 베이스 패널(211)에 표시되는 보정-베이스 영상(650)과 레이어 패널(212)에 표시되는 레이어 영상(640_1)의 조합에 의하여 생성하여 사용자(250)에게 제공하고자 하는 영상(260)에 대응되는 영상일 수 있다. In one embodiment, the first frame image 630_1 is a combination of the correction-base image 650 displayed on the base panel 211 and the layer image 640_1 displayed on the layer panel 212 by the electronic device 100. It may be an image corresponding to the image 260 generated by and intended to be provided to the user 250.

일 실시예에서, 베이스 패널(211)과 레이어 패널(212)이 모두 액정 표시 디스플레이와 같은 비-자발광 디스플레이(non-self-emitting display)인 경우, 영상 보정 모듈(620)은 제1 프레임 영상(630_1)과 레이어 영상(640_1) 간의 차이에 따라 보정-베이스 영상(650)을 생성하는 동작이나 기능을 수행하기 위한 명령어 또는 프로그램 코드를 포함할 수 있다. In one embodiment, when both the base panel 211 and the layer panel 212 are non-self-emitting displays such as a liquid crystal display, the image correction module 620 stores the first frame image. It may include instructions or program code to perform an operation or function of generating the correction-base image 650 according to the difference between the layer image 630_1 and the layer image 640_1.

일 실시예에서, 레이어 패널(212)이 유기 발광 다이오드 디스플레이, 무기 발광 다이오드 디스플레이 등과 같은 자발광 디스플레이(self-emitting display)인 경우, 영상 보정 모듈(620)은 제1 프레임 영상(630_1)에서 레이어 영상(640_1)을 나누어 베이스 영상(650)을 생성하는 동작이나 기능을 수행하기 위한 명령어 또는 프로그램 코드를 포함할 수 있다.In one embodiment, when the layer panel 212 is a self-emitting display such as an organic light-emitting diode display, an inorganic light-emitting diode display, etc., the image correction module 620 selects the layer in the first frame image 630_1. It may include commands or program codes to perform an operation or function of dividing the image 640_1 and generating the base image 650.

일 실시예에서, 적어도 하나의 프로세서(220)는 레이어 영상(640_1) 및 제1 프레임 영상(630_1)을 영상 보정 모듈(620)에 적용함으로써, 제1 프레임 영상(630_1)과 제2 프레임 영상(630_2) 간의 움직임에 기초한 보정-베이스 영상(650)을 생성할 수 있다. 보정-베이스 영상(650)은 제1 프레임에서 베이스 패널(211)에 대응되는 영상일 수 있다.In one embodiment, the at least one processor 220 applies the layer image 640_1 and the first frame image 630_1 to the image correction module 620, thereby creating the first frame image 630_1 and the second frame image ( A correction-base image 650 based on the movement of the liver (630_2) can be generated. The correction-base image 650 may be an image corresponding to the base panel 211 in the first frame.

일 실시예에서, 적어도 하나의 프로세서(220)는 보정-베이스 영상(650)을 베이스 패널(211)에 표시하고, 레이어 영상(640_1)을 레이어 패널(212)에 표시함으로써, 제2 프레임에서 제1 프레임동안 움직이는 물체를 포함하는 입력 콘텐츠(630)가 제공되더라도, 제2 프레임과 비교할 때 제1 프레임에서 물체의 위치 정보만이 상이하고, 물체의 휘도, 계조, 색상 등은 동일한 영상(260)을 사용자(250)에게 제공하여, 사용자(250)의 시인성 및 영상(260)의 품질을 향상시킬 수 있다.In one embodiment, the at least one processor 220 displays the correction-base image 650 on the base panel 211 and the layer image 640_1 on the layer panel 212, thereby Even if input content 630 including a moving object for one frame is provided, only the position information of the object is different in the first frame compared to the second frame, and the luminance, gradation, color, etc. of the object are the same in the image 260 is provided to the user 250, the visibility of the user 250 and the quality of the image 260 can be improved.

도 8은 본 개시의 일 실시예에 따른 레이어 영상 및 복수의 서브 보정-베이스 영상들을 포함하는 보정-베이스 영상을 생성하는 전자 장치의 동작을 설명하기 위한 도면이다. 도 9는 본 개시의 일 실시예에 따른, 제2 인공 지능 모델을 포함하는 영상 보정 모듈을 통하여 보정-베이스 영상을 생성하는 전자 장치의 동작을 설명하기 위한 도면이다. 도 10은 본 개시의 일 실시예에 따른, 쉬프트 값을 설명하기 위한 도면이다. 이하, 도 3 및 도 6에서 설명한 구성과 동일한 구성에 대한 중복되는 설명은 생략하도록 한다.FIG. 8 is a diagram for explaining the operation of an electronic device that generates a correction-base image including a layer image and a plurality of sub-correction-base images according to an embodiment of the present disclosure. FIG. 9 is a diagram for explaining the operation of an electronic device that generates a correction-base image through an image correction module including a second artificial intelligence model, according to an embodiment of the present disclosure. FIG. 10 is a diagram for explaining shift values according to an embodiment of the present disclosure. Hereinafter, overlapping descriptions of the same components as those described in FIGS. 3 and 6 will be omitted.

도 2 및 도 8을 참조하면, 도 8은 전자 장치(100)가 베이스 패널(211), 레이어 패널(212) 및 베이스 패널(211)과 레이어 패널(212) 사이에 배치되는 광학층(213)을 포함하는 경우의 전자 장치(100)의 동작을 설명하기 위한 도면이다. 이때, 전자 장치(100)는 베이스 패널(211) 및 레이어 패널(212)에 광을 제공하는 백라이트(214)를 더 포함할 수도 있다.Referring to FIGS. 2 and 8 , FIG. 8 shows that the electronic device 100 includes a base panel 211, a layer panel 212, and an optical layer 213 disposed between the base panel 211 and the layer panel 212. This is a diagram for explaining the operation of the electronic device 100 when it includes. At this time, the electronic device 100 may further include a backlight 214 that provides light to the base panel 211 and the layer panel 212.

도 3, 도 4, 도 6 및 도 8을 참조하면, 일 실시예에서, 적어도 하나의 프로세서(220)는 입력 콘텐츠(830)를 획득할 수 있다. 입력 콘텐츠(830)는 입력 콘텐츠(830)의 제1 프레임에서의 제1 프레임 영상(830_1) 및 입력 콘텐츠(830)의 제2 프레임에서의 제2 프레임 영상(830_2)을 포함할 수 있다. 제1 프레임 영상(830_1)은 서로 다른 복수의 뷰에서 획득된 복수의 뷰 영상들(831)을 포함할 수 있다. 제2 프레임 영상(830_2)은 서로 다른 복수의 뷰에서 획득된 복수의 뷰 영상들(832)을 포함할 수 있다.3, 4, 6, and 8, in one embodiment, at least one processor 220 may obtain input content 830. The input content 830 may include a first frame image 830_1 in the first frame of the input content 830 and a second frame image 830_2 in the second frame of the input content 830. The first frame image 830_1 may include multiple view images 831 obtained from multiple different views. The second frame image 830_2 may include multiple view images 832 obtained from multiple different views.

일 실시예에서, 적어도 하나의 프로세서(220)는 제1 프레임 영상(830_1) 및 제2 프레임 영상(830_2)을 영상 생성 모듈(810)에 적용함으로써, 디스플레이(210)에 대응되는 패널 영상(840)을 생성할 수 있다. 적어도 하나의 프로세서(220)는 제1 프레임 영상(830_1) 및 제2 프레임 영상(830_2)을 영상 생성 모듈(810)에 적용함으로써, 베이스 패널(211)에 대응되는 베이스 영상(840_2) 및 레이어 패널(212)에 대응되는 레이어 영상(840_1)을 생성할 수 있다.In one embodiment, the at least one processor 220 applies the first frame image 830_1 and the second frame image 830_2 to the image generation module 810 to generate a panel image 840 corresponding to the display 210. ) can be created. At least one processor 220 applies the first frame image 830_1 and the second frame image 830_2 to the image generation module 810, thereby creating a base image 840_2 and a layer panel corresponding to the base panel 211. A layer image 840_1 corresponding to 212 can be generated.

일 실시예에서, 적어도 하나의 프로세서(220)는 디스플레이(210)에 포함된 베이스 패널(211), 레이어 패널(212) 및 광학층(213)에 대한 정보를 영상 생성 모듈(810)에 더 적용할 수도 있다. 이 경우, 적어도 하나의 프로세서(220)는 베이스 패널(211), 레이어 패널(212) 및 광학층(213)에 대한 정보를 참조하여, 제1 프레임 영상(830_1) 및 제2 프레임 영상(830_2)에 기초하여 베이스 영상(840_2) 및 레이어 영상(840_1)을 생성할 수 있다. In one embodiment, the at least one processor 220 further applies information about the base panel 211, layer panel 212, and optical layer 213 included in the display 210 to the image generation module 810. You may. In this case, the at least one processor 220 refers to the information about the base panel 211, the layer panel 212, and the optical layer 213, and creates the first frame image 830_1 and the second frame image 830_2. Based on this, the base image 840_2 and the layer image 840_1 can be generated.

일 실시예에서, 베이스 패널(211)에 대한 정보는 베이스 패널(211)의 해상도, 디스플레이 종류 또는 밝기 중 적어도 하나에 대한 정보를 포함할 수 있다. 레이어 패널(212)에 대한 정보는 레이어 패널(212)의 해상도, 디스플레이 종류 또는 밝기 중 적어도 하나에 대한 정보를 포함할 수 있다. 광학층(213)에 대한 정보는 광학층(213)에 포함된 적어도 하나의 렌즈의 개수, 적어도 하나의 렌즈의 크기 또는 적어도 하나의 렌즈의 굴절률 중 적어도 하나에 대한 정보를 포함할 수 있다.In one embodiment, the information about the base panel 211 may include information about at least one of the resolution, display type, or brightness of the base panel 211. The information about the layer panel 212 may include information about at least one of the resolution, display type, or brightness of the layer panel 212. The information about the optical layer 213 may include information about at least one of the number of at least one lens included in the optical layer 213, the size of at least one lens, or the refractive index of at least one lens.

일 실시예에서, 베이스 영상(840_2)은 서로 다른 복수의 뷰에 각각 대응되는 복수의 서브 베이스 영상들(841)을 포함할 수 있다. 복수의 서브 베이스 영상들(841) 각각은 광학층(213)에 의하여 굴절된 후, 레이어 패널(212)에 표시되는 레이어 영상(840_1)의 서로 다른 영역을 투과하여, 굴절된 경로에 대응되는 뷰에 위치한 사용자(250)에게 제공될 수 있다. 일 실시예에서, 복수의 서브 베이스 영상들(841) 각각은 서로 다른 뷰에서 사용자(250)에게 물체의 다른 면을 포함하는 영상(260)을 제공하기 위한 베이스 영상들이다. In one embodiment, the base image 840_2 may include a plurality of sub-base images 841, each corresponding to a plurality of different views. Each of the plurality of sub-base images 841 is refracted by the optical layer 213 and then passes through different areas of the layer image 840_1 displayed on the layer panel 212 to produce a view corresponding to the refracted path. It may be provided to the user 250 located in . In one embodiment, each of the plurality of sub-base images 841 is a base image for providing an image 260 including different sides of an object to the user 250 from different views.

일 실시예에서, 복수의 서브 베이스 영상들(841) 각각은 서로 다른 뷰에서 물체의 다른 면을 포함하는 영상(260)을 제공하기 위한 베이스 영상들이므로, 복수의 서브 베이스 영상들(841) 각각에 포함된 물체의 위치 정보는 상이할 수 있다. 또한, 복수의 서브 베이스 영상들(841) 각각에 포함된 물체의 휘도, 계조, 색상 등의 정보도 서로 상이할 수 있다. 따라서 복수의 서브 베이스 영상들(841)을 포함하는 베이스 영상(840_2)을 베이스 패널(211)에 표시할 경우, 뷰의 변화에 따라 물체의 휘도, 계조 또는 색상 중 적어도 하나가 변하여 사용자(250)에게 플리커(flicker)가 시인될 수 있다. 따라서 사용자(250)의 시인성 및 영상(260)의 품질이 낮아질 수 있다.In one embodiment, each of the plurality of sub-base images 841 is a base image for providing an image 260 including different sides of an object from different views, so each of the plurality of sub-base images 841 The location information of the object included may be different. Additionally, information such as luminance, grayscale, and color of an object included in each of the plurality of sub-base images 841 may be different from each other. Therefore, when the base image 840_2 including a plurality of sub-base images 841 is displayed on the base panel 211, at least one of the luminance, gradation, or color of the object changes according to the change in view, thereby causing the user 250 Flicker may be noticeable. Accordingly, the visibility of the user 250 and the quality of the image 260 may be reduced.

일 실시예에서, 영상 생성 모듈(232)은 제1 프레임 영상(830_1) 및 제2 프레임 영상(830_2)에 기초하여, 복수의 서브 베이스 영상들(841)을 포함하는 베이스 영상(840_2) 및 레이어 영상(840_1)을 추론하도록 훈련된 제1 인공 지능 모델을 포함할 수 있다. In one embodiment, the image generation module 232 generates a base image 840_2 and a layer including a plurality of sub-base images 841 based on the first frame image 830_1 and the second frame image 830_2. It may include a first artificial intelligence model trained to infer the image 840_1.

일 실시예에서, 제1 인공 지능 모델은 제1 프레임 영상(830_1) 및 제2 프레임 영상(830_2)에 기초하여, 제1 프레임에서 베이스 패널(211)에 대응되고, 복수의 서브 베이스 영상들(841)을 포함하는 베이스 영상(840_2) 및 제1 프레임에서 레이어 패널(212)에 대응되고, 제1 프레임 영상(830_1)과 제2 프레임 영상(830_2) 간의 움직임(735, 도 7 참조)에 기초한 레이어 영상(840_1)을 추론하도록 훈련된 인공 지능 모델일 수 있다.In one embodiment, the first artificial intelligence model corresponds to the base panel 211 in the first frame based on the first frame image 830_1 and the second frame image 830_2 and includes a plurality of sub-base images ( 841), which corresponds to the layer panel 212 in the first frame and the base image 840_2, and is based on the movement 735 (see FIG. 7) between the first frame image 830_1 and the second frame image 830_2. It may be an artificial intelligence model trained to infer the layer image (840_1).

일 실시예에서, 영상 보정 모듈(620)은 레이어 영상(840_1)을 복수의 쉬프트 값(860)들 각각을 이용하여 쉬프트하여 복수의 쉬프트 레이어 영상들을 생성하고, 제1 프레임 영상(830_1)과 생성된 복수의 쉬프트 레이어 영상들에 따라 복수의 서브 보정-베이스 영상들(851)을 포함하는 보정-베이스 영상(850)을 생성하는 동작이나 기능을 수행하기 위한 명령어 또는 프로그램 코드를 포함할 수 있다.In one embodiment, the image correction module 620 generates a plurality of shift layer images by shifting the layer image 840_1 using each of a plurality of shift values 860, and generates a first frame image 830_1. It may include instructions or program codes for performing an operation or function of generating a correction-base image 850 including a plurality of sub-correction-base images 851 according to the plurality of shift layer images.

일 실시예에서, 영상 보정 모듈(620)은 제1 프레임 영상(830_1)에 포함된 복수의 뷰 영상들(831) 각각과 복수의 뷰 영상들(831)에 각각 대응되도록 쉬프트된 복수의 쉬프트 레이어 영상들에 따라 복수의 서브 보정-베이스 영상들(851)을 포함하는 보정-베이스 영상(850)을 생성하는 동작이나 기능을 수행하기 위한 명령어 또는 프로그램 코드를 포함할 수 있다.In one embodiment, the image correction module 620 includes a plurality of view images 831 included in the first frame image 830_1 and a plurality of shift layers shifted to correspond to each of the plurality of view images 831. It may include instructions or program codes for performing an operation or function of generating a correction-base image 850 including a plurality of sub-correction-base images 851 according to the images.

일 실시예에서, 영상 보정 모듈(820)은 베이스 패널(211)과 레이어 패널(212)의 디스플레이 종류에 기초하여, 복수의 뷰 영상들(831)과 복수의 쉬프트 레이어 영상들에 따라 보정-베이스 영상(850)을 생성하는 동작이나 기능을 수행하기 위한 명령어 또는 프로그램 코드를 포함할 수 있다. In one embodiment, the image correction module 820 corrects-base according to a plurality of view images 831 and a plurality of shift layer images based on the display type of the base panel 211 and the layer panel 212. It may include instructions or program code to perform an operation or function to generate the image 850.

일 실시예에서, 베이스 패널(211)과 레이어 패널(212)이 모두 액정 표시 디스플레이와 같은 비-자발광 디스플레이(non-self-emitting display)인 경우, 영상 보정 모듈(820)은 복수의 뷰 영상들(831) 각각과 대응되는 쉬프트 레이어 영상의 차이에 따라 복수의 서브 보정-베이스 영상들(851)을 포함하는 보정-베이스 영상(850)을 생성하는 동작이나 기능을 수행하기 위한 명령어 또는 프로그램 코드를 포함할 수 있다. In one embodiment, when both the base panel 211 and the layer panel 212 are non-self-emitting displays, such as a liquid crystal display, the image correction module 820 may provide a plurality of view images. A command or program code for performing an operation or function of generating a correction-base image 850 including a plurality of sub correction-base images 851 according to the difference between the shift layer images corresponding to each of the fields 831. may include.

일 실시예에서, 레이어 패널(212)이 유기 발광 다이오드 디스플레이, 무기 발광 다이오드 디스플레이 등과 같은 자발광 디스플레이(self-emitting display)인 경우, 영상 보정 모듈(820)은 복수의 뷰 영상들(831) 각각과, 대응되는 쉬프트 레이어 영상을 나누어 복수의 서브 보정-베이스 영상들(851)을 포함하는 보정-베이스 영상(850)을 생성하는 동작이나 기능을 수행하기 위한 명령어 또는 프로그램 코드를 포함할 수 있다.In one embodiment, when the layer panel 212 is a self-emitting display such as an organic light emitting diode display, an inorganic light emitting diode display, etc., the image correction module 820 displays each of the plurality of view images 831. and a command or program code for performing an operation or function of dividing the corresponding shift layer image to generate a correction-base image 850 including a plurality of sub-correction-base images 851.

도 10을 참조하면, 도 10에는 디스플레이(210)에 포함된 베이스 패널(211), 광학층(213) 및 레이어 패널(212)이 도시되어 있다. 일 실시예에서, 광학층(213)은 베이스 패널(211) 상에 배치되어 있다. 레이어 패널(212)은 광학층(213) 상에 배치되어 있다. 일 실시예에서, 디스플레이(210)는 베이스 패널(211)의 하단에 배치된 백라이트(214)를 더 포함할 수 있다.Referring to FIG. 10, a base panel 211, an optical layer 213, and a layer panel 212 included in the display 210 are shown. In one embodiment, optical layer 213 is disposed on base panel 211. The layer panel 212 is disposed on the optical layer 213. In one embodiment, the display 210 may further include a backlight 214 disposed at the bottom of the base panel 211.

일 실시예에서, 베이스 패널(211)과 레이어 패널(212)은 서로 간의 간격을 달리 하여 디스플레이(210)에 포함될 수 있다. 일 실시예로, 레이어 패널(212)은 베이스 패널(211)로부터 이격되어 위치하고, 레이어 패널(212)과 베이스 패널(211) 사이의 거리를 기준 거리(1010)라 정의한다. 일 실시예에서, 기준 거리(1010)는 베이스 패널(211)의 상면과 레이어 패널(212)의 하면 사이의 거리일 수 있다. In one embodiment, the base panel 211 and the layer panel 212 may be included in the display 210 with different intervals between them. In one embodiment, the layer panel 212 is positioned spaced apart from the base panel 211, and the distance between the layer panel 212 and the base panel 211 is defined as the reference distance 1010. In one embodiment, the reference distance 1010 may be the distance between the upper surface of the base panel 211 and the lower surface of the layer panel 212.

일 실시예에서, 베이스 패널(211) 및 레이어 패널(212)은 각각 복수의 픽셀들을 포함할 수 있다. 일 실시예에서, 미도시된 백라이트에서 제공되는 광은 베이스 패널(211)에 포함된 복수의 픽셀들 중 어느 하나의 픽셀과 레이어 패널(212)에 포함된 복수의 픽셀들 중 어느 하나의 픽셀을 투과하여 사용자(250, 도 2 참조)에게 제공될 수 있다. In one embodiment, the base panel 211 and the layer panel 212 may each include a plurality of pixels. In one embodiment, light provided from a backlight (not shown) illuminates one pixel among a plurality of pixels included in the base panel 211 and one pixel among a plurality of pixels included in the layer panel 212. It may be transmitted and provided to the user 250 (see FIG. 2).

일 실시예에서, 광학층(213)에 포함된 적어도 하나의 렌즈의 크기, 렌즈의 형상 또는 렌즈의 굴절률 중 적어도 하나에 기초하여 베이스 패널(211)을 투과한 광이 광학층(213)에 의하여 굴절되는 정도가 결정될 수 있다. 베이스 패널(211)을 투과한 광은 광학층(213)에 의하여 굴절되어 경로가 변경된 후, 레이어 패널(212)을 투과하여 사용자(250)에게 제공될 수 있다.In one embodiment, light transmitted through the base panel 211 is transmitted by the optical layer 213 based on at least one of the size of the at least one lens included in the optical layer 213, the shape of the lens, or the refractive index of the lens. The degree of refraction can be determined. The light passing through the base panel 211 is refracted by the optical layer 213, changes its path, and then passes through the layer panel 212 to be provided to the user 250.

일 실시예에서, 베이스 패널(211)에 표시되는 베이스 영상(1051)은 제1 서브 베이스 영상(1051_1), 제2 서브 베이스 영상(1051_2) 및 제3 서브 베이스 영상(1051_3)을 포함할 수 있다. In one embodiment, the base image 1051 displayed on the base panel 211 may include a first sub-base image 1051_1, a second sub-base image 1051_2, and a third sub-base image 1051_3. .

일 실시예에서, 제1 내지 제3 서브 베이스 영상들(1051_1, 1051_2, 1051_3) 각각은 광학층(213)에 의하여 굴절되어, 서로 다른 뷰에 위치한 사용자(250)에게 제공될 수 있다. 제1 내지 제3 서브 베이스 영상들(1051_1, 1051_2, 1051_3) 각각은 서로 다른 뷰에 위치한 사용자(250)에게 물체의 다른 면을 제공하기 위한 영상일 수 있다.In one embodiment, each of the first to third sub-base images 1051_1, 1051_2, and 1051_3 may be refracted by the optical layer 213 and provided to users 250 located in different views. Each of the first to third sub-base images 1051_1, 1051_2, and 1051_3 may be an image for providing different sides of an object to the user 250 located in different views.

일 실시예에서, 제2 서브 베이스 영상(1051_2) 및 제3 서브 베이스 영상(1051_3)은 제1 서브 베이스 영상(1051_1)에 인접한 영상이다. 제1 서브 베이스 영상(1051_1)에 의한 영상(260)이 제공되는 사용자가 위치한 뷰는, 제2 서브 베이스 영상(1051_2)에 의한 영상(260)이 제공되는 사용자가 위치한 뷰에 인접할 수 있다. 제1 서브 베이스 영상(1051_1)에 의한 영상(260)이 제공되는 사용자가 위치한 뷰는, 제3 서브 베이스 영상(1051_3)에 의한 영상(260)이 제공되는 사용자가 위치한 뷰에 인접할 수 있다.In one embodiment, the second sub-base image 1051_2 and the third sub-base image 1051_3 are images adjacent to the first sub-base image 1051_1. The view in which the user is provided with the image 260 of the first sub-base image 1051_1 may be adjacent to the view in which the user is provided with the image 260 of the second sub-base image 1051_2. The view in which the user is provided with the image 260 of the first sub-base image 1051_1 may be adjacent to the view in which the user is provided with the image 260 of the third sub-base image 1051_3.

도 10에는 베이스 영상(1051)이 세 개의 서브 베이스 영상들을 포함하는 것으로 도시되었으나, 본 개시는 이에 제한되지 않는다. 베이스 패널(211)의 해상도, 광학층(213)에 포함된 적어도 하나의 렌즈의 크기, 렌즈의 형상 또는 렌즈의 굴절률 중 적어도 하나에 기초하여, 베이스 영상(1051)은 두 개의 서브 베이스 영상 또는 네 개 이상의 서브 베이스 영상들을 포함할 수도 있다.In FIG. 10, the base image 1051 is shown as including three sub-base images, but the present disclosure is not limited thereto. Based on at least one of the resolution of the base panel 211, the size of at least one lens included in the optical layer 213, the shape of the lens, or the refractive index of the lens, the base image 1051 is divided into two sub-base images or four sub-base images. It may include more than one sub-base image.

일 실시예에서, 제1 내지 제3 베이스 영상들(1051_1, 1051_2, 1051_3) 각각은 광학층(213)에 의하여 굴절된 후, 레이어 영상(1040) 중 대응되는 광 경로에 있는 영역을 투과하여 사용자(250)에게 제공될 수 있다. In one embodiment, each of the first to third base images 1051_1, 1051_2, and 1051_3 is refracted by the optical layer 213 and then passes through an area in the corresponding optical path of the layer image 1040 to provide a user It can be provided to (250).

일 실시예에서, 레이어 영상(1040) 중 광학층(213)에 포함된 렌즈에 수직으로 입사하여, 굴절되지 않고, 레이어 패널(212)의 정면으로 향하는 제1 서브 베이스 영상(1051_1)이 투과하는 영역을 제1 레이어 영역(1040_1)이라 정의할 수 있다. 레이어 영상(1040) 중 제1 서브 베이스 영상(1051_1)에 인접한 제2 서브 베이스 영상(1051_2)이 광학층(213)에 의하여 굴절된 후, 투과하는 영역을 제2 레이어 영역(1040_2)이라 정의할 수 있다. 레이어 영상(1040) 중 제1 서브 베이스 영상(1051_1)에 인접한 제3 서브 베이스 영상(1051_3)이 광학층(213)에 의하여 굴절된 후, 투과하는 영역을 제3 레이어 영역(1040_3)이라 정의할 수 있다.In one embodiment, the first sub-base image 1051_1, which is incident perpendicularly to the lens included in the optical layer 213 among the layer images 1040 and is not refracted and is directed to the front of the layer panel 212, is transmitted. The area can be defined as the first layer area (1040_1). After the second sub-base image 1051_2 adjacent to the first sub-base image 1051_1 of the layer image 1040 is refracted by the optical layer 213, the transmitted area will be defined as the second layer area 1040_2. You can. After the third sub-base image 1051_3 adjacent to the first sub-base image 1051_1 of the layer image 1040 is refracted by the optical layer 213, the transmitted area will be defined as the third layer area 1040_3. You can.

일 실시예에서, 인접한 제1 서브 베이스 영상(1051_1)과 제2 서브 베이스 영상(1051_2)이 광학층(213)에 의하여 각각 굴절된 후 투과하는 제1 레이어 영역(1040_1)의 픽셀과 제2 레이어 영역(1040_2)의 픽셀 간의 간격을 기준 쉬프트 값(1030)이라 정의할 수 있다. In one embodiment, the adjacent first sub-base image 1051_1 and the second sub-base image 1051_2 are respectively refracted by the optical layer 213, and then the pixels of the first layer area 1040_1 and the second layer transmit. The interval between pixels in the area 1040_2 can be defined as the reference shift value 1030.

일 실시예에서, 기준 쉬프트 값(1030)은 사용자(250)가 전자 장치(100)를 통하여 표시되는 영상(260)에 포함된 물체의 서로 다른 면을 볼 수 있는 복수의 뷰 중 인접한 뷰의 간격, 기준 거리(1010), 레이어 패널(212)의 해상도 중 적어도 하나에 기초하여 결정될 수 있다. 일 실시예에서, 기준 거리(1010)가 멀어질수록, 기준 쉬프트 값(1030)은 커질 수 있다. 레이어 패널(212)의 해상도가 높아질수록, 기준 쉬프트 값(1030)은 커질 수 있다. 인접한 뷰의 간격이 커질수록, 기준 쉬프트 값(1030)은 커질 수 있다.In one embodiment, the reference shift value 1030 is the interval between adjacent views among a plurality of views through which the user 250 can see different sides of an object included in the image 260 displayed through the electronic device 100. It may be determined based on at least one of , the reference distance 1010, and the resolution of the layer panel 212. In one embodiment, as the reference distance 1010 increases, the reference shift value 1030 may increase. As the resolution of the layer panel 212 increases, the reference shift value 1030 may increase. As the spacing between adjacent views increases, the reference shift value 1030 may increase.

일 실시예에서, 복수의 쉬프트 값들(860, 도 8 참조)은 기준 쉬프트값(1030) 및 서로 다른 복수의 뷰에 기초하여 결정될 수 있다. 사용자(250)가 전자 장치(100)를 통하여 표시되는 영상(260)에 포함된 물체의 서로 다른 면을 볼 수 있는 뷰가

Figure pat00001
개라고 할 때, 사용자(250)의 위치가 전자 장치(100)의 정면에서 영상(260)을 볼 수 있는 뷰에 있는 것을 기준으로 전자 장치(100)의 좌측면으로
Figure pat00002
개의 뷰, 전자 장치(100)의 우측면으로
Figure pat00003
개의 뷰가 포함될 수 있다.In one embodiment, a plurality of shift values 860 (see FIG. 8) may be determined based on the reference shift value 1030 and a plurality of different views. A view that allows the user 250 to see different sides of an object included in the image 260 displayed through the electronic device 100
Figure pat00001
When referring to the dog, the position of the user 250 is on the left side of the electronic device 100 based on the view where the image 260 can be seen from the front of the electronic device 100.
Figure pat00002
View of the left side of the electronic device 100
Figure pat00003
Views may be included.

일 실시예에서, 기준 쉬프트 값(1030)을

Figure pat00004
라고 할 때, 서로 다른 복수의 뷰에 각각 대응되는 복수의 쉬프트 값들(860)은
Figure pat00005
내지
Figure pat00006
사이의 값 및 0의 값을 가질 수 있다. 이때,
Figure pat00007
은 자연수이고, 0은 사용자(250)의 위치가 전자 장치(100)의 정면에서 영상(260)을 볼 수 있는 뷰에 있을 때의 쉬프트 값일 수 있다.In one embodiment, the reference shift value (1030) is
Figure pat00004
When doing so, a plurality of shift values 860 corresponding to a plurality of different views are
Figure pat00005
inside
Figure pat00006
It can have values between and 0. At this time,
Figure pat00007
is a natural number, and 0 may be a shift value when the user 250 is in a view where the image 260 can be viewed from the front of the electronic device 100.

일 실시예에서, 복수의 쉬프트 값들(860) 각각은 서로 다른 복수의 뷰에 대한 정보를 포함할 수 있다. 레이어 영상(840-1)을 각각의 복수의 쉬프트 값들(860)을 이용하여 쉬프트하여 생성된 복수의 쉬프트 레이어 영상들은 서로 다른 복수의 뷰에서 사용자(250)에게 제공되는 레이어 영상에 대한 정보를 포함할 수 있다.In one embodiment, each of the plurality of shift values 860 may include information about a plurality of different views. A plurality of shift layer images generated by shifting the layer image 840-1 using respective shift values 860 include information about the layer image provided to the user 250 in a plurality of different views. can do.

다시 도 8을 참조하면, 일 실시예에서, 적어도 하나의 프로세서(220)는 레이어 영상(840_1), 제1 프레임 영상(830_1) 및 복수의 쉬프트 값들(860)을 영상 보정 모듈(820)에 적용함으로써, 제1 프레임 영상(830_1)과 제2 프레임 영상(830_2) 간의 움직임에 기초한 보정-베이스 영상(850)을 생성할 수 있다. 보정-베이스 영상(850)은 제1 프레임에서 베이스 패널(211)에 대응되는 영상일 수 있다.Referring again to FIG. 8 , in one embodiment, at least one processor 220 applies the layer image 840_1, the first frame image 830_1, and a plurality of shift values 860 to the image correction module 820. By doing so, a correction-base image 850 based on the movement between the first frame image 830_1 and the second frame image 830_2 can be generated. The correction-base image 850 may be an image corresponding to the base panel 211 in the first frame.

일 실시예에서, 적어도 하나의 프로세서(220)는 제1 프레임 영상(830_1)에 포함된 각각의 복수의 뷰 영상들(831) 및 복수의 쉬프트 값(860) 중 복수의 뷰 영상들(831) 각각의 뷰에 대응되는 쉬프트 값에 따라 쉬프트된 쉬프트 레이어 영상에 따라, 서로 다른 복수의 뷰에 따른 복수의 서브 베이스 영상들(841) 간의 차이에 기초하고, 복수의 서브 보정-베이스 영상들(851)을 포함하는 보정-베이스 영상(850)을 생성할 수 있다. In one embodiment, the at least one processor 220 processes the plurality of view images 831 among the plurality of view images 831 and the plurality of shift values 860 included in the first frame image 830_1. Based on the difference between a plurality of sub-base images 841 according to a plurality of different views, according to the shift layer image shifted according to the shift value corresponding to each view, a plurality of sub-correction-base images 851 ) can generate a correction-base image 850 including.

일 실시예에서, 각각의 뷰에서 사용자(250)에게 재현되는 물체를 포함하는 복수의 뷰 영상들(831)과 각각의 뷰에 대응되는 쉬프트 값에 따라 쉬프트된 복수의 쉬프트 레이어 영상에 의하여 획득된 복수의 서브 보정-베이스 영상들(851) 각각은, 인접한 서브 보정-베이스 영상들과 비교하여 서로 다른 뷰에 따른 물체의 위치 정보만이 상이하고, 물체의 휘도, 계조, 색상 등의 정보는 동일할 수 있다. In one embodiment, a plurality of view images 831 including an object reproduced to the user 250 in each view and a plurality of shift layer images shifted according to a shift value corresponding to each view are obtained. Each of the plurality of sub-correction-base images 851 is different from adjacent sub-correction-base images only in the position information of the object according to different views, and the information such as luminance, gradation, and color of the object is the same. can do.

일 실시예에서, 적어도 하나의 프로세서(220)는 보정-베이스 영상(850)을 베이스 패널(211)에 표시하고, 레이어 영상(840_1)을 레이어 패널(212)에 표시함으로써, 제2 프레임에서 제1 프레임동안 움직이는 물체를 포함하는 입력 콘텐츠(830)가 제공되더라도, 제2 프레임과 비교할 때 제1 프레임에서 물체의 위치 정보만이 상이하고, 물체의 휘도, 계조, 색상 등은 동일한 영상(260)을 사용자(250)에게 제공하여, 사용자(250)의 시인성 및 영상(260)의 품질을 향상시킬 수 있다. In one embodiment, the at least one processor 220 displays the correction-base image 850 on the base panel 211 and the layer image 840_1 on the layer panel 212, thereby Even if input content 830 including a moving object for 1 frame is provided, only the position information of the object is different in the first frame compared to the second frame, and the luminance, gradation, color, etc. of the object are the same in the image 260 is provided to the user 250, the visibility of the user 250 and the quality of the image 260 can be improved.

또한, 사용자(250)에게 서로 다른 뷰에서 물체의 다른 면을 포함하는 영상(260)을 제공하기 위하여, 복수의 서브 보정-베이스 영상들(851)을 포함하는 보정-베이스 영상(850)을 베이스 패널(211)에 표시하더라도, 뷰의 변화에 따라 물체의 위치 정보만이 상이하고, 물체의 휘도, 계조, 색상 등은 동일한 영상(260)을 사용자(250)에게 제공하여, 사용자(250)의 시인성 및 영상(260)의 품질을 향상시킬 수 있다.In addition, in order to provide the user 250 with images 260 including different sides of an object from different views, the correction-base image 850 including a plurality of sub-correction-base images 851 is used as a base image. Even when displayed on the panel 211, the image 260 is provided to the user 250 where only the location information of the object is different depending on the change in view and the luminance, gradation, color, etc. of the object are the same. Visibility and quality of image 260 can be improved.

도 9를 참조하면, 도 9에는, 영상 보정 모듈(920)이 베이스 영상(940_2) 및 복수의 쉬프트 값들(960)에 기초하여, 보정-베이스 영상(950)을 추론하도록 훈련된 제2 인공 지능 모델을 포함하는 구성이 도시되어 있다. 이하, 도 8에서 설명한 구성과 동일한 구성에 대한 중복되는 설명은 생략하도록 한다.Referring to FIG. 9, in FIG. 9, the image correction module 920 is a second artificial intelligence trained to infer the correction-base image 950 based on the base image 940_2 and a plurality of shift values 960. A configuration including the model is shown. Hereinafter, overlapping descriptions of the same components as those described in FIG. 8 will be omitted.

일 실시예에서, 적어도 하나의 프로세서(220)는 제1 프레임 영상(930_1) 및 제2 프레임 영상(930_2)을 영상 생성 모듈(910)에 적용함으로써, 베이스 패널(211)에 대응되고, 복수의 서브 베이스 영상들(941)을 포함하는 베이스 영상(940_2) 및 레이어 패널(212)에 대응되는 레이어 영상(940_1)을 생성할 수 있다.In one embodiment, the at least one processor 220 corresponds to the base panel 211 by applying the first frame image 930_1 and the second frame image 930_2 to the image generation module 910, and a plurality of A base image 940_2 including sub-base images 941 and a layer image 940_1 corresponding to the layer panel 212 may be generated.

일 실시예에서, 적어도 하나의 프로세서(220)는 복수의 서브 베이스 영상들(941)을 포함하는 베이스 영상(940_2) 및 복수의 쉬프트 값(960)을 영상 보정 모듈(920)에 적용함으로써, 복수의 서브 보정-베이스 영상들(951)을 포함하는 보정-베이스 영상(950)을 생성할 수 있다.In one embodiment, at least one processor 220 applies a base image 940_2 including a plurality of sub-base images 941 and a plurality of shift values 960 to the image correction module 920, A correction-base image 950 including sub-correction-base images 951 of can be generated.

일 실시예에서, 제2 인공 지능 모델은, 복수의 서브 베이스 영상들(941)을 포함하는 베이스 영상(940_2) 및 복수의 쉬프트 값들(960)에 기초하여, 제1 프레임에서 베이스 패널(211)에 대응되고, 서로 다른 복수의 뷰에 각각 대응되는 복수의 서브 보정-베이스 영상들(951)을 포함하는 보정-베이스 영상(950)을 추론하도록 훈련된 인공 지능 모델일 수 있다. In one embodiment, the second artificial intelligence model generates the base panel 211 in the first frame based on the base image 940_2 including a plurality of sub-base images 941 and a plurality of shift values 960. It may be an artificial intelligence model trained to infer a correction-base image 950 that corresponds to and includes a plurality of sub-correction-base images 951 respectively corresponding to a plurality of different views.

일 실시예에서, 제2 인공 지능 모델은 서로 다른 복수의 뷰에 각각 대응되는 복수의 서브 베이스 영상들(941) 및 서로 다른 복수의 뷰에 각각 대응되는 복수의 쉬프트 값들(960)에 따라, 서로 다른 복수의 뷰에 따른 복수의 서브 베이스 영상들(941) 각각의 차이에 기초하는 복수의 서브 보정-베이스 영상들(951)을 포함하는 보정-베이스 영상(950)을 추론하도록 훈련된 인공 지능 모델일 수 있다. 이하, 제2 인공 지능 모델의 훈련 방법은 도 12c에서 후술하도록 한다.In one embodiment, the second artificial intelligence model is based on a plurality of sub-base images 941, each corresponding to a plurality of different views, and a plurality of shift values 960, respectively, corresponding to a plurality of different views. An artificial intelligence model trained to infer a correction-base image 950 including a plurality of sub-correction-base images 951 based on differences between each of a plurality of sub-base images 941 according to a plurality of different views. It can be. Hereinafter, the training method of the second artificial intelligence model will be described later with reference to FIG. 12C.

일 실시예에서, 적어도 하나의 프로세서(220)는 보정-베이스 영상(950)을 베이스 패널(211)에 표시하고, 레이어 영상(940_1)을 레이어 패널(212)에 표시할 수 있다.In one embodiment, at least one processor 220 may display the correction-base image 950 on the base panel 211 and display the layer image 940_1 on the layer panel 212.

도 11은 본 개시의 일 실시예에 따른, 영상 생성 모듈에 포함된 제1 인공 지능 모델 및 영상 보정 모듈에 포함된 제2 인공 지능 모델의 훈련 과정을 설명하기 위한 도면이다. 이하, 도 6, 도 8 및 도 9에서 설명한 구성과 동일한 구성에 대한 중복되는 설명은 생략하도록 한다.FIG. 11 is a diagram illustrating a training process of a first artificial intelligence model included in an image generation module and a second artificial intelligence model included in an image correction module, according to an embodiment of the present disclosure. Hereinafter, overlapping descriptions of the same configurations as those described in FIGS. 6, 8, and 9 will be omitted.

도 2 및 도 11을 참조하면, 도 11은 전자 장치(100)가 베이스 패널(211), 레이어 패널(212) 및 베이스 패널(211)과 레이어 패널(212) 사이에 배치되는 광학층(213)을 포함하는 경우의 전자 장치(100)의 동작을 설명하기 위한 도면이다. 이때, 전자 장치(100)는 베이스 패널(211) 및 레이어 패널(212)에 광을 제공하는 백라이트(214)를 더 포함할 수도 있다.Referring to FIGS. 2 and 11 , FIG. 11 shows that the electronic device 100 includes a base panel 211, a layer panel 212, and an optical layer 213 disposed between the base panel 211 and the layer panel 212. This is a diagram for explaining the operation of the electronic device 100 when it includes. At this time, the electronic device 100 may further include a backlight 214 that provides light to the base panel 211 and the layer panel 212.

일 실시예에서, 전자 장치(100)에 포함된 영상 생성 모듈(1110)은 제1 인공 지능 모델을 포함하고, 영상 보정 모듈(1120)은 제2 인공 지능 모델을 포함할 수 있다. In one embodiment, the image generation module 1110 included in the electronic device 100 may include a first artificial intelligence model, and the image correction module 1120 may include a second artificial intelligence model.

일 실시예에서, 전자 장치(100)가 도 11에 도시된 것과 같이 영상 생성 모듈(1110)에 포함된 제1 인공 지능 모델 및 영상 보정 모듈(1120)에 포함된 제2 인공 지능 모델을 훈련시킬 수 있다. 다만, 본 개시는 이에 제한되지 않고, 주변의 전자 장치가 도 11에 도시된 것과 같이 인공 지능 모델을 훈련시키고, 전자 장치(100)는 주변의 전자 장치로부터 훈련된 인공 지능 모델을 제공받을 수도 있다. 또한, 전자 장치(100)는 주변의 전자 장치로부터 전이 학습(transfer learning)을 위해 사전 학습 인공 지능 모델을 제공받고, 도 11에 도시된 것을 토대로 전이 학습을 할 수도 있다. 이하, 설명의 편의를 위하여 전자 장치(100)가 영상 생성 모듈(1110)에 포함된 제1 인공 지능 모델 및 영상 보정 모듈(1120)에 포함된 제2 인공 지능 모델을 훈련시키는 경우로 설명한다.In one embodiment, the electronic device 100 trains the first artificial intelligence model included in the image generation module 1110 and the second artificial intelligence model included in the image correction module 1120, as shown in FIG. 11. You can. However, the present disclosure is not limited to this, and a surrounding electronic device may train an artificial intelligence model as shown in FIG. 11, and the electronic device 100 may receive the trained artificial intelligence model from the surrounding electronic device. . Additionally, the electronic device 100 may receive a pre-trained artificial intelligence model for transfer learning from a surrounding electronic device and perform transfer learning based on the one shown in FIG. 11 . Hereinafter, for convenience of explanation, a case where the electronic device 100 trains the first artificial intelligence model included in the image generation module 1110 and the second artificial intelligence model included in the image correction module 1120 will be described.

일 실시예에서, 전자 장치(100)는 훈련용 입력 콘텐츠(1130)를 획득할 수 있다. 전자 장치(100)는 훈련용 입력 콘텐츠(1130)의 제1 프레임에서의 제1 훈련용 프레임 영상(1130_1) 및 제2 프레임에서의 제2 훈련용 프레임 영상(1130_2)을 획득할 수 있다.In one embodiment, the electronic device 100 may acquire input content 1130 for training. The electronic device 100 may acquire a first training frame image 1130_1 in the first frame of the training input content 1130 and a second training frame image 1130_2 in the second frame.

일 실시예에서, 영상 생성 모듈(1110)에 포함된 제1 인공 지능 모델은, 복수의 훈련용 뷰 영상들(1131)을 포함하는 제1 훈련용 프레임 영상(1130_1) 및 복수의 훈련용 뷰 영상들(1132)을 포함하는 제2 훈련용 프레임 영상(1130_2)에 기초하여, 제1 프레임에서 베이스 패널(211)에 대응되고, 복수의 훈련용 서브 베이스 영상들(1141)을 포함하는 훈련용 베이스 영상(1140_2) 및 제1 프레임에서 레이어 패널(212)에 대응되고, 제1 훈련용 프레임 영상(1130_1)과 제2 훈련용 프레임 영상(1130_2) 간의 움직임(753, 도 7 참조)을 반영한 훈련용 레이어 영상(1140_1)을 추론하도록 훈련될 수 있다.In one embodiment, the first artificial intelligence model included in the image generation module 1110 includes a first training frame image 1130_1 including a plurality of training view images 1131 and a plurality of training view images. Based on the second training frame image 1130_2 including 1132, the training base corresponds to the base panel 211 in the first frame and includes a plurality of training sub-base images 1141. A training frame corresponding to the layer panel 212 in the image 1140_2 and the first frame, and reflecting the movement 753 (see FIG. 7) between the first training frame image 1130_1 and the second training frame image 1130_2. It can be trained to infer the layer image 1140_1.

일 실시예에서, 적어도 하나의 프로세서(220)는 제1 훈련 모듈(1160)을 실행하여, 제1 훈련용 프레임 영상(1130_1) 및 제2 훈련용 프레임 영상(1130_2) 간의 움직임(753)을 추출하고, 추출한 움직임(753)에 기초하여 기-생성된 제2 프레임에서 상기 레이어 패널(212)에 대응되는 비교 레이어 영상을 와핑(warping)하여, 와핑된 비교 레이어 영상과 차이가 적은 훈련용 레이어 영상(1140_1)을 추론하도록 제1 인공 지능 모델을 훈련할 수 있다. 이하, 제1 훈련 모듈(1160)에 의한 제1 인공 지능 모델의 훈련은 도 12a에서 후술하도록 한다.In one embodiment, the at least one processor 220 executes the first training module 1160 to extract the movement 753 between the first training frame image 1130_1 and the second training frame image 1130_2. And, warping the comparison layer image corresponding to the layer panel 212 in the pre-generated second frame based on the extracted motion 753 to create a training layer image with a small difference from the warped comparison layer image. The first artificial intelligence model can be trained to infer (1140_1). Hereinafter, training of the first artificial intelligence model by the first training module 1160 will be described later with reference to FIG. 12A.

일 실시예에서, 제1 훈련용 프레임 영상(1130_1)을 재현한 영상(260)을 사용자(250)에게 제공하기 위하여 적어도 하나의 프로세서(220)는 제2 훈련 모듈(1170)을 실행하여, 제1 훈련용 프레임 영상(1130_1)에 기초하여 제1 프레임에서 베이스 패널(211)에 대응되는 훈련용 베이스 영상(1140_2) 및 제1 프레임에서 레이어 패널(212)에 대응되는 훈련용 레이어 영상(1140_1)을 추론하도록 제1 인공 지능 모델을 훈련할 수 있다. 적어도 하나의 프로세서(220)는 제2 훈련 모듈(1170)을 실행하여 훈련용 베이스 영상(1140_2), 훈련용 레이어 영상(1140_1), 베이스 패널(211)의 밝기 정보 및 레이어 패널(212)의 밝기 정보에 따라 전자 장치(100)로 재현되는 영상(260)을 시뮬레이션하여 획득한 훈련용 출력 영상과 제1 훈련용 프레임 영상(1130_1) 간의 차이가 적어지도록 훈련용 베이스 영상(1140_2)과 훈련용 레이어 영상(1140_1)을 추론하도록 제1 인공 지능 모델을 훈련할 수 있다. 이하, 제2 훈련 모듈(1170)에 의한 제1 인공 지능 모델의 훈련은 도 12b에서 후술하도록 한다.In one embodiment, in order to provide the user 250 with an image 260 that reproduces the first training frame image 1130_1, at least one processor 220 executes a second training module 1170, 1 Based on the training frame image 1130_1, a training base image 1140_2 corresponding to the base panel 211 in the first frame and a training layer image 1140_1 corresponding to the layer panel 212 in the first frame. The first artificial intelligence model can be trained to infer. At least one processor 220 executes the second training module 1170 to obtain the training base image 1140_2, the training layer image 1140_1, the brightness information of the base panel 211, and the brightness of the layer panel 212. A training base image 1140_2 and a training layer to reduce the difference between the training output image obtained by simulating the image 260 reproduced by the electronic device 100 according to the information and the first training frame image 1130_1. A first artificial intelligence model may be trained to infer the image 1140_1. Hereinafter, training of the first artificial intelligence model by the second training module 1170 will be described later with reference to FIG. 12B.

일 실시예에서, 적어도 하나의 프로세서(220)는 제3 훈련 모듈(1280)을 실행하여, 서로 다른 복수의 뷰에 대응되는 복수의 훈련용 서브 베이스 영상들(1241) 각각을 기준 쉬프트 값(1190)을 이용하여 쉬프트하고, 복수의 쉬프트된 서브 훈련용 베이스 영상들과 차이가 적은 복수의 서브 보정-훈련용 베이스 영상(1251)을 포함하는 보정-훈련용 베이스 영상(1250)을 추론하도록 제2 인공 지능 모델을 훈련할 수 있다. 이하, 제3 훈련 모듈(1180)에 의한 제2 인공 지능 모델의 훈련은 도 12c에서 후술하도록 한다.In one embodiment, at least one processor 220 executes the third training module 1280, and sets each of a plurality of training sub-base images 1241 corresponding to a plurality of different views to a reference shift value 1190. ) is used to shift, and a second correction-training base image 1250 is inferred, which includes a plurality of sub-correction-training base images 1251 with small differences from a plurality of shifted sub-training base images. Artificial intelligence models can be trained. Hereinafter, training of the second artificial intelligence model by the third training module 1180 will be described later with reference to FIG. 12C.

도 12a는 본 개시의 일 실시예에 따른, 제1 인공 지능 모델을 훈련시키기 위한 제1 손실 함수를 설명하기 위한 도면이다. 이하, 도 6, 도 8, 도 9 및 도 11에서 설명한 구성과 동일한 구성에 대한 중복되는 설명은 생략한다.FIG. 12A is a diagram illustrating a first loss function for training a first artificial intelligence model according to an embodiment of the present disclosure. Hereinafter, overlapping descriptions of the same configurations as those described in FIGS. 6, 8, 9, and 11 will be omitted.

도 12a를 참조하면, 일 실시예에서 제1 훈련 모듈(1260)은 움직임 추출 모듈(1261), 영상 와핑 모듈(1262) 및 제1 손실 함수 계산 모듈(1263)을 포함할 수 있다.Referring to FIG. 12A, in one embodiment, the first training module 1260 may include a motion extraction module 1261, an image warping module 1262, and a first loss function calculation module 1263.

일 실시예에서, 움직임 추출 모듈(1261)은 제1 훈련용 프레임 영상(1230_1) 및 제2 훈련용 프레임 영상(1230_2)에 기초하여, 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(735, 도 7 참조)을 추출하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. In one embodiment, the motion extraction module 1261 creates the first training frame image 1230_1 and the second training frame image 1230_2 based on the first training frame image 1230_1 and the second training frame image 1230_2. It may be composed of instructions or program code related to an operation or function for extracting movement 735 (see FIG. 7) between images 1230_2.

일 실시예에서, 움직임 추출 모듈(1261)은 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2)에 기초하여, 훈련용 프레임 영상(1230)에 포함된 픽셀의 제2 프레임에서 제1 프레임으로의 벡터 성분을 구하고, 벡터의 크기 및 방향에 기초하여 제2 프레임에서 제1 프레임으로의 훈련용 프레임 영상(1230)에 포함된 픽셀의 움직임(735)을 추출하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 훈련용 프레임 영상(1230)에 포함된 픽셀은, 훈련용 프레임 영상(1230)에 포함된 물체에 포함될 수 있다.In one embodiment, the motion extraction module 1261 generates a second frame of pixels included in the training frame image 1230 based on the first training frame image 1230_1 and the second training frame image 1230_2. An operation or function to obtain the vector component from the first frame and extract the movement 735 of the pixel included in the training frame image 1230 from the second frame to the first frame based on the size and direction of the vector. It may consist of instructions or program code related to. In one embodiment, pixels included in the training frame image 1230 may be included in objects included in the training frame image 1230.

일 실시예에서, 움직임 추출 모듈(1261)은 루카스-카나데(Lucas-Kanade) 알고리즘 등을 통하여 제2 프레임에서 제1 프레임으로의 훈련용 프레임 영상(1230)에 포함된 픽셀의 움직임(735)을 추출할 수 있다. 또한, 움직임 추출 모듈(1261)은 플로우넷(FlowNet), 라이트 플로우넷(LiteFlowNet) 등과 같은 딥 러닝 모델을 통하여 제2 프레임에서 제1 프레임으로의 훈련용 프레임 영상(1230)에 포함된 픽셀의 움직임(735)을 추출할 수도 있고, 어느 하나의 동작이나 기능으로 제한되지 않는다.In one embodiment, the motion extraction module 1261 extracts the movement 735 of a pixel included in the training frame image 1230 from the second frame to the first frame through the Lucas-Kanade algorithm, etc. It can be extracted. In addition, the motion extraction module 1261 extracts the movement of pixels included in the training frame image 1230 from the second frame to the first frame through a deep learning model such as FlowNet, LiteFlowNet, etc. (735) can also be extracted and is not limited to any one operation or function.

일 실시예에서, 움직임 추출 모듈(1261)은 제1 훈련용 프레임 영상(1230_1)에 포함된 복수의 훈련용 뷰 영상들(1231) 중 센터 뷰에서 획득된 센터 뷰 영상 및 제2 훈련용 프레임 영상(1230_2)에 포함된 복수의 훈련용 뷰 영상들(1232) 중 센터 뷰에서 획득된 센터 뷰 영상에 기초하여, 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(735)을 추출하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 센터 뷰는 사용자(250)가 전자 장치(100)의 정면에 위치하여, 영상(260)에 포함된 물체의 정면을 볼 수 있는 위치에 대응될 수 있다.In one embodiment, the motion extraction module 1261 selects a center view image and a second training frame image obtained from the center view among the plurality of training view images 1231 included in the first training frame image 1230_1. Based on the center view image acquired from the center view among the plurality of training view images 1232 included in (1230_2), the movement between the first training frame image 1230_1 and the second training frame image 1230_2 It may be composed of instructions or program code related to the operation or function of extracting (735). The center view may correspond to a position where the user 250 is located in front of the electronic device 100 and can see the front of the object included in the image 260.

일 실시예에서, 적어도 하나의 프로세서(220)는 제1 훈련용 프레임 영상(1230_1) 및 제2 훈련용 프레임 영상(1230_2)을 움직임 추출 모듈(1261)에 적용함으로써, 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753)을 추출할 수 있다.In one embodiment, the at least one processor 220 applies the first training frame image 1230_1 and the second training frame image 1230_2 to the motion extraction module 1261, thereby creating a first training frame image ( Movement 753 between 1230_1) and the second training frame image 1230_2 can be extracted.

일 실시예에서, 적어도 하나의 프로세서(220)는 제1 훈련용 프레임 영상(1230_1)에 포함된 복수의 훈련용 뷰 영상들(1231) 중 센터 뷰에서 획득된 센터 뷰 영상 및 제2 훈련용 프레임 영상(1230_2)에 포함된 복수의 훈련용 뷰 영상들(1232) 중 센터 뷰에서 획득된 센터 뷰 영상을 움직임 추출 모듈(1261)에 적용함으로써, 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753)을 추출할 수 있다. In one embodiment, the at least one processor 220 selects a center view image and a second training frame obtained from the center view among the plurality of training view images 1231 included in the first training frame image 1230_1. By applying the center view image obtained from the center view among the plurality of training view images 1232 included in the image 1230_2 to the motion extraction module 1261, the first training frame image 1230_1 and the second training frame image 1230_1 are generated. Movement 753 between the frame images 1230_2 can be extracted.

이하, 설명의 편의를 위하여, 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753)은 제1 훈련용 프레임 영상(1230_1)에 포함된 복수의 훈련용 뷰 영상들(1231) 중 센터 뷰에서 획득된 센터 뷰 영상 및 제2 훈련용 프레임 영상(1230_2)에 포함된 복수의 훈련용 뷰 영상들(1232) 중 센터 뷰에서 획득된 센터 뷰 영상을 움직임 추출 모듈(1261)에 적용하여 추출된 움직임으로 설명한다.Hereinafter, for convenience of explanation, the movement 753 between the first training frame image 1230_1 and the second training frame image 1230_2 refers to the plurality of training views included in the first training frame image 1230_1. A motion extraction module extracts a center view image obtained from the center view among the images 1231 and a center view image acquired from the center view among the plurality of training view images 1232 included in the second training frame image 1230_2. (1261) is applied to explain the extracted movement.

일 실시예에서, 영상 와핑 모듈(1262)은 추출된 움직임(753) 및 기-생성된 제2 프레임에서 레이어 패널(212)에 대응되는 비교 레이어 영상(1241)을 와핑(warping)하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. In one embodiment, the image warping module 1262 is an operation or function of warping the extracted motion 753 and the comparison layer image 1241 corresponding to the layer panel 212 in the pre-generated second frame. It may consist of instructions or program code related to.

일 실시예에서, 비교 레이어 영상(1241)은 적어도 하나의 프로세서(220)가 제2 프레임에서 영상 생성 모듈(1210)을 실행하여 생성한 레이어 영상일 수 있다. 적어도 하나의 프로세서(220)는 훈련용 입력 콘텐츠(1230)의 제2 프레임에서의 제2 훈련용 프레임 영상(1230_2) 및 제2 프레임의 직전 프레임인 제3 프레임에서의 제3 훈련용 프레임 영상을 영상 생성 모듈(1210)에 적용함으로써, 제2 프레임에서 레이어 패널(212)에 대응되는 비교 레이어 영상(1241)을 생성할 수 있다.In one embodiment, the comparison layer image 1241 may be a layer image generated by at least one processor 220 executing the image generation module 1210 in the second frame. At least one processor 220 displays a second training frame image 1230_2 in the second frame of the training input content 1230 and a third training frame image 1230_2 in the third frame that is the immediately preceding frame of the training input content 1230. By applying it to the image generation module 1210, a comparison layer image 1241 corresponding to the layer panel 212 can be generated in the second frame.

일 실시예에서, 적어도 하나의 프로세서(220)는 움직임 추출 모듈(1261)을 통하여 추출한 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753) 및 기-생성한 비교 레이어 영상(1241)을 영상 와핑 모듈(1262)에 적용함으로써, 비교 레이어 영상(1241)을 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753)만큼 와핑할 수 있다.In one embodiment, the at least one processor 220 generates and generates motion 753 between the first training frame image 1230_1 and the second training frame image 1230_2 extracted through the motion extraction module 1261. By applying one comparison layer image 1241 to the image warping module 1262, the comparison layer image 1241 is adjusted by the movement 753 between the first training frame image 1230_1 and the second training frame image 1230_2. You can warp.

일 실시예에서, 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753)만큼 와핑된 비교 레이어 영상은, 비교 레이어 영상(1241)과 비교하여 제2 프레임에서 제1 프레임동안 입력 콘텐츠(1230)에 포함된 물체의 위치 변화가 반영된 영상일 수 있다.In one embodiment, the comparison layer image warped by the movement 753 between the first training frame image 1230_1 and the second training frame image 1230_2 is compared to the comparison layer image 1241 in the second frame. It may be an image that reflects a change in the position of an object included in the input content 1230 during the first frame.

일 실시예에서, 제1 손실 함수 계산 모듈(1263)은 적어도 하나의 프로세서(220)가 영상 생성 모듈(1210)을 실행하여 생성한 제1 프레임에서 레이어 패널(212)에 대응되는 훈련용 레이어 영상(1240_1)과 와핑된 비교 레이어 영상에 따른 제1 손실 함수를 계산하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, the first loss function calculation module 1263 generates a training layer image corresponding to the layer panel 212 in the first frame generated by the at least one processor 220 executing the image generation module 1210. It may be composed of instructions or program code related to an operation or function of calculating the first loss function according to (1240_1) and the warped comparison layer image.

일 실시예에서, 제1 손실 함수 계산 모듈(1263)은, 훈련용 레이어 영상(1240_1)과 와핑된 비교 레이어 영상에 따라, 아래의 수학식 1에 따라 제1 손실 함수(loss function)를 계산할 수 있다.In one embodiment, the first loss function calculation module 1263 may calculate a first loss function according to Equation 1 below according to the training layer image 1240_1 and the warped comparison layer image. there is.

수학식 1:Equation 1:

Figure pat00008
Figure pat00008

이때,

Figure pat00009
은 제1 손실 함수이고,
Figure pat00010
은 제1 마스킹 값이고,
Figure pat00011
는 제1 프레임에서의 훈련용 레이어 영상이고,
Figure pat00012
는 와핑된 제2 프레임에서의 비교 레이어 영상이며,
Figure pat00013
Figure pat00014
Figure pat00015
의 차이의 L1 노름(norm)이다.At this time,
Figure pat00009
is the first loss function,
Figure pat00010
is the first masking value,
Figure pat00011
is the training layer image in the first frame,
Figure pat00012
is the comparison layer image in the warped second frame,
Figure pat00013
Is
Figure pat00014
and
Figure pat00015
This is the L1 norm of the difference.

일 실시예에서, 제1 마스킹 값은 영상 와핑 모듈(1262)을 통하여 비교 레이어 영상(1241)을 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753)만큼 와핑하는 동작에서, 와핑이 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753)만큼 되지 않은 비교 레이어 영상이 제1 손실 함수의 값에 반영되는 것을 방지할 수 있다. 제1 손실 함수 계산 모듈(1263)은 아래의 수학식 2에 따라 제1 마스킹 값을 계산할 수 있다.In one embodiment, the first masking value changes the comparison layer image 1241 by the amount of movement 753 between the first training frame image 1230_1 and the second training frame image 1230_2 through the image warping module 1262. In the warping operation, the comparison layer image whose warping is not equal to the movement 753 between the first training frame image 1230_1 and the second training frame image 1230_2 is prevented from being reflected in the value of the first loss function. You can. The first loss function calculation module 1263 may calculate the first masking value according to Equation 2 below.

수학식 2:Equation 2:

Figure pat00016
Figure pat00016

이때,

Figure pat00017
은 제1 마스킹 값이고,
Figure pat00018
는 임의의 계수이며,
Figure pat00019
는 제1 프레임에서의 훈련용 레이어 영상이고,
Figure pat00020
는 와핑된 제2 프레임에서의 비교 레이어 영상이며,
Figure pat00021
Figure pat00022
Figure pat00023
의 차이의 L2 노름(norm)이다.At this time,
Figure pat00017
is the first masking value,
Figure pat00018
is an arbitrary coefficient,
Figure pat00019
is the training layer image in the first frame,
Figure pat00020
is the comparison layer image in the warped second frame,
Figure pat00021
Is
Figure pat00022
and
Figure pat00023
This is the L2 norm of the difference.

일 실시예에서, 적어도 하나의 프로세서(220)는 제1 손실 함수 계산 모듈(1263)을 통하여,

Figure pat00024
Figure pat00025
의 차이가 기-설정된 차이값보다 클 경우, 비교 레이어 영상(1241)의 와핑이 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753)만큼 되지 않았다고 판단하여, 마스킹 값이 0에 가까운 값을 갖도록 할 수 있다. 이 경우, 제1 손실 함수의 값도 0에 가까운 값이 되어, 해당 훈련 과정은 제1 인공 지능 모델의 훈련에 반영되지 않을 수 있다. In one embodiment, the at least one processor 220, through the first loss function calculation module 1263,
Figure pat00024
and
Figure pat00025
If the difference is greater than the preset difference value, it is determined that the warping of the comparison layer image 1241 is not as much as the movement 753 between the first training frame image 1230_1 and the second training frame image 1230_2. , the masking value can be set to a value close to 0. In this case, the value of the first loss function is also close to 0, so the training process may not be reflected in the training of the first artificial intelligence model.

반면, 적어도 하나의 프로세서(220)는 제1 손실 함수 계산 모듈(1263)을 통하여

Figure pat00026
Figure pat00027
의 차이가 기-설정된 차이값과 같거나 작을 경우, 비교 레이어 영상(1241)의 와핑이 제1 훈련용 프레임 영상(1230_1)과 제2 훈련용 프레임 영상(1230_2) 간의 움직임(753)만큼 되었다고 판단하여, 마스킹 값이 1에 가까운 값을 갖도록 할 수 있다. 이 경우, 해당 훈련 과정은 제1 인공 지능 모델의 훈련에 반영될 수 있다. On the other hand, at least one processor 220 operates through the first loss function calculation module 1263.
Figure pat00026
and
Figure pat00027
If the difference is equal to or smaller than the preset difference value, it is determined that the warping of the comparison layer image 1241 is equal to the movement 753 between the first training frame image 1230_1 and the second training frame image 1230_2. Thus, the masking value can be made to have a value close to 1. In this case, the training process may be reflected in the training of the first artificial intelligence model.

이때, 기-설정된 차이값의 크기는

Figure pat00028
의 크기를 조절하여 결정할 수 있다.
Figure pat00029
의 크기를 크게 할수록 기-설정된 차이값의 크기가 작아질 수 있다.At this time, the size of the preset difference value is
Figure pat00028
It can be determined by adjusting the size of .
Figure pat00029
As the size of , the size of the preset difference value may become smaller.

다만, 본 개시는 이에 제한되지 않고, 제1 손실 함수 계산 모듈(1260)은 제1 손실 함수 및 제1 마스킹 값을 다른 수학식을 이용하여 계산할 수도 있다.However, the present disclosure is not limited thereto, and the first loss function calculation module 1260 may calculate the first loss function and the first masking value using other equations.

일 실시예에서, 제1 손실 함수의 값은 훈련용 레이어 영상(1240_1)과 와핑된 비교 레이어 영상의 차이가 적을수록 작아질 수 있다. 적어도 하나의 프로세서(220)는 제1 훈련 모듈(1260)을 통하여 제1 손실 함수의 값이 작아지도록 영상 생성 모듈(1210)에 포함된 제1 인공 지능 모델을 훈련시킬 수 있다. 적어도 하나의 프로세서(220)는 제1 훈련용 프레임 영상(1230_1) 및 제2 훈련용 프레임 영상(1230_2)에 기초하여, 작은 제1 손실 함수 값을 얻을 수 있는 훈련용 레이어 영상(1240_1)을 추론하도록 제1 인공 지능 모델을 훈련시킬 수 있다. 제1 인공 지능 모델에 포함된 가중치는 제1 손실 함수의 값이 작아지도록 업데이트 될 수 있다.In one embodiment, the value of the first loss function may become smaller as the difference between the training layer image 1240_1 and the warped comparison layer image decreases. At least one processor 220 may train the first artificial intelligence model included in the image generation module 1210 through the first training module 1260 so that the value of the first loss function becomes smaller. At least one processor 220 infers a training layer image 1240_1 that can obtain a small first loss function value based on the first training frame image 1230_1 and the second training frame image 1230_2. The first artificial intelligence model can be trained to do this. Weights included in the first artificial intelligence model may be updated so that the value of the first loss function becomes smaller.

도 12b는 본 개시의 일 실시예에 따른, 제1 인공 지능 모델을 훈련시키기 위한 제2 손실 함수를 설명하기 위한 도면이다. 이하, 도 12a에서 설명한 구성과 동일한 구성에 대한 중복되는 설명은 생략한다.FIG. 12B is a diagram illustrating a second loss function for training a first artificial intelligence model according to an embodiment of the present disclosure. Hereinafter, overlapping descriptions of the same configuration as that described in FIG. 12A will be omitted.

도 12b를 참조하면, 일 실시예에서, 제2 훈련 모듈(1270)은 시뮬레이션 모듈(1271) 및 제2 손실 함수 계산 모듈(1272)을 포함할 수 있다.Referring to FIG. 12B , in one embodiment, the second training module 1270 may include a simulation module 1271 and a second loss function calculation module 1272.

일 실시예에서, 시뮬레이션 모듈(1271)은 적어도 하나의 프로세서(220)가 영상 생성 모듈(1210)을 통하여 생성한 훈련용 베이스 영상(1240_2)을 베이스 패널(211)에 표시하고, 훈련용 레이어 영상(1240_1)을 레이어 패널(212)에 표시할 경우, 제1 프레임에서 사용자(250)에게 제공되는 영상(260)인 훈련용 출력 영상을 획득하기 위한 시뮬레이션(simulation)을 수행하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, the simulation module 1271 displays the training base image 1240_2 generated by the at least one processor 220 through the image generation module 1210 on the base panel 211, and displays the training layer image 1240_2 on the base panel 211. When (1240_1) is displayed on the layer panel 212, it relates to an operation or function of performing simulation to obtain an output image for training, which is the image 260 provided to the user 250 in the first frame. It may consist of instructions or program code.

일 실시예에서, 시뮬레이션 모듈(1271)은 훈련용 베이스 영상(1240_2), 훈련용 레이어 영상(1240_1) 및 베이스 패널(211)에 대한 정보 및 레이어 패널(212)에 대한 정보를 포함하는 패널 정보(1273)에 기초하여, 훈련용 출력 영상을 획득하기 위한 시뮬레이션을 수행하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, the simulation module 1271 includes a training base image 1240_2, a training layer image 1240_1, and panel information including information about the base panel 211 and information about the layer panel 212 ( 1273), it may be composed of instructions or program code related to an operation or function that performs a simulation to obtain an output image for training.

일 실시예에서, 패널 정보(1273)에는 베이스 패널(211)의 디스플레이 종류, 레이어 패널(212)의 디스플레이 종류, 베이스 패널(211)의 밝기 정보, 레이어 패널(212)의 밝기 정보 및 베이스 패널(211)과 레이어 패널(212) 간의 간격 등에 대한 정보가 포함될 수 있다.In one embodiment, the panel information 1273 includes the display type of the base panel 211, the display type of the layer panel 212, the brightness information of the base panel 211, the brightness information of the layer panel 212, and the base panel ( Information about the gap between 211) and the layer panel 212 may be included.

일 실시예에서, 패널 정보(1273)에 같은 계조의 영상을 표시할 때의 레이어 패널(212)의 밝기가 같은 계조의 영상을 표시할 때의 베이스 패널(211)의 밝기보다 m배 크다는 정보가 포함된 경우, 적어도 하나의 프로세서(220)는 시뮬레이션 모듈(1271)을 통하여, 해당 밝기 정보를 반영하여 베이스 패널(211)에 훈련용 베이스 영상(1240_2)이 표시되고, 레이어 패널(212)에 훈련용 레이어 영상(1240_1)이 표시될 때 사용자(250)에게 시인되는 훈련용 출력 영상을 획득하기 위한 시뮬레이션을 수행할 수 있다. 이를 통하여, 적어도 하나의 프로세서(220)가 후술할 제2 훈련 모듈(1270)을 통하여 제1 인공 지능 모델을 훈련시킬 때, 훈련용 베이스 영상(1240_2)의 밝기가 훈련용 레이어 영상(1240_1)의 밝기보다 m배 크도록 추론되도록 제1 인공 지능 모델을 훈련시킬 수 있다. In one embodiment, the panel information 1273 includes information that the brightness of the layer panel 212 when displaying an image of the same gray level is m times greater than the brightness of the base panel 211 when displaying an image of the same gray level. When included, at least one processor 220 displays the training base image 1240_2 on the base panel 211 by reflecting the corresponding brightness information through the simulation module 1271, and displays the training base image 1240_2 on the layer panel 212. When the dragon layer image 1240_1 is displayed, a simulation may be performed to obtain an output image for training that is visible to the user 250. Through this, when at least one processor 220 trains the first artificial intelligence model through the second training module 1270, which will be described later, the brightness of the training base image 1240_2 is equal to that of the training layer image 1240_1. The first artificial intelligence model can be trained to infer that the brightness is m times greater.

또한, 패널 정보(1273)에 베이스 패널(211) 또는 레이어 패널(212) 중 적어도 하나의 패널의 디스플레이 종류가 단일-컬러(mono-color) 패널이 적층되어 이루어진 디스플레이라는 정보를 포함된 경우, 적어도 하나의 프로세서(220)는 시뮬레이션 모듈(1271)을 통하여, 적층된 단일-컬러 패널들 각각을 R, G, B 등의 서브-컬러 픽셀을 포함하는 패널로 렌더링하여 베이스 패널(211)에 훈련용 베이스 영상(1240_2)이 표시되고, 레이어 패널(212)에 훈련용 레이어 영상(1240_1)이 표시될 때 사용자(250)에게 시인되는 훈련용 출력 영상을 획득하기 위한 시뮬레이션을 수행할 수 있다.In addition, if the panel information 1273 includes information that the display type of at least one panel of the base panel 211 or the layer panel 212 is a display made of stacked mono-color panels, at least One processor 220, through the simulation module 1271, renders each of the stacked single-color panels into a panel containing sub-color pixels such as R, G, and B, and provides training to the base panel 211. When the base image 1240_2 is displayed and the training layer image 1240_1 is displayed on the layer panel 212, a simulation may be performed to obtain an output image for training that is visible to the user 250.

일 실시예에서, 제2 손실 함수 계산 모듈(1272)은 적어도 하나의 프로세서(220)가 시뮬레이션 모듈(1271)을 통하여 획득한 훈련용 출력 영상과 제1 훈련용 프레임 영상(1230_1)에 따른 제2 손실 함수를 계산하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, the second loss function calculation module 1272 generates a second loss function according to the training output image and the first training frame image 1230_1 acquired by the at least one processor 220 through the simulation module 1271. It may consist of instructions or program code related to the operation or function of calculating the loss function.

일 실시예에서, 제2 손실 함수 계산 모듈(1272)은 훈련용 출력 영상에 포함된 복수의 서로 다른 뷰에 각각 대응되는 복수의 서브 훈련용 출력 영상과 제1 훈련용 프레임 영상(1230_1)에 포함되는 복수의 훈련용 뷰 영상들(1231)의 차이에 기초하여 제2 손실 함수를 계산하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, the second loss function calculation module 1272 is included in the first training frame image 1230_1 and a plurality of sub-training output images, each corresponding to a plurality of different views included in the training output image. It may be composed of instructions or program code related to an operation or function of calculating a second loss function based on differences between the plurality of training view images 1231.

일 실시예에서, 제2 손실 함수의 값은, 영상 생성 모듈(1210)을 통하여 생성된 훈련용 베이스 영상(1240_2)과 훈련용 레이어 영상(1240_1) 및 패널 정보(1273)에 기초하여 시뮬레이션 동작을 수행하여 획득한 훈련용 출력 영상과 제1 훈련용 프레임 영상(1230_1)의 차이가 적을수록 작아질 수 있다.In one embodiment, the value of the second loss function is a simulation operation based on the training base image 1240_2, the training layer image 1240_1, and the panel information 1273 generated through the image generation module 1210. The smaller the difference between the training output image obtained through execution and the first training frame image 1230_1, the smaller it can be.

일 실시예에서, 적어도 하나의 프로세서(220)는 제2 훈련 모듈(1270)을 통하여 제2 손실 함수의 값이 작아지도록 영상 생성 모듈(1210)에 포함된 제1 인공 지능 모델을 훈련시킬 수 있다. 적어도 하나의 프로세서(220)는 제1 훈련용 프레임 영상(1230_1)에 기초하여, 작은 제2 손실 함수의 값을 얻을 수 있는 훈련용 베이스 영상(1230_1) 및 훈련용 레이어 영상(1240_1)을 추론하도록 제1 인공 지능 모델을 훈련시킬 수 있다. 제1 인공 지능 모델에 포함된 가중치는 제2 손실 함수의 값이 작아지도록 업데이트 될 수 있다.In one embodiment, at least one processor 220 may train the first artificial intelligence model included in the image generation module 1210 to reduce the value of the second loss function through the second training module 1270. . At least one processor 220 is configured to infer a training base image 1230_1 and a training layer image 1240_1 from which a small second loss function value can be obtained based on the first training frame image 1230_1. A first artificial intelligence model can be trained. Weights included in the first artificial intelligence model may be updated so that the value of the second loss function becomes smaller.

도 12c는 본 개시의 일 실시예에 따른, 제2 인공 지능 모델을 훈련시키기 위한 제3 손실 함수를 설명하기 위한 도면이다. 이하, 도 12a 및 도 12b에서 설명한 구성과 동일한 구성에 대한 중복되는 설명은 생략한다.FIG. 12C is a diagram illustrating a third loss function for training a second artificial intelligence model according to an embodiment of the present disclosure. Hereinafter, overlapping descriptions of the same components as those described in FIGS. 12A and 12B will be omitted.

도 12c를 참조하면, 일 실시예에서 제3 훈련 모듈(1280)은 영상 쉬프트 모듈(1281) 및 제3 손실 함수 계산 모듈(1282)을 포함할 수 있다.Referring to FIG. 12C, in one embodiment, the third training module 1280 may include an image shift module 1281 and a third loss function calculation module 1282.

일 실시예에서, 영상 쉬프트 모듈(1281)은 영상 생성 모듈(1210)을 통하여 생성된 서로 다른 복수의 뷰에 각각 대응되는 복수의 서브 훈련용 베이스 영상들(1241)을 포함하는 훈련용 베이스 영상(1240_2) 및 기준 쉬프트 값(1290)에 기초하여, 복수의 서브 훈련용 베이스 영상들(1241) 각각을 기준 쉬프트 값을 이용하여 쉬프트하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, the image shift module 1281 is a training base image including a plurality of sub-training base images 1241, each corresponding to a plurality of different views generated through the image generation module 1210. Based on 1240_2) and the reference shift value 1290, it may be composed of commands or program codes related to an operation or function of shifting each of the plurality of sub-training base images 1241 using the reference shift value.

일 실시예에서, 서로 다른 복수의 뷰가

Figure pat00030
개일 때, 사용자(250)의 위치가 전자 장치(100)의 정면에서 영상(260)을 볼 수 있는 뷰에 있는 것을 기준으로 전자 장치(100)의 좌측면으로
Figure pat00031
개의 뷰, 전자 장치(100)의 우측면으로
Figure pat00032
개의 뷰가 포함될 수 있다. 도 10을 참조할 때, 기준 쉬프트 값(1290)은 인접한 두 개의 뷰 각각에 대응되는 레이어 영역의 픽셀 간의 간격에 대응될 수 있다.In one embodiment, a plurality of different views
Figure pat00030
When open, the user 250 is positioned on the left side of the electronic device 100 based on the view where the image 260 can be viewed from the front of the electronic device 100.
Figure pat00031
View of the left side of the electronic device 100
Figure pat00032
Views may be included. Referring to FIG. 10, the reference shift value 1290 may correspond to the gap between pixels in the layer area corresponding to each of two adjacent views.

일 실시예에서, 영상 쉬프트 모듈(1281)은 서로 다른 복수의 뷰에 대응되는 복수의 서브 훈련용 영상들(1241) 각각을, 인접한 뷰에 대응되도록 기준 쉬프트 값을 이용하여 쉬프트하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드를 포함할 수 있다.In one embodiment, the image shift module 1281 performs an operation or function of shifting each of the plurality of sub-training images 1241 corresponding to a plurality of different views using a reference shift value to correspond to an adjacent view. It may include related instructions or program code.

일 실시예에서, 인접한 두 개의 뷰 각각에 대응되는 서브 훈련용 영상들 각각은 서로 다른 뷰에 대응됨에 따라, 서로 다른 물체의 위치 정보를 포함할 수 있다. 영상 쉬프트 모듈(1281)은 쉬프트된 서브 훈련용 영상의 물체의 위치 정보가 인접한 뷰의 쉬프트되기 전의 서브 훈련용 영상의 물체의 위치 정보와 동일하도록 인접한 두 개의 뷰 각각에 대응되는 서브 훈련용 영상들을 기준 쉬프트 값을 이용하여 쉬프트하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드를 포함할 수 있다. In one embodiment, each of the sub-training images corresponding to two adjacent views may include location information of different objects as they correspond to different views. The image shift module 1281 selects sub-training images corresponding to each of the two adjacent views so that the position information of the object in the shifted sub-training image is the same as the position information of the object in the sub-training image before the shift in the adjacent view. It may include instructions or program code related to an operation or function of shifting using a reference shift value.

일 실시예에서, 서로 다른 복수의 뷰 중 어느 하나의 뷰를 제1 뷰라고 하고, 제1 뷰에 인접한 뷰를 제2 뷰라고 할 때, 영상 쉬프트 모듈(1281)은 복수의 서브 훈련용 베이스 영상들(1241) 중 제2 뷰에 대응되는 서브 훈련용 베이스 영상을 기준 쉬프트 값을 이용하여 제1 뷰에 대응되도록 쉬프트할 수 있다. 쉬프트된 제2 뷰에 대응되는 서브 훈련용 베이스 영상에 포함된 물체의 위치 정보는 제1 뷰에 대응되는 서브 훈련용 베이스 영상에 포함된 물체의 위치 정보와 동일할 수 있다. 또한, 쉬프트된 제2 뷰에 대응되는 서브 훈련용 베이스 영상에 포함된 물체의 휘도, 계조, 색상 등의 정보는 쉬프트되기 전의 제2 뷰에 대응되는 서브 훈련용 베이스 영상에 포함된 물체의 휘도, 계조, 색상 등의 정보와 동일할 수 있다.In one embodiment, when one view among a plurality of different views is referred to as a first view and a view adjacent to the first view is referred to as a second view, the image shift module 1281 generates a plurality of base images for sub-training. The sub-training base image corresponding to the second view among fields 1241 may be shifted to correspond to the first view using a reference shift value. The position information of the object included in the sub-training base image corresponding to the shifted second view may be the same as the position information of the object included in the sub-training base image corresponding to the first view. In addition, information such as luminance, grayscale, color, etc. of the object included in the sub-training base image corresponding to the shifted second view includes the luminance of the object included in the sub-training base image corresponding to the second view before shifting, It may be the same as information such as gradation and color.

일 실시예에서, 제3 손실 함수 계산 모듈(1282)은 적어도 하나의 프로세서(220)가 영상 보정 모듈(1220)을 실행하여 생성한 보정-훈련용 베이스 영상(1250)과 쉬프트된 훈련용 베이스 영상에 따른 제3 손실 함수를 계산하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, the third loss function calculation module 1282 includes the correction-training base image 1250 and the shifted training base image generated by the at least one processor 220 executing the image correction module 1220. It may be composed of instructions or program code related to the operation or function of calculating the third loss function according to .

일 실시예에서, 제3 손실 함수 계산 모듈(1282)은 보정-훈련용 베이스 영상(1250)에 포함된 복수의 서브 보정-훈련용 베이스 영상들(1251) 중 제1 뷰에 대응되는 서브 보정-훈련용 베이스 영상과 쉬프트된 훈련용 베이스 영상에 포함된 복수의 쉬프트된 서브 훈련용 베이스 영상들 중 제2 뷰에 대응되는 서브 훈련용 베이스 영상에 따라 제3 손실 함수를 계산하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, the third loss function calculation module 1282 performs correction-sub correction corresponding to the first view among the plurality of sub-correction-training base images 1251 included in the training base image 1250- An operation or function for calculating a third loss function according to a sub-training base image corresponding to a second view among a plurality of shifted sub-training base images included in the training base image and the shifted training base image. It may consist of instructions or program code.

일 실시예에서, 제2 손실 함수 계산 모듈(1263)은, 제1 뷰에 대응되는 서브 보정-훈련용 베이스 영상과 제2 뷰에 대응되는 서브 훈련용 베이스 영상에 따라, 아래의 수학식 3에 따라 제3 손실 함수를 계산할 수 있다. 제2 손실 함수 계산 모듈(1263)은,

Figure pat00033
개의 뷰 중, 어느 하나의 제1 뷰에 대응되는 서브 보정-훈련용 베이스 영상과 제2 뷰에 대응되는 서브 훈련용 베이스 영상에 따라 제1 뷰에 대응되는 손실 값을 구하고, 해당 과정을
Figure pat00034
개의 뷰에 대하여 반복하는 아래의 수학식 3에 따라 제3 손실 함수를 계산할 수 있다.In one embodiment, the second loss function calculation module 1263 calculates Equation 3 below according to the sub-correction-training base image corresponding to the first view and the sub-training base image corresponding to the second view. Accordingly, the third loss function can be calculated. The second loss function calculation module 1263 is,
Figure pat00033
Among the views, the loss value corresponding to the first view is obtained according to the sub-correction-training base image corresponding to the first view and the sub-training base image corresponding to the second view, and the corresponding process is performed.
Figure pat00034
The third loss function can be calculated according to Equation 3 below, which is repeated for the views.

수학식 3:Equation 3:

Figure pat00035
Figure pat00035

이때,

Figure pat00036
은 제3 손실 함수이고,
Figure pat00037
은 제2 마스킹 값이고,
Figure pat00038
는 n번째 뷰에 대응되는 서브 보정-훈련용 베이스 영상이고,
Figure pat00039
는 쉬프트된 n-1번째 뷰에서의 서브 훈련용 베이스 영상이며,
Figure pat00040
Figure pat00041
Figure pat00042
의 차이의 L1 노름(norm)이다.At this time,
Figure pat00036
is the third loss function,
Figure pat00037
is the second masking value,
Figure pat00038
is the sub-correction-training base image corresponding to the nth view,
Figure pat00039
is the base image for sub-training in the shifted n-1th view,
Figure pat00040
Is
Figure pat00041
and
Figure pat00042
This is the L1 norm of the difference.

일 실시예에서, 제2 마스킹 값은 영상 쉬프트 모듈(1281)을 통하여 n-1번째 뷰에 대응되는 서브 훈련용 베이스 영상을 기준 쉬프트 값(1290)을 이용하여 n번째 뷰에 대응되도록 쉬프트하는 동작에서, 쉬프트가 기준 쉬프트 값(1290)만큼 되지 않은 서브 훈련용 베이스 영상이 제3 손실 함수의 값에 반영되는 것을 방지할 수 있다. 제3 손실 함수 계산 모듈(1282)은 아래의 수학식 4에 따라 제2 마스킹 값을 계산할 수 있다.In one embodiment, the second masking value is an operation of shifting the sub-training base image corresponding to the n-1th view to correspond to the nth view using the reference shift value 1290 through the image shift module 1281. In this case, the sub-training base image whose shift is not equal to the reference shift value 1290 can be prevented from being reflected in the value of the third loss function. The third loss function calculation module 1282 may calculate the second masking value according to Equation 4 below.

수학식 4:Equation 4:

Figure pat00043
Figure pat00043

이때,

Figure pat00044
은 제2 마스킹 값이고,
Figure pat00045
는 임의의 계수이며,
Figure pat00046
는 n번째 뷰에 대응되는 서브 보정-훈련용 베이스 영상이고,
Figure pat00047
는 쉬프트된 n-1번째 뷰에서의 서브 훈련용 베이스 영상이며,
Figure pat00048
Figure pat00049
Figure pat00050
의 차이의 L2 노름(norm)이다.At this time,
Figure pat00044
is the second masking value,
Figure pat00045
is an arbitrary coefficient,
Figure pat00046
is the sub-correction-training base image corresponding to the nth view,
Figure pat00047
is the base image for sub-training in the shifted n-1th view,
Figure pat00048
Is
Figure pat00049
and
Figure pat00050
This is the L2 norm of the difference.

일 실시예에서, 적어도 하나의 프로세서(220)는 제3 손실 함수 계산 모듈(1282)을 통하여,

Figure pat00051
Figure pat00052
의 차이가 기-설정된 차이값보다 클 경우, 영상 쉬프트 모듈(1281)의 와핑이 기준 쉬프트 값(1290)만큼 되지 않았다고 판단하여,
Figure pat00053
개의 뷰 중 n번째 뷰에 대한 마스킹 값이 0에 가까운 값을 갖도록 할 수 있다. 이 경우, 제3 손실 함수의 값 중 n번째 뷰의 성분이 0에 가까운 값이 되어, 해당 훈련 과정은 제2 인공 지능 모델의 훈련에 반영되지 않을 수 있다. In one embodiment, the at least one processor 220, through the third loss function calculation module 1282,
Figure pat00051
and
Figure pat00052
If the difference is greater than the preset difference value, it is determined that the warping of the image shift module 1281 is not as high as the reference shift value 1290,
Figure pat00053
The masking value for the nth view among the views can be set to a value close to 0. In this case, the component of the nth view among the values of the third loss function becomes a value close to 0, so the training process may not be reflected in the training of the second artificial intelligence model.

반면, 적어도 하나의 프로세서(220)는 제3 손실 함수 계산 모듈(1282)을 통하여

Figure pat00054
Figure pat00055
의 차이가 기-설정된 차이값과 같거나 작을 경우, 영상 쉬프트 모듈(1281)에 의한 쉬프트 동작이 기준 쉬프트 값(1290)만큼 되었다고 판단하여,
Figure pat00056
개의 뷰 중 n번째 뷰에 대한 마스킹 값이 1에 가까운 값을 갖도록 할 수 있다. 이 경우, n번째 뷰에 의한 훈련 과정은 제2 인공 지능 모델의 훈련에 반영될 수 있다. On the other hand, at least one processor 220 operates through the third loss function calculation module 1282.
Figure pat00054
and
Figure pat00055
If the difference is equal to or smaller than the preset difference value, it is determined that the shift operation by the image shift module 1281 has reached the reference shift value 1290,
Figure pat00056
The masking value for the nth view among the views can be set to a value close to 1. In this case, the training process using the nth view may be reflected in the training of the second artificial intelligence model.

이때, 기-설정된 차이값의 크기는

Figure pat00057
의 크기를 조절하여 결정할 수 있다.
Figure pat00058
의 크기를 크게 할수록 기-설정된 차이값의 크기가 작아질 수 있다.At this time, the size of the preset difference value is
Figure pat00057
It can be determined by adjusting the size of .
Figure pat00058
As the size of , the size of the preset difference value may become smaller.

다만, 본 개시는 이에 제한되지 않고, 제3 손실 함수 계산 모듈(1282)은 제3 손실 함수 및 제2 마스킹 값을 다른 수학식을 이용하여 계산할 수도 있다.However, the present disclosure is not limited thereto, and the third loss function calculation module 1282 may calculate the third loss function and the second masking value using other equations.

일 실시예에서, 제3 손실 함수의 값은 서로 다른 복수의 뷰에 대응되는 복수의 서브 보정-훈련용 베이스 영상들과, 쉬프트된 복수의 서브 훈련용 베이스 영상들의 차이가 적을수록 작아질 수 있다. 적어도 하나의 프로세서(220)는 제3 훈련 모듈(1280)을 통하여 제3 손실 함수의 값이 작아지도록 영상 보정 모듈(1220)에 포함된 제3 인공 지능 모델을 훈련할 수 있다. 적어도 하나의 프로세서(220)는 복수의 서브 훈련용 베이스 영상들(1241)을 포함하는 훈련용 베이스 영상(1240_2)에 기초하여, 작은 제3 손실 함수 값을 얻을 수 있는 복수의 서브 보정-훈련용 베이스 영상들(1251)을 포함하는 보정-훈련용 베이스 영상(1250)을 추론하도록 제3 인공 지능 모델을 훈련할 수 있다. 제3 인공 지능 모델에 포함된 가중치는 제3 손실 함수의 값이 작아지도록 업데이트 될 수 있다.In one embodiment, the value of the third loss function may become smaller as the difference between a plurality of sub-correction-training base images corresponding to a plurality of different views and a plurality of shifted sub-training base images decreases. . At least one processor 220 may train the third artificial intelligence model included in the image correction module 1220 to reduce the value of the third loss function through the third training module 1280. At least one processor 220 is configured to obtain a small third loss function value based on a training base image 1240_2 including a plurality of sub-training base images 1241 for sub-correction-training. A third artificial intelligence model may be trained to infer the correction-training base image 1250 including the base images 1251. The weights included in the third artificial intelligence model may be updated so that the value of the third loss function becomes smaller.

상술한 기술적 과제를 해결하기 위하여, 일 실시예에서, 전자 장치(100)는 베이스 패널(211), 베이스 패널(211) 상에 배치된 레이어 패널(212), 적어도 하나의 명령어(instruction)를 저장하는 메모리(230) 및 메모리(230)에 저장된 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서(220)를 포함할 수 있다. 적어도 하나의 프로세서(220)는 적어도 하나의 명령어를 실행함으로써, 입력 콘텐츠의 제1 프레임에서의 제1 프레임 영상 및 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상을 획득할 수 있다. 적어도 하나의 프로세서(220)는 제1 프레임 영상 및 제2 프레임 영상을 영상 생성 모듈에 적용함으로써, 제1 프레임에서 베이스 패널에 대응되는 베이스 영상 및 제1 프레임에서 레이어 패널에 대응되고, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 레이어 영상을 생성할 수 있다. 적어도 하나의 프로세서(220)는 베이스 영상 또는 레이어 영상을 영상 보정 모듈에 적용함으로써, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 보정-베이스 영상을 생성할 수 있다. 적어도 하나의 프로세서(220)는 보정-베이스 영상을 베이스 패널에 표시하고, 레이어 영상을 레이어 패널에 표시할 수 있다. In order to solve the above-described technical problem, in one embodiment, the electronic device 100 includes a base panel 211, a layer panel 212 disposed on the base panel 211, and stores at least one instruction. It may include a memory 230 that executes and at least one processor 220 that executes at least one instruction stored in the memory 230. At least one processor 220 may acquire a first frame image in the first frame of the input content and a second frame image in the second frame, which is the frame immediately before the first frame, by executing at least one command. . At least one processor 220 applies the first frame image and the second frame image to the image generation module, thereby creating a base image corresponding to the base panel in the first frame and a layer panel in the first frame, and A layer image can be created based on the movement between the image and the second frame image. At least one processor 220 may generate a correction-base image based on the movement between the first frame image and the second frame image by applying the base image or layer image to the image correction module. At least one processor 220 may display the correction-base image on the base panel and display the layer image on the layer panel.

일 실시예에서, 전자 장치(100)는 베이스 패널(211)과 레이어 패널(212) 사이에 배치된 광학층(213)을 더 포함할 수 있다. 베이스 영상은 서로 다른 복수의 뷰(view)에 각각 대응되는 복수의 서브 베이스 영상들을 포함할 수 있다. 적어도 하나의 프로세서(220)는 베이스 영상 또는 레이어 영상을 영상 보정 모듈에 적용함으로써, 서로 다른 복수의 뷰에 따른 복수의 서브 베이스 영상들 간의 차이에 기초하고, 복수의 서브 보정-베이스 영상들을 포함하는 보정-베이스 영상을 생성할 수 있다.In one embodiment, the electronic device 100 may further include an optical layer 213 disposed between the base panel 211 and the layer panel 212. The base image may include a plurality of sub-base images, each corresponding to a plurality of different views. At least one processor 220 applies the base image or layer image to the image correction module, based on the difference between a plurality of sub-base images according to a plurality of different views, and including a plurality of sub-correction-base images. A correction-base image can be created.

일 실시예에서, 영상 생성 모듈은 제1 프레임 영상 및 제2 프레임 영상에 기초하여 베이스 영상 및 레이어 영상을 추론하도록 훈련된 제1 인공 지능 모델을 포함할 수 있다. 제1 인공 지능 모델은 훈련용 입력 콘텐츠의 제1 프레임에서의 제1 훈련용 프레임 영상 및 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 훈련용 프레임 영상을 획득할 수 있다. 제1 인공 지능 모델은 제1 훈련용 프레임 영상 및 제2 훈련용 프레임 영상 간의 움직임을 추출할 수 있다. 제1 인공 지능 모델은 추출된 움직임을 이용하여, 기-생성된 제2 프레임에서 레이어 패널에 대응되는 비교 레이어 영상을 와핑(warping)할 수 있다. 제1 인공 지능 모델은, 제1 인공 지능 모델을 통하여 생성되는 제1 프레임에서 레이어 패널에 대응되는 훈련용 레이어 영상과 와핑된 비교 레이어 영상에 따른 제1 손실 함수에 기초하여 훈련된 인공 지능 모델일 수 있다.In one embodiment, the image generation module may include a first artificial intelligence model trained to infer a base image and a layer image based on the first frame image and the second frame image. The first artificial intelligence model may acquire a first training frame image in the first frame of the training input content and a second training frame image in the second frame, which is the frame immediately before the first frame. The first artificial intelligence model can extract movement between the first training frame image and the second training frame image. The first artificial intelligence model may use the extracted motion to warp the comparison layer image corresponding to the layer panel in the pre-generated second frame. The first artificial intelligence model is an artificial intelligence model trained based on a first loss function according to the training layer image corresponding to the layer panel and the warped comparison layer image in the first frame generated through the first artificial intelligence model. You can.

일 실시예에서, 제1 훈련용 프레임 영상 및 제2 훈련용 프레임 영상들 각각은 서로 다른 복수의 뷰에서 획득된 복수의 훈련용 뷰 영상들을 포함할 수 있다. 제1 훈련용 프레임 영상 및 제2 훈련용 프레임 영상 간의 움직임은, 제1 훈련용 프레임 영상에 포함된 복수의 훈련용 뷰 영상들 중 센터 뷰에서 획득된 센터 뷰 영상 및 제2 훈련용 프레임 영상에 포함된 복수의 훈련용 뷰 영상들 중 센터 뷰에서 획득된 센터 뷰 영상으로부터 추출될 수 있다.In one embodiment, each of the first training frame image and the second training frame image may include a plurality of training view images obtained from a plurality of different views. The movement between the first training frame image and the second training frame image is determined by the center view image and the second training frame image obtained from the center view among the plurality of training view images included in the first training frame image. It can be extracted from a center view image obtained from a center view among the included plurality of training view images.

일 실시예에서, 제1 손실 함수는 훈련용 레이어 영상과 와핑된 비교 레이어 영상의 차이를 토대로 계산될 수 있다. 제1 인공 지능 모델은 제1 손실 함수에 기초하여 훈련용 레이어 영상과 와핑된 비교 레이어 영상의 차이가 적어지도록 훈련될 수 있다.In one embodiment, the first loss function may be calculated based on the difference between the training layer image and the warped comparison layer image. The first artificial intelligence model may be trained to reduce the difference between the training layer image and the warped comparison layer image based on the first loss function.

일 실시예에서, 제1 인공 지능 모델은 제1 훈련용 프레임 영상 및 제2 훈련용 프레임 영상을 제1 인공 지능 모델에 적용함으로써, 제1 프레임에서 베이스 패널에 대응되는 훈련용 베이스 영상과, 제1 프레임에서 레이어 패널에 대응되는 훈련용 레이어 영상을 생성할 수 있다. 제1 인공 지능 모델은 훈련용 베이스 영상, 훈련용 레이어 영상, 베이스 패널의 밝기 정보 및 레이어 패널의 밝기 정보를 토대로 제1 프레임에서의 훈련용 출력 영상을 획득할 수 있다. 제1 인공 지능 모델은 제1 훈련용 프레임 영상과 훈련용 출력 영상간의 차이에 따른 제2 손실 함수에 기초하여 훈련된 인공 지능 모델일 수 있다.In one embodiment, the first artificial intelligence model applies the first training frame image and the second training frame image to the first artificial intelligence model, thereby generating a training base image corresponding to the base panel in the first frame, and a second training frame image. You can create a training layer image corresponding to the layer panel in 1 frame. The first artificial intelligence model may obtain an output image for training in the first frame based on the training base image, training layer image, brightness information of the base panel, and brightness information of the layer panel. The first artificial intelligence model may be an artificial intelligence model trained based on a second loss function according to the difference between the first training frame image and the output image for training.

일 실시예에서, 적어도 하나의 프로세서(220)는 적어도 하나의 명령어를 실행함으로써, 제1 프레임 영상 및 레이어 영상을 영상 보정 모듈에 적용함으로써 보정-베이스 영상을 생성할 수 있다. In one embodiment, the at least one processor 220 may generate a correction-base image by executing at least one instruction and applying the first frame image and the layer image to the image correction module.

일 실시예에서, 제1 프레임 영상은 서로 다른 복수의 뷰에서 획득된 복수의 뷰 영상들을 포함할 수 있다. 적어도 하나의 프로세서(220)는 적어도 하나의 명령어를 실행함으로써, 제1 프레임 영상, 레이어 영상 및 복수의 뷰에 각각 대응되는 복수의 쉬프트 값들을 영상 보정 모듈에 적용하여, 보정-베이스 영상을 생성할 수 있다. 영상 보정 모듈은 레이어 영상을 복수의 쉬프트 값들 각각을 이용하여 쉬프트하는 동작이나 기능을 수행하는 명령어를 포함할 수 있다. 영상 보정 모듈은 각각의 복수의 뷰 영상들과 복수의 뷰 영상들에 각각 대응되는 복수의 쉬프트된 레이어 영상들 간의 차이를 이용하여, 보정-베이스 영상을 생성하는 동작이나 기능을 수행하는 명령어를 포함할 수 있다. 복수의 쉬프트 값들은 베이스 패널(211)과 레이어 패널(212) 간의 간격, 레이어 패널(212)의 해상도 또는 서로 다른 복수의 뷰 중 적어도 하나에 기초하여 결정될 수 있다.In one embodiment, the first frame image may include multiple view images obtained from multiple different views. At least one processor 220 executes at least one instruction to apply a plurality of shift values corresponding to each of the first frame image, the layer image, and the plurality of views to the image correction module to generate a correction-base image. You can. The image correction module may include a command that performs an operation or function of shifting the layer image using each of a plurality of shift values. The image correction module includes instructions for performing an operation or function of generating a correction-base image using the differences between each of the plurality of view images and the plurality of shifted layer images corresponding to the plurality of view images. can do. The plurality of shift values may be determined based on at least one of the spacing between the base panel 211 and the layer panel 212, the resolution of the layer panel 212, or a plurality of different views.

일 실시예에서, 영상 보정 모듈은 베이스 영상에 기초하여 보정-베이스 영상을 추론하도록 훈련된 제2 인공 지능 모델을 포함할 수 있다. 제2 인공 지능 모델은 영상 생성 모듈을 통하여 생성되는 복수의 서로 다른 뷰에 각각 대응되는 복수의 서브 훈련용 베이스 영상들을 포함하는 훈련용 베이스 영상 및 기준 쉬프트 값을 획득할 수 있다. 제2 인공 지능 모델은 복수의 서브 훈련용 베이스 영상들 각각을 기준 쉬프트 값을 이용하여 쉬프트할 수 있다. 제2 인공 지능 모델은, 제2 인공 지능 모델을 통하여 생성되는 보정-훈련용 베이스 영상과 쉬프트된 훈련용 베이스 영상에 따른 제3 손실 함수에 기초하여 훈련된 인공 지능 모델일 수 있다.In one embodiment, the image correction module may include a second artificial intelligence model trained to infer a correction-base image based on the base image. The second artificial intelligence model may acquire a training base image and a reference shift value including a plurality of sub-training base images corresponding to a plurality of different views generated through the image generation module. The second artificial intelligence model may shift each of the plurality of sub-training base images using a reference shift value. The second artificial intelligence model may be an artificial intelligence model trained based on a third loss function according to the corrected-training base image and the shifted training base image generated through the second artificial intelligence model.

일 실시예에서, 제3 손실 함수는 보정-훈련용 베이스 영상에 포함된 복수의 서브 보정-훈련용 베이스 영상들 중 어느 하나의 제1 뷰에 대응되는 서브 보정-훈련용 베이스 영상과 쉬프트된 훈련용 베이스 영상에 포함된 복수의 쉬프트된 서브 훈련용 베이스 영상들 중 제1 뷰에 인접한 제2 뷰에 대응되는 쉬프트된 서브 훈련용 베이스 영상 간의 차이에 따라 계산될 수 있다. 제2 인공 지능 모델은, 제3 손실 함수에 기초하여 서브 보정-훈련용 베이스 영상과 쉬프트된 서브 훈련용 베이스 영상의 차이가 적어지도록 훈련될 수 있다.In one embodiment, the third loss function is a sub-correction-training base image corresponding to a first view among a plurality of sub-correction-training base images included in the correction-training base image and the shifted training It may be calculated according to the difference between the shifted sub-training base image corresponding to the second view adjacent to the first view among the plurality of shifted sub-training base images included in the base image. The second artificial intelligence model may be trained to reduce the difference between the sub-correction-training base image and the shifted sub-training base image based on the third loss function.

상술한 기술적 과제를 해결하기 위하여, 일 실시예에서, 베이스 패널(211) 및 베이스 패널(211) 상에 배치된 레이어 패널(212)을 포함하는 전자 장치(100)의 동작 방법을 제공한다. 일 실시예에 따른 전자 장치(100)의 동작 방법은 입력 콘텐츠의 제1 프레임에서의 제1 프레임 영상 및 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상을 획득하는 단계를 포함할 수 있다. 전자 장치(100)의 동작 방법은 제1 프레임 영상 및 제2 프레임 영상을 영상 생성 모듈에 적용함으로써, 제1 프레임에서 베이스 패널(211)에 대응되는 베이스 영상 및 제1 프레임에서 레이어 패널(212)에 대응되고, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 레이어 영상을 생성하는 단계를 포함할 수 있다. 전자 장치(100)의 동작 방법은 베이스 영상 또는 레이어 영상을 영상 보정 모듈에 적용함으로써, 제1 프레임 영상과 제2 프레임 영상 간의 움직임에 기초한 보정-베이스 영상을 생성하는 단계를 포함할 수 있다. 전자 장치(100)의 동작 방법은 보정-베이스 영상을 베이스 패널(211)에 표시하고, 레이어 영상을 레이어 패널(212)에 표시하는 단계를 포함할 수 있다.In order to solve the above-described technical problem, in one embodiment, a method of operating an electronic device 100 including a base panel 211 and a layer panel 212 disposed on the base panel 211 is provided. A method of operating the electronic device 100 according to an embodiment may include acquiring a first frame image in a first frame of input content and a second frame image in a second frame that is the frame immediately preceding the first frame. You can. The operating method of the electronic device 100 is to apply the first frame image and the second frame image to the image generation module, thereby generating the base image corresponding to the base panel 211 in the first frame and the layer panel 212 in the first frame. It corresponds to and may include generating a layer image based on movement between the first frame image and the second frame image. The method of operating the electronic device 100 may include generating a correction-base image based on movement between a first frame image and a second frame image by applying a base image or a layer image to an image correction module. The method of operating the electronic device 100 may include displaying a correction-base image on the base panel 211 and displaying a layer image on the layer panel 212.

일 실시예에서, 전자 장치(100)는 베이스 패널(211)과 레이어 패널(212) 사이에 배치된 광학층(213)을 더 포함할 수 있다. 베이스 영상은 서로 다른 복수의 뷰(view)에 각각 대응되는 복수의 서브 베이스 영상들을 포함할 수 있다. 보정-베이스 영상을 생성하는 단계에서는, 베이스 영상 또는 레이어 영상을 영상 보정 모듈에 적용함으로써 서로 다른 복수의 뷰에 따른 복수의 서브 베이스 영상들 간의 차이에 기초하고, 복수의 서브 보정-베이스 영상들을 포함하는 보정-베이스 영상을 생성하는 단계를 포함할 수 있다.In one embodiment, the electronic device 100 may further include an optical layer 213 disposed between the base panel 211 and the layer panel 212. The base image may include a plurality of sub-base images, each corresponding to a plurality of different views. In the step of generating a correction-base image, it is based on the difference between a plurality of sub-base images according to a plurality of different views by applying the base image or layer image to the image correction module, and includes a plurality of sub-correction-base images. It may include generating a correction-base image.

일 실시예에서, 영상 생성 모듈은 제1 프레임 영상 및 제2 프레임 영상에 기초하여, 베이스 영상 및 레이어 영상을 추론하도록 훈련된 제1 인공 지능 모델을 포함할 수 있다. 제1 인공 지능 모델의 훈련 방법은 훈련용 입력 콘텐츠의 제1 프레임에서의 제1 훈련용 프레임 영상 및 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 훈련용 프레임 영상을 획득하는 단계를 포함할 수 있다. 제1 인공 지능 모델의 훈련 방법은 제1 훈련용 프레임 영상 및 제2 훈련용 프레임 영상 간의 움직임을 추출하는 단계를 포함할 수 있다. 제1 인공 지능 모델의 훈련 방법은 추출된 움직임을 이용하여, 기-생성된 제2 프레임에서 레이어 패널(212)에 대응되는 비교 레이어 영상을 와핑(warping) 하는 단계를 포함할 수 있다. 제1 인공 지능 모델의 훈련 방법은 제1 인공 지능 모델을 통하여 생성되는 제1 프레임에서의 레이어 패널(212)에 대응되는 훈련용 레이어 영상과 와핑된 비교 레이어 영상에 따른 제1 손실 함수에 기초하여, 제1 인공 지능 모델을 훈련시키는 단계를 포함할 수 있다.In one embodiment, the image generation module may include a first artificial intelligence model trained to infer a base image and a layer image based on the first frame image and the second frame image. The training method of the first artificial intelligence model includes acquiring a first training frame image in a first frame of input content for training and a second training frame image in a second frame that is the frame immediately before the first frame. can do. The training method of the first artificial intelligence model may include extracting movement between the first training frame image and the second training frame image. The training method of the first artificial intelligence model may include warping the comparison layer image corresponding to the layer panel 212 in the pre-generated second frame using the extracted motion. The training method of the first artificial intelligence model is based on the first loss function according to the training layer image corresponding to the layer panel 212 in the first frame generated through the first artificial intelligence model and the warped comparison layer image. , may include training a first artificial intelligence model.

일 실시예에서, 제1 훈련용 프레임 영상 및 제2 훈련용 프레임 영상들 각각은 서로 다른 복수의 뷰에서 획득된 복수의 훈련용 뷰 영상들을 포함할 수 있다. 제1 훈련용 프레임 영상 및 제2 훈련용 프레임 영상 간의 움직임을 추출하는 단계에서, 제1 훈련용 프레임 영상 및 제2 훈련용 프레임 영상 간의 움직임은 제1 훈련용 프레임 영상에 포함된 복수의 훈련용 뷰 영상들 중 센터 뷰에서 획득된 센터 뷰 영상 및 제2 훈련용 프레임 영상에 포함된 복수의 훈련용 뷰 영상들 중 센터 뷰에서 획득된 센터 뷰 영상으로부터 추출될 수 있다.In one embodiment, each of the first training frame image and the second training frame image may include a plurality of training view images obtained from a plurality of different views. In the step of extracting the movement between the first training frame image and the second training frame image, the movement between the first training frame image and the second training frame image is generated from the plurality of training frame images included in the first training frame image. It may be extracted from a center view image acquired from a center view among view images and a center view image acquired from a center view among a plurality of training view images included in the second training frame image.

일 실시예에서, 제1 인공 지능 모델의 훈련 방법은 제1 훈련용 프레임 영상 및 제2 훈련용 프레임 영상을 제1 인공 지능 모델에 적용함으로써, 제1 프레임에서 베이스 패널(211)에 대응되는 훈련용 베이스 영상 및 제1 프레임에서 레이어 패널(212)에 대응되는 훈련용 레이어 영상을 생성하는 단계를 포함할 수 있다. 제1 인공 지능 모델의 훈련 방법은 훈련용 베이스 영상, 훈련용 레이어 영상, 베이스 패널(211)의 밝기 정보 및 레이어 패널(212)의 밝기 정보에 기초하여 제1 프레임에서의 훈련용 출력 영상을 획득하는 단계를 포함할 수 있다. 제1 인공 지능 모델의 훈련 방법은 제1 훈련용 프레임 영상과 훈련용 출력 영상의 차이에 따른 제2 손실 함수에 기초하여 제1 인공 지능 모델을 훈련시키는 단계를 포함할 수 있다.In one embodiment, the training method of the first artificial intelligence model includes applying the first training frame image and the second training frame image to the first artificial intelligence model, thereby training corresponding to the base panel 211 in the first frame. It may include generating a training layer image corresponding to the layer panel 212 from the base image and the first frame. The training method of the first artificial intelligence model acquires an output image for training in the first frame based on the training base image, training layer image, brightness information of the base panel 211, and brightness information of the layer panel 212. It may include steps. The training method of the first artificial intelligence model may include training the first artificial intelligence model based on a second loss function based on the difference between the first training frame image and the output image for training.

일 실시예에서, 보정-베이스 영상을 생성하는 단계에서는 제1 프레임 영상 및 레이어 영상을 영상 보정 모듈에 적용함으로써, 보정-베이스 영상을 생성할 수 있다. In one embodiment, in the step of generating a correction-base image, the correction-base image may be generated by applying the first frame image and the layer image to the image correction module.

일 실시예에서, 제1 프레임 영상은 서로 다른 복수의 뷰에서 획득된 복수의 뷰 영상들을 포함할 수 있다. 보정-베이스 영상을 생성하는 단계에서는, 제1 프레임 영상, 레이어 영상 및 복수의 뷰에 각각 대응되는 복수의 쉬프트 값들을 영상 보정 모듈에 적용함으로써 보정-베이스 영상을 생성할 수 있다. 영상 보정 모듈은 레이어 영상을 복수의 쉬프트 값들 각각을 이용하여 쉬프트하는 동작이나 기능을 수행하는 명령어를 포함할 수 있다. 영상 보정 모듈은 각각의 복수의 뷰 영상들과 복수의 뷰 영상들에 각각 대응되는 복수의 쉬프트된 레이어 영상들을 이용하여, 보정-베이스 영상을 생성하는 동작이나 기능을 수행하는 명령어를 포함할 수 있다. 복수의 쉬프트 값들은 베이스 패널(211)과 레이어 패널(212) 간의 간격, 레이어 패널(212)의 해상도 또는 서로 다른 복수의 뷰 중 적어도 하나에 기초하여 결정될 수 있다.In one embodiment, the first frame image may include multiple view images obtained from multiple different views. In the step of generating a correction-base image, the correction-base image may be generated by applying a plurality of shift values corresponding to the first frame image, the layer image, and the plurality of views to the image correction module. The image correction module may include a command that performs an operation or function of shifting the layer image using each of a plurality of shift values. The image correction module may include instructions for performing an operation or function of generating a correction-base image using each of the plurality of view images and a plurality of shifted layer images corresponding to the plurality of view images. . The plurality of shift values may be determined based on at least one of the spacing between the base panel 211 and the layer panel 212, the resolution of the layer panel 212, or a plurality of different views.

일 실시예에서, 영상 보정 모듈은 베이스 영상에 기초하여 보정-베이스 영상을 추론하도록 훈련된 제2 인공 지능 모델을 포함할 수 있다. 제2 인공 지능 모델의 훈련 방법은, 영상 생성 모듈을 통하여 생성되는 복수의 서로 다른 뷰에 각각 대응되는 복수의 서브 훈련용 베이스 영상들을 포함하는 훈련용 베이스 영상 및 기준 쉬프트 값을 획득하는 단계를 포함할 수 있다. 제2 인공 지능 모델의 훈련 방법은, 복수의 훈련용 베이스 영상들 각각을 기준 쉬프트 값을 이용하여 쉬프트하는 단계를 포함할 수 있다. 제2 인공 지능 모델의 훈련 방법은, 제2 인공 지능 모델을 통하여 생성되는 보정-훈련용 베이스 영상과 쉬프트된 훈련용 베이스 영상에 따른 제3 손실 함수에 기초하여 제2 인공 지능 모델을 훈련시키는 단계를 포함할 수 있다.In one embodiment, the image correction module may include a second artificial intelligence model trained to infer a correction-base image based on the base image. The training method of the second artificial intelligence model includes acquiring a training base image and a reference shift value including a plurality of sub-training base images corresponding to a plurality of different views generated through an image generation module. can do. The training method of the second artificial intelligence model may include shifting each of a plurality of base images for training using a reference shift value. The training method of the second artificial intelligence model includes training the second artificial intelligence model based on a third loss function according to the corrected-training base image and the shifted training base image generated through the second artificial intelligence model. may include.

일 실시예에서, 제3 손실 함수에 기초하여 제2 인공 지능 모델을 훈련시키는 단계는, 보정-훈련용 베이스 영상에 포함된 복수의 서브 보정-훈련용 베이스 영상들 중 어느 하나의 제1 뷰에 대응되는 서브 보정-훈련용 베이스 영상과 쉬프트된 훈련용 베이스 영상에 포함된 복수의 쉬프트된 서브 훈련용 베이스 영상들 중 제1 뷰에 인접한 제2 뷰에 대응되는 쉬프트된 서브 훈련용 베이스 영상 간의 차이에 따라 제3 손실 함수를 계산하는 단계를 포함할 수 있다. 제3 손실 함수에 기초하여 제2 인공 지능 모델을 훈련시키는 단계는, 제3 손실 함수에 기초하여 서브 보정-훈련용 베이스 영상과 쉬프트된 서브 훈련용 베이스 영상의 차이가 적어지도록 제2 인공 지능 모델을 훈련시키는 단계를 포함할 수 있다.In one embodiment, the step of training the second artificial intelligence model based on the third loss function includes selecting a first view among a plurality of sub-correction-training base images included in the correction-training base image. The difference between the corresponding sub correction-training base image and the shifted sub-training base image corresponding to the second view adjacent to the first view among the plurality of shifted sub-training base images included in the shifted training base image. It may include calculating a third loss function according to . The step of training the second artificial intelligence model based on the third loss function includes training the second artificial intelligence model to reduce the difference between the sub-correction-training base image and the shifted sub-training base image based on the third loss function. It may include training.

본 개시의 일 실시예로, 개시된 방법의 실시예 중 적어도 하나의 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다.In one embodiment of the present disclosure, a computer-readable recording medium on which a program for performing at least one method among the embodiments of the disclosed method is recorded on a computer may be provided.

본 개시에서 설명된 전자 장치에 의해 실행되는 프로그램은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 프로그램은 컴퓨터로 읽을 수 있는 명령어들을 수행할 수 있는 모든 시스템에 의해 수행될 수 있다.Programs executed by the electronic device described in this disclosure may be implemented with hardware components, software components, and/or a combination of hardware components and software components. A program can be executed by any system that can execute computer-readable instructions.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령어(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device.

소프트웨어는, 컴퓨터로 읽을 수 있는 저장 매체(computer-readable storage media)에 저장된 명령어를 포함하는 컴퓨터 프로그램으로 구현될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체로는, 예를 들어 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 기록 매체는 컴퓨터에 의해 판독 가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.Software may be implemented as a computer program including instructions stored on computer-readable storage media. Computer-readable recording media include, for example, magnetic storage media (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical read media (e.g., CD-ROM). (CD-ROM), DVD (Digital Versatile Disc), etc. The computer-readable recording medium is distributed among computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner. The recording medium can be read by a computer, stored in memory, and executed by a processor.

컴퓨터로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Computer-readable storage media may be provided in the form of non-transitory storage media. Here, 'non-transitory storage medium' only means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as . For example, a 'non-transitory storage medium' may include a buffer where data is temporarily stored.

또한, 본 명세서에 개시된 실시예들에 따른 프로그램은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. Additionally, programs according to embodiments disclosed in this specification may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers.

컴퓨터 프로그램 제품은 소프트웨어 프로그램, 소프트웨어 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예를 들어, 삼성 갤럭시 스토어)을 통해 전자적으로 배포되는 소프트웨어 프로그램 형태의 상품(예를 들어, 다운로드 가능한 애플리케이션(downloadable application))을 포함할 수 있다. 전자적 배포를 위하여, 소프트웨어 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 전자 장치의 제조사의 서버, 전자 마켓의 서버, 또는 소프트웨어 프로그램을 임시적으로 저장하는 중계 서버의 저장 매체가 될 수 있다.A computer program product may include a software program and a computer-readable storage medium on which the software program is stored. For example, a computer program product includes a product in the form of a software program (e.g., a downloadable application) that is distributed electronically by the manufacturer of the electronic device or through an electronic marketplace (e.g., Samsung Galaxy Store). can do. For electronic distribution, at least a portion of the software program may be stored on a storage medium or created temporarily. In this case, the storage medium may be a storage medium of a server of an electronic device manufacturer, a server of an electronic market, or a relay server that temporarily stores a software program.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 컴퓨터 시스템 또는 모듈 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and/or components, such as a described computer system or module, may be combined or combined in a form different from the described method, or other components or equivalents may be used. Appropriate results can be achieved even if replaced or replaced by .

Claims (20)

베이스 패널(211);
상기 베이스 패널(211) 상에 배치된 레이어 패널(212);
적어도 하나의 명령어(instruction)를 저장하는 메모리(230); 및
상기 메모리(230)에 저장된 상기 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서(220)를 포함하고,
상기 적어도 하나의 프로세서(220)는 상기 적어도 하나의 명령어를 실행함으로써,
입력 콘텐츠의 제1 프레임에서의 제1 프레임 영상 및 상기 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상을 획득하고,
상기 제1 프레임 영상 및 상기 제2 프레임 영상을 영상 생성 모듈에 적용함으로써, 상기 제1 프레임에서 상기 베이스 패널에 대응되는 베이스 영상 및 상기 제1 프레임에서 상기 레이어 패널에 대응되고, 상기 제1 프레임 영상과 상기 제2 프레임 영상 간의 움직임에 기초한 레이어 영상을 생성하고,
상기 베이스 영상 또는 상기 레이어 영상을 영상 보정 모듈에 적용함으로써, 상기 제1 프레임 영상과 상기 제2 프레임 영상 간의 움직임에 기초한 보정-베이스 영상을 생성하며,
상기 보정-베이스 영상을 상기 베이스 패널에 표시하고, 상기 레이어 영상을 상기 레이어 패널에 표시하는 전자 장치(100).
base panel 211;
a layer panel 212 disposed on the base panel 211;
a memory 230 that stores at least one instruction; and
At least one processor 220 that executes the at least one instruction stored in the memory 230,
The at least one processor 220 executes the at least one instruction,
Obtaining a first frame image in a first frame of input content and a second frame image in a second frame that is the frame immediately preceding the first frame,
By applying the first frame image and the second frame image to the image generation module, the base image corresponding to the base panel in the first frame and the layer panel in the first frame, and the first frame image and generate a layer image based on the movement between the second frame image,
Applying the base image or the layer image to an image correction module to generate a correction-base image based on movement between the first frame image and the second frame image,
An electronic device (100) that displays the correction-base image on the base panel and displays the layer image on the layer panel.
제1 항에 있어서,
상기 전자 장치(100)는, 상기 베이스 패널(211)과 상기 레이어 패널(212) 사이에 배치된 광학층(213)을 더 포함하고,
상기 베이스 영상은, 서로 다른 복수의 뷰(view)에 각각 대응되는 복수의 서브 베이스 영상들을 포함하고,
상기 적어도 하나의 프로세서(220)는,
상기 베이스 영상 또는 상기 레이어 영상을 상기 영상 보정 모듈에 적용함으로써, 상기 서로 다른 복수의 뷰에 따른 상기 복수의 서브 베이스 영상들 간의 차이에 기초하고, 복수의 서브 보정-베이스 영상들을 포함하는 상기 보정-베이스 영상을 생성하는 전자 장치(100).
According to claim 1,
The electronic device 100 further includes an optical layer 213 disposed between the base panel 211 and the layer panel 212,
The base image includes a plurality of sub-base images each corresponding to a plurality of different views,
The at least one processor 220,
By applying the base image or the layer image to the image correction module, the correction is based on a difference between the plurality of sub-base images according to the plurality of different views and includes a plurality of sub-base images. Electronic device 100 for generating a base image.
제1 또는 제2 항 중 어느 하나의 항에 있어서,
상기 영상 생성 모듈은, 상기 제1 프레임 영상 및 상기 제2 프레임 영상에 기초하여 상기 베이스 영상 및 상기 레이어 영상을 추론하도록 훈련된 제1 인공 지능 모델을 포함하고,
상기 제1 인공 지능 모델은,
훈련용 입력 콘텐츠의 제1 프레임에서의 제1 훈련용 프레임 영상 및 상기 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 훈련용 프레임 영상을 획득하고,
상기 제1 훈련용 프레임 영상 및 상기 제2 훈련용 프레임 영상 간의 움직임을 추출하고,
상기 추출된 움직임을 이용하여, 기-생성된 상기 제2 프레임에서 상기 레이어 패널에 대응되는 비교 레이어 영상을 와핑(warping)하고,
상기 제1 인공 지능 모델을 통하여 생성되는 상기 제1 프레임에서 상기 레이어 패널에 대응되는 훈련용 레이어 영상과 상기 와핑된 비교 레이어 영상에 따른 제1 손실 함수에 기초하여 훈련된 인공 지능 모델인 전자 장치(100).
According to any one of claims 1 or 2,
The image generation module includes a first artificial intelligence model trained to infer the base image and the layer image based on the first frame image and the second frame image,
The first artificial intelligence model is,
Obtaining a first training frame image in a first frame of training input content and a second training frame image in a second frame that is the frame immediately preceding the first frame,
Extracting motion between the first training frame image and the second training frame image,
Using the extracted motion, warping a comparison layer image corresponding to the layer panel in the pre-generated second frame,
An electronic device that is an artificial intelligence model trained based on a first loss function according to the training layer image corresponding to the layer panel and the warped comparison layer image in the first frame generated through the first artificial intelligence model ( 100).
제3 항에 있어서,
상기 제1 훈련용 프레임 영상 및 상기 제2 훈련용 프레임 영상들 각각은 서로 다른 복수의 뷰에서 획득된 복수의 훈련용 뷰 영상들을 포함하고,
상기 제1 훈련용 프레임 영상 및 상기 제2 훈련용 프레임 영상 간의 움직임은, 상기 제1 훈련용 프레임 영상에 포함된 상기 복수의 훈련용 뷰 영상들 중 센터 뷰에서 획득된 센터 뷰 영상 및 상기 제2 훈련용 프레임 영상에 포함된 상기 복수의 훈련용 뷰 영상들 중 센터 뷰에서 획득된 센터 뷰 영상으로부터 추출되는 전자 장치(100).
According to clause 3,
Each of the first training frame image and the second training frame image includes a plurality of training view images obtained from a plurality of different views,
The movement between the first training frame image and the second training frame image includes a center view image obtained from a center view among the plurality of training view images included in the first training frame image and the second training frame image. An electronic device 100 that is extracted from a center view image acquired from a center view among the plurality of training view images included in a training frame image.
제3 또는 제4 항 중 어느 하나의 항에 있어서,
상기 제1 손실 함수는, 상기 훈련용 레이어 영상과 상기 와핑된 비교 레이어 영상의 차이에 따라 계산되며,
상기 제1 인공 지능 모델은, 상기 제1 손실 함수에 기초하여, 상기 훈련용 레이어 영상과 상기 와핑된 비교 레이어 영상의 차이가 적어지도록 훈련되는 전자 장치(100).
According to any one of claims 3 or 4,
The first loss function is calculated according to the difference between the training layer image and the warped comparison layer image,
The first artificial intelligence model is trained to reduce the difference between the training layer image and the warped comparison layer image based on the first loss function.
제3 내지 제5 항 중 어느 하나의 항에 있어서,
상기 제1 인공 지능 모델은,
상기 제1 훈련용 프레임 영상 및 상기 제2 훈련용 프레임 영상을 상기 제1 인공 지능 모델에 적용함으로써, 상기 제1 프레임에서 상기 베이스 패널에 대응되는 훈련용 베이스 영상과, 상기 제1 프레임에서 상기 레이어 패널에 대응되는 상기 훈련용 레이어 영상을 생성하고,
상기 훈련용 베이스 영상, 상기 훈련용 레이어 영상, 상기 베이스 패널의 밝기 정보 및 상기 레이어 패널의 밝기 정보를 토대로 상기 제1 프레임에서의 훈련용 출력 영상을 획득하고,
상기 제1 훈련용 프레임 영상과 상기 훈련용 출력 영상 간의 차이에 따른 제2 손실 함수에 기초하여 훈련된 인공 지능 모델인 전자 장치(100).
According to any one of claims 3 to 5,
The first artificial intelligence model is,
By applying the first training frame image and the second training frame image to the first artificial intelligence model, a training base image corresponding to the base panel in the first frame and the layer in the first frame are generated. Generate the training layer image corresponding to the panel,
Obtaining an output image for training in the first frame based on the training base image, the training layer image, brightness information of the base panel, and brightness information of the layer panel,
An electronic device 100 that is an artificial intelligence model trained based on a second loss function based on the difference between the first training frame image and the training output image.
제1 또는 제2 항 중 어느 하나의 항에 있어서,
상기 적어도 하나의 프로세서(220)는, 상기 적어도 하나의 명령어를 실행함으로써,
상기 제1 프레임 영상 및 상기 레이어 영상을 상기 영상 보정 모듈에 적용하여 상기 보정-베이스 영상을 생성하는 전자 장치(100).
According to any one of claims 1 or 2,
The at least one processor 220 executes the at least one instruction,
An electronic device (100) that generates the correction-base image by applying the first frame image and the layer image to the image correction module.
제2 항에 있어서,
상기 제1 프레임 영상은, 상기 서로 다른 복수의 뷰에서 획득된 복수의 뷰 영상들을 포함하고,
상기 적어도 하나의 프로세서(220)는, 상기 적어도 하나의 명령어를 실행함으로써, 상기 제1 프레임 영상, 상기 레이어 영상 및 상기 복수의 뷰에 각각 대응되는 복수의 쉬프트 값들을 상기 영상 보정 모듈에 적용하여, 상기 보정-베이스 영상을 생성하며,
상기 영상 보정 모듈은,
상기 레이어 영상을 상기 복수의 쉬프트 값들 각각을 이용하여 쉬프트하고,
각각의 상기 복수의 뷰 영상들 및 상기 복수의 뷰 영상들에 각각 대응되는 복수의 쉬프트된 레이어 영상들을 이용하여, 상기 보정-베이스 영상을 생성하는 동작이나 기능을 수행하는 명령어를 포함하고,
상기 복수의 쉬프트 값들은, 상기 베이스 패널(211)과 상기 레이어 패널(212) 간의 간격, 상기 레이어 패널(212)의 해상도 또는 상기 서로 다른 복수의 뷰 중 적어도 하나에 기초하여 결정되는 전자 장치(100).
According to clause 2,
The first frame image includes a plurality of view images obtained from the plurality of different views,
The at least one processor 220 applies a plurality of shift values corresponding to the first frame image, the layer image, and the plurality of views to the image correction module by executing the at least one instruction, Generating the correction-base image,
The image correction module is,
Shifting the layer image using each of the plurality of shift values,
A command for performing an operation or function of generating the correction-base image using each of the plurality of view images and a plurality of shifted layer images corresponding to the plurality of view images, respectively,
The plurality of shift values are determined based on at least one of the interval between the base panel 211 and the layer panel 212, the resolution of the layer panel 212, or the plurality of different views. ).
제2 항에 있어서,
상기 영상 보정 모듈은, 상기 베이스 영상 및 기준 쉬프트 값에 기초하여, 상기 보정-베이스 영상을 추론하도록 훈련된 제2 인공 지능 모델을 포함하고,
상기 제2 인공 지능 모델은,
상기 영상 생성 모듈을 통하여 생성되는, 상기 복수의 서로 다른 뷰에 각각 대응되는 복수의 서브 훈련용 베이스 영상들을 포함하는 훈련용 베이스 영상 및 상기 기준 쉬프트 값을 획득하고,
상기 복수의 서브 훈련용 베이스 영상들 각각을 상기 기준 쉬프트 값을 이용하여 쉬프트하고,
상기 제2 인공 지능 모델을 통하여 생성되는 보정-훈련용 베이스 영상과 상기 쉬프트된 훈련용 베이스 영상에 따른 제3 손실 함수에 기초하여 훈련된 인공 지능 모델이며,
상기 기준 쉬프트 값은, 상기 베이스 패널(211)과 상기 레이어 패널(212) 간의 간격 또는 상기 레이어 패널(212)의 해상도 중 적어도 하나에 기초하여 결정되는 전자 장치(100).
According to clause 2,
The image correction module includes a second artificial intelligence model trained to infer the correction-base image based on the base image and a reference shift value,
The second artificial intelligence model is,
Obtaining a training base image including a plurality of sub-training base images corresponding to the plurality of different views, which are generated through the image generation module, and the reference shift value,
Shifting each of the plurality of sub-training base images using the reference shift value,
An artificial intelligence model trained based on a correction-training base image generated through the second artificial intelligence model and a third loss function according to the shifted training base image,
The reference shift value is determined based on at least one of the distance between the base panel 211 and the layer panel 212 or the resolution of the layer panel 212.
제9 항에 있어서,
상기 제3 손실 함수는, 상기 보정-훈련용 베이스 영상에 포함된 복수의 서브 보정-훈련용 베이스 영상들 중 어느 하나의 제1 뷰에 대응되는 서브 보정-훈련용 베이스 영상과 상기 쉬프트된 훈련용 베이스 영상에 포함된 복수의 쉬프트된 서브 훈련용 베이스 영상들 중 상기 제1 뷰에 인접한 제2 뷰에 대응되는 서브 훈련용 베이스 영상을 쉬프트한 서브 훈련용 베이스 영상 간의 차이에 따라 계산되며,
상기 제2 인공 지능 모델은, 상기 제3 손실 함수에 기초하여, 상기 서브 보정-훈련용 베이스 영상과 상기 쉬프트된 서브 훈련용 베이스 영상의 차이가 적어지도록 훈련되는 전자 장치(100).
According to clause 9,
The third loss function is a sub-correction-training base image corresponding to a first view among a plurality of sub-correction-training base images included in the correction-training base image and the shifted training base image. Calculated according to the difference between a sub-training base image obtained by shifting a sub-training base image corresponding to a second view adjacent to the first view among a plurality of shifted sub-training base images included in the base image,
The second artificial intelligence model is trained to reduce the difference between the sub-correction-training base image and the shifted sub-training base image based on the third loss function.
베이스 패널(211) 및 상기 베이스 패널(211) 상에 배치된 레이어 패널(212)을 포함하는 전자 장치(100)의 동작 방법에 있어서,
입력 콘텐츠의 제1 프레임에서의 제1 프레임 영상 및 상기 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 프레임 영상을 획득하는 단계;
상기 제1 프레임 영상 및 상기 제2 프레임 영상을 영상 생성 모듈에 적용함으로써, 상기 제1 프레임에서 상기 베이스 패널(211)에 대응되는 베이스 영상 및 상기 제1 프레임에서 상기 레이어 패널(212)에 대응되고, 상기 제1 프레임 영상과 상기 제2 프레임 영상 간의 움직임에 기초한 레이어 영상을 생성하는 단계;
상기 베이스 영상 또는 상기 레이어 영상을 영상 보정 모듈에 적용함으로써, 상기 제1 프레임 영상과 상기 제2 프레임 영상 간의 움직임에 기초한 보정-베이스 영상을 생성하는 단계; 및
상기 보정-베이스 영상을 상기 베이스 패널(211)에 표시하고, 상기 레이어 영상을 상기 레이어 패널(212)에 표시하는 단계를 포함하는 전자 장치(100)의 동작 방법.
In a method of operating an electronic device 100 including a base panel 211 and a layer panel 212 disposed on the base panel 211,
Obtaining a first frame image in a first frame of input content and a second frame image in a second frame that is the frame immediately preceding the first frame;
By applying the first frame image and the second frame image to the image generation module, the base image corresponding to the base panel 211 in the first frame and the layer panel 212 in the first frame are , generating a layer image based on movement between the first frame image and the second frame image;
generating a correction-base image based on movement between the first frame image and the second frame image by applying the base image or the layer image to an image correction module; and
A method of operating an electronic device (100) including displaying the correction-base image on the base panel (211) and displaying the layer image on the layer panel (212).
제11 항에 있어서,
상기 전자 장치(100)는 상기 베이스 패널(211)과 상기 레이어 패널(212) 사이에 배치된 광학층(213)을 더 포함하고,
상기 베이스 영상은, 서로 다른 복수의 뷰(view)에 각각 대응되는 복수의 서브 베이스 영상들을 포함하고,
상기 보정-베이스 영상을 생성하는 단계에서는,
상기 베이스 영상 또는 상기 레이어 영상을 상기 영상 보정 모듈에 적용함으로써, 상기 서로 다른 복수의 뷰에 따른 상기 복수의 서브 베이스 영상들 간의 차이에 기초하고, 복수의 서브 보정-베이스 영상들을 포함하는 상기 보정-베이스 영상을 생성하는 전자 장치(100)의 동작 방법.
According to claim 11,
The electronic device 100 further includes an optical layer 213 disposed between the base panel 211 and the layer panel 212,
The base image includes a plurality of sub-base images each corresponding to a plurality of different views,
In the step of generating the correction-base image,
By applying the base image or the layer image to the image correction module, the correction is based on a difference between the plurality of sub-base images according to the plurality of different views and includes a plurality of sub-base images. Method of operating an electronic device 100 that generates a base image.
제11 항 또는 제12 항 중 어느 하나의 항에 있어서,
상기 영상 생성 모듈은, 상기 제1 프레임 영상 및 상기 제2 프레임 영상에 기초하여, 상기 베이스 영상 및 상기 레이어 영상을 추론하도록 훈련된 제1 인공 지능 모델을 포함하고,
상기 제1 인공 지능 모델은,
훈련용 입력 콘텐츠의 제1 프레임에서의 제1 훈련용 프레임 영상 및 상기 제1 프레임의 직전 프레임인 제2 프레임에서의 제2 훈련용 프레임 영상을 획득하는 단계;
상기 제1 훈련용 프레임 영상 및 상기 제2 훈련용 프레임 영상 간의 움직임을 추출하는 단계;
상기 추출된 움직임을 이용하여, 기-생성된 상기 제2 프레임에서 상기 레이어 패널(212)에 대응되는 비교 레이어 영상을 와핑(warping) 하는 단계; 및
상기 제1 인공 지능 모델을 통하여 생성되는 상기 제1 프레임에서의 상기 레이어 패널(212)에 대응되는 훈련용 레이어 영상과 상기 와핑된 비교 레이어 영상에 따른 제1 손실 함수에 기초하여, 상기 제1 인공 지능 모델을 훈련시키는 단계를 통하여 훈련된 인공 지능 모델인 전자 장치(100)의 동작 방법.
According to any one of claims 11 or 12,
The image generation module includes a first artificial intelligence model trained to infer the base image and the layer image based on the first frame image and the second frame image,
The first artificial intelligence model is,
Obtaining a first training frame image in a first frame of input content for training and a second training frame image in a second frame that is the frame immediately preceding the first frame;
extracting motion between the first training frame image and the second training frame image;
warping a comparison layer image corresponding to the layer panel 212 in the pre-generated second frame using the extracted motion; and
Based on a first loss function according to the training layer image corresponding to the layer panel 212 in the first frame generated through the first artificial intelligence model and the warped comparison layer image, the first artificial intelligence model A method of operating an electronic device 100, which is an artificial intelligence model trained through the step of training an intelligence model.
제13 항에 있어서,
상기 제1 훈련용 프레임 영상 및 상기 제2 훈련용 프레임 영상들 각각은 서로 다른 복수의 뷰에서 획득된 복수의 훈련용 뷰 영상들을 포함하고,
상기 제1 훈련용 프레임 영상 및 상기 제2 훈련용 프레임 영상 간의 움직임을 추출하는 단계에서,
상기 움직임은, 상기 제1 훈련용 프레임 영상에 포함된 상기 복수의 훈련용 뷰 영상들 중 센터 뷰에서 획득된 센터 뷰 영상 및 상기 제2 훈련 프레임 영상에 포함된 상기 복수의 훈련용 뷰 영상들 중 센터 뷰에서 획득된 센터 뷰 영상으로부터 추출되는 전자 장치(100)의 동작 방법.
According to claim 13,
Each of the first training frame image and the second training frame image includes a plurality of training view images obtained from a plurality of different views,
In the step of extracting movement between the first training frame image and the second training frame image,
The movement is a center view image obtained from a center view among the plurality of training view images included in the first training frame image and a center view image among the plurality of training view images included in the second training frame image. A method of operating an electronic device 100 extracted from a center view image acquired in a center view.
제13 또는 제14 항 중 어느 하나의 항에 있어서,
상기 제1 인공 지능 모델은,
상기 제1 훈련용 프레임 영상 및 상기 제2 훈련용 프레임 영상을 상기 제1 인공 지능 모델에 적용함으로써, 상기 제1 프레임에서 상기 베이스 패널(211)에 대응되는 훈련용 베이스 영상 및 상기 제1 프레임에서 상기 레이어 패널(212)에 대응되는 상기 훈련용 레이어 영상을 생성하는 단계;
상기 훈련용 베이스 영상, 상기 훈련용 레이어 영상, 상기 베이스 패널(211)의 밝기 정보 및 상기 레이어 패널(212)의 밝기 정보에 기초하여 상기 제1 프레임에서의 훈련용 출력 영상을 획득하는 단계; 및
상기 제1 훈련용 프레임 영상과 상기 훈련용 출력 영상의 차이에 따른 제2 손실 함수에 기초하여 상기 제1 인공 지능 모델을 훈련시키는 단계를 통하여 훈련된 인공 지능 모델인 전자 장치(100)의 동작 방법.
According to any one of claims 13 or 14,
The first artificial intelligence model is,
By applying the first training frame image and the second training frame image to the first artificial intelligence model, the training base image corresponding to the base panel 211 in the first frame and the first frame generating the training layer image corresponding to the layer panel 212;
Obtaining an output image for training in the first frame based on the training base image, the training layer image, brightness information of the base panel 211, and brightness information of the layer panel 212; and
A method of operating the electronic device 100, which is an artificial intelligence model trained through training the first artificial intelligence model based on a second loss function according to the difference between the first training frame image and the training output image. .
제11 또는 제12 항 중 어느 하나의 항에 있어서,
상기 보정-베이스 영상을 생성하는 단계에서는,
상기 제1 프레임 영상 및 상기 레이어 영상을 상기 영상 보정 모듈에 적용함으로써, 상기 보정-베이스 영상을 생성하는 전자 장치(100)의 동작 방법.
According to any one of claims 11 or 12,
In the step of generating the correction-base image,
A method of operating the electronic device 100 for generating the correction-base image by applying the first frame image and the layer image to the image correction module.
제12 항에 있어서,
상기 제1 프레임 영상은, 상기 서로 다른 복수의 뷰에서 획득된 복수의 뷰 영상들을 포함하고,
상기 보정-베이스 영상을 생성하는 단계에서는, 상기 제1 프레임 영상, 상기 레이어 영상 및 상기 복수의 뷰에 각각 대응되는 복수의 쉬프트 값들을 상기 영상 보정 모듈에 적용함으로써, 상기 보정-베이스 영상을 생성하며,
상기 영상 보정 모듈은,
상기 레이어 영상을 상기 복수의 쉬프트 값들 각각을 이용하여 쉬프트하고,
각각의 상기 복수의 뷰 영상들과 상기 복수의 뷰 영상들에 각각 대응되는 복수의 쉬프트된 레이어 영상들을 이용하여, 상기 보정-베이스 영상을 생성하는 동작이나 기능을 수행하는 명령어를 포함하고,
상기 복수의 쉬프트 값들은, 상기 베이스 패널(211)과 상기 레이어 패널(212) 간의 간격, 상기 레이어 패널(212)의 해상도 또는 상기 서로 다른 복수의 뷰 중 적어도 하나에 기초하여 결정되는 전자 장치(100)의 동작 방법.
According to claim 12,
The first frame image includes a plurality of view images obtained from the plurality of different views,
In the step of generating the correction-base image, the correction-base image is generated by applying a plurality of shift values corresponding to each of the first frame image, the layer image, and the plurality of views to the image correction module; ,
The image correction module is,
Shifting the layer image using each of the plurality of shift values,
A command for performing an operation or function of generating the correction-base image using each of the plurality of view images and a plurality of shifted layer images corresponding to the plurality of view images, respectively,
The plurality of shift values are determined based on at least one of the interval between the base panel 211 and the layer panel 212, the resolution of the layer panel 212, or the plurality of different views. ) operation method.
제12 항에 있어서,
상기 영상 보정 모듈은, 상기 베이스 영상에 기초하여 상기 보정-베이스 영상을 추론하도록 훈련된 제2 인공 지능 모델을 포함하고,
상기 제2 인공 지능 모델은,
상기 영상 생성 모듈을 통하여 생성되는, 상기 복수의 서로 다른 뷰에 각각 대응되는 복수의 서브 훈련용 베이스 영상들을 포함하는 훈련용 베이스 영상 및 기준 쉬프트 값을 획득하는 단계;
상기 복수의 훈련용 베이스 영상들 각각을 상기 기준 쉬프트 값을 이용하여 쉬프트하는 단계; 및
상기 제2 인공 지능 모델을 통하여 생성되는 보정-훈련용 베이스 영상과 쉬프트된 훈련용 베이스 영상에 따른 제3 손실 함수에 기초하여, 상기 제2 인공 지능 모델을 훈련시키는 단계를 통하여 훈련된 인공 지능 모델인 전자 장치(100)의 동작 방법.
According to claim 12,
The image correction module includes a second artificial intelligence model trained to infer the correction-base image based on the base image,
The second artificial intelligence model is,
Obtaining a base image for training including a plurality of sub-training base images corresponding to each of the plurality of different views and a reference shift value generated through the image generation module;
Shifting each of the plurality of training base images using the reference shift value; and
An artificial intelligence model trained through the step of training the second artificial intelligence model based on a third loss function according to the correction-training base image and the shifted training base image generated through the second artificial intelligence model. Method of operating the electronic device 100.
제18 항에 있어서,
상기 제3 손실 함수에 기초하여 상기 제2 인공 지능 모델을 훈련시키는 단계는,
상기 보정-훈련용 베이스 영상에 포함된 복수의 서브 보정-훈련용 베이스 영상들 중 어느 하나의 제1 뷰에 대응되는 서브 보정-훈련용 베이스 영상과 상기 쉬프트된 훈련용 베이스 영상에 포함된 복수의 쉬프트된 서브 훈련용 베이스 영상들 중 상기 제1 뷰에 인접한 제2 뷰에 대응되는 쉬프트된 서브 훈련용 베이스 영상 간의 차이에 따라 상기 제3 손실 함수를 계산하는 단계; 및
상기 제3 손실 함수에 기초하여, 상기 서브 보정-훈련용 베이스 영상과 상기 쉬프트된 서브 훈련용 베이스 영상의 차이가 적어지도록 상기 제2 인공 지능 모델을 훈련시키는 단계를 포함하는 전자 장치(100)의 동작 방법.
According to clause 18,
The step of training the second artificial intelligence model based on the third loss function is,
A sub-correction-training base image corresponding to a first view among a plurality of sub-correction-training base images included in the correction-training base image and a plurality of sub-correction-training base images included in the shifted training base image calculating the third loss function according to a difference between a shifted sub-training base image corresponding to a second view adjacent to the first view among the shifted sub-training base images; and
Based on the third loss function, training the second artificial intelligence model to reduce the difference between the sub-correction-training base image and the shifted sub-training base image. How it works.
제11 항 내지 제19 항 중 어느 한 항의 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium on which a program for performing the method of any one of claims 11 to 19 is recorded on a computer.
KR1020220153816A 2022-08-18 2022-11-16 Electronic apparatus for displaying 3d image and operating method for the same KR20240025440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/011987 WO2024039154A1 (en) 2022-08-18 2023-08-11 Electronic device for displaying 3d image and operation method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220103410 2022-08-18
KR20220103410 2022-08-18

Publications (1)

Publication Number Publication Date
KR20240025440A true KR20240025440A (en) 2024-02-27

Family

ID=90058799

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220153816A KR20240025440A (en) 2022-08-18 2022-11-16 Electronic apparatus for displaying 3d image and operating method for the same

Country Status (1)

Country Link
KR (1) KR20240025440A (en)

Similar Documents

Publication Publication Date Title
US20210088968A1 (en) Dynamic fresnel projector
US9940753B1 (en) Real time surface augmentation using projected light
EP3435284A1 (en) Neural network foreground separation for mixed reality
US20230360182A1 (en) Enhanced Photo Relighting Based on Machine Learning Models
EP3959688B1 (en) Generative latent textured proxies for object category modeling
CN108351691A (en) remote rendering for virtual image
KR20220052359A (en) Joint Depth Prediction with Dual Cameras and Dual Pixels
US20230419600A1 (en) Volumetric performance capture with neural rendering
JP7451514B2 (en) System and method for processing images for display devices
KR102430743B1 (en) Apparatus and method for developing object analysis model based on data augmentation
CN115981467B (en) Image synthesis parameter determining method, image synthesis method and device
KR20240025440A (en) Electronic apparatus for displaying 3d image and operating method for the same
US11636578B1 (en) Partial image completion
RU2757563C1 (en) Method for visualizing a 3d portrait of a person with altered lighting and a computing device for it
US11423308B1 (en) Classification for image creation
KR20240045059A (en) Electronic apparatus for displaying 3d image and operating method for the same
KR20230146431A (en) Electronic apparatus for displaying 3d image and operating method for the same
US20230326432A1 (en) Electronic apparatus for displaying 3d image and operating method thereof
KR20240025423A (en) Electronic apparatus for displaying 3d image and operating method for the same
US11562504B1 (en) System, apparatus and method for predicting lens attribute
US12045925B2 (en) Computing images of head mounted display wearer
EP4150560B1 (en) Single image 3d photography with soft-layering and depth-aware inpainting
US20210390767A1 (en) Computing images of head mounted display wearer
KR20240109482A (en) An augmented reality device for obtaining three-dimensional position information of joints of user's hand and a method for operating the same
KR20240093709A (en) Image light redistribution based on machine learning model