KR101422590B1 - Display apparatus and method - Google Patents

Display apparatus and method Download PDF

Info

Publication number
KR101422590B1
KR101422590B1 KR1020120077839A KR20120077839A KR101422590B1 KR 101422590 B1 KR101422590 B1 KR 101422590B1 KR 1020120077839 A KR1020120077839 A KR 1020120077839A KR 20120077839 A KR20120077839 A KR 20120077839A KR 101422590 B1 KR101422590 B1 KR 101422590B1
Authority
KR
South Korea
Prior art keywords
image frame
image
text
background
color
Prior art date
Application number
KR1020120077839A
Other languages
Korean (ko)
Other versions
KR20140011111A (en
Inventor
정순기
강선호
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020120077839A priority Critical patent/KR101422590B1/en
Publication of KR20140011111A publication Critical patent/KR20140011111A/en
Application granted granted Critical
Publication of KR101422590B1 publication Critical patent/KR101422590B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 디스플레이 장치 및 디스플레이 방법을 개시한다. 본 발명에 따른 디스플레이 방법은, 배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 단계 및 제1 영상 프레임 및 제2 영상 프레임을 기 설정된 방식에 따라 이미지 처리하는 단계 및 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 단계를 포함한다.The present invention discloses a display device and a display method. A display method according to the present invention includes the steps of generating a second image frame including a first image frame including a first text corresponding to a wearer of glasses using a background image frame and a second text corresponding to a wearer wearing glasses, And image processing the first image frame and the second image frame according to a predetermined method, and alternately displaying the image-processed first image frame and the second image frame.

Description

디스플레이 장치 및 디스플레이 방법{DISPLAY APPARATUS AND METHOD} [0001] DISPLAY APPARATUS AND METHOD [0002]

본 발명은 디스플레이 장치 및 디스플레이 방법에 관한 것으로, 특히 다수의 사용자가 동시에 사용할 수 있는 테이블 탑 디스플레이 장치 및 디스플레이의 효과적인 영상 가시화 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a display device and a display method, and more particularly, to a tabletop display device and a display method that can be used by a plurality of users at the same time.

테이블 탑 디스플레이 장치는 테이블의 상단에 설치된 디스플레이와 이를 바탕으로 터치 인터페이스 등의 방법으로 조작 가능한 다중 사용자용 작업환경이다. 이러한 형태의 다수의 사용자가 공유하는 화면은 텍스트와 같이 방향에 민감한 정보를 출력할 경우 가독성이 떨어진다는 단점을 갖고 있다.The tabletop display device is a multi-user work environment that can be operated by a display installed at the top of the table and a touch interface based on the display. The screen shared by a large number of users of this type has the disadvantage that readability is poor when directionally sensitive information such as text is outputted.

이러한 문제점을 개선하기 위한 연구들 중에서는, Fresnel lens를 사용하는 방식, 개인 공간을 할당하는 방식, 3차원 디스플레이와 셔터 글라스를 활용하는 방식등 다양한 방식이 연구되고 있다.In order to solve these problems, various methods such as a method using a Fresnel lens, a method for allocating a personal space, a method using a three-dimensional display and a shutter glass have been studied.

이 중에서 사용자의 위치에 따라 서로 다른 영상을 보여주는 방식도 제안되고 있지만, 빔 프로젝터가 사용되어서 장비가 커지는 단점이 지적되고 있다.Among them, a method of displaying different images according to the user's position is proposed, but it is pointed out that a beam projector is used and the equipment becomes large.

또한, 각자의 개인 공간을 할당하여 개인 영역에서는 자신의 위치에 맞도록 문자를 출력하는 방법은 개인의 영역을 구분한다는 점에서 공동 작업의 영역에 제약이 따르는 문제점이 있다. In addition, the method of outputting the characters to suit their positions in the personal area by assigning their own personal spaces has a problem in that the area of the collaborative work is limited due to the division of the individual areas.

이를 개선하기 위한 연구 중, 3차원 디스플레이와 셔터 글라스를 활용하는 방식은 안경을 사용한 그룹과 사용하지 않는 그룹, 두 그룹에 대하여 서로 다른 영상을 가시화하는 연구가 수행된 바 있다. 이때 사용된 테이블 탑 디스플레이는, 3D 모니터를 사용하여 두 채널을 시간에 따라 번갈아가며 출력하고 셔터 글래스를 개조하여 그 중 한 채널만을 사용자에게 출력한다.Among the studies to improve this, researches have been carried out to visualize different images for two groups, that is, a group using glasses, and a group using glasses, in which a three-dimensional display and a shutter glass are used. In this case, the table top display uses a 3D monitor to alternately output the two channels over time, modifies the shutter glass, and outputs only one of the channels to the user.

따라서, 안경착용자는 두 채널 중 한 채널의 영상만을 보게 되고, 미착용자는 두 채널이 합성된 영상을 보게 된다. IPN은 안경 미착용자가 보게 되는 영상, IDG는 안경 착용자가 보게 되는 영상, IDM은 마스크가 씌어진 영상이고, 다음의 수학식 1과 같이 표현된다.Therefore, the spectacle wearer sees only the image of one of the two channels, while the non-wearer sees the synthesized image of the two channels. I PN is the image seen by the non-eyeglasses user, I DG is the image seen by the wearer of glasses, and I DM is the image written by the mask.

Figure 112012057097410-pat00001
Figure 112012057097410-pat00001

상기 수학식 1에 의해서 IPN이 결정된다. 이때, 수학식 1에서 사용되는 IDG 와 IDM을 생성하는 알고리즘은 Yerazunis, W., Carbone, M.에 의해서 "Privacy-enhanced displays by time-masking images" Austrailian Confenrence on Computer-Human Interaction, 2001.에서 제안되었다.I PN is determined by Equation (1). Algorithms for generating I DG and I DM used in Equation (1) are described by Yerazunis, W., Carbone, M., "Privacy-enhanced displays by time-masking images", Austrailian Conf. On Computer-Human Interaction, .

Yerazunis에 의해서 제안된 알고리즘은 셔터글라스를 착용하지 않은 사용자에게 출력되는 영상의 대비가 저하되는 문제점이 지적되고 있다.The algorithm proposed by Yerazunis points out that the contrast of images output to users who do not wear shutter glasses is lowered.

상술한 문제점을 해결하기 위해서 안출된 것으로, 서로 다른 방향에 있는 복수의 사용자가 방향성을 갖는 정보를 용이하게 식별할 수 있는 디스플레이 장치 및 방향에 맞게 가독성이 향상된 정보를 디스플레이하는 방법을 제공하는 것을 목적으로 한다.It is therefore an object of the present invention to provide a display device capable of easily identifying directional information by a plurality of users in different directions and a method of displaying information with improved readability in accordance with the direction .

상기 목적을 달성하기 위한 본 발명에 따른 디스플레이 방법은, 배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 단계 및 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 기 설정된 방식에 따라 이미지 처리하는 단계, 상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 단계를 포함한다.According to another aspect of the present invention, there is provided a display method using a background image frame, the display method including a first image frame including a first text corresponding to a wearer of glasses, and a second text corresponding to a non- Generating an image frame, and image-processing the first image frame and the second image frame according to a predetermined method, and alternately displaying the image-processed first image frame and the second image frame, .

이 경우에, 상기 이미지 처리된 제2 영상 프레임은, 안경 비착용자에 대하여 상기 이미지 처리된 제1 영상 프레임과 오버랩되고, 상기 제1 텍스트는, 상기 안경 비착용자에 대하여 불인식될 수 있다.In this case, the image-processed second image frame overlaps with the image-processed first image frame with respect to the wearer of the eyeglass, and the first text may be un-recognized with respect to the wearer of the eyeglass.

한편, 상기 기 설정된 방식은, 흑백 출력법, 손실 출력법, 축소 출력법, 오류 확산 출력법, 단색상 출력법 중 하나의 방식에 의할 수 있다.Meanwhile, the predetermined method may be one of a black and white output method, a loss output method, a reduced output method, an error diffusion output method, and a single color output method.

이 경우에, 상기 흑백 출력법은, 상기 제1 텍스트의 명도(brightness)값을 제1 명도값으로 변경하여 상기 제1 영상 프레임을 변환하는 단계 및 상기 제2 텍스트의 명도값을 제2 명도값으로 변경하여 상기 제2 영상 프레임을 변환하는 단계를 포함하고, 상기 제1 명도값과 상기 제2 명도값은 서로 대비되는 명도값일 수 있다.In this case, the black-and-white output method may include converting the first image frame by changing the brightness value of the first text to a first brightness value, and converting the brightness value of the second text to a second brightness value And converting the second image frame, wherein the first brightness value and the second brightness value may be brightness values that are contrasted with each other.

한편, 상기 손실 출력법은, 상기 배경 영상 프레임과 상기 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하는 단계, 상기 제1 영상 프레임의 에러값을 이용하여 상기 제1 영상 프레임을 보상하는 단계, 상기 제2 영상 프레임의 배경 영상 프레임과 상기 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 단계, 상기 보상된 제1 영상 프레임과 상기 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 단계 및 상기 배경 에러값과 상기 제2 텍스트의 에러값을 이용하여 상기 제2 영상 프레임을 보상하는 단계를 포함한다.The lossy output method may further include calculating an error value of a first image frame between the background image frame and the first image frame, calculating an error value of the first image frame using the error value of the first image frame, Calculating a background error value between the background image frame of the second image frame and the compensated first image frame, calculating a background error value between the compensated first image frame and the second text of the second image frame, 2 text, and compensating the second image frame using the background error value and the error value of the second text.

한편, 상기 축소 출력법은, 상기 배경 영상 프레임과 상기 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하고, 상기 제1 영상 프레임의 에러값을 이용하여 상기 제1 영상 프레임을 보상하는 단계, 상기 제2 영상 프레임의 상기 제2 텍스트의 해상도를 기설정된 비율로 축소하는 단계, 상기 축소된 제2 영상 프레임의 배경 영상 프레임과 상기 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 단계, 상기 보상된 제1 영상 프레임과 상기 축소된 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 단계 및 상기 배경 에러값과 상기 제2 텍스트의 에러값을 이용하여 상기 제2 영상 프레임을 보상하는 단계를 포함한다.The reduced output method calculates an error value of a first image frame between the background image frame and the first image frame and compensates the first image frame using an error value of the first image frame Calculating a background error value between the background image frame of the reduced second image frame and the compensated first image frame, calculating a background error value between the background image frame of the reduced second image frame and the compensated first image frame, Calculating an error value of a second text between the compensated first image frame and a second text of the reduced second image frame using the error value of the background error value and the second text, And compensating the second image frame.

한편, 상기 오류 확산 출력법은, 가우시안 함수에 의해서 상기 제1 영상 프레임과 상기 제2 영상 프레임의 출력을 확산하는 단계, 상기 확산된 제1 영상 프레임 및 제2 영상 프레임에서 기 설정된 출력 범위를 벗어나는 손실영역을 제거하는 단계 및 상기 확산된 제1 영상 프레임과 상기 제2 영상 프레임 사이의 간섭영역을 제거하는 단계를 포함한다.The error diffusion output method may include diffusing the outputs of the first image frame and the second image frame using a Gaussian function, and outputting the output of the first image frame and the second image frame, Removing the lossy region, and removing an interference region between the spread first image frame and the second image frame.

한편, 상기 단색상 출력법은, 상기 제1 영상 프레임의 제1 텍스트의 색상을 제1 색상값을 갖도록 변환하는 단계 및 상기 제2 영상 프레임의 제2 텍스트의 색상을 제2 색상값을 갖도록 변환하는 단계를 포함하고, 상기 제1 색상값과 상기 제2 색상값은 서로 색상 대비될 수 있다.The color output method may further include a step of converting the color of the first text of the first image frame to have a first color value and converting the color of the second text of the second image frame to have a second color value Wherein the first color value and the second color value may be color contrasted with each other.

본 발명의 다른 실시예에 따른 디스플레이 장치는, 배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 프레임 생성부, 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 기 설정된 방식에 따라 이미지 처리하는 이미지 처리부, 상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 디스플레이부를 포함한다.The display device according to another exemplary embodiment of the present invention includes a first image frame including a first text corresponding to a wearer of glasses using a background image frame and a second image frame including a second text corresponding to a non- An image processing unit for image-processing the first image frame and the second image frame according to a predetermined method, a display unit for alternately displaying the first image frame and the second image frame, .

이 경우에, 상기 디스플레이부는, 상기 이미지 처리된 제2 영상 프레임을 안경 비착용자에 대하여 상기 이미지 처리된 제1 영상 프레임과 오버랩되도록 디스플레이하고, 상기 제1 텍스트는, 상기 안경 비착용자에 대하여 불인식될 수 있다.In this case, the display unit displays the image-processed second image frame so as to be overlapped with the image-processed first image frame with respect to the spectacle wearer, and the first text is displayed on the non- .

한편, 상기 이미지 처리부는, 상기 설정된 방식에 따라 흑백 출력 처리 모듈, 손실 출력 처리 모듈, 축소 출력 처리 모듈, 오류 확산 출력 처리 모듈, 단색상 출력 처리 모듈 중 적어도 어느 하나에 따라 상기 제1 영상 프레임과 상기 제2 영상 프레임을 이미지 처리할 수 있다.The image processing unit may process the first image frame and the second image frame according to at least one of a monochrome output processing module, a lossy output processing module, a reduced output processing module, an error diffusion output processing module, The second image frame may be image-processed.

이 경우에, 상기 흑백 출력 처리 모듈는, 상기 제1 텍스트의 명도(brightness)값을 제1 명도값으로 변경하여 상기 제1 영상 프레임을 변환하는 제1 명도 변환부 및 상기 제2 텍스트의 명도값을 제2 명도값으로 변경하여 상기 제2 영상 프레임을 변환하는 제2 명도 변환부를 포함하고, 상기 제1 명도값과 상기 제2 명도값은 서로 대비되는 명도값을 갖도록 이미지 처리할 수 있다.In this case, the monochrome output processing module may include a first brightness conversion unit for converting the brightness value of the first text into a first brightness value to convert the first image frame, and a brightness value of the second text And a second brightness converting unit for converting the second image frame into a second brightness value, wherein the first brightness value and the second brightness value are image-processed so as to have contrast values that are opposed to each other.

한편, 상기 손실 출력 처리 모듈는, 상기 배경 영상 프레임과 상기 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하고, 상기 제1 영상 프레임의 에러값을 이용하여 상기 제1 영상 프레임을 보상하는 제1 보상부, 상기 제2 영상 프레임의 배경 영상 프레임과 상기 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 배경 에러 연산부, 상기 보상된 제1 영상 프레임과 상기 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 텍스트 에러 연산부 및 상기 배경 에러값과 상기 제2 텍스트의 에러값을 이용하여 상기 제2 영상 프레임을 보상하는 제2 보상부를 포함한다.Meanwhile, the lossy output processing module calculates an error value of a first image frame between the background image frame and the first image frame, and compensates the first image frame using the error value of the first image frame A first compensator, a background error calculator for calculating a background error value between the background image frame of the second image frame and the compensated first image frame, and a background error calculator for calculating a background error value between the compensated first image frame and the second A text error operation unit for calculating an error value of a second text between the text and a second compensation unit for compensating the second image frame using the background error value and the error value of the second text.

한편, 상기 축소 출력 처리 모듈는, 상기 배경 영상 프레임과 상기 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하고, 상기 제1 영상 프레임의 에러값을 이용하여 상기 제1 영상 프레임을 보상하는 제1 보상부, 상기 제2 영상 프레임의 상기 제2 텍스트의 해상도를 기설정된 비율로 축소하는 해상도 축소부, 상기 축소된 제2 영상 프레임의 배경 영상 프레임과 상기 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 배경 에러 연산부, 상기 보상된 제1 영상 프레임과 상기 축소된 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 텍스트 에러 연산부 및 상기 배경 에러값과 상기 제2 텍스트의 에러값을 이용하여 상기 제2 영상 프레임을 보상하는 제1 보상부를 포함한다.The reduced output processing module calculates an error value of a first image frame between the background image frame and the first image frame and compensates the first image frame using an error value of the first image frame A resolution compensator for reducing the resolution of the second text of the second image frame to a predetermined ratio, a background compensator for compensating the background of the compensated first image frame and the background image frame of the reduced second image frame, A text error calculator for calculating an error value of a second text between the compensated first image frame and a second text of the reduced second image frame, And a first compensator for compensating the second image frame using an error value of the second text.

한편, 상기 오류 확산 출력 처리 모듈는, 가우시안 함수에 의해서 상기 제1 영상 프레임과 상기 제2 영상 프레임의 출력을 확산하는 확산부, 상기 확산된 제1 영상 프레임 및 제2 영상 프레임에서 기 설정된 출력 범위를 벗어나는 손실영역을 제거하는 손실영역 정정부 및 상기 확산된 제1 영상 프레임과 상기 제2 영상 프레임 사이의 간섭영역을 제거하는 간섭영역 정정부를 포함한다.The error diffusion output processing module may include a spreading unit for spreading the output of the first image frame and the second image frame by a Gaussian function, a spreading unit for spreading the output range of the first image frame and the second image frame, A lossy region correcting unit configured to remove a lost lossy region, and an interference region correcting unit configured to remove an interference region between the spread first image frame and the second image frame.

한편, 상기 단색상 출력 처리 모듈는, 상기 제1 영상 프레임의 제1 텍스트의 색상을 제1 색상값을 갖도록 변환하는 제1 색상 변환부 및 상기 제2 영상 프레임의 제2 텍스트의 색상을 제2 색상값을 갖도록 변환하는 제2 색상 변환부를 포함하고, 상기 제1 색상값과 상기 제2 색상값은 서로 색상 대비되도록 이미지 처리할 수 있다.The color output processing module may include a first color conversion unit for converting a color of the first text of the first image frame to have a first color value and a second color converting unit for converting the color of the second text of the second image frame into a second color, And a second color conversion unit for converting the first color value and the second color value to color contrast with each other.

본 발명의 다양한 실시예에 따르면, 디스플레이 장치에서 디스플레이된 방향성을 갖는 정보를 복수의 사용자가 용이하게 식별할 수 있는 효과를 발휘한다.According to various embodiments of the present invention, a plurality of users can easily identify the information having the direction displayed on the display device.

도 1은 방향에 따라 다른 가독성을 갖는 문자가 디스플레이되는 것을 설명하기 위한 도면,
도 2는 복수의 이미지 프레임을 교번적으로 디스플레이하는 3차원 디스플레이 장치의 영상 출력을 설명하기 위한 도면,
도 3은 본 발명의 일 실시예에 따른 디스플레이 방법을 설명하기 위한 흐름도,
도 4는 본 발명의 다른 실시예에 따른 디스플레이 장치를 설명하기 위한 블럭도,
도 5는 본 발명의 다른 실시예에 따른 이미지 처리부가 흑백 출력 모듈로 동작하는 경우를 설명하기 위한 블럭도,
도 6은 본 발명의 또 다른 실시예에 따른 이미지 처리부가 손실 출력 모듈로 동작하는 경우를 설명하기 위한 블럭도,
도 7은 본 발명의 또 다른 실시예에 따른 이미지 처리부가 축소 출력 모듈로 동작하는 경우를 설명하기 위한 블럭도,
도 8은 본 발명의 또 다른 실시예에 따른 이미지 처리부가 오류 확산 출력 모듈로 동작하는 경우를 설명하기 위한 블럭도,
도 9는 본 발명의 또 다른 실시예에 따른 이미지 처리부가 단색상 출력 모듈로 동작하는 경우를 설명하기 위한 블럭도,
도 10은 본 발명의 이미지 처리 방식 중 하나인, 흑백 출력법에 따른 목표 영상을 예시적으로 설명하기 위한 도면,
도 11은 도 10에 도시된 목표 영상의 결과 영상을 설명하기 위한 도면,
도 12는 본 발명의 이미지 처리 방식 중 하나인, 손실 출력법에 따른 결과 영상을 설명하기 위한 도면,
도 13은 도 12의 결과 영상을 합성하여 형성된 결과 영상을 설명하기 위한 도면,
도 14는 본 발명의 이미지 처리 방식 중 하나인, 축소 출력법에 따른 결과 영상을 설명하기 위한 도면,
도 15는 본 발명의 이미지 처리 방식 중 하나인 오류 확산 출력법에 사용되는 가우시안 함수에 의한 확산 영상을 설명하기 위한 도면,
도 16은 본 발명의 이미지 처리 방식 중 하나인, 오류 확산 출력법에 따른 1차 결과 영상을 설명하기 위한 도면,
도 17은 본 발명의 이미지 처리 방식 중 하나인, 오류 확산 출력법에 따른 결과 영상을 설명하기 위한 도면,
도 18은 본 발명의 이미지 처리 방식 중 하나인, 단색상 출력법에 따른 결과 영상을 설명하기 위한 도면,
도 19는 종래의 방식과 본 발명의 다양한 이미지 처리 방식에 따른, 안경 사용자에게 출력되는 결과 영상을 도시하는 도면,
도 20은 종래의 방식과 본 발명의 다양한 이미지 처리 방식에 따른, 안경 비사용자에게 출력되는 결과 영상을 도시하는 도면이다.
1 is a view for explaining that characters having different readability according to a direction are displayed;
FIG. 2 is a view for explaining image output of a three-dimensional display device for alternately displaying a plurality of image frames;
3 is a flowchart illustrating a display method according to an embodiment of the present invention.
4 is a block diagram for explaining a display device according to another embodiment of the present invention;
5 is a block diagram for explaining a case where the image processing unit according to another embodiment of the present invention operates as a monochrome output module;
6 is a block diagram for explaining a case where the image processing unit operates as a lossy output module according to another embodiment of the present invention;
7 is a block diagram for explaining a case where the image processing unit operates as a reduced output module according to another embodiment of the present invention;
8 is a block diagram for explaining a case where the image processing unit operates as an error diffusion output module according to another embodiment of the present invention;
9 is a block diagram for explaining a case where an image processing unit according to another embodiment of the present invention operates as a single color output module,
10 is a diagram for explaining a target image according to a monochrome output method, which is one of the image processing methods of the present invention,
11 is a view for explaining a result image of the target image shown in FIG. 10,
12 is a diagram for explaining a resultant image according to the lossy output method, which is one of the image processing methods of the present invention,
13 is a view for explaining a resultant image formed by synthesizing the resultant image of FIG. 12,
FIG. 14 is a diagram for explaining a resultant image according to the reduced output method, which is one of the image processing methods of the present invention,
15 is a view for explaining a diffusion image by a Gaussian function used in an error diffusion output method which is one of the image processing methods of the present invention,
16 is a diagram for explaining a primary result image according to the error diffusion output method, which is one of the image processing methods of the present invention,
17 is a diagram for explaining a resultant image according to the error diffusion output method, which is one of the image processing methods of the present invention,
18 is a diagram for explaining a resultant image according to the single color output method, which is one of image processing methods of the present invention,
19 is a diagram showing a resultant image output to a spectacle user according to a conventional method and various image processing methods of the present invention,
FIG. 20 is a diagram showing a resultant image output to a non-eyeglass user according to a conventional method and various image processing methods of the present invention.

이하에서는 첨부된 도면을 참조하며 본 발명을 보다 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention.

도 2는 복수의 이미지 프레임을 교번적으로 디스플레이하는 3차원 디스플레이 장치의 영상 출력을 설명하기 위한 도면이다.2 is a diagram for explaining image output of a three-dimensional display device for alternately displaying a plurality of image frames.

도 2를 참고하여 살펴보면, 도 2의 (a)는 안경 착용 사용자의 우안을 위한 출력 영상이고, 도 2의 (b)는 안경 착용 사용자의 좌안을 위한 출력 영상이다. 도 2의 (c)는 우안 영상과 좌안 영상이 빠르게 번갈아서 출력한다.Referring to FIG. 2, FIG. 2 (a) is an output image for the right eye of the wearer, and FIG. 2 (b) is an output image for the left eye of the wearer. FIG. 2 (c) shows that the right-eye image and the left-eye image alternate rapidly.

도 2의 (d)를 참고하면, 예시적으로 안경 착용 사용자는 우안 출력 영상을 보게 된다. 반면에, 안경 비착용 사용자는 우안 출력 영상과 좌안 출력 영상이 합쳐진 합성 영상을 보게 된다.Referring to FIG. 2 (d), for example, a user wearing glasses wears a right eye output image. On the other hand, the spectacle wearer sees the combined image of the right eye output image and the left eye output image.

Yerazunis에 의해서 제시되는 디스플레이 출력 방법은 허가된 안경 사용자 그룹은 보안된 영상을 볼 수 있고, 허가 되지 않은 안경 비사용자 그룹은 전혀 다른 내용의 영상을 보게 된다. 이를 위하여 안경 쓴 그룹이 보기를 원하는 영상을 번갈아 출력되는 3차원 디스플레이에 출력하고, 영상에 덧씌워서 정보가 보이지 않게 하는 영상과 안경을 사용하지 않는 그룹에게 보여줄 영상을 합성하여 출력한다.In the display output method presented by Yerazunis, the authorized eyeglass user group can view the secured image, and the unauthorized eyeglass user group will see the completely different image. To this end, a group of eyeglasses writes the desired images on a three-dimensional display, which is alternately displayed, and superimposes the images on the image to make the information invisible and the images to be displayed to the group that does not use the glasses.

이때 배경 영상 프레임은 Ibsase 이고, 안경 사용자 그룹에게 제공할 문자 영상은 ILabel_G 이며, 안경 비사용자 그룹에게 제공할 문자 영상은 ILable _G 이라고 할 때, 해당 그룹에게 이상적인 제공 영상(ISG, ISN)은 다음의 수학식 2에 의해서 생성된다.The background image frame I bsase, and the character image to provide eyeglasses user groups I Label_G and glasses non-character image to be presented to the user group to say I Lable _G, ideal for providing images (I SG, I to the group SN ) is generated by the following equation (2).

Figure 112012057097410-pat00002
Figure 112012057097410-pat00002

여기서, α는 합성 계수이고, 텍스트 영상의 값이 존재하는 경우 0, 그 외의 영역은 1의 값을 갖는다. Here, alpha is a composite coefficient, 0 when the value of the text image is present, and 1 otherwise.

안경 사용자 그룹은 3차원 디스플레이 장치에서 출력되는 두 영상 IDG 와 IDN 중 안경을 통과하는 IDG만을 보게 된다. 즉, IDN을 통해서 IDG 의 정보를 가리고, IDN 과 IDG 는 다음의 수학식 3과 같이 표현할 수 있다.The eyeglass user group only sees the two images I DG and I DN output from the three-dimensional display device and the I DG passing through the glasses. I.e., through I DN covered by the information of the DG I, I and I DN DG can be expressed as shown in Equation 3 below.

Figure 112012057097410-pat00003
Figure 112012057097410-pat00003

IDG 를 숨기기 위한 IGM 과 ISN 을 합성계수 α의 비율로 합성하여 IDN 이 결정된다. 합성계수 α는 ISN 과 ISG 의 출력 비율이 된다. Yerazunis는 ISN 과 ISG 의 비율을 1:1로 하여 α를 0.5로 사용하고 있다. IGM 은 IDG 의 정보를 가려야 하기에 두 영상은 동일한 비율을 갖도록 하기의 수학식 4에 의해서 결정된다.I DN is determined by combining I GM and I SN to hide I DG at the ratio of the composite coefficient α. The composite coefficient α is the output ratio of I SN and I SG . Yerazunis uses α as 0.5 with 1: 1 ratio of I SN to I SG . I GM is to be covered by the information of I DG , so that the two images are determined by Equation (4) to have the same ratio.

Figure 112012057097410-pat00004
Figure 112012057097410-pat00004

이때, 안경 사용자 그룹이 실제 보게 되는 영상은 IPG 이고, 안경 비사용자 그룹이 실제 보게 되는 영상은 IPN 이라 할 때, 각각은 다음의 수학식 5에 의해서 결정된다.At this time, if the image actually viewed by the eyeglass user group is I PG and the image actually seen by the eyeglass user group is I PN , each is determined by the following equation (5).

Figure 112012057097410-pat00005
Figure 112012057097410-pat00005

상기의 수학식 5와 같이 디스플레이 장치에 출력되는 영상인 IDG 와 IDN 은 3차원 디스플레이서 절반만 출력된다.As shown in Equation (5), I DG and I DN , which are images output to the display device, are output only in the half of the three-dimensional display.

즉, 안경 사용자 그룹은 실제 보길 원하는 영상(ISG)보다 전체적으로 명도가 낮아진 영상(IPG)을 보게 된다. 또한, 안경 비사용자 그룹은 실제 보길 원하는 영상(IPN)보다 전체적으로 회색의 블랙-레벨 옵셋이 크게 존재하는 영상(IPN)을 보게 된다. That is, the eyeglass user group sees the image I PG which is lower in brightness overall than the image I SG desired to be viewed. Also, the eyeglass non-user group sees an image (I PN ) in which there is a large black-level offset as a whole as compared with the image (I PN ) desired to be viewed.

도 3은 본 발명의 일 실시예에 따른 디스플레이 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a display method according to an embodiment of the present invention.

도 3을 참고하면, 제1 영상 프레임과 제2 영상 프레임을 생성하는 단계(S310), 기 설정된 방식에 따라 이미지 처리하는 단계(S330) 및 이미지 처리된 제1, 2 프레임을 교번적으로 디스플레이하는 단계(S350)를 포함한다.Referring to FIG. 3, in operation S310, a first image frame and a second image frame are generated. In operation S330, image processing is performed according to a predetermined method. Step S350.

제1 영상 프레임과 제2 영상 프레임을 생성하는 단계(S310)는 배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임과 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성한다.The step S310 of generating the first image frame and the second image frame includes a first image frame including a first text corresponding to a wearer of glasses using a background image frame and a second text corresponding to a wearer wearing glasses The second video frame is generated.

기 설정된 방식에 따라 이미지 처리하는 단계(S330)는 제1 영상 프레임 및 제2 영상 프레임과 배경 영상 프레임 사이의 관련성을 고려해서, 제1 영상 프레임과 제2 영상 프레임에 각각 포함된 제1 텍스트 및 제2 텍스트의 크기 축소, 확산, 명도 변경, 색상 변경 등을 수행하여 제1 영상 프레임과 제2 영상 프레임을 변환한다.In operation S330, the first text and the first text included in the first image frame and the second image frame, respectively, in consideration of the relation between the first image frame and the second image frame and the background image frame, The first image frame and the second image frame are converted by performing size reduction, diffusion, brightness change, color change, and the like of the second text.

여기서, 기 설정된 방식은, 흑백 출력법, 손실 출력법, 축소 출력법, 오류 확산 출력법, 단색상 출력법 중 하나의 방식 중 어느 하나 또는 이들의 조합에 의한다.Here, the predetermined method is one of a monochrome output method, a loss output method, a reduced output method, an error diffusion output method, and a monochrome output method, or a combination thereof.

디스플레이하는 단계(S350)는 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이한다.The displaying step S350 alternately displays the first image frame and the second image frame subjected to the image processing.

디스플레이하는 단계(S350)는 이미지 처리된 제2 영상 프레임은, 안경 비착용자에 대하여 이미지 처리된 제1 영상 프레임과 오버랩되고, 제1 텍스트는 안경 비착용자에 대하여 불인식되도록 디스플레이한다.
In the step of displaying (S350), the image-processed second image frame is overlapped with the image-processed first image frame with respect to the wearer of the eyeglasses, and the first text is displayed so as not to be recognized by the wearer.

실시예 1 : 흑백 출력법 Example 1: Black and white printing method

도 3에 도시된 디스플레이 방법 중 이미지 처리하는 단계(S330)는 흑백 출력법에 의할 경우에 다음과 같은 단계를 포함할 수 있다.The image processing (S330) of the display method shown in FIG. 3 may include the following steps in accordance with the monochrome output method.

흑백 출력법에 의한 이미지 처리 방법은, 제1 텍스트의 명도(brightness)값을 제1 명도값으로 변경하여 제1 영상 프레임을 변환하는 단계 및 제2 텍스트의 명도값을 제2 명도값으로 변경하여 제2 영상 프레임을 변환하는 단계를 포함하고, 제1 명도값과 제2 명도값은 서로 대비되는 명도값을 갖도록 이미지 처리된다.The image processing method according to the monochrome output method includes converting a first image frame by changing a brightness value of a first text to a first brightness value and changing a brightness value of the second text to a second brightness value And converting the second image frame, wherein the first brightness value and the second brightness value are image-processed to have contrast values that are opposed to each other.

이를 보다 구체적으로 살펴보면 다음과 같다.More specifically, it is as follows.

흑백 출력법은 안경 사용자 그룹이 보게 되는 영상은 최대 밝기로 출력하고, 안경 비사용자 그룹이 보게 되는 영상은 마스크 영상이 씌여진 영상이다. 이러한 조건을 만족하기 위해서는 안경 사용자 그룹의 문자 영상은 명도가 낮은 검은색으로 변경하고, 안경 비사용자 그룹의 문자 영상은 명도가 높은 흰색으로 변경한다. In the black and white output method, the image to be viewed by the eyeglass user group is output at the maximum brightness, and the image to be viewed by the eyeglass user group is the image in which the mask image is written. In order to satisfy such a condition, the character image of the eyeglass user group is changed to black having low brightness and the character image of the eyeglass non-user group is changed to white having high brightness.

즉, 텍스트의 명도값을 변경하는 것은 다음의 수학식 6에 의한다.That is, the brightness value of the text is changed by the following equation (6).

Figure 112012057097410-pat00006
Figure 112012057097410-pat00006

상술한 수학식 6에 의해서 생성된 ISG 는 글자 영역이 검정색이 되고, ISN 은 글자영역이 흰색이 된다. 이렇게 생성된 제1 영상 프레임은 도 10의 (a)에 도시되고, 제2 영상 프레임은 도 10의 (b)에 도시되고 있다.I SG generated by the above-mentioned Equation (6) becomes a black character area, and I SN becomes a white character area. The first image frame thus generated is shown in Fig. 10 (a), and the second image frame is shown in Fig. 10 (b).

수학식 6을 통해서 생성된 영상은 결과적으로 모든 화소에서 ISN 의 화소 밝기보다 ISG의 화소 밝기가 크거나 같다. 이러한 특징에 따라 디스플레이 장치에 출력되는 두 영상 이미지 IDG 와 IDN 은 다음의 수학식 7에 의해서 연산된다.As a result, the brightness of I SG is equal to or larger than the pixel brightness of I SN in all pixels. According to this characteristic, the two image images I DG and I DN outputted to the display device are calculated by the following Equation (7).

Figure 112012057097410-pat00007
Figure 112012057097410-pat00007

사용자에 의해서 실제 인식되는 영상은 다음의 수학식 8으로 표현될 수 있다.An image actually recognized by the user can be expressed by the following equation (8).

Figure 112012057097410-pat00008
Figure 112012057097410-pat00008

즉, 안경 사용자 그룹이 실제 인식하는 영상(IPG)은 출력되는 영상(IDG)의 절반이고, 안경 비사용자 그룹이 실제 인식하는 영상(IPN)은 안경 사용자 그룹에 대하여 출력되는 영상(IDG)과 안경 비사용자 그룹에 대하여 출력되는 영상(IDN)의 평균값이 된다. 즉, 안경 사용자 그룹이 실제 인식하는 영상(IPG)과 안경 비사용자 그룹이 실제 인식하는 영상(IPN)은 밝기가 동일하게 된다. That is, the image I PG actually recognized by the eyeglass user group is half of the output image I DG , and the image I PN actually recognized by the eyeglass user group is the image I DG ) and the image (I DN ) output to the eyeglass non-user group. That is, the image I PG actually recognized by the eyeglass user group and the image I PN actually recognized by the eyeglass user group become equal in brightness.

도 11의 (a)에 도시된 바와 같이 IPG는 제1 텍스트인 알파벳 G가 검정색으로 표시되고 있고, Yerazunis의 방법에 비해서 배경 영역의 색상이 밝게 표시되고 있음을 확인할 수 있다. 도 11의 (b)에는 제1 텍스트 및 제2 텍스트가 서로 오버랩되어 있으며 텍스트의 색이 흰색으로 이루어져 있음을 확인할 수 있다. 또한, 회색으로 보이는 블랙-레벨 옵셋이 존재하지 않음을 확인할 수 있다. 도 11의 (c)에는 안경 비사용자 그룹이 인식하는 영상이 도시되고 있으며, 이는 상술한 바와 같이 안경 사용자 그룹과 동일한 밝기를 갖고, 제2 텍스트인 알파벳 N이 표시되고 있음을 확인할 수 있다.
As shown in FIG. 11 (a), I PG shows that the alphabet G, which is the first text, is displayed in black and that the color of the background area is displayed brighter than the method of Yerazunis. In FIG. 11 (b), it can be seen that the first text and the second text overlap each other and the color of the text is white. In addition, it can be seen that there is no black-level offset that appears gray. FIG. 11C shows an image recognized by the eyeglass non-user group, which can be confirmed to have the same brightness as the eyeglass user group and display the second text, the alphabet N, as described above.

실시예 2 : 손실 출력법 Example 2: Loss of output method

도 3에 도시된 디스플레이 방법 중 이미지 처리하는 단계(S330)는 손실 출력법에 의할 경우에 다음과 같은 단계를 포함할 수 있다.The image processing (S330) of the display method shown in FIG. 3 may include the following steps in case of the loss output method.

손실 출력법에 의한 이미지 처리 방법은, 배경 영상 프레임과 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하는 단계, 제1 영상 프레임의 에러값을 이용하여 제1 영상 프레임을 보상하는 단계, 제2 영상 프레임의 배경 영상 프레임과 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 단계, 보상된 제1 영상 프레임과 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 단계 및 배경 에러값과 제2 텍스트의 에러값을 이용하여 제2 영상 프레임을 보상하는 단계를 포함한다.The image processing method according to the lossy output method includes calculating an error value of a first image frame between a background image frame and a first image frame, compensating a first image frame using an error value of the first image frame, Calculating a background error value between the background image frame of the second image frame and the compensated first image frame, calculating an error value of the second text between the compensated first image frame and the second text of the second image frame, And compensating the second image frame using the background error value and the error value of the second text.

이를 보다 구체적으로 살펴보면 다음과 같다.More specifically, it is as follows.

상술한 흑백 출력법은 텍스트가 낮은 명도의 흑백으로 표시된다. 때로는 텍스트의 색상을 구분할 필요성이 있으므로 텍스트의 색상을 보전하면서도 Yurazunis의 출력법보다 더 밝은 영상을 제공하기 위한 출력법이 요청된다.In the above-mentioned monochrome output method, the text is displayed in black and white with low brightness. Sometimes it is necessary to distinguish the color of the text, so an output method is required to preserve the color of the text but to provide a brighter image than the Yurazunis output method.

즉, 손실 출력법은, IGM 을 통해서 영상을 배경 영상으로 회복시킨다. 하지만 텍스트 영상은 IGM 으로 수정 가능한 허용 범위에서만 출력한다. 이를 위한 ISG 와 ISN 은 상술한 수학식 2에 의해서 생성된다.That is, the lossy output method restores the image to the background image through I GM . However, the text image is output only within the allowable range of I GM . I SG and I SN for this are generated by Equation (2).

디스플레이 장치에 출력되는 두 영상 이미지 IDG 와 IDN 은 다음의 수학식 9에 의해서 연산된다.The two image images I DG and I DN output to the display device are calculated by the following equation (9).

Figure 112012057097410-pat00009
Figure 112012057097410-pat00009

상술한 수학식 9에서는 ISG 와 Ibase 가 일정 범위의 차이를 벗어나지 않도록 한다. 허용 범위를 벗어나는 IErr _ Over 와 IErr ) under 를 삭제하여 그 차이를 줄인다.In Equation (9), I SG and I base do not deviate from a certain range of difference. I Err _ outside the acceptable range and remove the Over I Err) under to reduce the difference.

도 12에서는 손실 출력법에 따른 안경 사용자 그룹의 결과 영상을 도시한다. 도 12의 (a)는 정보가 허용 범위보다 큰 경우 손실될 정보에 해당한다. 하지만 정보가 허용 범위를 초과하지 않거나 육안으로 식별이 불가능할 정도로 작은 경우도 있다. 도 12의 (b)는 정보가 허용 범위보다 적은 경우의 손실될 정보이다. 원본 영상인 ISG 에서 손실된 데이터를 제거하여 도 12의 (c)와 같은 손실된 영상을 획득할 수 있다.12 shows a result image of the eyeglass user group according to the loss output method. 12 (a) corresponds to information to be lost when the information is larger than the allowable range. However, there are cases in which the information is not within acceptable limits or is so small that it can not be identified with the naked eye. FIG. 12 (b) is information to be lost when the information is smaller than the allowable range. It is possible to acquire the lost image as shown in FIG. 12C by removing the lost data from the original image I SG .

이때, IDN은 배경 영상 프레임과 텍스트 영역을 나누어서 결정한다. IDN 의 배경 영역인 IDN _ background 는 다음의 수학식 10에 의해서 연산된다.At this time, I DN is determined by dividing the background image frame and the text area. I DN _ background, which is the background area of I DN , is calculated by the following equation (10).

Figure 112012057097410-pat00010
Figure 112012057097410-pat00010

IDN _ background 는 IGM 을 통해서 배경 영상으로 복구하고 더 밝은 영상을 위해 배경 영상을 추가한다. IGM 을 통해서 복구하면서 블랙-레벨 옵셋이 발생할 수 있다.I DN _ background is through I GM to recover the background image and add a background image for a brighter image. I Black-level offset can occur while recovering through GM .

IDG 에서 ISN 으로 바꾸기 위한 IDN 을 생성하기 위하여 출력 가능 범위를 벗어나는 IErr _ over 를 다음이 수학식 11을 통해서 연산한다. ISN 에 출력 가능 범위를 넘어서는 영역 IErr _ over과 IDG를 제거하여 IDN _ LAbel 을 획득한다.The I Err _ over outside the output possible range in order to create the I DN to change the I SN in DG I and then the operation by the equation (11). Removing the regions I and I Err _ over the DG I SN beyond the output range and to obtain the I DN _ LAbel.

Figure 112012057097410-pat00011
Figure 112012057097410-pat00011

상술한 수학식 10과 수학식 11에 의해서 획득한 IDN _ background 과 IDN _ LAbel 을 다음의 수학식 12에 의해서 연산하여 IDN을 획득한다.I DN _ background and I DN _ LAbel obtained by the equations (10) and (11) are calculated by the following equation (12) to obtain I DN .

상술한 수학식 9와 수학식 12에 의해서 각각 획득한 IDG와 IDN 은 상술한 수학식 5를 통해서, 안경 사용자 그룹 및 안경 비사용자 그룹이 인식하는 영상을 생성한다.I DG and I DN obtained by the above-described Equations (9) and (12) respectively generate images recognized by the eyeglass user group and the eyeglass non-user group through Equation (5).

도 13의 (a)는 안경 비사용자 그룹에 출력되는 영상(IDN)이고, 도 13의 (b)는 안경 비사용자 그룹이 실제로 인식하는 영상이다. 출력되는 영상(IDN)에는 흰색의 알파벳 G가 흐릿하게 식별되고 있음을 확인할 수 있다. 하지만 안경 비사용자 그룹이 실제 인식하는 영상(IPN)은 흰색의 알파벳 G가 전혀 보이지 않으며 알파벳 N이 명확하게 식별되고 있음을 확인할 수 있다.
13A is an image I DN output to the eyeglass non-user group, and FIG. 13B is an image actually recognized by the eyeglass non-user group. It can be confirmed that the white alphabet G is blurred in the output image I DN . However, it can be seen that the image (I PN ) actually recognized by the spectacle non-user group does not show any white letter G at all and that the letter N is clearly identified.

실시예 3 : 축소 출력법 Example 3: Scaled output method

도 3에 도시된 디스플레이 방법 중 이미지 처리하는 단계(S330)는 축소 출력법에 의할 경우에 다음과 같은 단계를 포함할 수 있다.The image processing (S330) of the display method shown in FIG. 3 may include the following steps in case of the reduced output method.

축소 출력법에 의한 이미지 처리 방법은, 배경 영상 프레임과 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하고, 제1 영상 프레임의 에러값을 이용하여 제1 영상 프레임을 보상하는 단계, 제2 영상 프레임의 제2 텍스트의 해상도를 기설정된 비율로 축소하는 단계, 축소된 제2 영상 프레임의 배경 영상 프레임과 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 단계, 보상된 제1 영상 프레임과 축소된 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 단계, 및 배경 에러값과 제2 텍스트의 에러값을 이용하여 제2 영상 프레임을 보상하는 단계를 포함한다.The image processing method according to the reduced output method includes calculating an error value of a first image frame between a background image frame and a first image frame, compensating a first image frame using an error value of the first image frame, Calculating a background error value between the background image frame of the reduced second image frame and the compensated first image frame, calculating the background error value of the compensated first image frame, Calculating an error value of a second text between an image frame and a second text of the reduced second image frame, and compensating the second image frame using the background error value and the error value of the second text do.

이를 보다 구체적으로 살펴보면 다음과 같다.More specifically, it is as follows.

축소 출력법은 손실 출력법과 동일하게 배경 영상 프레임을 복구하는 알고리즘을 사용한다. 다만, 축소 출력법은 손실 출력법과는 다르게 텍스트 정보의 손실을 동일한 비율로 적용하여 손실을 준다. 즉, 안경 비사용자 그룹의 텍스트 정보를 수정 가능 범위에 맞춰서 최소한으로 축소를 한다. 이로 인하여 안경 비사용자 그룹의 제2 텍스트 영역은 색 비율이 변하지 않는다.The reduced output method uses an algorithm that restores background image frames in the same way as the lossy output method. However, unlike the lossy output method, the reduced output method applies loss of the text information at the same rate, thereby giving loss. That is, the text information of the eyeglass non-user group is reduced to a minimum in accordance with the adjustable range. As a result, the color ratio of the second text area of the eyeglass user group does not change.

안경 사용자 그룹의 영상인 IDG는 손실 출력법과 동일하게 수학식 9에 의해서 결정된다. 이는 텍스트 축소 출력법을 사용하면 텍스트 영역에 배경 색상이 극단적인 경우에 축소 비율이 극대화 되기 때문이며, 대부분의 영상이 그렇다. 텍스트 영역이 하나의 색상으로만 표현되기에 안경 사용자 그룹의 제1 영상 프레임은 손실 출력법과 동일하게 처리해도 무방하므로 이에 대한 상세한 설명은 생략한다.I DG, which is the image of the eyeglass user group, is determined by Equation (9) in the same way as the lossy output method. This is because using the text zoom out method maximizes the reduction ratio when the background color is extreme in the text area, and most of the images are. Since the text area is represented by only one color, the first image frame of the eyeglass user group may be processed in the same manner as the lossy output method, and a detailed description thereof will be omitted.

안경 비사용자 그룹의 제2 텍스트를 축소하기 위해 다음의 수학식 13과 같이 축소될 비율값을 연산한다. A ratio value to be reduced is calculated as shown in the following Equation 13 to reduce the second text of the eyeglass non-user group.

Figure 112012057097410-pat00012
Figure 112012057097410-pat00012

이때, i는 영상 프레임의 모든 화소를 의미한다. DOVER 는 출력 범위를 넘어서는 최대값을 의미하고, Dunder는 최소의 부족값일 때, 텍스트 영역이 축소될 비율 S가 연산된다. 이러한 축소 비율값(S)에 기초하여 안경 비사용자 그룹의 제2 텍스트를 다음의 수학식 14에 의하여 축소함으로써 IDM _ label 을 연산한다.In this case, i denotes all the pixels of the image frame. D OVER means the maximum value beyond the output range, and D under is the minimum deficit value, the ratio S at which the text area is reduced is calculated. By the basis of the reduction ratio value (S) reduced by the second text of spectacles users group to the following equation: 14 calculates the I DM _ label.

Figure 112012057097410-pat00013
Figure 112012057097410-pat00013

여기서, IDN _ background 는 손실 출력법에서 설명한 바와 같이, 수학식 10에 의해서 결정한다. 결정된 IDM _ label 과 IDN _ background 를 이용하여 수학식 12에 의해서 IDN 을 획득하게 된다. 이렇게 획득된 IDN 과 IDG 를 이용하여 수학식 5에 의해서 안경 사용자 그룹과 안경 비사용자 그룹이 인식하는 영상이 생성된다.Here, I DN _ background is determined by Equation (10) as described in the lossy output method. I DN is obtained by Equation (12) using the determined I DM _ label and I DN _ background . Using the obtained I DN and I DG , an image recognized by the eyeglass user group and the eyeglass non-user group is generated by Equation (5).

도 14의 (a)는 출력 가능한 범위 상위 초과 범위(IErr _ over)이고 도 14의 (b)는 출력 가능한 범위 하위 미만 범위(IErr _ under)이며, 도 14의 (c)는 축소 출력법에 따른 안경 비사용자 그룹이 실제 보게되는 영상을 도시한다. 도 14의 (b)에 비하여 도 14(c)에 도시된 영상은 밝기가 다소 어둡지만 색상비가 일정해서 무늬가 보이지 않으며, 흰색으로 표시되는 알파벳 G가 더 이상 보이지 않음을 확인할 수 있다.
(A) is (b) an output range lower than the range (I Err _ under) of the output possible range higher than the range (I Err _ over) Fig. 14, (c) of Fig. 14 of Figure 14 is reduced output The spectral non-user group according to the law shows the image actually viewed. 14 (b), the image shown in FIG. 14 (c) is slightly darker in brightness but the pattern is not visible because the color ratio is constant, and the alphabet G displayed in white is no longer visible.

실시예 4 : 오류 확산 출력법 Example 4: Error diffusion output method

도 3에 도시된 디스플레이 방법 중 이미지 처리하는 단계(S330)는 오류 확산 출력법에 의할 경우에 다음과 같은 단계를 포함할 수 있다.The image processing (S330) of the display method shown in FIG. 3 may include the following steps when the error diffusion output method is used.

오류 확산 출력법에 의한 이미지 처리 방법은, 가우시안 함수에 의해서 제1 영상 프레임과 제2 영상 프레임의 출력을 확산하는 단계, 확산된 제1 영상 프레임 및 제2 영상 프레임에서 기 설정된 출력 범위를 벗어나는 손실영역을 제거하는 단계 및 확산된 제1 영상 프레임과 제2 영상 프레임 사이의 간섭영역을 제거하는 단계를 포함한다.An image processing method according to the error diffusion output method includes: spreading outputs of a first image frame and a second image frame by a Gaussian function; calculating a loss that deviates from a predetermined output range in the first image frame and the second image frame, And removing the interference region between the spread first image frame and the second image frame.

이를 보다 구체적으로 살펴보면 다음과 같다.More specifically, it is as follows.

오류 확산 출력법은 텍스트의 표현이 출력 가능 범위를 넘어설 때, 그 오류를 주변으로 확산하여 정보를 숨기는 방법이다. 텍스트의 정보는 그 윤곽선을 통해서 명확히 드러나는 점을 이용한 방식이다. 즉, 윤곽선이 드러나지 않으면 텍스트 정보의 인식이 어려워지는 점을 이용하여 허용치를 벗어나는 정보를 숨기는 방법으로 초과되는 정보를 확산하여 각 그룹의 영상에 절반씩 제거한다. 텍스트 정보의 윤곽선을 드러나지 않게하는 확산을 위하여 다음의 수학식 15에 따른 가우시안 함수를 적용한다.The error diffusion output method is a method of hiding information by spreading the error around when the representation of the text exceeds the printable range. The information of the text is a method which uses the point which is clearly revealed through the outline. In other words, if the outline is not revealed, it is difficult to recognize the text information. In this way, the excess information is diffused by the way of hiding the information beyond the tolerance, and half of the information is removed from each group image. The Gaussian function according to Equation (15) is applied for spreading out the contour of the text information.

Figure 112012057097410-pat00014
Figure 112012057097410-pat00014

여기서, Gδ(i,j)는 가우시안 2차 함수이고, δ는 텍스트의 크기에 따라 다르게 설정한다. 가우시안 함수를 이용하여 영상 프레임을 주변으로 번지게 한다. 도 15는 가우시안 함수를 사용한 확산 영상을 도시한다.Here, G ? (I, j) is a Gaussian quadratic function, and? Is set differently depending on the size of the text. Gaussian function is used to spread the image frame around. 15 shows a spread image using a Gaussian function.

도 15의 (a)는 예시적인 원본 영상이고, 도 15의 (b)는 원본 영상이 확산된 영상을 도시하고 있다.15 (a) is an exemplary original image, and FIG. 15 (b) shows an image in which an original image is diffused.

제1 영상 프레임과 제2 프레임의 목표 영상의 차가 출력 범위를 벗어나는 경우, 넘어서는 범위를 손실영역으로 연산한다. 사용자의 출력 영상을 구하기 위해서, 손실 영역인 IErr _ over 를 확산시켜 제거한다. 그리고 확산으로 인하여 허용 범위가 변하게 되므로 손실이 제거된 목표 영상에 대해서 재차 허용 범위를 연산한다.When the difference between the first image frame and the target image of the second frame deviates from the output range, the exceeding range is calculated as the loss area. To obtain a user of the output image, it is removed by spreading the loss of area I Err _ over. Since the tolerance range is changed due to diffusion, the permissible range is calculated again for the target image from which the loss has been eliminated.

확산된 손실 영역이 제거된 안경 사용자 그룹의 출력 영상인 IDG _ under 는 다음의 수학식 16에 의해서 연산한다.I DG _ under, which is the output image of the eyeglass user group from which the scattered loss area is removed, is calculated by the following equation (16).

Figure 112012057097410-pat00015
Figure 112012057097410-pat00015

여기서, 목표 영상인 ISN 과 ISG 를 분산하여 IDG _ under 에 합성하여 연산한다. 출력 범위를 초과하거나 부족한 정보를 주변으로 분산하여 목표 영상에서 빼거나 더한다. IDN _ under 는 다음의 수학식 17에 의해서 연산한다.Here, the target images I SN and I SG are dispersed and synthesized into I DG _ under . The information that is over or under the output range is scattered around and subtracted from or added to the target image. I DN _ under is calculated by the following equation (17).

Figure 112012057097410-pat00016
Figure 112012057097410-pat00016

도 16은 오류 확산 출력법에 의한 1차 결과 영상을 도시한다. 도 16의 (a)는 안경 사용자 그룹의 영상이고, 안경 비사용자 그룹의 텍스트 영역이 확산된 것이 도시되고 있다. 도 16의 (b)는 안경 비사용자 그룹의 영상이고, 안경 사용자 그룹의 텍스트 영역이 확산된 것이 도시되고 있다.16 shows a primary result image by the error diffusion output method. Fig. 16 (a) shows the image of the eyeglass user group, and the text area of the eyeglass non-user group is diffused. FIG. 16B shows the image of the eyeglass non-user group, and the text region of the eyeglass user group is diffused.

도 16에 도시된 바와 같이, IDG _ under 및 IDN _ under 는 손실 영역이 주변에 확산되면서 서로 간에 영향을 준 영역이 존재한다. 이러한 간섭 영역은 또 다른 손실(Idiffusion _ over, Idiffusion _ under)에 해당하고, 이는 다음의 수학식 18에 의해서 연산된다.As shown in FIG. 16, I DG _ under and I DN _ under exist in regions where the loss regions are diffused around and have an influence on each other. Such areas of interference are also available for the other losses (I diffusion over _, I _ under diffusion), which is calculated by the following equation (18) of.

Figure 112012057097410-pat00017
Figure 112012057097410-pat00017

상술한 수학식 18을 참고하면, IDN 과 IDG 는 간섭 영역을 더하거나 빼줘서 정정한다.Referring to Equation 18, I DN and I DG are corrected by adding or subtracting the interference region.

도 17은 오류 확산 출력법에 따른 결과 영상을 도시한다. 도 17의 (c)는 도 16의 (c)와 비교해서 미세하게 알파벳 G 문자가 표시되고 있음을 확인할 수 있다.
17 shows a result image according to the error diffusion output method. In FIG. 17C, it can be confirmed that the alphabet G character is displayed finely as compared with FIG. 16C.

실시예 5 : 단색상 출력법 Example 5: Short color output method

도 3에 도시된 디스플레이 방법 중 이미지 처리하는 단계(S330)는 단색상 출력법에 의할 경우에 다음과 같은 단계를 포함할 수 있다.The image processing (S330) of the display method shown in FIG. 3 may include the following steps in case of applying the single color output method.

단색상 출력법에 의한 이미지 처리 방법은, 제1 영상 프레임의 제1 텍스트의 색상을 제1 색상값을 갖도록 변환하는 단계 및 제2 영상 프레임의 제2 텍스트의 색상을 제2 색상값을 갖도록 변환하는 단계를 포함하고, 제1 색상값과 제2 색상값은 서로 색상 대비되도록 이미지 처리한다.A method of processing an image by a color output method includes converting a color of a first text of a first image frame to have a first color value and transforming a color of a second text of the second image frame to have a second color value Wherein the first color value and the second color value are subjected to image processing so as to be in a color contrast with each other.

이를 보다 구체적으로 살펴보면 다음과 같다.More specifically, it is as follows.

단색상 출력법은 텍스트의 색상을 출력 가능한 범위 내에서 하나로만 결정하여 출력하는 방식이다. 즉, 텍스트의 색상을 단순화하여 배경 영상과의 간격을 축소한다. 텍스트의 색상을 선택하기 위하여 서로 반대편 사용자가 보게 되는 영상의 색상을 고려하여 출력 가능한 범위를 연산한다. 출력 가능한 범위의 색상 중 배경 영역의 색상과 가장 다른 색상을 단순화하는 색상으로 결정한다.The color output method is a method in which the color of the text is determined only within a range that can be output and outputted. In other words, the color of the text is simplified to reduce the distance from the background image. In order to select the color of the text, the output range is calculated in consideration of the color of the image viewed by the opposite user. The color that simplifies the color most different from the color of the background area among the colors of the output range is determined.

즉, 안경 사용자 그룹의 제1 텍스트의 색상은 제1 텍스트 영역에 존재하는 배경 영상의 최대값과 최소값, 그리고 평균 색상 값을 구하여 출력 가능한 색상 중 평균 색상과 가장 다른 색상으로 단순화 색상을 결정한다.That is, the color of the first text of the eyeglass user group is determined by determining the maximum value, the minimum value, and the average color value of the background image existing in the first text area, and the simplification color to the most different color than the average color among the outputable colors.

다음의 수학식 19에 의해서 결정된 색상 DG 을 연산한다.The color D G determined by the following equation (19) is calculated.

Figure 112012057097410-pat00018
Figure 112012057097410-pat00018

상술한 수학식 19을 참고하면, 결정된 색상 DG을 갖도록 텍스트의 색상을 변경한다. 색상이 변경된 텍스트와 배경 영상을 합성하여 목표 영상을 생성한다.Referring to Equation 19, the color of the text is changed to have the determined color D G. The target image is generated by compositing the text with the changed color and the background image.

이렇게 생성된 목표 영상에 기초하여 다음의 수학식 20과 수학식 21에 의해서 안경 비사용자 그룹의 결과 영상을 생성한다.Based on the thus-generated target image, a result image of the spectacle ratio user group is generated by the following equations (20) and (21).

Figure 112012057097410-pat00019
Figure 112012057097410-pat00019

Figure 112012057097410-pat00020
Figure 112012057097410-pat00020

도 18은 안경 사용자 그룹의 결과 영상을 도시한다. 도 18의 (a)에 도시된 바와 같이, 텍스트 영역은 흰색으로 도시되고 있음을 확인할 수 있다. 또한, 도 18의 (c)는 안경 비사용자 그룹의 결과 영상을 도시한다. 도 18의 (c)에 도시된 바와 같이, 텍스트 영역은 파란색으로 도시되고 있음을 확인할 수 있다. Figure 18 shows the resulting image of the eyeglass user group. As shown in Fig. 18 (a), it can be seen that the text area is shown in white. 18 (c) shows the result image of the eyeglass non-user group. As shown in (c) of FIG. 18, it can be seen that the text area is shown in blue.

도 4는 본 발명의 다른 실시예에 따른 디스플레이 장치를 설명하기 위한 블럭도이다.4 is a block diagram for explaining a display device according to another embodiment of the present invention.

도 4를 참고하면, 본 발명의 다른 실시예에 따른 디스플레이 장치(1000)는, 프레임 생성부(100), 이미지 처리부(200) 및 디스플레이부(300)를 포함한다.Referring to FIG. 4, a display device 1000 according to another embodiment of the present invention includes a frame generation unit 100, an image processing unit 200, and a display unit 300.

프레임 생성부(100)는 배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임을 생성하고, 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성한다.The frame generation unit 100 generates a first image frame including a first text corresponding to a wearer of glasses using a background image frame and generates a second image frame including a second text corresponding to a wearer of glasses do.

이미지 처리부(200)는 제1 영상 프레임 및 제2 영상 프레임을 기 설정된 방식에 따라 이미지 처리한다.The image processing unit 200 processes the first image frame and the second image frame according to a predetermined method.

이미지 처리부(200)는, 흑백 출력 처리모듈(210), 손실 출력 처리 모듈(230), 축소 출력 처리 모듈(250), 오류 확산 출력 처리 모듈(270), 단색상 출력 처리 모듈(290) 중 적어도 어느 하나 또는 이들이 조합되어 구현될 수 있고, 이러한 처리 모듈은 제1 영상 프레임과 제2 영상 프레임을 해당 방식에 따라 이미지 처리한다.The image processing unit 200 includes at least one of a monochrome output processing module 210, a lossy output processing module 230, a reduced output processing module 250, an error diffusion output processing module 270 and a single color output processing module 290 Any one or a combination thereof may be implemented, and the processing module processes the first image frame and the second image frame according to the corresponding method.

이때, 흑백 출력 처리 모듈(210)은, 제1 명도 변환부(211) 및 제2 명도 변환부(213)을 포함한다.At this time, the monochrome output processing module 210 includes a first brightness converting section 211 and a second brightness converting section 213. [

제1 명도 변환부(211)는 제1 텍스트의 명도(brightness)값을 제1 명도값으로 변경하여 제1 영상 프레임을 변환한다.The first brightness converting unit 211 converts the brightness value of the first text to a first brightness value to convert the first image frame.

제2 명도 변환부(213)는 제2 텍스트의 명도값을 제2 명도값으로 변경하여 제2 영상 프레임을 변환한다.The second brightness converting unit 213 converts the brightness value of the second text to the second brightness value to convert the second video frame.

제1, 2 명도 변환부(211, 213)는 상술한 수학식 6에 의해서 제1 텍스트 및 제2 텍스트의 명도를 제1 명도값 또는 제2 명도값으로 각각 변경할 수 있다.The first and second brightness conversion units 211 and 213 may change the brightness of the first text and the second text to the first brightness value or the second brightness value, respectively, according to Equation (6).

또한, 흑백 출력 처리 모듈(210)은 제1 명도값과 제2 명도값을 서로 대비되는 명도값을 갖도록 이미지 처리한다.Also, the monochrome output processing module 210 processes the first brightness value and the second brightness value so as to have contrast values that are contrasted with each other.

또는, 손실 출력 처리 모듈(230)은, 제1 보상부(231), 배경 에러 연산부(233), 텍스트 에러 연산부(235) 및 제2 보상부(237)를 포함한다.Alternatively, the lossy output processing module 230 includes a first compensation unit 231, a background error calculation unit 233, a text error calculation unit 235, and a second compensation unit 237.

제1 보상부(231)는 배경 영상 프레임과 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산한다. 제1 보상부(231)는 제1 영상 프레임의 에러값을 이용하여 제1 영상 프레임을 보상한다.The first compensator 231 calculates an error value of the first image frame between the background image frame and the first image frame. The first compensator 231 compensates the first image frame using the error value of the first image frame.

배경 에러 연산부(233)는 제1 보상부(231)로부터 보상된 제1 영상 프레임의 에러값을 수신하고, 보상된 제1 영상 프레임의 에러값과 제2 영상 프레임의 배경 영상 프레임 사이의 배경 에러값을 연산한다.The background error calculator 233 receives the error value of the compensated first image frame from the first compensator 231 and calculates the background error between the error value of the compensated first image frame and the background image frame of the second image frame Value.

텍스트 에러 연산부(235)는 제1 보상부(231)로부터 보상된 제1 영상 프레임의 에러값을 수신하고, 보상된 제1 영상 프레임의 에러값과 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산한다.The text error arithmetic operation unit 235 receives the error value of the compensated first image frame from the first compensator 231 and outputs the error value of the compensated first image frame to the second text between the error value of the compensated first image frame and the second text of the second image frame. Computes the error value of the text.

제2 보상부(237)는 텍스트 에러 연산부(233)과 배경 에러 연산부(235)로부터 각각 수신된 배경 에러값과 제2 텍스트의 에러값을 이용하여 제2 영상 프레임을 보상한다.The second compensator 237 compensates the second image frame using the background error value and the error value of the second text received from the text error calculator 233 and the background error calculator 235, respectively.

축소 출력 처리 모듈(250)은, 제1 보상부(251), 해상도 축소부(253), 배경 에러 연산부(255), 텍스트 에러 연산부(257) 및 제2 보상부(259)를 포함한다.The reduced output processing module 250 includes a first compensating unit 251, a resolution reducing unit 253, a background error computing unit 255, a text error computing unit 257 and a second compensating unit 259.

제1 보상부(251)는 배경 영상 프레임과 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산한다. 제1 보상부(251)는 제1 영상 프레임의 에러값을 이용하여 제1 영상 프레임을 보상한다.The first compensator 251 calculates an error value of the first image frame between the background image frame and the first image frame. The first compensator 251 compensates the first image frame using the error value of the first image frame.

해상도 축소부(253)는 제2 영상 프레임의 제2 텍스트의 해상도를 기설정된 비율로 축소한다. 이때 기설정된 비율은 상술한 수학식 13에 의해서 연산된다.The resolution reducing unit 253 reduces the resolution of the second text of the second video frame to a predetermined ratio. In this case, the predetermined ratio is calculated by the above-described expression (13).

배경 에러 연산부(255)는 축소된 제2 영상 프레임의 배경 영상 프레임과 보상된 제1 영상 프레임 사이의 배경 에러값을 연산한다.The background error computing unit 255 computes a background error value between the background image frame of the reduced second image frame and the compensated first image frame.

텍스트 에러 연산부(257)는 보상된 제1 영상 프레임과 축소된 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산한다.The text error calculator 257 calculates the error value of the second text between the compensated first image frame and the second text of the reduced second image frame.

제2 보상부(259)는 배경 에러값과 제2 텍스트의 에러값을 이용하여 제2 영상 프레임을 보상한다.The second compensator 259 compensates the second image frame using the background error value and the error value of the second text.

오류 확산 출력 처리 모듈(270)은, 확산부(271), 손실영역 정정부(273) 및 간섭영역 정정부(275)를 포함한다.The error diffusion output processing module 270 includes a spreading section 271, a loss area correcting section 273 and an interference area correcting section 275.

확산부(271)는 상술한 수학식 15에 의해서 제1 영상 프레임과 제2 영상 프레임의 출력을 확산시킨다.The spreading unit 271 spreads the outputs of the first video frame and the second video frame according to Equation (15).

손실영역 정정부(273)는 상술한 수학식 16에 의해서 확산된 제1 영상 프레임 및 제2 영상 프레임에서 기 설정된 출력 범위를 벗어나는 손실영역을 제거한다.The lossy region correcting unit 273 removes a lossy region that deviates from a preset output range in the first image frame and the second image frame that are spread according to Equation (16).

간섭영역 정정부(275)는 상술한 수학식 18에 의해서 확산된 제1 영상 프레임과 제2 영상 프레임 사이의 간섭영역을 제거한다.The interference region correcting unit 275 removes the interference region between the first image frame and the second image frame that are spread by the above-described Equation (18).

단색상 출력 처리 모듈(290)은, 제1 색상 변환부(291) 및 제2 색상 변환부(293)을 포함한다.The color output processing module 290 includes a first color conversion section 291 and a second color conversion section 293.

제1 색상 변환부(291)는 상술한 수학식 19에 의해서 제1 영상 프레임의 제1 텍스트의 색상을 제1 색상값으로 변환한다.The first color conversion unit 291 converts the hue of the first text of the first image frame into the first hue value according to Equation (19).

제2 색상 변환부(293)는 상술한 수학식 20, 21에 의해서 제2 영상 프레임의 제2 텍스트의 색상을 제2 색상값을 갖도록 변환한다.The second color conversion unit 293 converts the color of the second text of the second image frame to have the second color value according to Equations (20) and (21).

단색상 출력 처리 모듈(290)은 제1 색상값과 제2 색상값을 서로 색상 대비되도록 이미지 처리한다.The color output processing module 290 processes the first color value and the second color value so that they are color contrast with each other.

디스플레이부(300)는 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이한다.The display unit 300 alternately displays the first image frame and the second image frame subjected to the image processing.

디스플레이부(300)는 이미지 처리된 제2 영상 프레임을 안경 비착용자에 대하여 이미지 처리된 제1 영상 프레임과 오버랩되도록 디스플레이한다. 디스플레이부(300)는 제1 텍스트를 안경 비착용자에 대하여 불인식되도록 디스플레이한다.The display unit 300 displays the image-processed second image frame so as to overlap with the image-processed first image frame with respect to the spectacle wearer. The display unit 300 displays the first text so that it is not recognized by the wearer.

도 19는 종래의 방식과 본 발명의 다양한 이미지 처리 방식에 따른, 안경 사용자에게 출력되는 결과 영상을 도시하는 도면이다.19 is a diagram showing a resultant image output to a spectacle user according to a conventional method and various image processing methods of the present invention.

도 19를 참고하면, Yerazunis의 출력법을 포함한 본 발명의 다양한 실시예의 출력법에 기초하여 안경 사용자 그룹이 보게 되는 영상의 결과를 확인할 수 있다.Referring to FIG. 19, based on the output method of various embodiments of the present invention, including the output method of Yerazunis, the result of the image seen by the eyeglass user group can be confirmed.

각각의 출력법에서 눈에 띄는 차이점은 결과 영상의 밝기이다. 오류 확산 출력법과 단색상 출력법이 가장 밝은 영상의 밝기를 보인다. 다음으로 흑백 출력법, 손실 출력법 및 축소 출력법이 기존 영상의 절반이 출력이 나온다. 마지막으로 Yerazunis의 출력법이 가장 어둡게 출력된다. 다음의 표 1은 디스플레이 장치가 나타낼 수 있는 최대 밝기를 1이라고 할 때, 각 출력법 별로 영상의 밝기를 나타낸 수치이다.A noticeable difference in each output method is the brightness of the resulting image. The error diffusion output method and the monochromatic output method show the brightness of the brightest image. Next, the black and white output method, the loss output method, and the reduced output method output half of the conventional image. Finally, the output method of Yerazunis is darkest. Table 1 below shows the brightness of the image for each output method when the maximum brightness that the display device can represent is 1.

유형
type
영상 밝기
Video brightness
손실 수치Loss figure
전체all 문자text 배경background YerazunisYerazunis 0.250.25 0.1550.155 0.1100.110 0.1550.155 흑백 출력법Black and white output method 0.50.5 0.0200.020 0.1560.156 0.0080.008 손실 출력법Loss output method 0.250.25 0.1550.155 0.1110.111 0.1550.155 축소 출력법Reduced output method 0.250.25 0.1550.155 0.1110.111 0.1550.155 오류 확산 출력법Error diffusion output method 0.50.5 0.0220.022 0.0570.057 0.0170.017 단색상 출력법Color output method 0.50.5 0.0220.022 0.1640.164 0.0080.008

이외에 안경 사용자 그룹의 영상에서 나타나는 특징은 텍스트의 색상이다. 흑백 출력법과 단색상 출력법은 텍스트 영역이 일정한 색상으로 색상 정보를 모두 손실한다. 반면, 손실 출력법과 축소 출력법은 텍스트 영역의 색상 정보가 손상되지만 크게 부각되지는 않는다. 오류 확산 출력법은 안경 비사용자 그룹의 텍스트 영역이 상대적으로 흐릿하게 출력되어 나타난다.In addition, the feature that appears in the image of the eyeglass user group is the color of the text. In the monochrome output method and the monochrome output method, the text area loses color information in a constant color. On the other hand, the lossy output method and the reduced output method do not greatly emphasize the color information of the text area. In the error diffusion output method, the text area of the eyeglass non-user group appears to be relatively blurred.

표 1의 손실 수치는 안경 사용자 그룹이 보게 되는 영상과 이상적인 영상과의 차이를 나타내는 수치이다. 각 화소의 차이 값의 절대치를 텍스트 영역과 배경 영역별로 평균 낸 것으로 최대값은 1을 가지며 0에 가까울수록 이상적인 영상과 유사하다.The loss values in Table 1 are the numbers representing the difference between the image seen by the eyeglass user group and the ideal image. The absolute value of the difference value of each pixel is averaged for each text area and background area. The maximum value is 1, and the closer to 0, the similar to the ideal image.

손실 출력법과 축소 출력법의 텍스트 영역에 정보 손실이 있지만, 동일한 비율의 밝기를 나타내는 Yerazunis의 출력법과 비슷한 수치를 나타낸다. 배경 영역도 동일한 수치로서 손실 출력법과 축소 출력법이 비슷한 영상을 출력하는 것을 확인할 수 있다. 흑백 출력법과 단색상 출력법은 배경 영상이 이상적인 출력과 거의 동일하지만, 오류 확산 출력법은 안경 비사용자 그룹의 텍스트 영상을 위한 오류가 배경 영상에 영향을 주게 되므로 오류가 발생할 수 있다.There is information loss in the text area of the lossy output method and the reduced output method, but it is similar to the output method of Yerazunis which shows the same ratio of brightness. The background area is also the same value, and it can be confirmed that the loss output method and the reduced output method are similar to each other. In the black and white output method and the simple color output method, the background image is almost the same as the ideal output, but the error diffusion output method may cause an error because the error for the text image of the eyeglass non-user group affects the background image.

도 20은 종래의 방식과 본 발명의 다양한 이미지 처리 방식에 따른, 안경 비사용자에게 출력되는 결과 영상을 도시하는 도면이다. FIG. 20 is a diagram showing a resultant image output to a non-eyeglass user according to a conventional method and various image processing methods of the present invention.

도 20을 참고하면, Yerazunis의 출력법을 포함한 본 발명의 다양한 실시예에 따른 출력법에 기초하여 안경 비사용자 그룹이 보게 되는 영상의 결과를 확인할 수 있다.Referring to FIG. 20, based on the output method according to various embodiments of the present invention including the output method of Yerazunis, the result of the image to be viewed by the spectacle non-user group can be confirmed.

안경 비사용자 그룹이 보게 되는 영상은 전체적인 색상이 오류 확산 출력법과 단색상 출력법이 가장 밝게 나타난다. Yerazunis의 출력법, 손실 출력법, 축소 출력법은 회색의 색감을 나타낸다. 흑백 출력법은 전체적으로 어두운 영상을 보인다. 이외에 오류 확산 출력법은 문자 영역 주변에 흐릿하게 손실이 보이고 단색상 출력법은 안경 사용자 그룹의 텍스트 영역이 흐릿하게 보인다.The spectral non-user group has the brightest color with the error diffusion output method and monochrome output method. The output method, the loss output method, and the reduced output method of Yerazunis show gray color. The black-and-white output method shows dark images as a whole. In addition, the error diffusion output method shows blurred loss around the character area, and the color output method shows the text area of the eyeglass user group to be blurred.

다음의 표 2는 각 출력볍 별로 영상의 밝기를 나타낸다. Table 2 below shows the brightness of the image for each output light.

유형
type
최대밝기
Maximum brightness
블랙 레벨 옵셋
Black level offset
손실 수치Loss figure
전체all 문자text 배경background YerazunisYerazunis 0.250.25 0.250.25 0.2690.269 0.1900.190 0.2710.271 흑백 출력법Black and white output method 0.50.5 00 0.3100.310 0.2230.223 0.3110.311 손실 출력법Loss output method 0.50.5 0.250.25 0.2020.202 0.1030.103 0.2060.206 축소 출력법Reduced output method 0.50.5 0.250.25 0.2090.209 0.2120.212 0.2060.206 오류 확산 출력법Error diffusion output method 1.01.0 00 0.0230.023 0.0770.077 0.0170.017 단색상 출력법Color output method 1.01.0 00 0.0220.022 0.2040.204 0.0030.003

즉, 표 2와 같이 출력된 영상 밝기는 Yerazunis가 가장 어둡게 표현되고, 블랙-레벨 옵셋도 동일한 비율로 나타난다. 손실 출력법과 축소 출력법은 동일하게 절반의 밝기와 0.25의 블랙-레벨 옵셋을 가지고, Yerazunis의 출력법에 비하여 두 배의 밝기가 향상된다.In other words, as shown in Table 2, the output image brightness is represented darkest in Yerazunis, and the black-level offset appears in the same ratio. The lossy output method and the reduced output method have the same half brightness and the black-level offset of 0.25, which is twice as bright as the output method of Yerazunis.

흑백 출력법은 절반의 밝기와 블랙-레벨 옵셋을 가지지 않아서 깨끗한 배경 영상을 보여준다. 오류 확산 출력법과 단색상 출력법은 최대 밝기를 그대로 보여준다. 손실 수치는 단색상 출력법과 오류 확산 출력법이 전체적으로 가장 적게 나타나고 있지만, 단색상 출력법은 배경 영역보다 텍스트 영역에서 큰 손실을 보이고, 오류 확산 출력법은 텍스트 영역보다 배경 영역에서 큰 손실이 발생함을 확인할 수 있다.The black and white output method does not have half brightness and black-level offset, so it shows clean background image. The error diffusion output method and the simple color output method show the maximum brightness. However, the color output method shows a large loss in the text area than the background area, and the error diffusion output method generates a large loss in the background area rather than the text area. can confirm.

본 발명의 다양한 실시예에 따른 출력법은 영상의 특징에 따라 각각 장점이 있다. 흑백 출력법은 안경을 쓴 그룹과 안경을 사용하지 않는 그룹 사이의 밝기의 차이가 없고 선명도가 있게 보인다. 그러나 문자의 색상이 한가지 색으로 제한되므로 다양한 색상의 텍스트가 필요한 영상에서는 사용이 제한된다. 또한, 배경 영상이 텍스트와 동일한 색상일 경우에는 텍스트가 보이지 않게 될 수도 있다.The output method according to various embodiments of the present invention has advantages according to characteristics of an image. The black-and-white output method shows no difference in brightness between the group wearing glasses and the group not using glasses, and it shows sharpness. However, since the color of characters is restricted to one color, the use of the image is restricted for images requiring various colors of text. Also, if the background image is the same color as the text, the text may not be visible.

손실 출력법은 텍스트에 색상을 나타내면서 흐릿해지는 효과를 방지하기 위한 방법이다. 원래의 색상에 가깝게 표현하는 방법이므로 초과되는 부분에 대한 색상 손실이 생기지만 초과되는 부분은 이미 주변 색보다 표현할 수 있는 가장 밝은 색상을 가지고 있으므로 문자의 가독성에 큰 영향을 주지 못한다. 그러나 배경 영상의 색상이 급격히 변하는 경우에는 추가되는 문자 내부의 색상에 흐릿한 무늬가 발생할 수 있다.The lossy output method is a method for preventing the blurring effect of coloring text. Since it is a method of expressing close to the original color, a color loss occurs in the excess portion, but the excess portion does not greatly affect the readability of the character because it has the brightest color which can be expressed more than the surrounding color. However, if the color of the background image changes suddenly, a blurred pattern may occur in the color inside the added character.

축소 출력법은 문자의 색상비를 일정하게 지키면서 출력하기에 전체적으로 비슷한 영상을 나타낼 수 있다. 문자의 색상비가 일정하게 나타나므로 텍스트 영역에 다른 영상이 들어가는 경우에 가장 적합한 방식이다. 그러나 텍스트의 색상과 배경 영상의 색상값이 커질수록 축소률로 커져서 문자 영역이 하나의 색에 가깝게 표현될 수 있다.The reduced output method can output a similar image as a whole, while keeping the color ratio of the characters constant. Since the color ratio of characters is constant, it is the most suitable method when other images are included in the text area. However, as the color of the text and the color value of the background image become larger, the reduction ratio becomes larger and the character region can be expressed close to one color.

오류 확산 출력법은 텍스트 영상의 손실을 주변으로 확산시키는 방법으로 밝은 영상을 표현한다. 가우시안 함수를 이용하여 손실을 눈에 띄지 않게 주변으로 분산시킨다. 다만, 손실이 커질수록 분산 색상이 눈에 띄게 번지고 반대편 그룹의 영상에도 눈에 띄게 된다.The error diffusion output method expresses the bright image by spreading the loss of the text image around. Gaussian function is used to dissipate the loss to the surroundings inconspicuously. However, the larger the loss, the more noticeable the dispersion color is, and the more noticeable is the image of the opposite group.

단색상 출력법은 밝은 영상을 표현할 수 있고, 텍스트 영역이 배경 영상에 따라 가독성 높은 단색으로 결정된다. 하지만 텍스트 영역의 색상을 결정할 수 없고 하나의 색상으로만 나타나게 된다.The color output method can express a bright image, and the text area is determined as a monochromatic color having high readability according to the background image. However, the color of the text area can not be determined, but only one color appears.

비록 본 발명의 예시적인 실시예 및 적용예가 도시되고 설명되었더라도, 본 발명의 기술적 사상의 범위를 벗어나지 않는 범위에서 많은 변화 및 수정이 가능하고, 이러한 변형은 본 발명이 속하는 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있습니다. 따라서, 설명된 실시예는 예시적이지 제한적인 것이 아니며, 본 발명은 첨부된 상세한 설명에 의해서 제한되는 것이 아니지만 청구항의 기술적 범위 내에서 수정가능하다. Although illustrative embodiments and applications of the present invention have been shown and described, many changes and modifications may be made without departing from the scope of the present invention, and such modifications may be made by one of ordinary skill in the art to which the present invention pertains It can be clearly understood. Accordingly, the described embodiments are illustrative and not restrictive, and the invention is not limited by the accompanying detailed description, but is capable of modifications within the scope of the claims.

100 : 프레임 생성부 200 : 이미지 처리부
210 : 흑백 출력 모듈 211 : 제1 명도 변환부
213 : 제2 명도 변환부 230 : 손실 출력 모듈
231, 251 : 제1 보상부 233, 257 : 텍스트 에러 연산부
235, 255 : 배경 에러 연산부 237, 259 : 제2 보상부
250 : 축소 출력 모듈 253 : 해상도 축소부
270 : 오류 확산 출력 모듈 271 : 확산부
273 : 손실 영역 정정부 275 : 간섭영역 정정부
290 : 단색상 출력 모듈 291 : 제1 색상 변환부
293 : 제2 색상 변환부
100: frame generation unit 200:
210: monochrome output module 211: first brightness conversion section
213: second brightness conversion unit 230: lossy output module
231, 251: first compensator 233, 257: text error calculator
235, 255: background error calculation unit 237, 259: second compensation unit
250: reduction output module 253: resolution reduction section
270: Error diffusion output module 271:
273: loss area correcting unit 275: interference area correcting unit
290: color output module 291: first color conversion section
293: Second color conversion section

Claims (16)

배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 단계;
상기 제1 영상 프레임 및 상기 제2 영상 프레임을 손실 출력법에 따라 이미지 처리하는 단계; 및
상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 단계;를 포함하고,
상기 손실 출력법은,
상기 배경 영상 프레임과 상기 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하는 단계;
상기 제1 영상 프레임의 에러값을 이용하여 상기 제1 영상 프레임을 보상하는 단계;
상기 제2 영상 프레임의 배경 영상 프레임과 상기 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 단계;
상기 보상된 제1 영상 프레임과 상기 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 단계; 및
상기 배경 에러값과 상기 제2 텍스트의 에러값을 이용하여 상기 제2 영상 프레임을 보상하는 단계;를 포함하는 것을 특징으로 하는 디스플레이 방법.
Generating a second image frame including a first image frame including a first text corresponding to a wearer of glasses and a second text corresponding to a wearer using a background image frame;
Processing the first image frame and the second image frame according to a lossy output method; And
And alternately displaying the first image frame and the second image frame subjected to the image processing,
In the lossy output method,
Calculating an error value of a first image frame between the background image frame and the first image frame;
Compensating the first image frame using an error value of the first image frame;
Calculating a background error value between the background image frame of the second image frame and the compensated first image frame;
Computing an error value of a second text between the compensated first image frame and a second text of the second image frame; And
And compensating the second image frame using the background error value and the error value of the second text.
제1항에 있어서,
상기 이미지 처리된 제2 영상 프레임은, 안경 비착용자에 대하여 상기 이미지 처리된 제1 영상 프레임과 오버랩되고,
상기 제1 텍스트는, 상기 안경 비착용자에 대하여 불인식되는 것을 특징으로 하는 디스플레이 방법.
The method according to claim 1,
Wherein the image-processed second image frame is overlapped with the image-processed first image frame with respect to the wearer of glasses,
Wherein the first text is not recognized for the wearer.
삭제delete 삭제delete 삭제delete 배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 단계;
상기 제1 영상 프레임 및 상기 제2 영상 프레임을 축소 출력법에 따라 이미지 처리하는 단계; 및
상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 단계;를 포함하고,
상기 축소 출력법은,
상기 배경 영상 프레임과 상기 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하고, 상기 제1 영상 프레임의 에러값을 이용하여 상기 제1 영상 프레임을 보상하는 단계;
상기 제2 영상 프레임의 상기 제2 텍스트의 해상도를 기설정된 비율로 축소하는 단계;
상기 축소된 제2 영상 프레임의 배경 영상 프레임과 상기 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 단계;
상기 보상된 제1 영상 프레임과 상기 축소된 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 단계; 및
상기 배경 에러값과 상기 제2 텍스트의 에러값을 이용하여 상기 제2 영상 프레임을 보상하는 단계;를 포함하는 것을 특징으로 하는 디스플레이 방법.
Generating a second image frame including a first image frame including a first text corresponding to a wearer of glasses and a second text corresponding to a wearer using a background image frame;
Image processing the first image frame and the second image frame according to a reduced output method; And
And alternately displaying the first image frame and the second image frame subjected to the image processing,
In the reduced output method,
Calculating an error value of a first image frame between the background image frame and the first image frame, and compensating the first image frame using an error value of the first image frame;
Reducing a resolution of the second text of the second image frame to a predetermined ratio;
Computing a background error value between the background image frame of the reduced second image frame and the compensated first image frame;
Computing an error value of a second text between the compensated first image frame and a second text of the reduced second image frame; And
And compensating the second image frame using the background error value and the error value of the second text.
배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 단계;
상기 제1 영상 프레임 및 상기 제2 영상 프레임을 오류 확산 출력법에 따라 이미지 처리하는 단계; 및
상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 단계;를 포함하고,
상기 오류 확산 출력법은,
가우시안 함수에 의해서 상기 제1 영상 프레임과 상기 제2 영상 프레임의 출력을 확산하는 단계;
상기 확산된 제1 영상 프레임 및 제2 영상 프레임에서 기 설정된 출력 범위를 벗어나는 손실영역을 제거하는 단계; 및
상기 확산된 제1 영상 프레임과 상기 제2 영상 프레임 사이의 간섭영역을 제거하는 단계;를 포함하는 것을 특징으로 하는 디스플레이 방법.
Generating a second image frame including a first image frame including a first text corresponding to a wearer of glasses and a second text corresponding to a wearer using a background image frame;
Image-processing the first image frame and the second image frame according to an error diffusion output method; And
And alternately displaying the first image frame and the second image frame subjected to the image processing,
In the error diffusion output method,
Diffusing outputs of the first image frame and the second image frame by a Gaussian function;
Removing a lossy region out of a predetermined output range in the spread first and second image frames; And
And removing an interference region between the spread first image frame and the second image frame.
배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 단계;
상기 제1 영상 프레임 및 상기 제2 영상 프레임을 단색상 출력법에 따라 이미지 처리하는 단계; 및
상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 단계;를 포함하고,
상기 단색상 출력법은,
상기 제1 영상 프레임의 제1 텍스트의 색상을 제1 색상값을 갖도록 변환하는 단계; 및
상기 제2 영상 프레임의 제2 텍스트의 색상을 제2 색상값을 갖도록 변환하는 단계;를 포함하고,
상기 제1 색상값과 상기 제2 색상값은 서로 색상 대비되는 것을 특징으로 하는 디스플레이 방법.
Generating a second image frame including a first image frame including a first text corresponding to a wearer of glasses and a second text corresponding to a wearer using a background image frame;
Image processing the first image frame and the second image frame according to a color output method; And
And alternately displaying the first image frame and the second image frame subjected to the image processing,
In the color printing method,
Converting a color of a first text of the first image frame to have a first color value; And
And converting the color of the second text of the second image frame to have a second color value,
Wherein the first color value and the second color value are contrasted with each other.
배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 프레임 생성부;
상기 제1 영상 프레임 및 상기 제2 영상 프레임을 손실 출력 처리 모듈에 따라 이미지 처리하는 이미지 처리부;
상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 디스플레이부;를 포함하고,
상기 손실 출력 처리 모듈은,
상기 배경 영상 프레임과 상기 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하고, 상기 제1 영상 프레임의 에러값을 이용하여 상기 제1 영상 프레임을 보상하는 제1 보상부;
상기 제2 영상 프레임의 배경 영상 프레임과 상기 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 배경 에러 연산부;
상기 보상된 제1 영상 프레임과 상기 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 텍스트 에러 연산부; 및
상기 배경 에러값과 상기 제2 텍스트의 에러값을 이용하여 상기 제2 영상 프레임을 보상하는 제2 보상부;를 포함하는 것을 특징으로 하는 디스플레이 장치.
A frame generator for generating a first image frame including a first text corresponding to a wearer of glasses using a background image frame and a second image frame including a second text corresponding to a wearer of glasses;
An image processing unit for image-processing the first image frame and the second image frame according to a lossy output processing module;
And a display unit for alternately displaying the image-processed first image frame and the second image frame,
Wherein the loss output processing module comprises:
A first compensator for calculating an error value of a first image frame between the background image frame and the first image frame and compensating the first image frame using an error value of the first image frame;
A background error calculator for calculating a background error value between the background image frame of the second image frame and the compensated first image frame;
A text error calculator for calculating an error value of a second text between the compensated first image frame and a second text of the second image frame; And
And a second compensator compensating the second image frame using the background error value and the error value of the second text.
제9항에 있어서,
상기 디스플레이부는,
상기 이미지 처리된 제2 영상 프레임을 안경 비착용자에 대하여 상기 이미지 처리된 제1 영상 프레임과 오버랩되도록 디스플레이하고,
상기 제1 텍스트는, 상기 안경 비착용자에 대하여 불인식되는 것을 특징으로 하는 디스플레이 장치.
10. The method of claim 9,
The display unit includes:
Displaying the image-processed second image frame so as to overlap with the image-processed first image frame with respect to the wearer wearing glasses,
Wherein the first text is not recognized with respect to the wearer wearing the glasses.
삭제delete 삭제delete 삭제delete 배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 프레임 생성부;
상기 제1 영상 프레임 및 상기 제2 영상 프레임을 축소 출력 처리 모듈에 따라 이미지 처리하는 이미지 처리부;
상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 디스플레이부;를 포함하고,
상기 축소 출력 처리 모듈은,
상기 배경 영상 프레임과 상기 제1 영상 프레임 사이의 제1 영상 프레임의 에러값을 연산하고, 상기 제1 영상 프레임의 에러값을 이용하여 상기 제1 영상 프레임을 보상하는 제1 보상부;
상기 제2 영상 프레임의 상기 제2 텍스트의 해상도를 기설정된 비율로 축소하는 해상도 축소부;
상기 축소된 제2 영상 프레임의 배경 영상 프레임과 상기 보상된 제1 영상 프레임 사이의 배경 에러값을 연산하는 배경 에러 연산부;
상기 보상된 제1 영상 프레임과 상기 축소된 제2 영상 프레임의 제2 텍스트 사이의 제2 텍스트의 에러값을 연산하는 텍스트 에러 연산부; 및
상기 배경 에러값과 상기 제2 텍스트의 에러값을 이용하여 상기 제2 영상 프레임을 보상하는 제2 보상부;를 포함하는 것을 특징으로 하는 디스플레이 장치.
A frame generator for generating a first image frame including a first text corresponding to a wearer of glasses using a background image frame and a second image frame including a second text corresponding to a wearer of glasses;
An image processing unit for image-processing the first image frame and the second image frame according to a reduced output processing module;
And a display unit for alternately displaying the image-processed first image frame and the second image frame,
The reduced output processing module includes:
A first compensator for calculating an error value of a first image frame between the background image frame and the first image frame and compensating the first image frame using an error value of the first image frame;
A resolution reducing unit that reduces the resolution of the second text of the second image frame to a predetermined ratio;
A background error calculator for calculating a background error value between the background image frame of the reduced second image frame and the compensated first image frame;
A text error arithmetic unit for calculating an error value of a second text between the compensated first image frame and a second text of the reduced second image frame; And
And a second compensator compensating the second image frame using the background error value and the error value of the second text.
배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 프레임 생성부;
상기 제1 영상 프레임 및 상기 제2 영상 프레임을 오류 확산 출력 처리 모듈에 따라 이미지 처리하는 이미지 처리부;
상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 디스플레이부;를 포함하고,
상기 오류 확산 출력 처리 모듈은,
가우시안 함수에 의해서 상기 제1 영상 프레임과 상기 제2 영상 프레임의 출력을 확산하는 확산부;
상기 확산된 제1 영상 프레임 및 제2 영상 프레임에서 기 설정된 출력 범위를 벗어나는 손실영역을 제거하는 손실영역 정정부; 및
상기 확산된 제1 영상 프레임과 상기 제2 영상 프레임 사이의 간섭영역을 제거하는 간섭영역 정정부;를 포함하는 것을 특징으로 하는 디스플레이 장치.
A frame generator for generating a first image frame including a first text corresponding to a wearer of glasses using a background image frame and a second image frame including a second text corresponding to a wearer of glasses;
An image processing unit for image-processing the first image frame and the second image frame according to an error diffusion output processing module;
And a display unit for alternately displaying the image-processed first image frame and the second image frame,
Wherein the error diffusion output processing module comprises:
A spreading unit for spreading the outputs of the first image frame and the second image frame by a Gaussian function;
A lossy region correcting unit for removing a lossy region which is out of a predetermined output range in the first and second image frames; And
And an interference region correcting unit that removes an interference region between the first image frame and the second image frame.
배경 영상 프레임을 이용하여 안경 착용자에 대응되는 제1 텍스트를 포함하는 제1 영상 프레임 및 안경 비착용자에 대응되는 제2 텍스트를 포함하는 제2 영상 프레임을 생성하는 프레임 생성부;
상기 제1 영상 프레임 및 상기 제2 영상 프레임을 단색상 출력 처리 모듈에 따라 이미지 처리하는 이미지 처리부;
상기 이미지 처리된 제1 영상 프레임과 제2 영상 프레임을 교번적으로 디스플레이하는 디스플레이부;를 포함하고,
상기 단색상 출력 처리 모듈은,
상기 제1 영상 프레임의 제1 텍스트의 색상을 제1 색상값을 갖도록 변환하는 제1 색상 변환부; 및
상기 제2 영상 프레임의 제2 텍스트의 색상을 제2 색상값을 갖도록 변환하는 제2 색상 변환부;를 포함하고,
상기 제1 색상값과 상기 제2 색상값을 서로 색상 대비되도록 이미지 처리하는 것을 특징으로 하는 디스플레이 장치.
A frame generator for generating a first image frame including a first text corresponding to a wearer of glasses using a background image frame and a second image frame including a second text corresponding to a wearer of glasses;
An image processing unit for image-processing the first image frame and the second image frame according to the color output processing module;
And a display unit for alternately displaying the image-processed first image frame and the second image frame,
The single color output processing module includes:
A first color conversion unit converting a color of the first text of the first image frame to have a first color value; And
And a second color converter for converting a color of a second text of the second image frame to have a second color value,
Wherein the image processing unit performs image processing such that the first color value and the second color value are in a color contrast with each other.
KR1020120077839A 2012-07-17 2012-07-17 Display apparatus and method KR101422590B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120077839A KR101422590B1 (en) 2012-07-17 2012-07-17 Display apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120077839A KR101422590B1 (en) 2012-07-17 2012-07-17 Display apparatus and method

Publications (2)

Publication Number Publication Date
KR20140011111A KR20140011111A (en) 2014-01-28
KR101422590B1 true KR101422590B1 (en) 2014-07-24

Family

ID=50143482

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120077839A KR101422590B1 (en) 2012-07-17 2012-07-17 Display apparatus and method

Country Status (1)

Country Link
KR (1) KR101422590B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030026449A1 (en) 2001-08-06 2003-02-06 Mitsubishi Electric Research Laboratories, Inc. Privacy-enhanced display device
KR20120018969A (en) * 2010-08-24 2012-03-06 삼성전자주식회사 3d image processing apparatus and method for processing 3d image thereof
KR20120079432A (en) * 2011-01-04 2012-07-12 삼성전자주식회사 Display appratus and system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030026449A1 (en) 2001-08-06 2003-02-06 Mitsubishi Electric Research Laboratories, Inc. Privacy-enhanced display device
KR20120018969A (en) * 2010-08-24 2012-03-06 삼성전자주식회사 3d image processing apparatus and method for processing 3d image thereof
KR20120079432A (en) * 2011-01-04 2012-07-12 삼성전자주식회사 Display appratus and system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
한국정보과학회 2011한국컴퓨터종합학술대회 논문집 제38권 제1호(B), 2011.6 *
한국정보과학회 2011한국컴퓨터종합학술대회 논문집 제38권 제1호(B), 2011.6*

Also Published As

Publication number Publication date
KR20140011111A (en) 2014-01-28

Similar Documents

Publication Publication Date Title
KR101913035B1 (en) Semi transparent mark, a method for composing and detecting semi transparent mark,transparent mark and a method for composing and detecting transparent mark
US10373583B2 (en) Image transforming vision enhancement device
US8625881B2 (en) Enhanced ghost compensation for stereoscopic imagery
US9380284B2 (en) Image processing method, image processing device and recording medium
JP5897159B2 (en) Display device and control method thereof
CN106157270B (en) A kind of single image rapid defogging method and system
JP2020521174A5 (en)
US11232609B2 (en) Method of displaying an image on a see-through display
US11356633B2 (en) Video signal processing apparatus, video signal processing method, and video signal processing system
JP2016197853A (en) Evaluation device, evaluation method and camera system
KR101422590B1 (en) Display apparatus and method
JP2015097049A (en) Image processor and image processing method
Mantiuk et al. ColorVideoVDP: A visual difference predictor for image, video and display distortions
JP2021082069A (en) Image processing system, imaging apparatus, image processing method, and program
Höckh et al. Exploring crosstalk perception for stereoscopic 3D head‐up displays in a crosstalk simulator
Ryu et al. Enhanced reduction of color blending by a gamma-based image boosting method for optical see-through displays
JP2020190711A (en) Image processing device and image processing method
JP2021089617A (en) Image processing method
JP2017135600A (en) Image processing device and program
JP5683214B2 (en) Image processing apparatus and control method thereof
Maier Color processing for digital cinema 1: Background, encoding and decoding equations, encoding primaries, and the exponent (1/2.6)
Koshikizawa et al. Color Appearance Control for Color Vision Deficiency by Projector-Camera System
JP2017069723A (en) Image processing apparatus, image processing system, and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20170621

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180626

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190627

Year of fee payment: 6