KR101619468B1 - Display device for displaying 3D virtual reality media and control method thereof - Google Patents

Display device for displaying 3D virtual reality media and control method thereof Download PDF

Info

Publication number
KR101619468B1
KR101619468B1 KR1020150014294A KR20150014294A KR101619468B1 KR 101619468 B1 KR101619468 B1 KR 101619468B1 KR 1020150014294 A KR1020150014294 A KR 1020150014294A KR 20150014294 A KR20150014294 A KR 20150014294A KR 101619468 B1 KR101619468 B1 KR 101619468B1
Authority
KR
South Korea
Prior art keywords
image
image data
eye image
unit
data
Prior art date
Application number
KR1020150014294A
Other languages
Korean (ko)
Inventor
곽준영
Original Assignee
곽준영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 곽준영 filed Critical 곽준영
Priority to KR1020150014294A priority Critical patent/KR101619468B1/en
Application granted granted Critical
Publication of KR101619468B1 publication Critical patent/KR101619468B1/en

Links

Images

Classifications

    • H04N13/0429
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • H04N13/0029
    • H04N13/0486
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/315Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

The present invention relates to a three-dimensional virtual reality image display device and a control method thereof which realizes a configuration that can be attached to and detached from spectacles, or held on the face of a user, and a mode that plays back various virtual reality images or three-dimensional images via wireless communication with an electronic device such as mobile devices. The present invention includes: an image receiving unit which wirelessly receives image data from the external image device; an object adjusting unit which extracts an object from the image data input into the image receiving unit, obtains depth information of the object and then adjusts the size of the object by using the depth information; an image adjusting unit which divides the adjusted image data which have been received from the object adjusting unit into left eye image data and right eye image data, respectively, and adjusts the resolution thereof; an image output unit which outputs the image data, which have been divided in the image adjusting unit, alternately as a left eye image and a right eye image to a left display and a right display, respectively; and an image control unit which controls the alternating timing of the left eye image and the right eye image which are output from the image output unit with reference to a preestablished value. Meanwhile, the left display and the right display have the configuration that can be attached to and detached from the spectacles, or held on the face of the user.

Description

3D 가상현실 영상 디스플레이 장치 및 그 제어방법 {Display device for displaying 3D virtual reality media and control method thereof}Technical Field [0001] The present invention relates to a 3D virtual reality image display device and a control method thereof,

본 발명은 3D 가상현실 영상 디스플레이 장치 및 그 제어 방법에 관한 것으로서, 보다 상세하게는 스마트폰, 태블릿 및 컴퓨터 등과 같은 영상 디바이스와 무선 통신 연동을 통해 영상을 재생하는 영상 디바이스와 연동 되는 3D 가상현실 영상 디스플레이 장치 및 그 제어방법에 관한 것이다.The present invention relates to a 3D virtual reality image display apparatus and a control method thereof, and more particularly, to a 3D virtual reality image display apparatus and a 3D virtual reality image display apparatus that interoperate with a video device that reproduces an image through wireless communication with a video device such as a smart phone, A display device and a control method thereof.

가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감 있는 3D 컨텐츠로 제작하여, 그 3D 컨텐츠을 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다.Virtual reality is the process of creating a stereoscopic 3D content of a specific environment or situation through a computer and creating a human-computer interaction that makes the person using the 3D content appear to be interacting with the actual surroundings and environment Interface and so on.

일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는 시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다.Generally, the three-dimensional sensation perceived by a person depends on the degree of thickness change of the lens according to the position of the observed object, the angle difference between the eyes and the object, the position and shape difference of the object on the left and right eyes, , And various other psychological and memory effects.

그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를 가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이두 영상이 망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는 것이다.Among them, binocular disparity is the most important factor for a person to feel the stereoscopic effect, as the eyes of a person are about 6.5 cm apart in the horizontal direction. In other words, the binocular disparity causes an angle difference to the object. This difference causes the images coming into each eye to have different phases. When the binocular image is transmitted to the brain through the retina, It is possible to feel the original 3D stereoscopic image by fusing them exactly.

이러한 입체감 있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다.These stereoscopic 3D contents have already been widely used in various media fields and have been well received by consumers. For example, 3D movies, 3D games, and experience displays are examples.

이러한 상황에서, 최근 스마트폰과 같은 모바일 디바이스의 발전, 높은 스마트폰 보급율 및 스마트폰이 지닌 무한한 컨텐츠 네트워크를 통해, 사용자가 스마트폰을 이용하여 쉽게 가상현실을 체험하거나, 3D 영상을 손쉽게 시청할 수 있도록 하는 여러 기술이 꾸준히 요구되고 있고 또한 시도되고 있다.In this situation, the recent development of mobile devices such as smart phones, high smartphone penetration rate, and the infinite contents network of smart phones enable users to easily experience virtual reality using a smartphone or easily view 3D images. A number of techniques have been steadily being sought and tried.

종래에 스마트폰을 이용한 3D 컨텐츠, 기술 및 발명품들이 개발되고 있는 바, 보통 고글 형상을 지니며, 고글을 사용자의 머리에 장착하는 방식을 채용하고, 고글 전방에 스마트폰을 삽입함으로써, 사용자의 시야에 스마트폰의 디스플레이가 보이도록 하며, 스마트폰에서 재생되는 입체화면을 사용자가 시청하는 것과 더불어, 스마트폰이 머리의 움직임을 검출하여 디스플레이에 적용시키는 제어시스템의 형태로 구현되고 있다. 이를 보통 Face mounted display, VR 고글 등과 같은 여러 명칭으로 통용되고 있지만, 일반적으로 HMD(Head mounted display)라는 명칭이 가장 널리 사용되고 있다.Conventionally, 3D contents, technologies, and inventions using smart phones have been developed. In general, goggles are mounted on the user's head, and a smartphone is inserted in front of the goggles. A display of a smartphone is displayed on a display device, and a stereoscopic screen reproduced on a smartphone is displayed in a form of a control system in which a smartphone detects movement of a head and applies it to a display. It is commonly used in various names such as face mounted display, VR goggles and the like, but the name HMD (Head mounted display) is generally widely used.

하지만, 상기 스마트폰을 전방에 삽입하는 고글 형태의 HMD의 경우 여러 문제점이 존재하는데, 예를 들면 스마트폰을 이용하여 영상을 재생할 때 발생하는 상당한 발열을 사용자가 안구나 얼굴로 그대로 받아 들이게 된다는 점, 안경착용자의 경우 어지럼증을 유발하는 점, 고글의 크기나 스마트폰이 삽입되는 공간 등의 형상적인 문제로 모든 모바일 디바이스를 수용할 수 없다는 점, 여기서 시중에 모든 모바일 디바이스 수용하는 제품이 있으나 사용자의 모바일 디바이스 제품군에 따라 일관성 있는 디스플레이를 보여주지 못하는 점, 모바일 디바이스의 배터리 소진 문제, 크기가 크고 두꺼운 형상을 보이기 때문에 공공장소에서 사용하기 꺼려지는 점 등과 같은 여러 크고 작은 기술적인 문제점이 존재하였다.However, there are various problems in the case of a goggle-type HMD in which the smartphone is inserted in front of the user. For example, a user feels a considerable heat generated when a user plays an image using a smartphone, , A problem that the user wearing glasses may cause dizziness, the size of the goggles, or the space in which the smartphone is inserted, and thus, all the mobile devices can not be accommodated. There are several small and large technical problems, such as the lack of consistent display depending on the mobile device family, the battery exhaustion of mobile devices, and the large size and thick shape of the mobile device, making it unsafe for public use.

따라서, 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 창안한 것으로, 사용자가 안면에서 착탈 하기 용이한 안경 형태의 디스플레이를 구현하고, 영상 디바이스와 같은 전자기기와 무선 통신 수단을 통해 여러 가상 현실 영상이나 3D 영상을 재생하는 방식을 구현한 영상 디바이스와 연동 되는 가상 현실 디스플레이 장치 및 방법을 제공하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide an electronic device, such as a video device, It is an object of the present invention to provide a virtual reality display device and method that are interlocked with an image device implementing a method of reproducing an image or a 3D image.

본 발명의 실시예에 따른 3D 가상현실 영상 디스플레이 장치는, 크게 외부 영상 디바이스로부터 무선으로 영상 데이터를 수신하는 영상수신부; 상기 영상수신부에서 입력되는 영상 데이터에서 객체(Object)를 추출하고, 상기 객체의 뎁스(Depth) 정보를 취득한 후, 상기 뎁스(Depth) 정보를 통해 상기 객체의 크기를 조절하는 객체조절부; 상기 객체조절부를 통해 받아들인 조절된 영상 데이터를 각각 좌, 우안 영상 데이터로 분할하고, 해상도를 조절하는 영상조절부; 상기 영상조절부에서 분할한 영상 데이터를 좌안 영상과 우안 영상으로 교번하여 좌우 디스플레이로 출력하는 영상출력부; 및 상기 영상출력부에서 출력하는 좌안 및 우안 영상의 교번 타이밍을 기 설정되어 있는 값을 참조하여 제어하는 영상제어부; 를 포함하고 상기 좌우 디스플레이는 안경에 착탈이 가능한 형태 또는 사용자의 안면부에 거치가 가능한 형태를 갖는 것을 특징으로 하는 3D 가상현실 영상 디스플레이 장치.A 3D virtual reality image display apparatus according to an exemplary embodiment of the present invention includes: a video image receiving unit that wirelessly receives image data from an external video device; An object control unit for extracting an object from the image data input from the image receiving unit, acquiring depth information of the object, and adjusting the size of the object through the depth information; An image controller for dividing the adjusted image data received through the object controller into left and right eye image data and adjusting the resolution; An image output unit for outputting image data divided by the image adjusting unit to left and right displays alternately with a left eye image and a right eye image; And an image control unit for controlling the alternate timing of the left eye and right eye images output from the image output unit with reference to a predetermined value; Wherein the left and right displays have a form that can be attached to or detached from the glasses or a form that can be mounted on the face of the user.

또한, 바람직하게는 상기 영상 데이터는 상기 좌안 영상 및 상기 우안 영상이 좌우로 연결되어 하나의 프레임으로 구성되는 사이드 바이 사이드(Side by Side) 영상 데이터일 수 있다.Preferably, the image data may be side by side image data in which the left eye image and the right eye image are connected to each other to form a single frame.

또한, 바람직하게는 상기 영상수신부는 비콘(Beacon), 블루투스(Bluetooth), 와이파이(Wi-Fi) 적외선 통신 및 셀룰러 네트워크 통신 중에서 선택된 1개 이상의 무선 통신수단을 구비하며, 상기 무선 통신수단을 통해 외부 영상 디바이스와 디스플레이 신호를 송/수신할 수 있다.Preferably, the image receiving unit includes at least one wireless communication unit selected from among a beacon, a Bluetooth, a Wi-Fi infrared communication, and a cellular network communication, It can transmit / receive video device and display signal.

또한, 바람직하게는 상기 객체조절부는, 상기 입력된 영상을 데이터인 RGB 데이터를 휘도 데이터로 변환한 후, 상기 변환한 휘도 데이터를 일정 범위의 휘도를 갖는 객체군을 하나의 객체로 표준화한 휘도 데이터로 생성하는 휘도표준화부; 상기 표준화된 휘도 데이터를 n*m 블록으로 구분하고, 각 블록 내에서 동일한 휘도 값을 갖는 픽셀들이 동일한 뎁스(Depth) 값을 갖도록 설정하여 뎁스(Depth) 영상을 생성하는 뎁스생성부; 및 상기 뎁스(Depth) 영상을 스캐닝(scanning)하면서 타겟 픽셀과 그 주변의 8개 픽셀의 뎁스(Depth) 값이 상이할 경우 이를 노이즈로 가정하여 상기 타겟 픽셀을 주변 픽셀의 뎁스(Depth) 값으로 변경하는 크기조절부;를 포함할 수 있다.Preferably, the object controller may convert the RGB data, which is input image data, into luminance data, and convert the luminance data into luminance data obtained by normalizing an object group having a luminance of a certain range into one object A luminance standardization unit generating a luminance standard; A depth generator for generating a depth image by dividing the normalized luminance data into n * m blocks and setting pixels having the same luminance value to have the same depth value in each block; And scanning the depth image to scan the target pixel and assuming that the depth of eight pixels surrounding the target pixel is different from the depth of the target pixel, And a size changing unit for changing the size of the image.

또한, 바람직하게는 상기 영상조절부는, 상기 객체조절부에서 조절한 영상 데이터를 좌안 영상 및 우안 영상 데이터로 분할 하는 영상 데이터 분할부; 상기 영상 데이터 분할부에서 분할한 영상 데이터의 좌안 영상 및 우안 영상 각각의 빈 영역을 검출하는 영역검출부; 및 상기 영역검출부에서 검출한 좌안 영상 및 우안 영상 데이터의 각각의 빈 영역에 해당하는 영역의 영상 데이터를 상기 좌안 영상 및 상기 우안 영상 데이터 각각의 일측 방향에 인접한 영상으로부터 획득하여 상기 빈 영역을 복원하는 영상복원부; 상기 영상복원부에서 복원한 영상데이터의 해상도를 조절하는 해상도 조절부;를 포함할 수 있다.Preferably, the image adjusting unit comprises: an image data dividing unit dividing the image data adjusted by the object adjusting unit into left eye image and right eye image data; An area detecting unit for detecting a free area of each of the left eye image and the right eye image of the image data divided by the image data dividing unit; And restoring the empty area by obtaining image data of an area corresponding to each empty area of the left eye image and right eye image data detected by the area detecting part from an image adjacent to one direction of each of the left eye image and the right eye image data An image restoration unit; And a resolution controller for adjusting a resolution of the image data reconstructed by the image reconstructor.

본 발명의 실시예에 따른 3D 가상현실 영상 디스플레이 장치의 제어방법은, 외부 영상 디바이스로부터 영상 데이터를 수신하는 단계; 상기 수신한 좌안 영상 및 우안 영상 데이터의 객체를 추출하는 단계; 상기 추출한 영상 데이터의 객체의 뎁스(Depth) 정보를 획득하고, 객체의 크기를 조절하는 단계; 상기 객체의 크기를 조절한 영상 데이터를 좌안 영상 및 우안 영상으로 분리하고, 각각의 해상도를 조절하는 단계; 및 상기 해상도가 조절된 영상을 교번적으로 디스플레이하는 단계;를 포함한다.A control method of a 3D virtual reality image display apparatus according to an embodiment of the present invention includes: receiving image data from an external image device; Extracting an object of the received left eye image and right eye image data; Acquiring depth information of an object of the extracted image data and adjusting an object size; Separating the image data in which the size of the object is adjusted into a left eye image and a right eye image, and adjusting respective resolutions; And alternately displaying the resolution-adjusted image.

또한, 바람직하게는 상기 뎁스(Depth) 정보를 획득하고, 객체의 크기를 조절하는 단계는, 상기 입력된 영상을 데이터인 RGB 데이터를 휘도 데이터로 변환하는 단계; 상기 변환한 휘도 데이터를 일정 범위의 휘도를 갖는 객체군을 하나의 객체로 표준화한 휘도 데이터로 생성하는 단계; 상기 표준화된 휘도 데이터를 n*m 블록으로 구분하고, 각 블록 내에서 동일한 휘도 값을 갖는 픽셀들이 동일한 뎁스(Depth) 값을 갖도록 설정하여 뎁스(Depth) 영상을 생성하는 단계; 및 상기 뎁스(Depth) 영상을 스캐닝(scanning)하면서 타겟 픽셀과 그 주변의 8개 픽셀의 뎁스(Depth) 값이 상이할 경우 이를 노이즈로 가정하여 상기 타겟 픽셀을 주변 픽셀의 뎁스(Depth) 값으로 변경하는 단계; 를 포함할 수 있다.Preferably, the step of acquiring the depth information and adjusting the size of the object comprises: converting RGB data, which is input image data, into luminance data; Generating luminance data by converting the converted luminance data into standardized luminance data of a group of objects having a luminance of a certain range; Dividing the normalized luminance data into n * m blocks and generating a depth image by setting pixels having the same luminance value to have the same depth value in each block; And scanning the depth image to scan the target pixel and assuming that the depth of eight pixels surrounding the target pixel is different from the depth of the target pixel, ; . ≪ / RTI >

또한, 바람직하게는 상기 좌안 영상 및 우안 영상으로 분리하고, 각각의 해상도를 조절하는 단계는, 상기 입체 영상 변환부로부터 나온 영상 데이터를 좌안 영상 및 우안 영상 데이터로 분할하는 단계; 상기 분할한 영상 데이터의 좌안 영상 및 우안 영상 각각의 빈 영역을 검출하는 단계; 상기 검출한 좌안 영상 및 우안 영상 데이터의 각각의 빈 영역에 해당하는 영역의 영상 데이터를 상기 좌안 영상 및 상기 우안 영상 데이터 각각의 일측 방향에 인접한 영상으로부터 획득하여 상기 빈 영역을 복원하는 단계; 상기 복원한 영상데이터의 해상도를 조절하는 단계;를 포함 할 수 있다.Preferably, the step of separating the left eye image and the right eye image into the left eye image and the right eye image and adjusting the respective resolutions includes: dividing the image data from the stereoscopic image conversion unit into left eye image and right eye image data; Detecting an empty region of each of the left eye image and the right eye image of the divided image data; Acquiring image data of an area corresponding to each of the empty regions of the detected left eye image and right eye image data from an image adjacent to one direction of each of the left eye image and the right eye image data to restore the empty area; And adjusting a resolution of the restored image data.

본 발명의 3D 가상현실 영상 디스플레이 장치 및 그의 제어방법에 의하면 스마트폰 디스플레이를 이용하는 것이 아닌, 새로운 안경형태의 디스플레이를 제공함으로써, 사용자가 용이하게 안면에 착탈 할 수 있는 효과가 있다.According to the 3D virtual reality image display apparatus and the control method thereof of the present invention, it is possible to easily attach and detach the user to the face by providing a new glasses type display instead of using a smart phone display.

또한, 스마트폰의 발열이 사용자에게 직접적으로 영향을 미치는 점을 해결하였으며, 사용자가 모바일 디바이스 종류에 제한 없이 일관성 있는 가상 현실 영상을 시청할 수 있는 효과가 있다.Also, the problem that the heat of the smartphone directly affects the user is solved, and the user can watch the consistent virtual reality image without limitation in the kind of the mobile device.

또한, 안경착용자들의 경우, 안경알 전방에 용이하게 착탈 하는 방식을 구현하여, 기존 안경착용자들이 안경을 벗고 종래 스마트폰용 HMD 고글을 장착하였을 때 호소하던 어지럼증을 해결한 효과가 있다.In addition, in the case of the wearer wearing glasses, the method of easily attaching and detaching the wearer's eyeglasses in front of the eyeglasses is effective to solve the dizziness which is appealed when the wearer wears glasses and wears the HMD goggles for a conventional smartphone.

또한, 안경형태의 디스플레이와 모바일 디바이스 간의 데이터 송수신 방식을 무선으로 처리하여, 휴대성 및 편의성을 현격히 증대시키는 효과가 있다.In addition, there is an effect of significantly increasing the portability and convenience by wirelessly processing the data transmission / reception method between the glasses-type display and the mobile device.

도 1은 본 발명의 일 실시예에 따른 3D 가상현실 영상 디스플레이 장치의 구성을 간략하게 보인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 3D 가상현실 영상 디스플레이 장치의 형태를 나타낸 도면이다.
도 3는 본 발명의 일 실시예에 따른 3D 가상현실 영상 디스플레이 장치 다른 형태를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 3D 가상현실 영상 디스플레이 장치에서 객체조절부의 구성을 간략하게 보인 블록도이다.
도 5은 본 발명의 일 실시예에 따른 3D 가상현실 영상 디스플레이 장치에서 영상조절부의 구성을 간략하게 보인 블록도이다.
도 6는 본 발명의 일 실시예에 따른, 외부 영상 디바이스로부터 수신한 3D 영상의 처리 과정을 설명하기 위한 흐름도이다.
1 is a block diagram briefly showing a configuration of a 3D virtual reality image display apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a 3D virtual reality image display apparatus according to an exemplary embodiment of the present invention.
3 is a view showing another embodiment of a 3D virtual reality image display apparatus according to an embodiment of the present invention.
4 is a block diagram briefly showing a configuration of an object control unit in a 3D virtual reality image display apparatus according to an embodiment of the present invention.
5 is a block diagram briefly showing a configuration of an image control unit in a 3D virtual reality image display apparatus according to an embodiment of the present invention.
FIG. 6 is a flowchart illustrating a process of processing a 3D image received from an external video device according to an exemplary embodiment of the present invention. Referring to FIG.

이하, 본 발명의 바람직한 실시예를 첨부 된 도면을 참조하여 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하려는 의도가 아니며, 또한 한정적으로 해석되어서도 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고, 본 발명의 기술적 사상에 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 변형예 등이 있을 수 있음을 이해하여야 한다. 아울러, 이하의 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 용이하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. Prior to that, terms and words used in the present specification and claims are not intended to be limiting, nor should they be construed in a conventional or dictionary sense, and that the inventor shall, in order to best explain his invention in the best possible way It should be construed in the meaning and concept consistent with the technical idea of the present invention based on the principle that the concept of the term can be properly defined. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and they do not represent all the technical ideas of the present invention. Therefore, It should be understood that various changes and modifications may be made. In addition, the following embodiments are provided to help those skilled in the art to more easily understand the present invention. The shapes and sizes of elements in the drawings may be exaggerated for clarity.

도 1은 본 발명의 일 실시예에 따른 3D 가상현실 영상 디스플레이 장치의 구성을 간략하게 보인 블록도이다.1 is a block diagram briefly showing a configuration of a 3D virtual reality image display apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 3D 가상현실 영상 디스플레이 장치(100)는 외부 영상 디바이스(200)로부터 무선으로 영상 데이터를 수신하는 영상수신부(110); 상기 영상수신부(110)에서 입력되는 영상 데이터에서 객체(Object)를 추출하고, 상기 객체의 뎁스(Depth) 정보를 취득한 후, 상기 뎁스(Depth) 정보를 통해 상기 객체의 크기를 조절하는 객체조절부(120); 상기 객체조절부(120)를 통해 받아들인 조절된 영상 데이터를 각각 좌, 우안 영상 데이터로 분할하고, 해상도를 조절하는 영상조절부(130); 상기 영상조절부(130)에서 분할한 영상 데이터를 좌안 영상과 우안 영상으로 교번하여 좌우 디스플레이부(160)로 출력하는 영상출력부(140); 및 상기 영상출력부(140)에서 출력하는 좌안 및 우안 영상의 교번 타이밍을 기 설정되어 있는 값을 참조하여 제어하는 영상제어부(150); 를 포함하고 상기 좌우 디스플레이부(160)는 안경에 착탈이 가능한 형태 또는 사용자의 안면부에 거치할 수 있는 형태를 갖는 것을 특징으로 한다.Referring to FIG. 1, a 3D virtual reality image display apparatus 100 according to an exemplary embodiment of the present invention includes an image receiving unit 110 for receiving image data wirelessly from an external image device 200; An object control unit for extracting an object from image data input from the image receiving unit 110 and acquiring depth information of the object and adjusting the size of the object through the depth information, (120); An image controller 130 for dividing the adjusted image data received through the object controller 120 into left and right eye image data and adjusting the resolution; An image output unit 140 that alternately outputs image data divided by the image adjusting unit 130 to a left eye image and a right eye image and outputs the same to the left and right display unit 160; And an image controller 150 for controlling the alternate timing of the left and right eye images outputted from the image output unit 140 with reference to predetermined values. And the left and right display units 160 can be attached to or detached from the glasses or can be mounted on the user's face.

상기 안경에 착탈이 가능한 형태의 좌우 디스플레이부의 일 실시예는, 도 2를 참조하면, 일반적인 안경 착용자들이 안경을 벗지 않고, 좌우 디스플레이부(160)를 손쉽게 안경에 착탈 할 수 있는 소정의 클립(10)이 좌우 디스플레이의 중앙부에 구비되는 형태이다.Referring to FIG. 2, the left and right display units can be detachably attached to the spectacles. A typical clip 10 (see FIG. 2), in which ordinary spectacle wearers can easily attach and detach the left and right display units 160 to / Are provided at the center of the left and right displays.

상기 사용자의 안면부에 거치할 수 있는 형태의 좌우 디스플레이부(160)의 일 실시예는, 도 3을 참조하면, 일반적인 아이-글래스(Eye-glass), 안경, EMD(Eye Mounted Display), HMD(Head Mounted Display), HWD(Head Worn Display), HUD(Head Up Display) 및 고글 등의 형상으로써, 사용자가 손 쉽게 착탈 할 수 있는 여러 형상를 포함하나, 바람직하게는 안경의 형태를 갖는다.Referring to FIG. 3, an embodiment of the left and right display units 160, which can be mounted on the user's face, includes general eye-glasses, glasses, an EMD (Eye Mounted Display), an HMD Head mounted display (HWD), head-up display (HUD), and goggles, and may include various shapes that can be easily attached and detached by the user, but it is preferably in the form of glasses.

본 발명은 상기 전술한 내용에서 디스플레이와 관련된 용어나 구현방식에 관련하여 특별히 한정되지 않는다.The present invention is not particularly limited in terms of the above-mentioned terms with respect to display related terms or implementation methods.

본 발명의 상기 외부 영상 디바이스(200)는 디스플레이 패널을 구비한 디지털 텔레비젼, 퍼스널 컴퓨터, 노트북, 스마트폰, 태블릿 PC, 게임기 및 기타 다양한 휴대용 기기 등을 의미하고, 이제 제한되지 않으며, 본 발명의 상기 3D 가상현실 영상 디스플레이 장치를 통해 영상 및 음성 컨텐츠를 출력할 수 있는 다양한 종류의 디바이스를 포함한다.The external image device 200 of the present invention means a digital television, a personal computer, a notebook, a smart phone, a tablet PC, a game machine, and various other portable devices having a display panel, and the present invention is not limited thereto. And various types of devices capable of outputting video and audio contents through a 3D virtual reality image display device.

상기 영상 컨텐츠는 일반적인 2D 영상, 3D 영상 및 가상현실(Virtual reality) 등을 예시할 수 있으며, 디스플레이를 통해 구현할 수 있는 모든 컨텐츠를 포함할 수 있다.The image content may include a general 2D image, a 3D image, a virtual reality, and the like, and may include all contents that can be implemented through a display.

본 발명의 상기 3D 가상현실 영상 디스플레이 장치(100)는 외부교류전원을 전달받는 전원입력부(미도시)를 포함할 수 있으며, 상기 전원입력부는 본 발명의 3D 가상현실 영상 디스플레이 장치(100)를 다양한 제품에 적용 시키기 위해서, 각종 모바일 디바이스들에 사용되는 다양한 5핀, 6핀, 8핀 및 30핀 포트 등이 사용될 수 있고, 상기 전원입력부는 일반적인 사항이기 때문에, 이하 자세한 설명은 생략하기로 한다.The 3D virtual reality image display apparatus 100 of the present invention may include a power input unit (not shown) for receiving external AC power, and the power input unit may be configured to display the 3D virtual reality image display apparatus 100 Various 5-pin, 6-pin, 8-pin, and 30-pin ports used for various mobile devices can be used for the application to the product, and since the power input unit is a general matter, a detailed description will be omitted.

본 발명은 상기 전원입력부를 통해 들어온 전원을 충전할 수 있는 전지부(미도시)를 더 포함할 수 있다.The present invention may further include a charge unit (not shown) capable of charging a power source input through the power input unit.

상기 전지부에 사용되는 전지는 특별히 그 재료를 한정하지 않고, 다양한 종류로 마련될 수 있다. 예를 들어 니켈-카드뮴 배터리, 니켈-수소 배터리, 리튬-이온 배터리 및 각종 폴리머를 이용한 원형 리튬-이온 배터리 등을 이용 할 수 있으며, 바람직하게는 폴리머를 이용한 소형의 원형 리튬-이온 배터리를 이용 할 수 있다.The battery used for the battery unit is not particularly limited and may be provided in various types. For example, a nickel-cadmium battery, a nickel-hydrogen battery, a lithium-ion battery, and a circular lithium-ion battery using various polymers can be used. Preferably, a small circular lithium- .

본 발명의 상기 영상 데이터는 3D 영상 정보를 포함하고 있는 데이터를 의미한다. 3D 영상 데이터는 하나의 데이터 프레임 영역에 좌안 영상 데이터와 우안 영상 데이터를 포함하고 있다. 그리고, 좌안 영상 데이터와 우안 영상 데이터를 포함하는 형태에 따라, 3D 영상 데이터의 종류가 분류된다. The image data of the present invention means data including 3D image information. The 3D image data includes left eye image data and right eye image data in one data frame region. The type of the 3D image data is classified according to the form including the left eye image data and the right eye image data.

일반적으로 상기 3D 영상 데이터의 종류에는 좌우 분할(Side By Side) 방식, 상하 분할(Tom-Bottom) 방식 및 2D+Depth 방식의 3D 영상 데이터는 스플릿(split) 방식에 의해 좌안 영상 데이터와 우안 영상 데이터를 포함하는 3D 영상 데이터가 있고, 수평 인터리브(Horizontal interleaved) 방식, 수직 인터리브(Vertical interleaved) 방식, 및 체커 보드(checker board) 방식의 3D 영상 데이터는 인터리브(interleave) 방식에 의해 좌안 영상 데이터와 우안 영상 데이터를 포함하는 3D 영상 데이터가 있으나, 바람직하게 본 발명의 상기 영상 데이터는 상기 좌안 영상 및 상기 우안 영상이 좌우로 연결되어 하나의 프레임으로 구성되는 사이드 바이 사이드(Side by Side) 영상 데이터 일 수 있다.Generally, 3D image data of a side-by-side method, a tom-bottom method, and a 2D + Depth method are divided into a left eye image data and a right eye image data by a split method, 3D image data including a horizontal interleaved method, a vertical interleaved method, and a checker board method are input to the left eye image data and the right eye image data by an interleave method, There is 3D image data including image data. Preferably, the image data of the present invention is a side-by-side image data composed of one frame, the left eye image and the right eye image being connected to each other have.

본 발명의 상기 영상수신부(110)는 방송국 또는 위성으로부터 영상 신호를 수신할 수도 있으나, 바람직하게는 외부 영상 디바이스와 연결되어 영상 데이터를 수신할 수 있다. The image receiving unit 110 of the present invention may receive an image signal from a broadcasting station or satellite, but may be connected to an external image device to receive image data.

이때, 영상수신부(110)가 외부 영상 디바이스(200)와 연결되어 영상을 수신받는 수단은 특별히 한정하지는 않으나, 본 발명의 바람직한 일 예로서 S-Video, 컴포넌트, 컴포지트, D-Sub, DVI, HDMI 등의 다양한 유선 인터페이스를 구비할 수 있고, 또한 비콘(Beacon), 블루투스(Bluetooth), 와이파이(Wi-Fi) 적외선 통신, 셀룰러 네트워크 통신 등의 다양한 무선 인터페이스를 구비할 수도 있으며, 또한 상기 열거된 유, 무선 통신 수단 등을 결합하여 동시에 구현 할 수도 있으나, 바람직하게는 상기 영상수신부(110)는 상기 무선 통신수단을 통해 외부 영상 디바이스(200)와 디스플레이 신호(영상 데이터)를 송/수신한다.The S-Video component, the composite, the D-Sub, the DVI, the HDMI, and the HDMI may be connected to the external video device 200 through the video receiving unit 110. However, And various wireless interfaces such as a beacon, a Bluetooth, a Wi-Fi infrared communication, and a cellular network communication may be provided. In addition, And wireless communication means, but it is preferable that the image receiving unit 110 transmits / receives a display signal (image data) to / from the external image device 200 through the wireless communication means.

상기 외부 영상 디바이스(200)와 본 발명의 3D 가상현실 영상 디스플레이 장치(100)와 상기 무선 통신수단을 통해 연결되면, 상기 영상 디바이스는 호환 가능한 각종 영상 컨텐츠 데이터를 본 발명의 3D 가상현실 영상 디스플레이 장치(100)로 전송한다.When the external video device 200 and the 3D virtual reality image display device 100 of the present invention are connected to the 3D virtual reality image display device 100 through the wireless communication means, the video device converts various compatible video content data into the 3D virtual reality image display device (100).

이때, 상기 수신하는 영상은 2D 영상 또는 3D 영상일 수도 있다. At this time, the received image may be a 2D image or a 3D image.

상기 2D 영상을 수신한 경우, 본 발명의 3D 가상현실 영상 디스플레이 장치(100)는 2D 영상을 3D 영상으로 변환하여 사용자에게 제공하고, 3D 영상을 수신한 경우는 3D 영상 데이터를 처리하여 사용자에게 제공할 수도 있다.When the 2D image is received, the 3D virtual reality image display apparatus 100 of the present invention converts the 2D image into a 3D image and provides the 3D image to the user. When the 3D image is received, the 3D image data is processed You may.

도 4는 본 발명의 일 실시예에 따른 3D 가상현실 영상 디스플레이 장치에서 객체조절부의 구성을 간략하게 보인 블록도이다.4 is a block diagram briefly showing a configuration of an object control unit in a 3D virtual reality image display apparatus according to an embodiment of the present invention.

본 발명의 상기 객체조절부(120)는 상기 영상수신부(110)에서 입력되는 영상 데이터에서 객체(Object)를 추출하고, 상기 객체의 뎁스(Depth) 정보를 취득한 후, 상기 뎁스(Depth) 정보를 통해 상기 객체의 크기를 조절하는 것으로, 도 2를 참조하면, 상기 객체조절부(120)는 휘도표준화부(121), 뎁스생성부(122) 및 크기조절부(123)를 포함한다.The object modifier 120 of the present invention extracts an object from the image data input from the image receiver 110 and obtains depth information of the object and then outputs the depth information Referring to FIG. 2, the object adjusting unit 120 includes a luminance normalizing unit 121, a depth generating unit 122, and a size adjusting unit 123.

상기 휘도표준화부(121)는 입력된 영상을 데이터인 RGB 데이터를 휘도 데이터로 변환한 후, 상기 변환한 휘도 데이터를 일정 범위의 휘도를 갖는 객체군을 하나의 객체로 표준화한 휘도 데이터로 생성한다.The luminance normalization unit 121 converts the RGB data, which is input data, into luminance data, and then generates the luminance data that is the standardized object group of the object group having luminance within a certain range as the luminance data .

상기 휘도표준화부(121)는 상기 영상 데이터 각 픽셀의 휘도 값을 구하여 입력 영상의 RGB 데이터를 휘도데이터로 변환한다. 여기서, 각 픽셀의 휘도 값 Y는 해당 픽셀의 R, G, B 값을 하기 수학식 1에 적용하여 구할 수 있다.The brightness normalization unit 121 obtains brightness values of the respective pixels of the image data, and converts the RGB data of the input image into brightness data. Here, the luminance value Y of each pixel can be obtained by applying the R, G, and B values of the corresponding pixel to Equation (1).

Figure 112015009987485-pat00001
Figure 112015009987485-pat00001

상기 휘도표준화부(121)는 상기 수학식 1을 통해서 구해진 각 픽셀의 휘도 값을 몇 단계로 표준화하여 단순화한다. 바람직하게는 5단계가 적당하며, 영상에서 휘도는 영상의 계조값으로서, 0 내지 255까지의 계조값을 갖는다. 이를 5단계로 표준화하면 약 50레벨 단위로 동일한 휘도 값을 갖는 영상으로 단순화 될 수 있다.The brightness normalization unit 121 normalizes and simplifies the brightness values of each pixel obtained through Equation (1) to several levels. Preferably, five steps are suitable, and the luminance in the image has a gradation value of 0 to 255 as a gradation value of the image. If this is standardized in five steps, it can be simplified to an image having the same luminance value in units of about 50 levels.

상기 전술한 휘도값을 단순화함으로써, 영상에서 일정 범위의 휘도 값을 갖는 하나의 동일 객체는 하나의 휘도 값으로 취급되어 영상은 객체별로 영역화되어 식별, 구분되게 된다.By simplifying the above-described luminance values, one identical object having a luminance value within a certain range in the image is treated as one luminance value, so that the image is divided into areas and identified and separated.

상기 뎁스생성부(122)는 상기 표준화된 휘도 데이터를 n*m 블록으로 구분하고, 각 블록 내에서 동일한 휘도 값을 갖는 픽셀들이 동일한 뎁스(Depth) 값을 갖도록 설정하여 뎁스(Depth) 영상을 생성할 수 있다.The depth generation unit 122 divides the standardized brightness data into n * m blocks and sets the pixels having the same luminance value in each block to have the same depth value to generate a depth image can do.

이때, 뎁스(Depth)라 함은 영상 데이터에서 물체와 카메라가 어느 정도 거리가 떨어져 있는지, 얼마나 가까운지 등을 나타내는 거리 정보로써, 영상 신호의 원근감을 제공하는 기본적인 정보이다.Here, the depth is basic information for providing a perspective of a video signal, which is distance information indicating a distance between the object and the camera in the image data and how close the camera is.

이를 보다 구체적으로 설명하면, 각 블록과 인접한 블록의 경계 픽셀들을 비교하여 동일한 휘도 값을 가지는 픽셀들이 동일한 깊이 값을 갖도록 설정한다. 그리하여 휘도가 높을수록 근거리로 표현되고, 휘도가 낮을수록 원거리로 표현되도록 한다.To be more specific, the boundary pixels of each block and adjacent blocks are compared, and the pixels having the same luminance value are set to have the same depth value. Thus, the higher the luminance, the closer it is expressed, and the lower the luminance, the greater the distance.

상기 크기조절부(123)는 상기 뎁스(Depth) 영상을 스캐닝(scanning)하면서 타겟 픽셀과 그 주변의 8개 픽셀의 뎁스(Depth) 값이 상이할 경우 이를 노이즈로 가정하여 상기 타겟 픽셀을 주변 픽셀의 뎁스(Depth) 값으로 변경한다.When the depth value of the target pixel and the surrounding eight pixels are different from each other while scanning the depth image, the size adjusting unit 123 may regard the target pixel as a noise, To a depth value of " 0 "

이를 보다 구체적으로 설명하면, 상기 추출된 뎁스 정보를 통해 입력 영상에 포함된 객체의 크기를 조절하도록 제어하는데, 추출된 뎁스 정보를 바탕으로, 카메라와 객체간에 거리가 가깝다고 판단되는 경우, 크기조절부(123)는 거리가 가깝다고 판단된 객체의 크기를 크게 조절하도록 제어한다. More specifically, the size of the object included in the input image is controlled by the extracted depth information. When it is determined that the distance between the camera and the object is close to the object based on the extracted depth information, The control unit 123 controls the size of the object determined to be close to the distance to be largely adjusted.

또한, 카메라(미도시)와 객체간에 거리가 멀다고 판단되는 경우, 크기조절부(123)는 거리가 멀다고 판단된 객체의 크기를 작게 조절하도록 제어한다.Also, when it is determined that the distance between the camera (not shown) and the object is long, the size adjusting unit 123 controls the size of the object determined to be long to be small.

상기 전술한 바와 같이, 상기 객체조절부(120)의 기능을 통해 입력 영상 데이터의 뎁스 정보를 이용하여 객체의 크기를 조절함으로써, 사용자는 보다 원근감 있고, 입체감 있는 3D 영상을 시청할 수 있게 된다.As described above, by adjusting the size of the object using the depth information of the input image data through the function of the object adjusting unit 120, the user can view the 3D image with more perspective and three-dimensional feeling.

도 5는 본 발명의 일 실시예에 따른 3D 가상현실 영상 디스플레이 장치에서 영상조절부의 구성을 간략하게 보인 블록도이다.FIG. 5 is a block diagram illustrating a configuration of an image control unit in a 3D virtual reality image display apparatus according to an exemplary embodiment of the present invention. Referring to FIG.

도 5를 참조하면, 상기 영상조절부(130)는 상기 객체조절부(120)를 통해 받아들인 조절된 영상 데이터를 각각 좌, 우안 영상 데이터로 분할하고, 해상도를 조절하는 것으로, 상기 영상조절부(130)는 영상 데이터 분할부(131), 영역검출부(132), 영상복원부(133) 및 해상도 조절부(134)를 포함한다.5, the image controller 130 divides the adjusted image data received through the object controller 120 into left and right eye image data and adjusts the resolution, The image processing unit 130 includes an image data dividing unit 131, an area detecting unit 132, an image restoring unit 133, and a resolution adjusting unit 134.

상기 영상 데이터 분할부(131)는 상기 객체조절부(120)에서 조절한 영상 데이터를 좌안 영상, 우안 영상 데이터 및 부가 데이터로 분할한다.The image data dividing unit 131 divides the image data adjusted by the object adjusting unit 120 into left eye image, right eye image data, and ancillary data.

여기서, 상기 부가 데이터는 자막 또는 OSD(On Screen Display) 데이터 등을 예시 할 수 있다.Here, the additional data may be, for example, a subtitle or OSD (On Screen Display) data.

이를 보다 구체적으로 설명하면, 상기 영상 데이터 분할부(131)는 후술할 영상제어부(150)의 제어에 의해 입력 영상에 대응되는 좌안 영상과 우안 영상을 생성한다. 구체적으로, 2D 영상이 입력되는 경우, 영상 데이터 분할부(131)는 2D 영상에 포함된 객체의 위치를 이동하여, 좌안 영상과 우안 영상을 생성한다. 이때, 영상 데이터 분할부(131)는 뎁스 정보에 따라 객체의의 크기가 조절된 좌안 영상 및 우안 영상을 생성하여 사용자에게 보다 원근감 있고 입체감 있는 3D 영상을 제공한다.More specifically, the image data dividing unit 131 generates a left eye image and a right eye image corresponding to the input image under the control of the image controller 150, which will be described later. Specifically, when a 2D image is input, the image data dividing unit 131 moves the position of the object included in the 2D image to generate a left eye image and a right eye image. At this time, the image data division unit 131 generates a left eye image and a right eye image of which the size of the object is adjusted in accordance with the depth information, and provides the user with a more perspective and three-dimensional image.

또한, 3D 영상이 입력되는 경우, 상기 영상 데이터 분할부(131)는 데이터 처리된 3D 영상 데이터를 이용하여 한 화면 크기로 보간된 좌안 영상 및 우안 영상을 생성할 수 있다. 이때, 영상 데이터 분할부(131)는 뎁스 정보에 따라 객체의 크기가 조절된 좌안 영상 및 우안 영상을 생성한다.In addition, when a 3D image is input, the image data dividing unit 131 can generate a left eye image and a right eye image interpolated in one screen size by using the 3D processed image data. At this time, the image data dividing unit 131 generates the left eye image and the right eye image whose size is adjusted according to the depth information.

상기 영역검출부(132)는 상기 영상 데이터 분할부(131)에서 분할한 영상 데이터의 좌안 영상 및 우안 영상 각각의 빈 영역을 검출한다. 이를 구체적으로 설명하면, 상기 영역검출부(132)는 3D 영상 데이터의 좌안 영상 및 우안 영상으로부터 관련된 영상 데이터를 검출하여 좌안 영상 및 우안 영상으로부터 분리할 수 있다. 좌안 영상 및 우안 영상으로부터 부가 데이터가 검출되면, 영역검출부(132)는 부가 데이터 검출에 따른 좌안 영상 및 우안 영상의 빈 영역을 검출한다.The area detecting unit 132 detects a free area of each of the left eye image and the right eye image of the image data divided by the image data dividing unit 131. [ Specifically, the region detecting unit 132 may detect the associated image data from the left eye image and the right eye image of the 3D image data and separate the detected image data from the left eye image and the right eye image. When additional data is detected from the left eye image and the right eye image, the region detection unit 132 detects a free region of the left eye image and the right eye image according to detection of additional data.

상기 영상복원부(133)는 상기 영역검출부(132)에서 검출한 좌안 영상 및 우안 영상 데이터의 각각의 빈 영역에 해당하는 영역의 영상 데이터를 상기 좌안 영상 및 상기 우안 영상 데이터 각각의 일측 방향에 인접한 영상으로부터 획득하여 상기 빈 영역을 복원한다. 이를 구체적으로 설명하면 영상복원부(133)는 좌안 영상의 빈 영역을 복원하기 위해서, 좌안 영상과 함께 3D 영상 데이터에 포함되는 우안 영상을 이용할 수 있다. 예를 들어, 영역검출부(132)를 통해 좌안 영상의 빈 영역이 우측 하단인 것으로 검출되면, 영상복원부(133)는 우안 영상을 추적하여 좌안 영상의 우측 하단 영역을 우안 영상의 우측 하단 영역에 해당하는 영상으로 복원한다.The image reconstructing unit 133 reconstructs the image data of the region corresponding to each of the empty regions of the left eye image and the right eye image data detected by the region detecting unit 132, And reconstructs the blank area. To be more specific, the image reconstruction unit 133 may use the right eye image included in the 3D image data together with the left eye image to reconstruct the empty region of the left eye image. For example, if it is detected that the empty region of the left eye image is located at the lower right through the region detection unit 132, the image reconstruction unit 133 tracks the right eye image and outputs the lower right region of the left eye image to the lower right region of the right eye image And restores the corresponding image.

상기 해상도 조절부(134)는 영상복원부(133)에서 복원한 영상 데이터의 해상도를 조절한다.The resolution adjusting unit 134 adjusts the resolution of the image data restored by the image restoring unit 133.

해상도 변환부는 복원된 좌안 영상 및 우안 영상의 해상도를 변환하여 3D 영상을 생성할 수 있다. The resolution converter may convert the resolutions of the reconstructed left and right eye images to generate a 3D image.

여기서, 해상도 변환부(220)를 통해 좌안 영상 및 우안 영상의 해상도를 변환시켜 3D 영상이 생성시킨다.Here, the resolutions of the left eye image and the right eye image are converted through the resolution converting unit 220 to generate a 3D image.

본 발명의 영상출력부(140)는 상기 영상조절부(130)에서 분할한 영상 데이터를 좌안 영상과 우안 영상으로 교번하여 좌우 디스플레이부(160)로 출력한다.The image output unit 140 of the present invention outputs the left and right images to the left and right display unit 160 by alternating the image data divided by the image adjusting unit 130 with the left eye image and the right eye image.

본 발명의 영상제어부(150)는 상기 영상출력부(140)에서 출력하는 좌안 및 우안 영상의 교번 타이밍을 기 설정되어 있는 값을 참조하여 제어한다.
The image control unit 150 of the present invention controls the alternate timing of the left eye and the right eye images output from the image output unit 140 by referring to preset values.

이와 같이 구성한 본 발명의 일실시예에 따른 3D 가상현실 영상 디스플레이 장치의 동작 과정을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다. The operation of the 3D virtual reality image display apparatus according to an embodiment of the present invention will now be described in detail with reference to the accompanying drawings.

도 6은 본 발명의 일 실시예에 따른, 외부 영상 디바이스로부터 수신한 3D 영상의 처리 과정을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a process of processing a 3D image received from an external video device according to an exemplary embodiment of the present invention.

도 6을 참조하면, 먼저 상기 외부 영상 디바이스(200)로부터 영상 데이터를 수신하고(S101), 상기 S101 단계에서 수신한 영상 데이터에서 좌안 영상 및 우안 영상 데이터의 객체를 추출한다(S102). Referring to FIG. 6, first, the image data is received from the external image device 200 (S101), and objects of the left eye image and the right eye image data are extracted from the image data received in the step S101 (S102).

이어서 상기 추출한 영상 데이터 객체의 뎁스(Depth) 정보를 획득하는데(S103), 다음과 같은 과정으로 획득한다. Next, the depth information of the extracted image data object is acquired (S103), and the acquired depth information is obtained as follows.

즉, 상기 입력된 영상을 데이터인 RGB 데이터를 휘도 데이터로 변환 하고, 상기 변환한 휘도 데이터를 일정 범위의 휘도를 갖는 객체군을 하나의 객체로 표준화한 휘도 데이터로 생성한 후, 상기 표준화된 휘도 데이터를 n*m 블록으로 구분하고, 각 블록 내에서 동일한 휘도 값을 갖는 픽셀들이 동일한 뎁스(Depth) 값을 갖도록 설정하여 뎁스(Depth) 영상을 생성하여 획득한다.That is, the RGB data, which is the input image data, is converted into luminance data, and the converted luminance data is generated as luminance data obtained by normalizing an object group having luminance of a certain range into one object, Data is divided into n * m blocks, and pixels having the same luminance value in each block are set to have the same depth value to generate and acquire a depth image.

이후, 객체의 크기를 조절하는데(S104), 상기 획득한 뎁스(Depth) 영상을 스캐닝(scanning)하면서 타겟 픽셀과 그 주변의 8개 픽셀의 뎁스(Depth) 값이 상이할 경우 이를 노이즈로 가정하여 상기 타겟 픽셀을 주변 픽셀의 뎁스(Depth) 값으로 변경한다. Thereafter, the size of the object is adjusted (S104). When the depth value of the target pixel and the surrounding eight pixels are different while scanning the acquired depth image, it is assumed that the noise is noise And changes the target pixel to a depth value of the surrounding pixels.

상기 S104 단계에서 객체의 크기가 조절된 영상 데이터를 좌안 영상 및 우안 영상으로 분리한다(S105). In step S104, the image data whose size is adjusted is separated into a left eye image and a right eye image (S105).

즉, 상기 입체 영상 변환부로부터 나온 영상 데이터를 좌안 영상 및 우안 영상 데이터로 분할 하고, 상기 분할한 영상 데이터의 좌안 영상 및 우안 영상 각각의 빈 영역을 검출한 후 상기 검출한 좌안 영상 및 우안 영상 데이터의 각각의 빈 영역에 해당하는 영역의 영상 데이터를 상기 좌안 영상 및 상기 우안 영상 데이터 각각의 일측 방향에 인접한 영상으로부터 획득하여 상기 빈 영역을 복원하는 과정을 수행한다. That is, the image data from the stereoscopic image conversion unit is divided into a left eye image and a right eye image data, a blank region of each of the left eye image and the right eye image of the divided image data is detected, Acquires image data of a region corresponding to each free region of the left eye image and the right eye image data from an image adjacent to one direction of each of the left eye image and the right eye image data,

이어서 상기 복원한 영상 데이터의 해상도를 조절한 후(S106), 상기 해상도가 조절된 영상을 상기 좌우 디스플레이부(160)에 교번적으로 디스플레이한다(S107).
After the resolution of the restored image data is adjusted (S106), the resolution-adjusted image is alternately displayed on the left and right display unit 160 (S107).

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

10: 클립
100: 3D 가상현실 영상 디스플레이 장치
110: 영상수신부
120: 객체조절부
130: 영상조절부
140: 영상출력부
150: 영상제어부
160: 좌우 디스플레이부
200: 외부 영상 디바이스
10: Clip
100: 3D virtual reality image display device
110:
120:
130:
140: Video output unit
150:
160: right and left display unit
200: External image device

Claims (8)

외부 영상 디바이스로부터 영상 데이터를 수신하는 영상수신부;
상기 영상수신부에서 수신되는 영상 데이터에서 객체(Object)를 추출하고, 상기 객체의 뎁스(Depth) 정보를 취득한 후, 상기 뎁스(Depth) 정보를 통해 상기 객체의 크기를 조절하는 객체조절부;
상기 객체조절부를 통해 받아들인 조절된 영상 데이터를 각각 좌, 우안 영상 데이터로 분할하고, 해상도를 조절하는 영상조절부;
상기 영상조절부에서 분할한 영상 데이터를 좌안 영상과 우안 영상으로 교번하여 좌우 디스플레이로 출력하는 영상출력부; 및
상기 영상출력부에서 출력하는 좌안 및 우안 영상의 교번 타이밍을 기 설정되어 있는 값을 참조하여 제어하는 영상제어부;를 포함하고
상기 좌우 디스플레이는 안경에 착탈이 가능한 형태 또는 사용자의 안면부에 거치가 가능한 형태를 갖으며,
상기 객체조절부는,
상기 수신된 영상 데이터인 RGB 데이터를 휘도 데이터로 변환한 후, 상기 변환한 휘도 데이터를 일정 범위의 휘도를 갖는 객체군을 하나의 객체로 표준화한 휘도 데이터로 생성하는 휘도표준화부;
상기 표준화된 휘도 데이터를 n*m 블록으로 구분하고, 각 블록 내에서 동일한 휘도 값을 갖는 픽셀들이 동일한 뎁스(Depth) 값을 갖도록 설정하여 뎁스(Depth) 영상을 생성하는 뎁스생성부; 및
상기 뎁스(Depth) 영상을 스캐닝(scanning)하면서 타겟 픽셀과 그 주변의 8개 픽셀의 뎁스(Depth) 값이 상이할 경우 이를 노이즈로 가정하여 상기 타겟 픽셀을 주변 픽셀의 뎁스(Depth) 값으로 변경하는 크기조절부;를 포함하는 것을 특징으로 하는 3D 가상현실 영상 디스플레이 장치.
An image receiving unit for receiving image data from an external image device;
An object control unit for extracting an object from image data received by the image receiving unit, acquiring depth information of the object, and adjusting the size of the object through the depth information;
An image controller for dividing the adjusted image data received through the object controller into left and right eye image data and adjusting the resolution;
An image output unit for outputting image data divided by the image adjusting unit to left and right displays alternately with a left eye image and a right eye image; And
And an image control unit for controlling the alternate timing of the left eye and right eye images output from the image output unit with reference to a preset value
The left and right displays have a form capable of being attached to or detached from the glasses or a form capable of being mounted on the face of the user,
Wherein the object control unit comprises:
A luminance standardization unit for converting RGB data, which is the received image data, into luminance data, and generating the converted luminance data into luminance data that is standardized into one object group having a luminance of a certain range;
A depth generator for generating a depth image by dividing the normalized luminance data into n * m blocks and setting pixels having the same luminance value to have the same depth value in each block; And
If the depth value of the target pixel and the surrounding eight pixels are different while scanning the depth image, the target pixel is changed to the depth value of the neighboring pixels, And a size adjusting unit for adjusting the size of the 3D virtual reality image.
제 1항에 있어서,
상기 영상 데이터는 상기 좌안 영상 및 상기 우안 영상이 좌우로 연결되어 하나의 프레임으로 구성되는 사이드 바이 사이드(Side by Side) 영상 데이터인 것을 특징으로 하는 3D 가상현실 영상 디스플레이 장치.
The method according to claim 1,
Wherein the image data is side by side image data in which the left eye image and the right eye image are connected side by side to form one frame.
제 1항에 있어서,
상기 영상수신부는 비콘(Beacon), 블루투스(Bluetooth), 와이파이(Wi-Fi) 적외선 통신 및 셀룰러 네트워크 통신 중에서 선택된 1개 이상의 무선 통신수단을 구비하며,
상기 무선 통신수단을 통해 외부 영상 디바이스와 디스플레이 신호를 송/수신하는 것을 특징으로 하는 3D 가상현실 영상 디스플레이 장치.
The method according to claim 1,
Wherein the image receiving unit includes at least one wireless communication unit selected from a beacon, a Bluetooth, a Wi-Fi infrared communication, and a cellular network communication,
And transmits / receives a display signal to / from an external video device through the wireless communication means.
삭제delete 제 1항에 있어서,
상기 영상조절부는,
상기 객체조절부에서 조절한 영상 데이터를 좌안 영상 및 우안 영상 데이터로 분할 하는 영상 데이터 분할부;
상기 영상 데이터 분할부에서 분할한 영상 데이터의 좌안 영상 및 우안 영상 각각의 빈 영역을 검출하는 영역검출부; 및
상기 영역검출부에서 검출한 좌안 영상 및 우안 영상 데이터의 각각의 빈 영역에 해당하는 영역의 영상 데이터를 상기 좌안 영상 및 상기 우안 영상 데이터 각각의 일측 방향에 인접한 영상으로부터 획득하여 상기 빈 영역을 복원하는 영상복원부;
상기 영상복원부에서 복원한 영상데이터의 해상도를 조절하는 해상도 조절부;를 포함하는 것을 특징으로 하는 3D 가상현실 영상 디스플레이 장치.
The method according to claim 1,
The image controller may include:
An image data dividing unit for dividing the image data adjusted by the object adjusting unit into left eye image and right eye image data;
An area detecting unit for detecting a free area of each of the left eye image and the right eye image of the image data divided by the image data dividing unit; And
Eye image data and a right eye image data obtained by obtaining image data of an area corresponding to each empty area of the left eye image and right eye image data detected by the area detecting unit from an image adjacent to one direction of each of the left eye image and the right eye image data, Restoring unit;
And a resolution adjusting unit for adjusting a resolution of the image data restored by the image restoring unit.
외부 영상 디바이스로부터 영상 데이터를 수신하는 단계;
수신한 좌안 영상 및 우안 영상 데이터의 객체를 추출하는 단계;
상기 추출한 영상 데이터의 객체의 뎁스(Depth) 정보를 획득하고, 객체의 크기를 조절하는 단계;
상기 객체의 크기를 조절한 영상 데이터를 좌안 영상 및 우안 영상으로 분리하고, 각각의 해상도를 조절하는 단계; 및
상기 해상도가 조절된 영상을 교번적으로 디스플레이하는 단계;를 포함하고,
상기 뎁스(Depth) 정보를 획득하고, 객체의 크기를 조절하는 단계는,
상기 수신된 영상 데이터인 RGB 데이터를 휘도 데이터로 변환하는 단계; 상기 변환한 휘도 데이터를 일정 범위의 휘도를 갖는 객체군을 하나의 객체로 표준화한 휘도 데이터로 생성하는 단계;
상기 표준화된 휘도 데이터를 n*m 블록으로 구분하고, 각 블록 내에서 동일한 휘도 값을 갖는 픽셀들이 동일한 뎁스(Depth) 값을 갖도록 설정하여 뎁스(Depth) 영상을 생성하는 단계; 및
상기 뎁스(Depth) 영상을 스캐닝(scanning)하면서 타겟 픽셀과 그 주변의 8개 픽셀의 뎁스(Depth) 값이 상이할 경우 이를 노이즈로 가정하여 상기 타겟 픽셀을 주변 픽셀의 뎁스(Depth) 값으로 변경하는 단계;를 포함하는 3D 가상현실 영상 디스플레이 장치의 제어방법.
Receiving image data from an external video device;
Extracting objects of the received left eye image and right eye image data;
Acquiring depth information of an object of the extracted image data and adjusting an object size;
Separating the image data in which the size of the object is adjusted into a left eye image and a right eye image, and adjusting respective resolutions; And
And displaying the image with the resolution adjusted in an alternating manner,
The step of acquiring the depth information and adjusting the size of the object includes:
Converting RGB data, which is the received image data, into luminance data; Generating luminance data by converting the converted luminance data into standardized luminance data of a group of objects having a luminance of a certain range;
Dividing the normalized luminance data into n * m blocks and generating a depth image by setting pixels having the same luminance value to have the same depth value in each block; And
If the depth value of the target pixel and the surrounding eight pixels are different while scanning the depth image, the target pixel is changed to the depth value of the neighboring pixels, And displaying the 3D virtual reality image on the display unit.
삭제delete 제 6항에 있어서,
상기 좌안 영상 및 우안 영상으로 분리하고, 각각의 해상도를 조절하는 단계는,
객체조절부로부터 나온 영상 데이터를 좌안 영상 및 우안 영상 데이터로 분할 하는 단계;
상기 분할한 영상 데이터의 좌안 영상 및 우안 영상 각각의 빈 영역을 검출하는 단계;
상기 검출한 좌안 영상 및 우안 영상 데이터의 각각의 빈 영역에 해당하는 영역의 영상 데이터를 상기 좌안 영상 및 상기 우안 영상 데이터 각각의 일측 방향에 인접한 영상으로부터 획득하여 상기 빈 영역을 복원하는 단계;
상기 복원한 영상데이터의 해상도를 조절하는 단계;를 포함하는 것을 특징으로 하는 3D 가상현실 영상 디스플레이 장치의 제어방법.
The method according to claim 6,
Separating the left eye image and the right eye image into the left eye image and the right eye image,
Dividing the image data from the object adjustment unit into left eye image and right eye image data;
Detecting an empty region of each of the left eye image and the right eye image of the divided image data;
Acquiring image data of an area corresponding to each of the empty regions of the detected left eye image and right eye image data from an image adjacent to one direction of each of the left eye image and the right eye image data to restore the empty area;
And adjusting a resolution of the restored image data based on the restored image data.
KR1020150014294A 2015-01-29 2015-01-29 Display device for displaying 3D virtual reality media and control method thereof KR101619468B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150014294A KR101619468B1 (en) 2015-01-29 2015-01-29 Display device for displaying 3D virtual reality media and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150014294A KR101619468B1 (en) 2015-01-29 2015-01-29 Display device for displaying 3D virtual reality media and control method thereof

Publications (1)

Publication Number Publication Date
KR101619468B1 true KR101619468B1 (en) 2016-05-18

Family

ID=56113574

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150014294A KR101619468B1 (en) 2015-01-29 2015-01-29 Display device for displaying 3D virtual reality media and control method thereof

Country Status (1)

Country Link
KR (1) KR101619468B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101876998B1 (en) * 2018-05-23 2018-07-10 박병준 Head mounted display using augmented reality and short distance location tracking
KR101897789B1 (en) * 2016-10-28 2018-09-13 (주)에프엑스기어 Method and system for providing 3D desktop
KR20190004088A (en) 2017-07-03 2019-01-11 포항공과대학교 산학협력단 Virtual Reality Education System and Method based on Bio Sensors
US11996067B2 (en) 2020-07-13 2024-05-28 Samsung Electronics Co., Ltd. Method and apparatus for displaying virtual objects in different brightnesses

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101897789B1 (en) * 2016-10-28 2018-09-13 (주)에프엑스기어 Method and system for providing 3D desktop
KR20190004088A (en) 2017-07-03 2019-01-11 포항공과대학교 산학협력단 Virtual Reality Education System and Method based on Bio Sensors
KR101876998B1 (en) * 2018-05-23 2018-07-10 박병준 Head mounted display using augmented reality and short distance location tracking
US11996067B2 (en) 2020-07-13 2024-05-28 Samsung Electronics Co., Ltd. Method and apparatus for displaying virtual objects in different brightnesses

Similar Documents

Publication Publication Date Title
CN105684074B (en) Image display device, image display method, image output device, image output method, and image display system
EP2369402A1 (en) 3D eyeglasses, method for driving 3D eyeglasses and system for providing 3D image
US20110248989A1 (en) 3d display apparatus, method for setting display mode, and 3d display system
TW201043001A (en) Transferring of 3D viewer metadata
JP2011193460A (en) Method for adjusting 3d-image quality, 3d-display apparatus, 3d-glasses, and system for providing 3d-image
CN102761761A (en) Stereoscopic image display and method of adjusting stereoscopic image thereof
KR20120032321A (en) Display apparatus and method for processing image applied to the same
KR101619468B1 (en) Display device for displaying 3D virtual reality media and control method thereof
US8872902B2 (en) Stereoscopic video processing device and method for modifying a parallax value, and program
US20190109938A1 (en) Message display method according to event occurrence in vr device and apparatus therefor
US9124883B2 (en) 3D shutter glasses synchronization signal through stereo headphone wires
US20200359008A1 (en) Information processing apparatus, information processing method, and recording medium
US9407897B2 (en) Video processing apparatus and video processing method
CN206833075U (en) Head-mounted display apparatus and electronic equipment
JP2014053782A (en) Stereoscopic image data processor and stereoscopic image data processing method
CN111213111B (en) Wearable device and method thereof
EP2560400A2 (en) Method for outputting three-dimensional (3D) image and display apparatus thereof
KR101713786B1 (en) Display apparatus and method for providing graphic user interface applied to the same
KR101620969B1 (en) Display apparatus and method for providing 3D image preview applied to the same and system for providing 3D Image
KR20120052142A (en) 3-dimension display apparatus and method for extracting depth of 3d image thereof
JP2013048358A (en) Viewing system and control method of the same
US11039116B2 (en) Electronic device and subtitle-embedding method for virtual-reality video
KR20110062983A (en) Display apparatus for displaying gui which sets adjustment element for 3 dimensional effect of 3d image and method for providing graphic user interface applied to the same
EP4030752A1 (en) Image generation system and method
KR101634439B1 (en) Method for displaying image stream side by side and portable electronic divice displaying image stream on a display screen side by side by the method

Legal Events

Date Code Title Description
GRNT Written decision to grant