KR101356528B1 - Device and method for providing a floating image - Google Patents

Device and method for providing a floating image Download PDF

Info

Publication number
KR101356528B1
KR101356528B1 KR1020120116219A KR20120116219A KR101356528B1 KR 101356528 B1 KR101356528 B1 KR 101356528B1 KR 1020120116219 A KR1020120116219 A KR 1020120116219A KR 20120116219 A KR20120116219 A KR 20120116219A KR 101356528 B1 KR101356528 B1 KR 101356528B1
Authority
KR
South Korea
Prior art keywords
image
spatial image
external object
spatial
unit
Prior art date
Application number
KR1020120116219A
Other languages
Korean (ko)
Inventor
신성철
김보람
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120116219A priority Critical patent/KR101356528B1/en
Application granted granted Critical
Publication of KR101356528B1 publication Critical patent/KR101356528B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a spatial image providing device and a spatial image providing method. A display unit plays a three-dimensional image based on an image data. A projection unit generates a spatial image which is an image of the three-dimensional image by projecting the played three-dimensional image. A sensing unit senses a position or movements of an outer object located around the spatial image providing device. A control unit controls the spatial image, which is generated by responding to the movement of the outer object according to the position of the outer object, to be converted. [Reference numerals] (110) Display unit; (120) Projection unit; (130) Sensing unit; (140) Control unit; (150) Feedback providing unit; (160) Storage unit; (170) Communication unit

Description

공간 영상 제공 장치 및 공간 영상 제공 방법{Device and method for providing a floating image}Device for providing spatial image and method for providing spatial image {Device and method for providing a floating image}

본 발명은 공간 영상 제공 장치 및 공간 영상 제공 방법에 관한 것으로, 보다 상세하게는, 3차원 영상을 디스플레이하는 공간 영상 제공 장치 및 공간 영상 제공 방법에 관한 것이다.The present invention relates to a spatial image providing apparatus and a spatial image providing method, and more particularly, to a spatial image providing apparatus for displaying a three-dimensional image and a spatial image providing method.

디스플레이 및 미디어 표현에 대한 기술발전의 방향을 살펴보면, 흑백 TV에서 칼라 CRT브라운관 TV을 거쳐 평면 와이드 TV로, 그리고 2000년도에 들어서면서 슬림 평면 대화면 고해상도 패널 TV로 발전이 되었고, 2010년에 들어서면서 최근까지 양안시차를 이용한 안경방식 및 무안경방식의 3D 디스플레이가 개발되고 있다. 게다가 디스플레이 시스템의 기능도 융합적인 서비스 기능으로 변모하여, 디스플레이 시스템은 기존의 한 방향에서 정보를 전달하는 매개체에서 쌍방향에서 서로 소통기능과 일부 영상정보전달 기능에 추가하여 인터넷 및 전화 통신 기능, 그리고 최근에는 컴퓨터의 기능까지 통합한 스마트한 디스플레이로 변화되고 있다.Looking at the direction of technology development for display and media expression, from the black-and-white TV to the color CRT CRT TV to the flat-panel widescreen TV, and in 2000, the development of the slim flat screen high-definition panel TV. Until now, a 3D display of a glasses type and a glassesless type using binocular disparity has been developed. In addition, the function of the display system is also transformed into a convergent service function. The display system is an internet and telephony function, and recently, in addition to the communication function and some image information transmission functions in both directions in the existing medium that transmits information in one direction. Is transforming into a smart display that incorporates the functionality of a computer.

최근에 국내외 업체 및 조사기관의 기술동향 및 기술계획 발표에 따르면, 시간적인 제약이 있는 역사적인 유물이나 사건 등을 직접 체험하거나 공간적으로 제약이 있는 거시적인 우주, 눈에 보이지 않는 미세한 환경 또는 위험성이 있는 것을 간접적으로 실감나게 구현하는 학습 교육시스템의 개발 계획이 발표되고 있으며, 유비쿼터스 시스템상에서 개인 공간 안에서도 외부공간에서 체험이 가능할 수 있도록 가상공간에서 실감나는 영상 재현할 수 있는 기술개발 계획이 발표되고 있다.According to the recent technology trends and technical plans announced by domestic and foreign companies and research institutes, they can directly experience historical artifacts or events with time constraints, macroscopic spaces with limited space, invisible micro-environments, or risks. The development plan of learning education system that realizes this indirectly and realistically has been announced, and the technology development plan that can reproduce realistic images in virtual space has been announced so that it can be experienced in the external space even in the personal space on the ubiquitous system.

종래 패널 기반의 2D, 2.5D, 그리고 양안시차 3D 디스플레이 영상에 대해서 직접 터치하거나 허공에서 모션 센싱을 하여 영상물을 제어하는 기법으로 개발되었다. 기존 영상들은 제한된 시야각에서 일부 시야의 영상 정보를 제공하여 다소 실제 감이 낮은 영상 콘텐츠로 구현되었다.Conventionally, a panel-based 2D, 2.5D, and binocular parallax 3D display image has been developed as a technique for controlling an image by directly touching or motion sensing in the air. Existing images provide image information of some field of view at limited viewing angle and are implemented as image contents with a little real feeling.

최근에 들어서는 양안 시차방식에 의한 거리 깊이 정보를 주는 3D 영상을 제공하고 있지만 이 또한 양안 시차에 의한 휴먼 팩터(Human factor) 영향이나 깊이(depth)에 따른 영상화질 저하, 데드 존(dead zone), 크로스턱(cross talk) 등이 존재하며 여전히 360도 영상 정보를 제공하는데 제약이 따른다. 게다가, 일부 무안경 방식의 3D는 동시에 여러 시청자가 시청할 수 있는 기술의 극복이 필요한 실정이다.Recently, 3D image providing distance depth information by binocular parallax method is provided, but also, deterioration of image quality due to human factor influence or depth due to binocular parallax, dead zone, There are cross talks and the like, and there are still limitations in providing 360 degree image information. In addition, some glasses-free 3D needs to overcome the technology that can be viewed by multiple viewers at the same time.

본 발명이 이루고자 하는 기술적 과제는 360도 정보를 갖는 리얼 3차원 영상을 특정 공간에 디스플레이할 수 있는 공간 영상 제공 장치 및 공간 영상 제공 방법을 제공하는데 있다.SUMMARY The present invention provides a spatial image providing apparatus and a spatial image providing method capable of displaying a real 3D image having 360 degree information in a specific space.

본 발명이 이루고자하는 다른 기술적 과제는 사용자로 하여금 공간상에 디스플레이된 리얼 3차원 영상에 대한 터치감을 느낄 수 있도록 하는 공간 영상 제공 장치 및 공간 영상 제공 방법을 제공하는데 있다.Another object of the present invention is to provide a spatial image providing apparatus and a spatial image providing method for allowing a user to feel a touch on a real 3D image displayed in a space.

본 발명이 이루고자하는 또 다른 기술적 과제는 공간상에 디스플레이된 리얼 3차원 영상을 사용자의 취향에 따라 이동 및 변화시킬 수 있도록 하는 공간 영상 제공 장치 및 공간 영상 제공 방법을 제공하는데 있다.Another object of the present invention is to provide a spatial image providing apparatus and a spatial image providing method for moving and changing a real 3D image displayed on a space according to a user's taste.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 공간 영상 제공 장치는 영상 데이터를 기초로 3차원 영상을 재생하는 디스플레이부, 및 상기 재생된 3차원 영상을 특정 공간에 투영하여 상기 3차원 영상의 상인 공간 영상을 생성하는 투영부를 포함할 수 있다. 상기 재생된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것일 수 있다.In order to achieve the above technical problem, the apparatus for providing a spatial image according to the present invention includes a display unit for reproducing a three-dimensional image based on image data, and projecting the reproduced three-dimensional image in a specific space. It may include a projection for generating a merchant spatial image. The reproduced 3D image may be observable in any direction of 360 degrees without limiting the viewing angle.

상기 공간 영상 제공 장치는 상기 영상 데이터를 수신하는 통신부 및 상기 영상 데이터를 저장하는 저장부 중 적어도 하나를 더 포함할 수 있다.The apparatus for providing a spatial image may further include at least one of a communication unit for receiving the image data and a storage unit for storing the image data.

상기 공간 영상 제공 장치는 상기 공간 영상 제공 장치의 주변에 위치하는 외부 객체의 위치 또는 움직임 감지하는 센싱부를 더 포함할 수 있다. 상기 공간 영상 제공 장치는, 상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 상기 공간 영상이 변환되도록 제어하는 제어부를 더 포함할 수 있다. 상기 공간 영상 제공 장치는, 상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 피드백을 제공하는 피드백 제공부를 더 포함할 수 있다. 상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함할 수 있다.The apparatus for providing a spatial image may further include a sensing unit configured to detect a position or a movement of an external object located near the spatial image providing apparatus. The apparatus for providing a spatial image may further include a controller configured to control the spatial image to be converted according to the position of the sensed external object or in response to the movement of the sensed external object. The apparatus for providing a spatial image may further include a feedback providing unit configured to provide feedback based on the detected position of the external object or in response to the movement of the detected external object. The feedback may include at least one of touch, temperature and odor.

상기 디스플레이부는 투과형 스크린 방식 디스플레이, 회전스크린 방식 디스플레이, 산란 스캔 방식 디스플레이 및 홀로그래픽 디스플레이 중 적어도 하나를 포함할 수 있다.The display unit may include at least one of a transmissive screen display, a rotating screen display, a scattering scan display, and a holographic display.

상기 투영부는 미러홀 패턴 소자, 렌즈 패턴 소자 및 회절 광학 소자 중 적어도 하나를 포함할 수 있다.The projection unit may include at least one of a mirror hole pattern element, a lens pattern element, and a diffractive optical element.

상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 공간 영상 제공 방법은, 영상 데이터를 기초로 3차원 영상을 재생하는 단계, 및 상기 재생된 3차원 영상을 특정 공간에 투영하여 상기 3차원 영상의 상인 공간 영상을 생성하는 단계를 포함할 수 있다. 상기 재생된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것일 수 있다.According to another aspect of the present invention, there is provided a method of providing a spatial image, the method including: reproducing a three-dimensional image based on image data, and projecting the reproduced three-dimensional image to a specific space; And generating a merchant spatial image. The reproduced 3D image may be observable in any direction of 360 degrees without limiting the viewing angle.

상기 공간 영상 제공 방법은 공간 영상 제공 장치의 주변에 위치하는 외부 객체의 위치 또는 움직임을 감지하는 단계를 더 포함할 수 있다. 상기 공간 영상 제공 방법은 상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 상기 공간 영상을 변환시키는 단계를 더 포함할 수 있다. 또한 상기 공간 영상 제공 방법은 상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 피드백을 제공하는 단계를 더 포함할 수 있다. 여기서 상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함할 수 있다.The method for providing a spatial image may further include detecting a position or a movement of an external object located around the spatial image providing apparatus. The method for providing a spatial image may further include converting the spatial image according to the position of the detected external object or in response to the movement of the detected external object. The method may further include providing feedback based on the detected position of the external object or in response to the movement of the detected external object. Here, the feedback may include at least one of touch, temperature, and smell.

본 발명에 따른 공간 영상 제공 장치 및 공간 영상 제공 방법에 의하면, 360도 정보를 갖는 리얼 3차원 영상을 사용자가 관찰하기에 편안한 공간상에 디스플레이할 수 있고, 사용자로 하여금 디스플레이된 리얼 3차원 영상에 대한 터치감을 느낄 수 있도록 하며, 사용자가 자신의 취향에 따라 디스플레이된 리얼 3차원 영상을 이동 및 변화시킬 수 있도록 한다.According to the spatial image providing apparatus and the spatial image providing method according to the present invention, it is possible to display a real three-dimensional image having 360-degree information on a comfortable space for the user to observe, It makes the user feel the touch, and the user can move and change the displayed real 3D image according to his taste.

도 1은 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 일실시예의 구조를 도시한 구조도,
도 3은 디스플레이부의 실시예들을 도시한 도면,
도 4는 투영부의 실시예들을 도시한 도면,
도 5는 공간 영상을 터치하는 사용자 조치에 대한 응답으로 공간 영상의 변화의 일예를 도시한 도면,
도 6은 사용자의 손의 움직임에 따라 공간 영상의 움직임의 일예를 도시한 도면,
도 7은 본 발명에 따른 공간 영상 제공 장치의 테이블의 상면의 일실시예를 도시한 도면, 그리고,
도 8은 본 발명에 따른 공간 영상 제공 방법에 대한 바람직한 일실시예의 수행과정을 도시한 순서도이다.
1 is a block diagram showing the configuration of a preferred embodiment of a spatial image providing apparatus according to the present invention;
2 is a structural diagram showing a structure of a preferred embodiment of a spatial image providing apparatus according to the present invention;
3 is a view illustrating embodiments of a display unit;
4 is a view showing embodiments of the projection unit,
5 illustrates an example of a change of a spatial image in response to a user action of touching the spatial image;
6 is a diagram illustrating an example of a motion of a spatial image according to a movement of a user's hand;
7 is a view showing an embodiment of an upper surface of a table of a spatial image providing apparatus according to the present invention;
8 is a flowchart illustrating a process of performing a preferred embodiment of the method for providing a spatial image according to the present invention.

이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.Although the terms used in the present invention have been selected in consideration of the functions of the present invention, it is possible to use general terms that are currently widely used, but this may vary depending on the intention or custom of a person skilled in the art or the emergence of new technology. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, it is to be understood that the term used in the present invention should be defined based on the meaning of the term rather than the name of the term, and on the contents of the present invention throughout.

도 1은 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a preferred embodiment of a spatial image providing apparatus according to the present invention.

도 1을 참조하면, 본 발명에 따른 공간 영상 제공 장치(100)는 디스플레이부(110), 투영부(120), 센싱부(130), 제어부(140), 피드백 제공부(150), 저장부(160) 및 통신부(170) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 1, the apparatus 100 for providing a spatial image according to the present invention may include a display unit 110, a projection unit 120, a sensing unit 130, a control unit 140, a feedback providing unit 150, and a storage unit. It may include at least one of the 160 and the communication unit 170.

디스플레이부(110)는 영상 데이터를 기초로 3차원 영상을 재생한다. 상기 재생된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것일 수 있다. 상기 재생된 3차원 영상은 360도 영상 정보를 제공하는 리얼 3차원 영상(Real 3D image)일 수 있다. The display 110 reproduces the 3D image based on the image data. The reproduced 3D image may be observable in any direction of 360 degrees without limiting the viewing angle. The reproduced 3D image may be a real 3D image that provides 360 degree image information.

상기 영상 데이터는 저장부(160)에 저장된 것일 수 있고, 통신부(170)가 수신한 것일 수 있다. 상기 영상 데이터는 복수의 입체영상 프레임을 포함하는 3차원 동영상(3차원 비디오)을 디스플레이하기 위한 영상 데이터일 수 있다. 일부 실시예로, 입체영상 프레임은 특정 폭과 넓이를 갖는 2차원 영상 프레임과 이에 대응하는 깊이 영상을 포함할 수 있다. 여기서 2차원 영상 프레임은 칼라 영상 데이터를 포함한다. 상기 칼라 영상 데이터는 픽셀값을 포함한다. 상기 깊이 영상은 그레이 레벨(Grey Level)로 표현될 수 있고, 상기 2차원 영상 프레임의 픽셀 해상도와 동일한 해상도를 가질 수 있다. 상기 깊이 영상에 포함된 픽셀들은 각각 상기 2차원 영상 프레임에 포함된 픽셀들과 일대 일로 대응되는 깊이값을 가질 수 있다. 상기 깊이값은 그레이 레벨로 표시될 수 있다. 일예로, 상기 그레이 레벨은 0에서 255의 값을 가질 수 있다.The image data may be stored in the storage 160, or may be received by the communication unit 170. The image data may be image data for displaying a 3D video (3D video) including a plurality of 3D image frames. In some embodiments, the 3D image frame may include a 2D image frame having a specific width and width and a depth image corresponding thereto. Here, the 2D image frame includes color image data. The color image data includes pixel values. The depth image may be represented by a gray level and may have the same resolution as the pixel resolution of the 2D image frame. The pixels included in the depth image may each have a depth value corresponding one-to-one with the pixels included in the 2D image frame. The depth value may be displayed in gray level. For example, the gray level may have a value of 0 to 255.

투영부(120)는 디스플레이부(110)가 재생한 3차원 영상을 특정 공간에 투영하여 상기 3차원 영상의 상을 맺게 한다. 즉 투영부(120)는 상기 3차원 영상의 상인 공간 영상을 생성한다. 이하에서, 공간 영상은 디스플레이부(110)가 재생한 3차원 영상을 특정 공간에 투영시킨 3차원 영상을 의미하는 것으로 정의한다.The projection unit 120 projects the 3D image reproduced by the display 110 in a specific space to form an image of the 3D image. That is, the projection unit 120 generates a spatial image that is an image of the 3D image. Hereinafter, the spatial image is defined as meaning a 3D image in which the 3D image reproduced by the display 110 is projected onto a specific space.

센싱부(130)는 공간 영상 제공 장치(100)의 주변에 위치하는 외부 객체의 위치 또는 움직임 감지한다. 여기서 외부 객체는 사용자의 손, 사용자의 손가락 및 스틱(stick) 중 적어도 하나를 포함할 수 있다.The sensing unit 130 detects the position or movement of an external object located near the spatial image providing apparatus 100. The external object may include at least one of a user's hand, a user's finger, and a stick.

센싱부(130)는 공간 영상 제공 장치(100)의 주변의 음성을 감지한다.The sensing unit 130 detects the voice of the surroundings of the spatial image providing apparatus 100.

센싱부(130)는 카메라, 적외선 센서, 파장 센서 및 음성 감지 센서 중 적어도 하나를 포함할 수 있다. 센싱부(130)는 카메라에 촬영된 영상, 적외선 센서 및 파장 센서를 통해 외부 객체의 움직임을 트랙킹할 수 있다. 또한, 센싱부(130)는 음선 감지 센서를 통해 사용자의 음성을 센싱할 수 있다.The sensing unit 130 may include at least one of a camera, an infrared sensor, a wavelength sensor, and a voice sensor. The sensing unit 130 may track the movement of the external object through the image captured by the camera, the infrared sensor, and the wavelength sensor. In addition, the sensing unit 130 may sense a user's voice through a sound ray sensor.

제어부(140)는 센싱부(130)가 감지한 외부 객체의 위치에 따라 공간 영상이 변환되도록 제어한다. 제어부(140)는 상기 위치에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 제어부(140)는 외부 객체의 위치에 따라 공간 영상이 회전 또는 이동하도록 제어할 수 있다.The controller 140 controls the spatial image to be converted according to the position of the external object sensed by the sensing unit 130. The controller 140 may control the display 110 and the projector 120 to convert at least one of a material, a color, a size, a shape, a position, and a direction of the spatial image according to the position. The controller 140 may control the spatial image to be rotated or moved according to the position of the external object.

또한 제어부(140)는 외부 객체의 위치에 따라 공간 영상의 기능이 실현되도록 제어할 수 있다. 예를 들면, 공간 영상이 핸드백이고, 상기 핸드백의 버튼에 외부 객체가 위치한 경우에는, 제어부(140)는 핸드백이 열리는 동영상이 디스플레이되도록 제어할 수 있다. 즉 공간 영상은 닫힌 핸드백에서 열린 핸드백으로 변환된다.In addition, the controller 140 may control the spatial image to be realized according to the position of the external object. For example, when the spatial image is a handbag and an external object is located at a button of the handbag, the controller 140 may control to display a video in which the handbag is opened. In other words, the spatial image is converted from a closed handbag to an open handbag.

제어부(140)는 센싱부(130)가 감지한 외부 객체의 움직임에 응답하여 공간 영상이 변환되도록 제어한다. 제어부(140)는 상기 움직임에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 제어부(140)는 외부 객체의 움직임에 따라 공간 영상의 크기를 크게 또는 작게 되도록 제어할 수 있다. 또한 제어부(140)는 외부 객체의 움직임에 따라 공간 영상이 분리되도록 제어할 수 있다.The controller 140 controls the spatial image to be converted in response to the movement of the external object sensed by the sensing unit 130. The controller 140 may control the display 110 and the projector 120 to convert at least one of the material, color, size, shape, position, and direction of the spatial image according to the movement. The controller 140 may control the size of the spatial image to be larger or smaller according to the movement of the external object. In addition, the controller 140 may control the spatial image to be separated according to the movement of the external object.

제어부(140)는 상기 외부 객체의 움직임에 응답하여 공간 영상이 움직이도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 일예로, 외부 객체의 상하 움직임에 따라 공간 영상은 상하로 움직일 수 있다. 이때, 제어부(140)는 외부 객체의 상하 움직임에 따라 디스플레이부(110)와 투영부(120)와의 거리를 조절하여 공간 영상이 상하로 움직이도록 제어할 수 있다. 제어부(140)는 상기 외부 객체의 움직임에 응답하여 공간 영상이 회전하도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다.The controller 140 may control the display 110 and the projector 120 to move the spatial image in response to the movement of the external object. For example, the spatial image may move up and down according to the vertical movement of the external object. In this case, the controller 140 may control the spatial image to move up and down by adjusting the distance between the display 110 and the projector 120 according to the vertical movement of the external object. The controller 140 may control the display 110 and the projector 120 to rotate the spatial image in response to the movement of the external object.

제어부(140)는 센싱부(130)가 감지한 소리에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 제어부(140)는 센싱부(130)가 감지한 소리에 따라 공간 영상의 기능이 실현되도록 제어할 수 있다. 이에 따라, 사용자는 음성을 통해 공간 영상을 변환시키기 위한 명령어를 공간 영상 제공 장치(100)로 입력할 수 있다.The controller 140 may control the display 110 and the projector 120 to convert at least one of the material, color, size, shape, position, and direction of the spatial image according to the sound sensed by the sensing unit 130. Can be. The controller 140 may control the spatial image to be realized according to the sound sensed by the sensing unit 130. Accordingly, the user may input a command for converting the spatial image through the voice to the spatial image providing apparatus 100.

피드백 제공부(150)는 센싱부(130)가 감지한 외부 객체의 위치에 따라 피드백을 제공한다. 상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함한다. 사용자가 공간 영상을 터치한 경우에는, 피드백 제공부(150)는 촉감을 제공하여, 사용자에게 터치감을 줄 수 있다.The feedback provider 150 provides feedback based on the position of the external object sensed by the sensing unit 130. The feedback includes at least one of touch, temperature and odor. When the user touches the spatial image, the feedback provider 150 may provide a touch to give the user a touch.

피드백 제공부(150)는 센싱부(130)가 감지한 외부 객체의 움직임에 응답하여 피드백을 제공한다. 상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함한다. 사용자가 공간 영상을 터치하는 동작을 수행하는 경우에는, 피드백 제공부(150)는 공간 영상과 사용자의 손가락과의 위치 변화에 따라 촉감을 다르게 제공하여, 사용자에게 터치감 및 부피감을 줄 수 있다.The feedback provider 150 provides feedback in response to the movement of the external object sensed by the sensing unit 130. The feedback includes at least one of touch, temperature and odor. When the user performs an operation of touching the spatial image, the feedback provider 150 may provide a different touch to the user according to a change in position of the spatial image and the user's finger, thereby giving the user a sense of touch and volume.

저장부(160)는 공간 영상 제공 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 여기서 프로그램 코드는 통신부(170)가 수신한 애플리케이션 프로그램 코드 및 공간 영상 제공 장치(100)의 제조시 저장된 애플리케이션 프로그램 코드일 수 있다. 또한 애플리케이션은 HTML, XML, HTML5, CSS, CSS3, 자바스크립트, 자바, C언어, C++, Visual C++ 및 C# 등의 프로그래밍 언어로 작성될 수 있다. 또한 저장부(160)는 영상 데이터를 포함한다. 영상 데이터는 3차원 영상을 디스플레이하기 위한 데이터 및 매뉴얼 영상을 디스플레이하기 위한 데이터를 포함할 수 있다.The storage unit 160 provides a place for storing program codes and data used by the spatial image providing apparatus 100. Here, the program code may be an application program code received by the communication unit 170 and an application program code stored when the spatial image providing apparatus 100 is manufactured. Applications can also be written in programming languages such as HTML, XML, HTML5, CSS, CSS3, JavaScript, Java, C, C ++, Visual C ++, and C #. In addition, the storage unit 160 includes image data. The image data may include data for displaying a 3D image and data for displaying a manual image.

저장부(160)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 공간 영상 제공 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함할 수 있다.The storage unit 160 may be implemented as a read only memory (ROM), a random access memory (RAM), a hard disk drive, or the like. The program code and data may reside in a removable storage medium, and may be loaded or installed on the spatial image providing apparatus 100 when necessary. Removable storage media may include CD-ROM, PC-CARD, memory cards, floppy disks, magnetic tape, and network components.

통신부(170)는 유선 또는 무선으로 외부 장치로부터 방송 데이터, 영상 데이터, 음성 데이터, 정보 데이터 및 애플리케이션 데이터를 수신할 수 있다. 영상 데이터는 2차원 영상을 디스플레이하기 위한 영상 데이터 및 3차원 영상을 디스플레이하기 위한 영상 데이터일 수 있다. 상기 외부 장치는 컴퓨터, 노트북, 이동 단말기 및 기록 매체 재생 장치 등의 멀티미디어기기일 수 있고, 방송국 및 서비스 프로바이더 등의 인터넷 상에 위치하는 서버일 수 있다.The communicator 170 may receive broadcast data, image data, audio data, information data, and application data from an external device by wire or wirelessly. The image data may be image data for displaying a 2D image and image data for displaying a 3D image. The external device may be a multimedia device such as a computer, a notebook, a mobile terminal, a recording medium reproducing apparatus, or a server located on the Internet such as a broadcasting station and a service provider.

통신부(170)는 튜너부, 복조부, 이동 통신부, 네트워크 인터페이스부 및 외부 신호 수신부를 포함할 수 있다. 튜너부는 방송망을 통해 데이터를 포함하는 스트림 신호를 수신할 수 있고, 복조부는 상기 수신된 스트림 신호를 복조한다. 이동 통신부는 2G 통신망, 3G 통신망, 4G 통신망 등의 이동 통신망을 통해 데이터를 수신할 수 있다. 또한 네트워크 인터페이스는 네트워크를 통해 데이터를 송수신할 수 있으며, 외부 신호 수신부는 주변 장치로부터 애플리케이션 및 컨텐츠를 수신할 수 있다.The communicator 170 may include a tuner unit, a demodulator, a mobile communication unit, a network interface unit, and an external signal receiver. The tuner may receive a stream signal including data through a broadcasting network, and the demodulator demodulates the received stream signal. The mobile communication unit may receive data through a mobile communication network such as a 2G communication network, a 3G communication network, and a 4G communication network. In addition, the network interface may transmit and receive data through a network, and the external signal receiver may receive an application and content from a peripheral device.

도 2는 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 일실시예의 구조를 도시한 구조도이다.2 is a structural diagram showing a structure of a preferred embodiment of a spatial image providing apparatus according to the present invention.

도 2를 참조하면, 디스플레이부(110)는 외부 장치(201, 205)로부터 수신된 영상 데이터를 기초로 3차원 영상(210)을 투영부(120)의 하단에 디스플레이한다. 3차원 영상(210)은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 영상이다.Referring to FIG. 2, the display 110 displays a 3D image 210 at the bottom of the projection unit 120 based on image data received from the external devices 201 and 205. The three-dimensional image 210 is an image that can be observed in any direction through 360 degrees without viewing angle limitation.

투영부(120)는 디스플레이부(110)의 상측에 위치할 수 있다. 투영부(130)는 3차원 영상(210)을 자신의 상부 공간에 투영하여 3차원 영상의 상인 공간 영상(220)을 생성한다. 디스플레이부(110)와 투영부(120) 사이의 거리에 따라 공간 영상(220)의 위치하는 지점의 높이가 변경될 수 있다. 또한 투영부(120)는 배율을 조절하여 공간 영상(220)의 크기를 조절할 수 있다.The projector 120 may be located above the display 110. The projection unit 130 projects the 3D image 210 to its upper space to generate a spatial image 220 which is an image of the 3D image. The height of the location of the spatial image 220 may be changed according to the distance between the display 110 and the projector 120. In addition, the projection unit 120 may adjust the size of the spatial image 220 by adjusting the magnification.

디스플레이부(110)는 영상 데이터를 변경하거나 변환하여 3차원 영상(210)의 크기, 모양, 색상, 재질 및 위치를 변경할 수 있다. 3차원 영상(210)의 변환에 따라 공간 영상(220)의 크기, 모양, 색상, 재질 및 위치가 변경될 수 있다.The display 110 may change or convert image data to change the size, shape, color, material, and position of the 3D image 210. According to the transformation of the 3D image 210, the size, shape, color, material, and position of the spatial image 220 may be changed.

도 3은 디스플레이부의 실시예들을 도시한 도면이다.3 is a diagram illustrating embodiments of a display unit.

도 3을 참조하면, 디스플레이부(110)는 투과형 스크린 방식 디스플레이(310), 회전스크린 방식 디스플레이(330), 산란 스캔 방식 디스플레이(350) 및 홀로그래픽 디스플레이(미도시) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 3, the display unit 110 may include at least one of a transmissive screen display 310, a rotation screen display 330, a scattering scan display 350, and a holographic display (not shown). have.

투과형 스크린 방식 디스플레이(310)는 각 단층(311 내지 319)별 깊이 영상 정보를 적층하여 리얼 3차원 영상(320)을 구현한다.The transmissive screen type display 310 stacks depth image information for each tomography layer 311 to 319 to implement a real 3D image 320.

회전스크린 방식 디스플레이(330)는 스크린(331)을 회전하여 각도별 영상 정보를 구현하여 리얼 3차원 영상(340)을 구현한다.The rotating screen display 330 implements a real 3D image 340 by rotating the screen 331 to implement image information for each angle.

산란 스캔 방식 디스플레이(350)는 가스가 들어가 있는 챔버(351)의 안에서 광학적으로 초점시켜 산란 스캔하여 리얼 3차원 영상(360)을 구현한다.The scattering scan type display 350 optically focuses the scattering scan in the chamber 351 containing the gas to implement the real 3D image 360.

홀로그래픽 디스플레이는 홀로그램을 생성하여 리얼 3차원 영상을 구현한다.Holographic displays generate holograms to produce real three-dimensional images.

도 4는 투영부의 실시예들을 도시한 도면이다.4 is a diagram illustrating embodiments of a projection unit.

도 4를 참조하면, 투영부(120)는 미러홀 패턴 소자(410), 렌즈 패턴 소자(430) 및 회절 광학 소자(450) 중 적어도 하나를 포함할 수 있다. 투영부(120)는 도 2에 도시된 3차원 영상(210)을 미러홀 패턴 소자(410)를 통해 투영하여 공간 영상(420)을 생성할 수 있다. 투영부(120)는 도 2에 도시된 3차원 영상(210)을 렌즈 패턴 소자(430)를 통해 투영하여 공간 영상(440)을 생성할 수 있다. 투영부(120)는 도 2에 도시된 3차원 영상(210)을 회절 광학 소자(450)를 통해 투영하여 공간 영상(460)을 생성할 수 있다.Referring to FIG. 4, the projection unit 120 may include at least one of the mirror hole pattern element 410, the lens pattern element 430, and the diffractive optical element 450. The projector 120 may generate the spatial image 420 by projecting the 3D image 210 illustrated in FIG. 2 through the mirror hole pattern element 410. The projector 120 may generate the spatial image 440 by projecting the 3D image 210 illustrated in FIG. 2 through the lens pattern element 430. The projection unit 120 may generate the spatial image 460 by projecting the 3D image 210 illustrated in FIG. 2 through the diffractive optical element 450.

도 5는 공간 영상을 터치하는 사용자 조치에 대한 응답으로 공간 영상의 변화의 일예를 도시한 도면이다.5 is a diagram illustrating an example of a change of a spatial image in response to a user action of touching the spatial image.

도 5를 참조하면, 제어부(140)는 공간 영상(510)의 표면의 위치를 인지하고 있으며, 외부 객체(501)가 공간 영상(510)의 표면에 위치하는지 여부를 확인한다. 외부 객체(501)가 공간 영상(510)의 표면에 위치하는 경우에는, 외부 객체(501)가 위치하는 표면에 따라 제어부(140)는 사전에 설정된 동작이 진행 되도록 제어한다. 예를 들어, 가방(510)의 버튼 위치에 외부 객체(501)가 도달했을 때에, 제어부(140)는 가방이 열리는 동영상이 재생되도록 제어한다. Referring to FIG. 5, the controller 140 recognizes the position of the surface of the spatial image 510 and checks whether the external object 501 is located on the surface of the spatial image 510. When the external object 501 is located on the surface of the spatial image 510, the controller 140 controls the preset operation to proceed according to the surface on which the external object 501 is located. For example, when the external object 501 arrives at the button position of the bag 510, the controller 140 controls to play a video in which the bag is opened.

도 6은 사용자의 손의 움직임에 따라 공간 영상의 움직임의 일예를 도시한 도면이다.6 is a diagram illustrating an example of a motion of a spatial image according to a user's hand movement.

도 6을 참조하면, 제어부(140)는 공간 영상(610)의 표면의 위치를 인지하고 있으며, 외부 객체(601)가 공간 영상(610)의 표면을 따라 움직이는지 여부를 확인한다. 외부 객체(601)가 공간 영상(510)의 표면을 따라 움직이는 경우에는, 외부 객체(601)가 위치하는 표면에 따라 제어부(140)는 사전에 설정된 동작이 진행 되도록 제어한다. 예를 들어, 외부 객체(601)가 가방 표면(610)을 따라 좌, 우, 상, 하로 움직이는 경우에는, 제어부(140)는 가방의 종류가 바뀌거나 색상이 바뀌는 공간 영상이 제공되도록 제어할 수 있다.Referring to FIG. 6, the controller 140 recognizes the position of the surface of the spatial image 610 and checks whether the external object 601 moves along the surface of the spatial image 610. When the external object 601 moves along the surface of the spatial image 510, the controller 140 controls the preset operation to proceed according to the surface on which the external object 601 is located. For example, when the external object 601 moves left, right, up, and down along the bag surface 610, the controller 140 may control to provide a spatial image in which a bag type is changed or a color is changed. have.

센싱부(130)는 공간 영상(610)으로부터 일정 거리 떨어진 지점(601)에 위치하는 외부 객체(601)의 움직임을 감지한다. 제어부(140)는 감지된 외부 객체(601)의 움직임에 따라 매뉴얼 영상이 디스플레이되도록 제어할 수 있고, 공간 영상(610)이 이동되도록 제어하거나 회전되도록 제어할 수 있다. 이에 따라, 사용자는 손가락을 움직여 매뉴얼 영상을 디스플레이시킬 수 있고, 공간 영상(610)을 이동 또는 회전시킬 수 있다.The sensing unit 130 detects a movement of the external object 601 located at a point 601 away from the spatial image 610. The controller 140 may control the manual image to be displayed according to the detected movement of the external object 601, and may control the spatial image 610 to be moved or rotated. Accordingly, the user may display a manual image by moving a finger and move or rotate the spatial image 610.

도 7은 본 발명에 따른 공간 영상 제공 장치의 테이블의 상면의 일실시예를 도시한 도면이다.7 is a diagram illustrating an embodiment of an upper surface of a table of the spatial image providing apparatus according to the present invention.

도 7을 참조하면, 공간 영상 제공 장치(100)는 사용자가 공간 영상(710)을 터치하면, 사용자에게 촉감을 제공한다. 예를 들어, 사용자(701)가 공간 영상(710)의 버튼을 누르는 경우에, 공간 영상 제공 장치(100)는 에어 등의 유류 압력을 통해서 사용자의 손가락(701)이 압력을 느끼게 한다.Referring to FIG. 7, when the user touches the spatial image 710, the apparatus 100 for providing a spatial image provides a touch to the user. For example, when the user 701 presses a button of the spatial image 710, the spatial image providing apparatus 100 makes the user's finger 701 feel the pressure through an oil pressure such as air.

센싱부(130) 및 피드백 제공부(150)는 공간 영상 제공 장치(100)의 상면(705)에 설치될 수 있다. 센싱부(130)는 복수의 카메라(또는 센서)(720)를 포함할 수 있다.The sensing unit 130 and the feedback providing unit 150 may be installed on the upper surface 705 of the spatial image providing apparatus 100. The sensing unit 130 may include a plurality of cameras (or sensors) 720.

피드백 제공부(150)는 복수의 공기 압력기(Air pressure)(730) 및 방향제(740)를 포함할 수 있다. 공기 압력기(730)는 공기 압력을 통하여 사용자에게 터치감을 제공한다. 방향제(740)는 사용자에게 냄새를 제공한다. 방향제(740)는 탈착식으로 내장될 수 있고, 공간 영상 제공 장치(100)는 다양한 방향제의 조합하여 다양한 냄새를 낼 수 있다.The feedback provider 150 may include a plurality of air pressures 730 and a fragrance 740. The air pressure 730 provides a touch feeling to the user through the air pressure. Fragrance 740 provides odor to the user. The fragrance 740 may be detachably embedded, and the spatial image providing apparatus 100 may emit various odors by combining various fragrances.

도 8은 본 발명에 따른 공간 영상 제공 방법에 대한 바람직한 일실시예의 수행과정을 도시한 순서도이다.8 is a flowchart illustrating a process of performing a preferred embodiment of the method for providing a spatial image according to the present invention.

도 8을 참조하면, 디스플레이부(110)는 영상 데이터를 기초로 3차원 영상을 재생한다(S100). 상기 재생된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것일 수 있다. 상기 재생된 3차원 영상은 도 2에 도시된 3차원 영상(210), 도 3에 도시된 3차원 영상(320, 340, 360) 중 적어도 하나일 수 있다.Referring to FIG. 8, the display 110 reproduces a 3D image based on the image data (S100). The reproduced 3D image may be observable in any direction of 360 degrees without limiting the viewing angle. The reproduced 3D image may be at least one of the 3D image 210 illustrated in FIG. 2 and the 3D images 320, 340, and 360 illustrated in FIG. 3.

투영부(120)는 디스플레이부(110)가 재생한 3차원 영상을 특정 공간에 투영하여 상기 3차원 영상의 상인 공간 영상을 생성한다(S110). 상기 생성된 공간 영상은 도 2에 도시된 공간 영상(220), 도 4에 도시된 공간 영상(420, 440, 460) 중 적어도 하나일 수 있다.The projector 120 generates a spatial image that is an image of the 3D image by projecting the 3D image reproduced by the display 110 to a specific space (S110). The generated spatial image may be at least one of the spatial image 220 illustrated in FIG. 2 and the spatial images 420, 440, and 460 illustrated in FIG. 4.

센싱부(130)는 공간 영상 제공 장치(100)의 주변에 위치하는 외부 객체의 위치 또는 움직임을 감지한다(S120).The sensing unit 130 detects the position or movement of an external object located around the spatial image providing apparatus 100 (S120).

피드백 제공부(150)는 센싱부(130)가 감지한 외부 객체의 위치 및 움직임에 응답하여 피드백을 제공한다(S130). 상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함할 수 있다. 제어부(140)는 감지한 외부 객체의 위치 및 움직임에 따라 제공할 피드백을 선택하고 선택한 피드백이 제공되도록 피드백 제공부(150)를 제어할 수 있다.The feedback provider 150 provides feedback in response to the position and movement of the external object sensed by the sensing unit 130 (S130). The feedback may include at least one of touch, temperature and odor. The controller 140 may select the feedback to be provided according to the detected position and movement of the external object and control the feedback provider 150 to provide the selected feedback.

제어부(140)는 센싱부(130)가 감지한 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 상기 공간 영상이 변환되도록 제어한다(S140). 제어부(140)는 상기 위치에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 제어부(140)는 상기 움직임에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다.The controller 140 controls the spatial image to be converted according to the position of the external object sensed by the sensing unit 130 or in response to the movement of the detected external object (S140). The controller 140 may control the display 110 and the projector 120 to convert at least one of a material, a color, a size, a shape, a position, and a direction of the spatial image according to the position. The controller 140 may control the display 110 and the projector 120 to convert at least one of the material, color, size, shape, position, and direction of the spatial image according to the movement.

본 발명에 따른 공간 영상 제공 장치 및 그 동작 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The spatial image providing apparatus and its operation method according to the present invention are not limited to the configuration and method of the embodiments described as described above, but the embodiments are all or all of the embodiments so that various modifications can be made. Some may be optionally combined.

한편, 본 발명의 공간 영상 제공 장치의 동작방법은 공간 영상 제공 장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.On the other hand, the operating method of the spatial image providing apparatus of the present invention can be implemented as code that can be read by the processor in a processor-readable recording medium provided in the spatial image providing apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the present invention.

Claims (15)

공간 영상 제공 장치에 있어서,
영상 데이터를 기초로 3차원 영상을 재생하는 디스플레이부;
공간 영상 제공 장치의 주변에 위치하는 외부 객체의 위치 또는 움직임 감지하는 센싱부;
상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 피드백을 제공하는 피드백 제공부; 및
상기 재생된 3차원 영상을 특정 공간에 투영하여 상기 3차원 영상의 상인 공간 영상을 생성하는 투영부를 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
In the spatial image providing apparatus,
A display unit configured to reproduce a 3D image based on the image data;
A sensing unit configured to detect a position or a movement of an external object located around the spatial image providing apparatus;
A feedback providing unit providing feedback according to the position of the detected external object or in response to the movement of the detected external object; And
And a projection unit to project the reproduced three-dimensional image to a specific space to generate a spatial image that is an image of the three-dimensional image.
제 1항에 있어서,
상기 영상 데이터를 수신하는 통신부 및 상기 영상 데이터를 저장하는 저장부 중 적어도 하나를 더 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
And at least one of a communication unit for receiving the image data and a storage unit for storing the image data.
삭제delete 제 1항에 있어서,
상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 상기 공간 영상이 변환되도록 제어하는 제어부를 더 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
And a controller configured to control the spatial image to be converted according to the position of the detected external object or in response to the movement of the detected external object.
삭제delete 제 1항에 있어서,
상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
And the feedback comprises at least one of touch, temperature, and smell.
제 1항에 있어서,
상기 재생된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
The reproduced three-dimensional image of the spatial image providing apparatus, characterized in that can be observed in any direction of 360 degrees without viewing angle limitation.
제 1항에 있어서,
상기 디스플레이부는 투과형 스크린 방식 디스플레이, 회전스크린 방식 디스플레이, 산란 스캔 방식 디스플레이 및 홀로그래픽 디스플레이 중 적어도 하나를 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
And the display unit comprises at least one of a transmissive screen display, a rotating screen display, a scattering scan display, and a holographic display.
제 1항에 있어서,
상기 투영부는 미러홀 패턴 소자, 렌즈 패턴 소자 및 회절 광학 소자 중 적어도 하나를 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
The projection unit includes at least one of a mirror hole pattern element, a lens pattern element and a diffractive optical element.
공간 영상 제공 방법에 있어서,
영상 데이터를 기초로 3차원 영상을 재생하는 단계;
공간 영상 제공 장치의 주변에 위치하는 외부 객체의 위치 또는 움직임을 감지하는 단계;
상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 피드백을 제공하는 단계; 및
상기 재생된 3차원 영상을 특정 공간에 투영하여 상기 3차원 영상의 상인 공간 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 공간 영상 제공 방법.
In the spatial image providing method,
Reproducing a 3D image based on the image data;
Detecting the position or movement of an external object located around the spatial image providing apparatus;
Providing feedback in accordance with the position of the sensed external object or in response to the movement of the sensed external object; And
And generating a spatial image that is a merchant of the 3D image by projecting the reproduced 3D image to a specific space.
삭제delete 제 10항에 있어서,
상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 상기 공간 영상을 변환시키는 단계를 더 포함하는 것을 특징으로 하는 공간 영상 제공 방법.
The method of claim 10,
And converting the spatial image according to the position of the detected external object or in response to the movement of the detected external object.
삭제delete 제 10항에 있어서,
상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함하는 것을 특징으로 하는 공간 영상 제공 방법.
The method of claim 10,
And the feedback comprises at least one of touch, temperature, and smell.
제 10항에 있어서,
상기 재생된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것을 특징으로 하는 공간 영상 제공 방법.
The method of claim 10,
The reproduced three-dimensional image is a spatial image providing method characterized in that can be observed in any direction of 360 degrees without viewing angle limitation.
KR1020120116219A 2012-10-18 2012-10-18 Device and method for providing a floating image KR101356528B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120116219A KR101356528B1 (en) 2012-10-18 2012-10-18 Device and method for providing a floating image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120116219A KR101356528B1 (en) 2012-10-18 2012-10-18 Device and method for providing a floating image

Publications (1)

Publication Number Publication Date
KR101356528B1 true KR101356528B1 (en) 2014-02-03

Family

ID=50269485

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120116219A KR101356528B1 (en) 2012-10-18 2012-10-18 Device and method for providing a floating image

Country Status (1)

Country Link
KR (1) KR101356528B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017164506A1 (en) * 2016-03-25 2017-09-28 전자부품연구원 Volumetric light field display system using oled display

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100936666B1 (en) * 2009-05-25 2010-01-13 전자부품연구원 Apparatus for touching reflection image using an infrared screen
KR20100075281A (en) * 2008-12-24 2010-07-02 전자부품연구원 Apparatus having function of space projection and space touch and the controlling method thereof
KR101053819B1 (en) 2010-05-03 2011-08-03 동서대학교산학협력단 A prototype experience stage which 360 degree display three dimensions which we stimulate a five senses and are reality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100075281A (en) * 2008-12-24 2010-07-02 전자부품연구원 Apparatus having function of space projection and space touch and the controlling method thereof
KR100936666B1 (en) * 2009-05-25 2010-01-13 전자부품연구원 Apparatus for touching reflection image using an infrared screen
KR101053819B1 (en) 2010-05-03 2011-08-03 동서대학교산학협력단 A prototype experience stage which 360 degree display three dimensions which we stimulate a five senses and are reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017164506A1 (en) * 2016-03-25 2017-09-28 전자부품연구원 Volumetric light field display system using oled display

Similar Documents

Publication Publication Date Title
JP6737841B2 (en) System and method for navigating a three-dimensional media guidance application
US20160154563A1 (en) Extending 2d graphics in a 3d gui
RU2538335C2 (en) Combining 3d image data and graphical data
US8923686B2 (en) Dynamically configurable 3D display
US9143770B2 (en) Application programming interface supporting mixed two and three dimensional displays
CN101341457B (en) Methods and systems for enhancing television applications using 3d pointing
US9854229B2 (en) Three-dimensional image processing apparatus and method for adjusting location of sweet spot for displaying multi-view image
CN103236074B (en) A kind of 2D/3D image processing method and device
KR20130010424A (en) Contents play method and apparatus
US20190156690A1 (en) Virtual reality system for surgical training
US20100231791A1 (en) System and method for dynamic video placement on a display
CN103293935A (en) Holographic display device and method for generating hologram
KR20190026267A (en) Electronic apparatus, method for controlling thereof and computer program product thereof
CN101430631B (en) Method for interaction with multiple images and user interface device
JP2019512177A (en) Device and related method
KR102287510B1 (en) Server, apparatus for providing image, and system including the same
WO2017037952A1 (en) Program, recording medium, content provision device, and control method
KR101177058B1 (en) System for 3D based marker
CN113170231A (en) Method and device for controlling playing of video content following user motion
KR101356528B1 (en) Device and method for providing a floating image
KR20140049865A (en) Device for providing a floating image
Fradet et al. [poster] mr TV mozaik: A new mixed reality interactive TV experience
CN116266868A (en) Display equipment and viewing angle switching method
KR102165026B1 (en) 360 degree augmented reality stereoscopic image experience system
CN112399245A (en) Playing method and display device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161223

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171222

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee