WO2017052325A1 - 집적 영상 처리 장치 및 그를 이용한 차량용 램프 - Google Patents

집적 영상 처리 장치 및 그를 이용한 차량용 램프 Download PDF

Info

Publication number
WO2017052325A1
WO2017052325A1 PCT/KR2016/010754 KR2016010754W WO2017052325A1 WO 2017052325 A1 WO2017052325 A1 WO 2017052325A1 KR 2016010754 W KR2016010754 W KR 2016010754W WO 2017052325 A1 WO2017052325 A1 WO 2017052325A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pattern
lens array
reproduced
processing apparatus
Prior art date
Application number
PCT/KR2016/010754
Other languages
English (en)
French (fr)
Inventor
정지영
김성필
주양현
최현호
Original Assignee
엘지이노텍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍(주) filed Critical 엘지이노텍(주)
Priority to CN201680055720.5A priority Critical patent/CN108141580B/zh
Priority to EP16849050.6A priority patent/EP3355577B1/en
Priority to US15/762,353 priority patent/US11275255B2/en
Publication of WO2017052325A1 publication Critical patent/WO2017052325A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S43/00Signalling devices specially adapted for vehicle exteriors, e.g. brake lamps, direction indicator lights or reversing lights
    • F21S43/20Signalling devices specially adapted for vehicle exteriors, e.g. brake lamps, direction indicator lights or reversing lights characterised by refractors, transparent cover plates, light guides or filters
    • F21S43/26Refractors, transparent cover plates, light guides or filters not provided in groups F21S43/235 - F21S43/255
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses

Definitions

  • the embodiment relates to an integrated image processing apparatus and a vehicle lamp using the same.
  • three-dimensional stereoscopic images can be seen by the principle of stereo vision through two eyes. Since the parallax of two eyes, that is, the two eyes are about 65 mm apart, the left and right eyes see slightly different images due to the difference in the positions of the two eyes. As such, the difference in the image due to the positional difference between the two eyes is called binocular disparity.
  • the stereoscopic image display device uses the binocular disparity so that the left eye can see only the image of the left eye and the right eye can see only the right eye image, so that the user feels the binocular parallax to feel a stereoscopic feeling. That is, the left and right eyes each see different two-dimensional images, and when these two images are delivered to the brain through the retina, the brain fuses with each other to feel the depth (or three-dimensional) and realism of the original three-dimensional image. This technique is called stereography.
  • the integrated image processing method was first proposed by Lippmann in 1908, and has the advantage of providing full parallax and continuous viewpoints, like the holographic method, which is a three-dimensional display method.
  • glasses or other tools are not required to view a stereoscopic image, and a three-dimensional stereoscopic image having a specific depth from a two-dimensional whole element image is obtained by using a lens array composed of a plurality of single lenses. It can be represented as a stereoscopic image within a certain volume.
  • the 3D stereoscopic image formed within a predetermined volume may be felt as if the actual 3D object is seen without seeing eye fatigue.
  • An existing integrated image processing apparatus employing an integrated image processing method includes a pick-up unit and a display (or reproduction or reconstruction) unit.
  • the pickup unit stores various image information of the 3D object as a full element image by using a photographing device such as a lens array and a camera. That is, the entire element image passing through the lens array of the pickup unit is stored in the photographing apparatus.
  • the display unit may display the entire element image stored in the pickup unit on a display panel, which is a kind of liquid crystal panel, and display the 3D stereoscopic image (or an integrated image) in space by passing the image information of the entire element image through the lens array. .
  • the display unit since the display unit must include a display panel, there is a problem that the volume of the existing direct image processing apparatus becomes large.
  • the embodiment provides a compact integrated image processing apparatus and a vehicle lamp using the same.
  • the display unit may include a light source; And a reproduction lens array included in the pattern image obtained by patterning the entire element image, and reproducing a stereoscopic image by integrating a plurality of single element images constituting the entire element image.
  • the display unit may include a pattern of the pattern image, and may further include a pattern film disposed between the light source and the reproduction lens array.
  • the reproduction lens array may include a first surface facing the light source; And a second surface facing the reproduced stereoscopic image on the opposite side of the first surface.
  • the pattern of the pattern image may be transferred and engraved on the first surface.
  • the pattern of the pattern image may be inscribed in roughness or engraved on the first surface of the reproduction lens array.
  • the integrated image processing apparatus may further include a pickup unit generating the pattern image.
  • the pickup unit may include a pickup lens array configured to pass a plurality of light rays from the three-dimensional object into the plurality of single element images, and the whole including the plurality of single element images passing through the pickup lens array.
  • the element image may be engraved on the pattern film in the pattern of the pattern image.
  • the pickup lens array may have the same characteristics as the reproduction lens array.
  • the pickup unit models the 3D object, predicts an illumination value of a pixel included in each of the plurality of single element images after the modeling result passes through the pickup lens array, and coordinates of each pixel. It may include an image pattern generation unit for generating data about the respective illumination value as the pattern image.
  • a first separation distance between the pattern film and the reproduction lens array may be determined as follows according to the first resolution of the reproduced stereoscopic image.
  • g represents the first separation distance
  • R I represents the first resolution
  • a represents a second separation distance from the reproduction lens array to the center of the reproduced stereoscopic image
  • represents the pattern image. Represents the size of the unit pixel.
  • a first separation distance between the pattern film and the reproduction lens array and a second separation distance from the reproduction lens array to the center of the reproduced stereoscopic image may be determined by the first resolution of the reproduced stereoscopic image and the pattern image. It may be determined as follows according to the second resolution.
  • R D represents the second resolution
  • the viewing angle of the reproduced stereoscopic image may be determined as follows.
  • the depth of the reproduced image may be as follows.
  • ⁇ z represents the depth of the reproduced stereoscopic image
  • ⁇ I represents the pixel size of the reproduced image
  • the pixel size of the reproduced image may be as follows.
  • ⁇ I represents the pixel size of the reproduced image
  • g represents a first separation distance between the pattern film and the reproduced lens array
  • a represents the center of the reproduced lens array and the reproduced stereoscopic image.
  • represents the size of a unit pixel of the pattern image.
  • the first resolution of the reproduced stereoscopic image may be inversely proportional to the pixel size of the reproduced image.
  • the second resolution of the pattern image may be as follows.
  • R D represents the second resolution
  • R I represents the first resolution of the reproduced stereoscopic image
  • ⁇ z represents the depth of the reproduced stereoscopic image
  • represents the viewing angle of the reproduced stereoscopic image
  • the size of the unit lens constituting the reproduction lens array may be 1 mm to 2 mm or 5 mm to 10 mm.
  • the unit lens of the reproduction lens array may include a flyeye lens.
  • the vehicle lamp may include the integrated image processing apparatus described above.
  • the integrated image processing apparatus may include the entire element image picked up in the pattern film or inscribe the pattern of the pattern image on the rear surface of the reproduction lens array, thereby reducing the volume since the display panel does not have a display panel.
  • a vehicle lamp such as a taillight
  • FIG. 1 is a block diagram of an integrated image processing apparatus according to an exemplary embodiment.
  • FIG. 2 is a conceptual diagram illustrating an embodiment of the pickup unit illustrated in FIG. 1.
  • 3A to 3D are diagrams for describing a pattern image and a stereoscopic image.
  • FIG. 4 is a conceptual diagram of an embodiment of the display unit illustrated in FIG. 1.
  • FIG. 5 is a conceptual diagram of another exemplary embodiment of the display unit illustrated in FIG. 1.
  • 6A to 6C show various aspects of the reproduction lens array shown in FIGS. 4 and 5.
  • FIG. 7 exemplarily shows a pattern of a pattern image transferred to a reproduction lens array.
  • FIG. 8 is a diagram for describing an application example of an integrated image processing apparatus according to an exemplary embodiment.
  • the above (up) or down (down) ( on or under includes both that two elements are in direct contact with one another or one or more other elements are formed indirectly between the two elements.
  • relational terms such as “first” and “second,” “upper / upper / up” and “lower / lower / lower”, etc., as used below, may be used to refer to any physical or logical relationship between such entities or elements, or It may be used only to distinguish one entity or element from another entity or element without necessarily requiring or implying an order.
  • the integrated image processing apparatus 100 will be described with reference to the accompanying drawings.
  • the integrated image processing apparatus 100 will be described using the Cartesian coordinate system (x-axis, y-axis, z-axis), but it can be explained by other coordinate systems.
  • the Cartesian coordinate system the x-axis, the y-axis, and the z-axis are orthogonal to each other, but embodiments are not limited thereto. That is, the x-axis, y-axis, and z-axis may intersect without being orthogonal to each other.
  • FIG. 1 is a block diagram of an integrated image processing apparatus 100 according to an exemplary embodiment, and may include a pick-up unit 110 and a display unit (or a reproduction unit or a display unit 120).
  • the pickup unit 110 generates an elemental image of the 3D object OB and patterns the generated element region. Therefore, the pattern image generated by the pickup unit 110 is transmitted to the display unit 120 in various ways as will be described later.
  • the entire element image may be composed of a plurality of single element images.
  • the pickup unit 110 generates a pattern image of the 3D object OB.
  • FIG. 2 is a conceptual diagram illustrating an embodiment 110A of the pickup unit 110 illustrated in FIG. 1. 2 is a two-dimensional plane of the y-axis and z-axis, but for the sake of understanding, the three-dimensional object OB is represented as a perspective view.
  • the pickup unit 110A illustrated in FIG. 2 may include a lens array (hereinafter, referred to as a pickup lens array) 112 and a pattern film 114.
  • a lens array hereinafter, referred to as a pickup lens array
  • a pattern film 114 may be included in the pickup unit 110A illustrated in FIG. 2.
  • the pickup lens array 112 passes a plurality of rays from the three-dimensional object (or object) OB.
  • the pickup lens array 112 may include a plurality of single lenses.
  • the plurality of single lenses By the plurality of single lenses, a single element image of the three-dimensional object OB viewed from the young direction in space is generated.
  • the single element image is a two-dimensional basic image for viewing the 3D object OB, and the plurality of single element images may have a uniform size to each other.
  • the entire element image consisting of a single element image passing through each single lens of the pickup lens array 112 may reach the pattern film 114 and be engraved as a pattern of the pattern image.
  • the pattern film 114 may be a polyester film (PET: polyethyleneterephthalate), but the embodiment is not limited thereto.
  • the pickup unit stores the entire element image in the imaging apparatus.
  • the entire element image may be stored in the pattern film 114 in the form of a pattern (ie, may be engraved).
  • the pattern image of the 3D object OB may be physically generated.
  • the pickup unit 110 models the 3D object OB, predicts the illuminance value of the pixel included in each of the plurality of single element images after the modeling result passes through the pickup lens array, and
  • data on the coarseness value of each pixel may be generated as a pattern image.
  • the entire element image may be generated by computer generated integrated imaging (CGII) using computer graphics. That is, data about coordinate roughness values of the entire element image including a plurality of single element images of the 3D object OB may be generated as a pattern image by a computer algorithm. As such, the pattern image of the 3D object OB may be generated programmatically.
  • CGII computer generated integrated imaging
  • the pattern image may be generated in various ways without being limited to the above two embodiments. That is, the integrated image processing apparatus 100 according to the embodiment may not include the pickup unit 110. In this case, a predetermined pattern image may be provided to the display unit 120.
  • the entire element image may be a moving image (or an active image) of the 3D object OB, but may also be a still image. That is, according to the application of the integrated image processing apparatus 100 according to an embodiment, various still images may be generated as pattern images.
  • 3A to 3D are diagrams for describing a pattern image and a stereoscopic image.
  • 3A exemplarily shows a front view of the 3D object OB
  • FIG. 3B exemplarily shows a perspective view of the 3D object OB shown in FIG. 3A
  • FIG. 3C exemplarily shows a pattern image
  • 3D exemplarily shows a stereoscopic image.
  • the 3D object OB is cylindrical, but the embodiment is not limited thereto.
  • the pattern image may have a shape as shown in FIG. 3C.
  • the pattern of the pattern image shown in FIG. 3C may be engraved on the pattern film 114 or may be generated as data by a program.
  • the display unit 120 may reproduce the entire element image of the 3D object OB as a 3D image. That is, the display unit 120 may reproduce the 3D stereoscopic image from the pattern image generated by the pickup unit 110 illustrated in FIG. 1 or the predetermined pattern image. If the pattern image is as shown in FIG. 3C and the shape of the 3D object OB is as shown in FIGS. 3A and 3B, the stereoscopic image shown in FIG. 3D may be reproduced by the display unit 120. have.
  • FIG. 4 illustrates a conceptual diagram of an embodiment 120A of the display unit 120 illustrated in FIG. 1.
  • the display unit 120A may include a light source 122, a pattern film 124, and a lens array (hereinafter, referred to as a “representation lens array”) 126. .
  • the light source 122 may emit light toward the pattern film 124.
  • the light source 122 may emit scattered light, but the embodiment is not limited to the type of light emitted from the light source 122.
  • a back light unit BLU may be used as the light source 122, but the embodiment is not limited to the type of the light source 122.
  • the pattern film 124 illustrated in FIG. 4 may be the pattern film 114 illustrated in FIG. 2. That is, as described above with reference to FIG. 2, when the entire element image of the 3D object OB is patterned and the pattern of the pattern image is engraved on the pattern film 114, the pattern film 114 is displayed on the display unit 120A. Can be used.
  • the pattern film 124 illustrated in FIG. 4 may be disposed between the light source 122 and the reproduction lens array 126, but embodiments are not limited thereto.
  • a plurality of single element images included in the pattern image may be integrated and reproduced as a stereoscopic image (RI). That is, a single element image of the three-dimensional object OB constituting the entire element image included in the pattern image may be integrated while being passed through the reproduction lens array 126 and reproduced as a stereoscopic image. To this end, light may be emitted from the light source 122.
  • RI stereoscopic image
  • the reproduction lens array 126 shown in FIG. 4 and the pickup lens array 112 shown in FIG. may be a lens having the same characteristics.
  • the pickup and reproduction lens arrays 112 and 126 shown in FIGS. 2 and 4, respectively, may have similar features as follows.
  • the first separation distance g between the pattern film 124 and the reproduction lens array 126 illustrated in FIG. 4 is the separation distance g between the pickup lens array 112 and the pattern film 114 illustrated in FIG. 2. May be identical to ').
  • the first separation distance g may correspond to the separation distance from the outer surface SO of the pattern film 124 facing the reproduction lens array 126 to the lens array 126.
  • a second separation distance a between the reproduction lens array 126 and the center depth plane (CDP) (or reference depth plane) of the reproduced stereoscopic image (RI) shown in FIG. 4 is shown in FIG. 2. It may be equal to the separation distance (a ') between the three-dimensional object (OB) and the pickup lens array (112).
  • the first separation distance g shown in FIG. 4 may be determined according to Equation 1 according to the first resolution R I of the reproduced stereoscopic image RI.
  • represents the size of the unit pixel of the pattern image having the pattern engraved on the pattern film 124.
  • first separation distance g and the second separation distance a shown in FIG. 4 may correspond to the first resolution R I of the reproduced stereoscopic image and the pattern image having the pattern engraved on the pattern film 124. 2 may be determined according to Equation 2 according to the resolution R D.
  • Equation 3 the second resolution R D is equal to the following Equation 3.
  • the first resolution R I can be adjusted by adjusting the first and second separation distances g and a. .
  • the number of lenses included in the reproduction lens array 126 illustrated in FIG. 4 may be the same as the number of lenses included in the pickup lens array 112 illustrated in FIG. 2.
  • each of the reproduction lens array 126 and the pickup lens array 112 shown in FIG. 2 may include a flyeye lens. It is not limited to kind.
  • the size p of the unit lens included in the reproduction lens array 126 illustrated in FIG. 4 may be the same as the size p ′ of the unit lens included in the pickup lens array 112 illustrated in FIG. 2. have.
  • the angle constituting the reproduced lens array 126 when the stereoscopic sense (or depth) of the reproduced stereoscopic image (RI) is prioritized over the first resolution (R I ) of the reproduced stereoscopic image (RI), the angle constituting the reproduced lens array 126.
  • the size p of the unit lens may be less than 2 mm, but embodiments are not limited thereto.
  • the size p of each unit lens constituting the reproduced lens array 126 is 5 mm or more, but embodiments are not limited thereto.
  • the integrated image processing apparatus when the integrated image processing apparatus according to the present embodiment is applied to a tail light for a vehicle to be described below with reference to FIG. 8, it may be different depending on the configuration of the tail light, but the height of the individual integrated image processing apparatus may be limited to a maximum of 15 mm. In this case, when the size p of each unit lens is smaller than 1 mm, the viewing angle is significantly reduced to 15 degrees or less, and when larger than 10 mm, it is difficult to secure a depth of 30 mm or more.
  • the size of the unit lens may have a range of 1 mm to 2 mm, and when the first resolution is prioritized over the stereoscopic feeling, the size of the unit lens has a range of 5 mm to 10 mm.
  • embodiments are not limited thereto.
  • the viewing angle ⁇ of the reproduced stereoscopic image RI may be determined as in Equation 4 below.
  • the viewing angle ⁇ may be adjusted according to the size p and the first separation distance g of the unit lens included in the reproduction lens array 126.
  • the depth ⁇ z of the reproduced image RI may be determined as in Equation 5 below.
  • ⁇ I is a pixel size of the reproduced stereoscopic image RI and may be expressed as in Equation 6 below.
  • the reproduced image is obtained by adjusting the size p, the first and second separation distances g and a of the unit lens while the second resolution R D is fixed. It can be seen that the depth ⁇ z of can be adjusted.
  • Equation 7 Equation 7 below is substituted for Equation 5 and Equations 2 and 4 are applied, the second resolution R D may be expressed as Equation 8 below.
  • the depth ⁇ z of the reproduced image RI may be defined by a first depth limit plane MDP1 and a second depth limit plane MDP2. Therefore, the depth ⁇ z of the reproduced image RI represented by Equation 5 may be an interval between the first depth limit plane MDP1 and the second depth limit plane MDP2 in the z-axis direction. As the depth ⁇ z of the reproduced image RI is longer, the stereoscopic sense of the reproduced image RI may increase.
  • the "center of the stereoscopic image RI" referred to when defining the second separation distance a refers to a center depth plane located in the middle between the first depth limit plane MDP1 and the second depth limit plane MDP2. It may be at any point on the (CDP).
  • FIG. 5 illustrates a conceptual diagram of another embodiment 120B of the display unit 120 illustrated in FIG. 1.
  • the display unit 120B may include a light source 122 and a reproduction lens array 126.
  • the reproduction lens array 126 may include a first surface S1 and a second surface S2.
  • the first surface S1 corresponds to the rear surface of the reproduction lens array 126 facing the light source 122
  • the second surface S2 displays the stereoscopic image RI reproduced from the opposite side of the first surface S1. It corresponds to the front of the reproduction lens array 126 as viewed.
  • the display unit 120B according to another exemplary embodiment illustrated in FIG. 5 does not include the pattern film 124.
  • the pattern 125 of the pattern image corresponding to the entire element image of the 3D object OB may be transferred and engraved on the first surface S1 of the reproduction lens array 126.
  • the display unit 120B illustrated in FIG. Since the display unit 120A shown in FIG. 4 is the same as that of FIG.
  • FIGS. 4A-6C show various aspects of the reproduction lens array 126 shown in FIGS. 4 and 5. Based on the reproduction lens array 126 shown in FIGS. 4 and 5, FIG. 6A shows a right side view of the reproduction lens array 126, FIG. 6B shows a front view of the reproduction lens array 126, and FIG. 6C The left side view of the reproduction lens array 126 is shown, respectively.
  • the pattern of the pattern image as illustrated in FIG. 7 may be represented by the reproduction lens array (shown in FIG. 6C). 126 may be engraved on the first surface S1.
  • the pattern of the pattern image may be engraved in the roughness form or engraved on the first surface S1 of the reproduction lens array 126.
  • the light source 122 may be disposed in contact with the pattern 125 of the pattern image engraved on the first surface S1 of the reproduction lens array 126 as illustrated in FIG. 5, but embodiments are not limited thereto. . That is, according to another embodiment, the light source 122 may be spaced apart from the pattern 125 of the pattern image in the z-axis direction.
  • the pattern of the pattern image is engraved on the pattern film 124, whereas in the case of the display unit 120B shown in FIG. 4, the pattern 125 of the pattern image is shown. Engraved on the first surface S1 of the reproduction lens array 126.
  • the pixel size ⁇ I may have various values as shown in Table 1 below.
  • the focal length f of the reproduction lens array 126 decreases from 10 mm of CASE 1 to 5 mm of CASE 3, the viewing angle ⁇ is similar to CASE 2, and the stereoscopic sense max ( ⁇ z) is CASE. Although it is further separated from 2, it can be seen that the width g of the display unit 120 in the z-axis direction becomes thinner.
  • the focal length f has a relationship as shown in Equation 9 below.
  • the viewing angle ⁇ is equal to CASE 1 while the three-dimensional sense max ( ⁇ z) is CASE 1. It can be seen that it is larger than 2, or 3.
  • the focal length f of the reproduction lens array 126, the size p of each of the plurality of unit lenses, and the size ⁇ of the pixels included in the image pattern are adjusted to adjust the viewing angle ( It can be seen that ⁇ and stereoscopic sense max ( ⁇ z) can be adjusted. Accordingly, the above-described integrated image processing apparatus 100 may be adjusted by adjusting the focal length f of the reproduction lens array 126, the size p of each of the plurality of unit lenses, and the size ⁇ of the pixel included in the pattern image. It can satisfy the viewing angle ( ⁇ ) and the three-dimensional (max ( ⁇ z)) required in the application field.
  • the integrated image processing apparatus 100 may be applied to various fields. Therefore, when the integrated image processing apparatus 100 does not include the pickup units 110 and 110A and includes only the display units 120, 120A and 120B, the display units 120, 120A and 120B may be applied to various fields.
  • the display units 120, 120A, and 120B may be applied to vehicle lights such as taillights, vehicle lights, brake lights, and the like.
  • FIG. 8 is a diagram for describing an application example of the integrated image processing apparatus 100 according to an exemplary embodiment.
  • the display unit 120B of FIG. 5 of the integrated image processing apparatus 100 may be applied to a tail lamp of the vehicle 200 as shown in FIG. 8.
  • the display portion 120A shown in FIG. 4 may be applied to the tail light of the vehicle 200 instead of the display portion 120B shown in FIG. 5.
  • the stereoscopic image RI as illustrated in FIG. 3D may be reproduced in a space spaced from the rear of the vehicle 200.
  • the integrated image processing apparatus 100 When the integrated image processing apparatus 100 according to the above-described embodiment is applied to the tail light of the vehicle 200 as shown in FIG. 8, it is possible to provide high visibility by providing a stereoscopic image to other vehicles behind and designed. It can also be beautiful.
  • the integrated image processing apparatus may include the entire element image picked up in the pattern film or inscribe the pattern of the pattern image on the rear surface of the reproduction lens array, thereby reducing the volume since the display panel does not have a display panel.
  • the integrated image processing apparatus may include the entire element image picked up in the pattern film or inscribe the pattern of the pattern image on the rear surface of the reproduction lens array, thereby reducing the volume since the display panel does not have a display panel.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

실시 예에 의하면, 3차원 물체에 대한 전체 요소 영상을 3차원 영상으로 재현하는 표시부를 포함하는 집적 영상 처리 장치의 표시부는 광원 및 전체 요소 영상을 패턴화시킨 패턴 영상에 포함되며 전체 요소 영상을 구성하는 복수의 단일 요소 영상을 집적화시켜 입체 영상으로 재현하는 재현 렌즈 어레이를 포함할 수 있다.

Description

집적 영상 처리 장치 및 그를 이용한 차량용 램프
실시 예는 집적 영상 처리 장치 및 그를 이용한 차량용 램프에 관한 것이다.
최근 3차원(3D:3-Dimension) 물체 인식에 관한 연구 및 시스템 구현에 대해 많은 연구가 진행되고 있다.
일반적으로 3차원 입체 영상은 두 눈을 통한 스테레오 시각의 원리에 의하여 보여질 수 있다. 두 눈의 시차 즉, 두 눈이 약 65 ㎜ 정도 떨어져서 존재하기 때문에, 두 눈의 위치의 차이로 왼쪽과 오른쪽 눈은 서로 약간 다른 영상을 보게 된다. 이와 같이, 두 눈의 위치 차이에 의한 영상의 차이점을 양안 시차(Binocular Disparity)라고 한다.
입체 영상 표시 장치는 이러한 양안 시차를 이용하여 왼쪽 눈은 왼쪽 눈에 대한 영상만 보게 하고 오른쪽 눈은 오른쪽 눈 영상만을 볼 수 있게 하여, 사용자가 양안 시차를 느껴 입체감을 느끼게 한다. 즉, 좌/우의 눈은 각각 서로 다른 2차원 영상을 보게 되고, 이 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이를 서로 융합하여 본래 삼차원 영상의 깊이감(또는, 입체감)과 실제감을 느끼게 된다. 이러한 기술을 스테레오그라피(Stereography)라 한다.
그러나, 양안 시차를 이용하여 입체 영상을 볼 경우, 두 영상의 시차와 눈의 초점기능의 부조화로 인해 어지러움과 눈의 피로감이 발생한다. 따라서, 최근에는 스테레오그라피의 문제점을 해결할 수 있는 집적 영상(Integral Imaging) 처리 방식을 적용하는 연구들이 많이 수행되고 있다.
집적 영상 처리 방식은 1908년 리프만(Lippmann)에 의해 처음 제안된 방식으로서, 3차원 디스플레이 방식인 홀로그래피 방식과 같이 완전 시차(full parallax)와 연속적인 관측 시점을 제공하는 장점을 갖는다. 이러한 집적 영상 처리 방식에 의할 경우, 입체 영상을 보기 위해 안경이나 기타 도구가 필요하지 않으며, 복수의 단일 렌즈로 구성된 렌즈 어레이를 이용하여 2차원 전체 요소 영상으로부터 특정 깊이를 갖는 3차원 입체 영상이 일정한 체적 내에서 입체 영상으로서 표현될 수 있다. 즉, 집적 영상 처리 방식에 의할 경우, 일정한 체적 내에서 형성된 3차원 입체 영상을 눈의 피로감을 느끼지 않고 보면서 실제 3차원 물체를 보는 것과 같이 느낄 수 있다.
집적 영상 방식 처리 방식을 채택하는 기존의 집적 영상 처리 장치는 픽업(pick-up)부 및 표시(또는, 재현 또는 복원)부를 포함한다.
픽업부는 렌즈 어레이 및 카메라 등과 같은 촬영 장치를 이용하여 3차원 물체의 다양한 영상 정보들을 전체 요소 영상으로서 저장한다. 즉, 픽업부의 렌즈 어레이를 통과한 전체 요소 영상이 촬영 장치에 저장된다. 표시부는 픽업부에서 저장된 전체 요소 영상을 일종의 액정 패널인 표시 패널에 표시하고, 전체 요소 영상의 영상 정보를 렌즈 어레이에 통과하여 공간상에 3차원 입체 영상(또는, 집적 영상)을 표시할 수 있다. 이를 위해, 표시부는 표시 패널을 반드시 포함해야 하므로, 기존의 직접 영상 처리 장치의 부피가 커지는 문제점이 있다.
실시 예는 부피가 작은 집적 영상 처리 장치 및 그를 이용한 차량용 램프를 제공한다.
실시 예에 의하면, 3차원 물체에 대한 전체 요소 영상을 3차원 영상으로 재현하는 표시부를 포함하는 집적 영상 처리 장치에서, 상기 표시부는 광원; 및 상기 전체 요소 영상을 패턴화시킨 패턴 영상에 포함되며 상기 전체 요소 영상을 구성하는 복수의 단일 요소 영상을 집적화시켜 입체 영상으로 재현하는 재현 렌즈 어레이를 포함할 수 있다.
예를 들어, 상기 표시부는 상기 패턴 영상의 패턴을 포함하며, 상기 광원과 상기 재현 렌즈 어레이 사이에 배치된 패턴 필름을 더 포함할 수 있다.
예를 들어, 상기 재현 렌즈 어레이는 상기 광원을 바라보는 제1 면; 및 상기 제1 면의 반대측에서 상기 재현된 입체 영상을 바라보는 제2 면을 포함할 수 있다.
예를 들어, 상기 패턴 영상의 패턴은 상기 제1 면에 전사되어 새겨질 수 있다.
예를 들어, 상기 패턴 영상의 상기 패턴은 상기 재현 렌즈 어레이의 상기 제1 면에 러프니스 형태로 새겨지거나, 음각 형태로 새겨질 수 있다.
예를 들어, 상기 집적 영상 처리 장치는, 상기 패턴 영상을 생성하는 픽업부를 더 포함할 수 있다.
예를 들어, 상기 픽업부는 상기 3차원 물체로부터 나온 복수의 광선을 상기 복수의 단일 요소 영상으로 통과시키는 픽업 렌즈 어레이를 포함하고, 상기 픽업 렌즈 어레이를 통과한 상기 복수의 단일 요소 영상으로 이루어진 상기 전체 요소 영상은 상기 패턴 필름에 상기 패턴 영상의 상기 패턴으로 새겨질 수 있다.
예를 들어, 상기 픽업 렌즈 어레이는 상기 재현 렌즈 어레이와 동일한 특성을 가질 수 있다.
예를 들어, 상기 픽업부는 상기 3차원 물체를 모델링하고, 상기 모델링된 결과가 픽업 렌즈 어레이를 통과한 이후의 상기 복수의 단일 요소 영상 각각에 포함된 화소의 조도값을 예측하고, 각 화소의 좌표별 조도값에 대한 데이터를 상기 패턴 영상으로서 생성하는 영상 패턴 생성부를 포함할 수 있다.
예를 들어, 상기 패턴 필름과 상기 재현 렌즈 어레이 간의 제1 이격 거리는 상기 재현된 입체 영상의 제1 해상도에 따라 아래와 같이 결정될 수 있다.
Figure PCTKR2016010754-appb-I000001
여기서, g는 상기 제1 이격 거리를 나타내고, RI는 상기 제1 해상도를 나타내고, a는 상기 재현 렌즈 어레이와 상기 재현된 입체 영상의 중심까지의 제2 이격 거리를 나타내고, δ는 상기 패턴 영상의 단위 화소의 크기를 나타낸다.
예를 들어, 상기 패턴 필름과 상기 재현 렌즈 어레이 간의 제1 이격 거리 및 상기 재현 렌즈 어레이와 상기 재현된 입체 영상의 중심까지의 제2 이격 거리는 상기 재현된 입체 영상의 제1 해상도 및 상기 패턴 영상의 제2 해상도에 따라 아래와 같이 결정될 수 있다.
Figure PCTKR2016010754-appb-I000002
여기서, RD는 상기 제2 해상도를 나타낸다.
예를 들어, 상기 재현된 입체 영상의 시야각은 아래와 같이 결정될 수 있다.
Figure PCTKR2016010754-appb-I000003
여기서, ψ는 상기 시야각을 나타내고, p는 상기 재현 렌즈 어레이를 구성하는 단위 렌즈의 크기를 나타낸다.
예를 들어, 상기 재현된 영상의 깊이는 아래와 같을 수 있다.
Figure PCTKR2016010754-appb-I000004
여기서, Δz는 상기 재현된 입체 영상의 깊이를 나타내고, δI는 상기 재현된 영상의 화소 크기를 나타낸다.
예를 들어, 상기 재현된 영상의 상기 화소 크기는 아래와 같을 수 있다.
Figure PCTKR2016010754-appb-I000005
여기서, δI는 상기 재현된 영상의 상기 화소 크기를 나타내고, g는 상기 패턴 필름과 상기 재현 렌즈 어레이 간의 제1 이격 거리를 나타내고, a는 상기 재현 렌즈 어레이와 상기 재현된 입체 영상의 중심까지의 제2 이격 거리를 나타내고, δ는 상기 패턴 영상의 단위 화소의 크기를 나타낸다.
예를 들어, 상기 재현된 입체 영상의 제1 해상도는 상기 재현된 영상의 상기 화소 크기와 반비례할 수 있다.
예를 들어, 상기 패턴 영상의 제2 해상도는 아래와 같을 수 있다.
Figure PCTKR2016010754-appb-I000006
여기서 RD는 상기 제2 해상도를 나타내고, RI는 상기 재현된 입체 영상의 제1 해상도를 나타내고, Δz는 상기 재현된 입체 영상의 깊이를 나타내고, ψ는 상기 재현된 입체 영상의 시야각을 나타낸다.
예를 들어, 상기 재현 렌즈 어레이를 구성하는 단위 렌즈의 크기는 1㎜ 내지 2 ㎜이거나 5 ㎜ 내지 10㎜ 일 수 있다. 상기 재현 렌즈 어레이를 구성하는 단위 렌즈는 플라이 아이(flyeye) 렌즈를 포함할 수 있다.
다른 실시 예에 의하면, 차량용 램프는 상술한 집적 영상 처리 장치를 포함할 수 있다.
실시 예에 따른 집적 영상 처리 장치는 픽업된 전체 요소 영상을 패턴 필름에 포함시키거나 또는 재현 렌즈 어레이의 후면에 패턴 영상의 패턴을 새김으로써, 표시부에 표시 패널이 없어도 되므로 부피가 작아질 수 있고, 차량용 램프, 예컨대, 후미등 등에 적용될 경우 후방의 다른 차량에게 입체 영상을 제공하여 높은 시인성을 제공하면서도 디자인적으로 미려한 모습을 제공할 수도 있다.
도 1은 실시 예에 의한 집적 영상 처리 장치의 블럭도이다.
도 2는 도 1에 도시된 픽업부의 일 실시 예에 의한 개념도를 나타낸다.
도 3a 내지 도 3d는 패턴 영상과 입체 영상을 설명하기 위한 도면이다.
도 4는 도 1에 도시된 표시부의 일 실시 예의 개념도를 나타낸다.
도 5는 도 1에 도시된 표시부의 다른 실시 예의 개념도를 나타낸다.
도 6a 내지 도 6c는 도 4 및 도 5에 도시된 재현 렌즈 어레이의 다양한 모습을 나타낸다.
도 7은 재현 렌즈 어레이에 전사된 패턴 영상의 패턴을 예시적으로 나타낸다.
도 8은 실시 예에 의한 집적 영상 처리 장치의 적용례를 설명하기 위한 도면이다.
이하, 본 발명을 구체적으로 설명하기 위해 실시 예를 들어 설명하고, 발명에 대한 이해를 돕기 위해 첨부도면을 참조하여 상세하게 설명하기로 한다. 그러나, 본 발명에 따른 실시 예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상술하는 실시 예들에 한정되는 것으로 해석되지 않아야 한다. 본 발명의 실시 예들은 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다.
본 실시 예의 설명에 있어서, 각 구성요소(element)의 "상(위) 또는 하(아래)(on or under)"에 형성되는 것으로 기재되는 경우에 있어, 상(위) 또는 하(아래)(on or under)는 두 개의 구성요소(element)가 서로 직접(directly)접촉되거나 하나 이상의 다른 구성요소(element)가 상기 두 구성요소(element) 사이에 배치되어(indirectly) 형성되는 것을 모두 포함한다.
또한 "상(위)" 또는 "하(아래)(on or under)"로 표현되는 경우 하나의 구성요소(element)를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
또한, 이하에서 이용되는 "제1" 및 "제2," "상/상부/위" 및 "하/하부/아래" 등과 같은 관계적 용어들은, 그런 실체 또는 요소들 간의 어떠한 물리적 또는 논리적 관계 또는 순서를 반드시 요구하거나 내포하지는 않으면서, 어느 한 실체 또는 요소를 다른 실체 또는 요소와 구별하기 위해서만 이용될 수도 있다.
이하, 실시 예에 의한 집적 영상 처리 장치(100)를 첨부된 도면을 참조하여 다음과 같이 설명한다. 편의상, 데카르트 좌표계(x축, y축, z축)를 이용하여 집적 영상 처리 장치(100)를 설명하지만, 다른 좌표계에 의해서도 이를 설명할 수 있음은 물론이다. 또한 데카르트 좌표계에 의할 경우 x축, y축 및 z축은 서로 직교하지만, 실시 예는 이에 국한되지 않는다. 즉, x축, y축 및 z축은 서로 직교하지 않고 교차할 수도 있다.
도 1은 실시 예에 의한 집적 영상 처리 장치(100)의 블럭도로서, 픽업(pick-up)부(110) 및 표시부(또는, 재현부 또는 디스플레이부)(120)를 포함할 수 있다.
도 1을 참조하면, 픽업부(110)는 3차원 물체(OB)에 대한 전체 요소 영상(elemental image)을 생성하고, 생성된 전체 요소 영역을 패턴화시킨다. 따라서, 픽업부(110)에서 생성된 패턴 영상은 후술되는 바와 같이 다양한 방법으로 표시부(120)로 전송된다. 여기서, 전체 요소 영상은 복수의 단일 요소 영상으로 이루어질 수 있다.
이하, 픽업부(110)에서 3차원 물체(OB)에 대한 패턴 영상을 생성하는 실시 예에 대해 다음과 같이 설명한다.
도 2는 도 1에 도시된 픽업부(110)의 일 실시 예(110A)에 의한 개념도를 나타낸다. 도 2는 y축과 z축의 2차원 평면이지만, 이해를 돕기 위해 3차원 물체(OB)는 사시도로서 표현된다.
일 실시 예에 의하면, 도 2에 도시된 픽업부(110A)는 렌즈 어레이(lens array)(이하, '픽업 렌즈 어레이'라 한다)(112) 및 패턴 필름(114)을 포함할 수 있다.
픽업 렌즈 어레이(112)는 3차원 물체(또는, 객체)(OB)로부터 나온 복수의 광선을 통과시킨다.
이를 위해, 픽업 렌즈 어레이(112)는 복수의 단일 렌즈를 포함할 수 있다. 복수의 단일 렌즈에 의해 공간상의 어려 방향에서 바라본 3차원 물체(OB)의 단일 요소 영상이 생성된다. 단일 요소 영상은 3차원 물체(OB)를 볼 수 있도록 하는 2차원의 기본 영상으로서, 복수의 단일 요소 영상은 서로 균일한 크기를 가질 수 있다.
이후, 픽업 렌즈 어레이(112)의 각 단일 렌즈를 통과한 단일 요소 영상으로 이루어진 전체 요소 영상은 패턴 필름(114)에 도달하여 패턴 영상의 패턴으로서 새겨질 수 있다. 예를 들어, 패턴 필름(114)은 폴리에스테르필름(PET: polyethyleneterephthalate)일 수 있으나, 실시 예는 이에 국한되지 않는다.
일반적인 집적 영상 처리 장치의 경우, 픽업부는 전체 요소 영상을 촬상 장치에 저장한다. 그러나, 일 실시 예에 의한 집적 영상 처리 장치(100)의 경우 전체 요소 영상은 패턴 필름(114)에 패턴 형태로 저장될 수 있다(즉, 새겨질 수 있다). 이와 같이 3차원 물체(OB)에 대한 패턴 영상은 물리적으로 생성될 수 있다.
다른 실시 예에 의하면, 픽업부(110)는 3차원 물체(OB)를 모델링하고, 모델링된 결과가 픽업 렌즈 어레이를 통과한 이후의 복수의 단일 요소 영상 각각에 포함된 화소의 조도값을 예측하고, 각 화소의 좌표별 조도값에 대한 데이터를 패턴 영상으로서 생성할 수 있다. 예를 들어, 컴퓨터 그래픽을 이용하는 컴퓨터 생성 집적 영상 기술(CGII:Computer Generated Integral Imaging)에 의해 전체 요소 영상이 생성될 수도 있다. 즉, 3차원 물체(OB)에 대한 복수의 단일 요소 영상으로 이루어진 전체 요소 영상의 좌표별 조도값에 대한 데이터를 패턴 영상으로서 컴퓨터 알고리즘에 의해 생성할 수 있다. 이와 같이, 3차원 물체(OB)에 대한 패턴 영상은 프로그램적으로 생성될 수도 있다
또 다른 실시 예에 의하면, 전술한 2가지의 실시 예에 국한되지 않고 패턴 영상은 다양한 방법으로 생성될 수 있다. 즉, 실시 예에 의한 집적 영상 처리 장치(100)는 픽업부(110)를 포함하지 않을 수도 있다. 이 경우, 미리 주어진 패턴 영상이 표시부(120)로 제공될 수 있다.
또한, 전체 요소 영상은 3차원 물체(OB)에 대한 동영상(또는, active 영상)일 수도 있지만, 정지 영상일 수도 있다. 즉, 실시 예에 의한 집적 영상 처리 장치(100)의 응용에 따라, 다양한 정지 영상이 패턴 영상으로 생성될 수 있다.
도 3a 내지 도 3d는 패턴 영상과 입체 영상을 설명하기 위한 도면이다. 도 3a는 3차원 물체(OB)의 정면도를 예시적으로 나타내고, 도 3b는 도 3a에 도시된 3차원 물체(OB)의 사시도를 예시적으로 나타내고, 도 3c는 패턴 영상을 예시적으로 나타내고, 도 3d는 입체 영상을 예시적으로 나타낸다.
도 2의 경우 3차원 물체(OB)는 원기둥 모양이지만, 실시 예는 이에 국한되지 않는다. 예를 들어, 도 3b에 도시된 바와 같이 3차원 물체(OB)가 3개의 환형 고리 모양을 가질 경우, 패턴 영상은 도 3c에 도시된 바와 같은 모습을 가질 수 있다.
전술한 바와 같이, 도 3c에 도시된 패턴 영상의 패턴은 패턴 필름(114)에 새겨질 수도 있고, 프로그램에 의해 데이터로서 생성될 수도 있다.
한편, 다시 도 1을 참조하면, 표시부(120)는 3차원 물체(OB)에 대한 전체 요소 영상을 3차원 영상으로 재현할 수 있다. 즉, 표시부(120)는 도 1에 도시된 픽업부(110)에서 생성된 패턴 영상 또는 미리 주어진 패턴 영상으로부터 3차원 입체 영상을 재현할 수 있다. 만일, 패턴 영상이 도 3c에 도시된 바와 같고 3차원 물체(OB)의 모습이 도 3a 및 도 3b에 도시된 바와 같을 경우, 도 3d에 도시된 입체 영상이 표시부(120)에 의해 재현될 수 있다.
도 4는 도 1에 도시된 표시부(120)의 일 실시 예(120A)의 개념도를 나타낸다.
일 실시 예에 의하면 도 4에 도시된 바와 같이, 표시부(120A)는 광원(122), 패턴 필름(124) 및 렌즈 어레이(이하, '재현 렌즈 어레이'라 한다)(126)를 포함할 수 있다.
광원(122)은 광을 패턴 필름(124)을 향해 방출할 수 있다. 여기서, 광원(122)은 산란광을 방출할 수 있으나, 실시 예는 광원(122)으로부터 방출되는 광의 종류에 국한되지 않는다. 예를 들어, 광원(122)으로서 백 라이트 유닛(BLU:Back Light Unit)이 사용될 수 있으나, 실시 예는 광원(122)의 종류에 국한되지 않는다.
도 4에 도시된 패턴 필름(124)은 도 2에 도시된 패턴 필름(114)일 수 있다. 즉, 도 2에서 전술한 바와 같이, 3차원 물체(OB)의 전체 요소 영상을 패턴화시켜 패턴 영상의 패턴을 패턴 필름(114)에 새길 경우, 이러한 패턴 필름(114)이 표시부(120A)에서 사용될 수 있다. 도 4에 도시된 패턴 필름(124)은 광원(122)과 재현 렌즈 어레이(126) 사이에 배치될 수 있으나, 실시 예는 이에 국한되지 않는다.
또한, 패턴 영상에 포함된 복수의 단일 요소 영상을 집적화시켜 입체 영상(RI)으로서 재현할 수 있다. 즉, 패턴 영상에 포함된 전체 요소 영상을 구성하는 3차원 물체(OB)의 단일 요소 영상이 재현 렌즈 어레이(126)를 통과하면서 집적되어 입체 영상으로서 재현될 수 있다. 이를 위해 광원(122)으로부터 광이 방출될 수 있다.
만일, 패턴 영상의 패턴이 도 2에 도시된 바와 같이 패턴 필름(114)에 새겨져서 포함될 경우, 도 4에 도시된 재현 렌즈 어레이(126)와 도 2에 도시된 픽업 렌즈 어레이(112)는 서로 동일한 특성을 갖는 렌즈일 수 있다. 예를 들어, 도 2 및 도 4에 각각 도시된 픽업 및 재현 렌즈 어레이(112, 126)는 다음과 같이 유사한 특징을 가질 수 있다.
먼저, 도 4에 도시된 패턴 필름(124)과 재현 렌즈 어레이(126) 간의 제1 이격 거리(g)는 도 2에 도시된 픽업 렌즈 어레이(112)와 패턴 필름(114) 간의 이격 거리(g')와 동일할 수 있다. 여기서, 제1 이격 거리(g)는 재현 렌즈 어레이(126)를 바라보는 패턴 필름(124)의 외부면(SO)으로부터 렌즈 어레이(126)까지의 이격 거리에 해당할 수 있다.
또한, 도 4에 도시된 재현 렌즈 어레이(126)와 재현된 입체 영상(RI)의 중심(CDP:Center Depth Plane)(또는, 기준 깊이면) 간의 제2 이격 거리(a)는 도 2에 도시된 3차원 물체(OB)와 픽업 렌즈 어레이(112) 간의 이격 거리(a')와 동일할 수 있다.
또한, 도 4에 도시된 제1 이격 거리(g)는 재현된 입체 영상(RI)의 제1 해상도(RI)에 따라 다음 수학식 1과 같이 결정될 수 있다.
수학식 1
Figure PCTKR2016010754-appb-M000001
여기서, δ는 도 4를 참조하면, 패턴 필름(124)에 새겨진 패턴을 갖는 패턴 영상의 단위 화소의 크기를 나타낸다.
또한, 도 4에 도시된 제1 이격 거리(g)와 제2 이격 거리(a)는 재현된 입체 영상의 제1 해상도(RI) 및 패턴 필름(124)에 새겨진 패턴을 갖는 패턴 영상의 제2 해상도(RD)에 따라 다음 수학식 2와 같이 결정될 수 있다.
수학식 2
Figure PCTKR2016010754-appb-M000002
수학식 1과 2를 참조하면, 제2 해상도(RD)는 다음 수학식 3과 같음을 알 수 있다.
수학식 3
Figure PCTKR2016010754-appb-M000003
또한, 수학식 2를 참조하면, 제2 해상도(RD)를 고정할 때 제1 및 제2 이격 거리(g, a)를 조정함으로써 제1 해상도(RI)가 조정될 수 있음을 알 수 있다.
또한, 도 4에 도시된 재현 렌즈 어레이(126)에 포함된 렌즈의 개수는 도 2에 도시된 픽업 렌즈 어레이(112)에 포함된 렌즈의 개수와 동일할 수 있다.
또한, 도 4에 도시된 재현 렌즈 어레이(126) 및 도 2에 도시된 픽업 렌즈 어레이(112) 각각을 구성하는 단위 렌즈는 플라이 아이(flyeye) 렌즈를 포함할 수 있으나, 실시 예는 단위 렌즈의 종류에 국한되지 않는다.
또한, 도 4에 도시된 재현 렌즈 어레이(126)에 포함된 단위 렌즈의 크기(p)는 도 2에 도시된 픽업 렌즈 어레이(112)에 포함된 단위 렌즈의 크기(p')와 동일할 수 있다. 예를 들어, 재현된 입체 영상(RI)의 입체감(또는, 깊이감)이 재현된 입체 영상(RI)의 제1 해상도(RI)보다 우선시 될 경우, 재현 렌즈 어레이(126)를 구성하는 각 단위 렌즈의 크기(p)는 2 ㎜ 미만일 수 있으나 실시 예는 이에 국한되지 않는다.
또는, 재현된 입체 영상(RI)의 제1 해상도(RI)가 재현된 입체 영상(RI)의 입체감보다 우선시 될 경우, 재현 렌즈 어레이(126)를 구성하는 각 단위 렌즈의 크기(p)는 5 ㎜ 이상일 수 있으나, 실시 예는 이에 국한되지 않는다.
여기서, 도 8을 참조하여 후술될 차량용 후미등에 본 실시예에 따른 집적 영상 처리 장치가 적용되면, 후미등의 구성에 따라 상이할 수 있으나 개별 집적 영상 처리 장치의 높이는 최대 15㎜ 로 제한될 수 있다. 이러한 경우, 각 단위 렌즈의 크기(p)는 1㎜ 보다 작을 경우 시야각이 15도 이하로 현저히 감소하며, 10㎜ 보다 클 경우 깊이감을 30㎜ 이상 확보하기 어렵게 된다. 따라서, 입체감이 제1 해상도보다 우선시될 경우 단위 렌즈의 크기는 1㎜ 내지 2㎜의 범위를 가질 수 있으며, 제1 해상도가 입체감보다 우선시될 경우 단위 렌즈의 크기는 5㎜ 내지 10㎜의 범위를 가질 수 있으나, 실시예는 이에 국한되지 않는다.
또한, 재현된 입체 영상(RI)의 시야각(ψ)은 다음 수학식 4와 같이 결정될 수 있다.
수학식 4
Figure PCTKR2016010754-appb-M000004
여기서, 수학식 4를 참조하면, 재현 렌즈 어레이(126)에 포함된 단위 렌즈의 크기(p)와 제1 이격 거리(g)에 따라 시야각(ψ)이 조정될 수 있음을 알 수 있다.
또한, 재현된 영상(RI)의 깊이(Δz)는 다음 수학식 5와 같이 결정될 수 있다.
수학식 5
Figure PCTKR2016010754-appb-M000005
여기서, δI는 재현된 입체 영상(RI)의 화소 크기로서 다음 수학식 6과 같이 표현될 수 있다.
수학식 6
Figure PCTKR2016010754-appb-M000006
전술한 수학식 3, 5 및 6을 참조하면 제2 해상도(RD)를 고정한 상태에서 단위 렌즈의 크기(p), 제1 및 제2 이격 거리(g, a)를 조정함으로써, 재현된 영상의 깊이(Δz)가 조정될 수 있음을 알 수 있다.
또한, 전술한 수학식 5에 하기의 수학식 7을 대입하고, 수학식 2와 4를 적용하면, 제2 해상도(RD)는 다음 수학식 8과 같이 표현될 수 있다.
수학식 7
Figure PCTKR2016010754-appb-M000007
수학식 8
Figure PCTKR2016010754-appb-M000008
도 4를 참조하면, 재현된 영상(RI)의 깊이(Δz)는 제1 깊이 한계면(MDP1)(Marginal depth plane)과 제2 깊이 한계면(MDP2)에 의해 정의될 수 있다. 따라서, 수학식 5와 같이 표현되는 재현된 영상(RI)의 깊이(Δz)란, z축 방향으로 제1 깊이 한계면(MDP1)과 제2 깊이 한계면(MDP2) 사이의 간격일 수 있다. 재현된 영상(RI)의 깊이(Δz)가 길수록 재현된 영상(RI)의 입체감은 증가할 수 있다.
또한, 제2 이격 거리(a)를 정의할 때 언급된 "입체 영상(RI)의 중심"이란 제1 깊이 한계면(MDP1)과 제2 깊이 한계면(MDP2) 사이의 중간에 위치한 중심 깊이면(CDP) 상의 어느 한 지점일 수 있다.
도 5는 도 1에 도시된 표시부(120)의 다른 실시 예(120B)의 개념도를 나타낸다.
다른 실시 예에 의하면 도 5에 도시된 바와 같이, 표시부(120B)는 광원(122) 및 재현 렌즈 어레이(126)를 포함할 수 있다.
도 5를 참조하면, 재현 렌즈 어레이(126)는 제1 면(S1) 및 제2 면(S2)을 포함할 수 있다. 제1 면(S1)은 광원(122)을 바라보는 재현 렌즈 어레이(126)의 후면에 해당하고, 제2 면(S2)은 제1 면(S1)의 반대측에서 재현된 입체 영상(RI)을 바라보는 재현 렌즈 어레이(126)의 전면에 해당한다.
도 5에 도시된 다른 실시 예에 의한 표시부(120B)는 패턴 필름(124)을 포함하지 않는다. 이 경우, 3차원 물체(OB)에 대한 전체 요소 영상에 상응하는 패턴 영상이 갖는 패턴(125)은 재현 렌즈 어레이(126)의 제1 면(S1)에 전사되어 새겨질 수 있다. 이와 같이, 패턴 영상의 패턴(125)이 패턴 필름(124)에 새겨지는 대신에 재현 렌즈 어레이(126)의 제1 면(S1)에 전사됨을 제외하면, 도 5에 도시된 표시부(120B)는 도 4에 도시된 표시부(120A)와 동일하므로 중복되는 설명을 생략한다.
도 6a 내지 도 6c는 도 4 및 도 5에 도시된 재현 렌즈 어레이(126)의 다양한 모습을 나타낸다. 도 4 및 도 5에 도시된 재현 렌즈 어레이(126)를 기준으로, 도 6a는 재현 렌즈 어레이(126)의 우측면도를 나타내고, 도 6b는 재현 렌즈 어레이(126)의 정면도를 나타내고, 도 6c는 재현 렌즈 어레이(126)의 좌측면도를 각각 나타낸다.
도 7은 재현 렌즈 어레이(126)에 전사된 패턴 영상의 패턴을 예시적으로 나타낸다.
만일, 도 3a 및 도 3b에 예시된 3차원 물체(OB)에 대한 도 3c에 도시된 패턴 영상이 주어질 경우, 도 7에 예시된 바와 같은 패턴 영상의 패턴이 도 6c에 도시된 재현 렌즈 어레이(126)의 제1 면(S1)에 새겨질 수 있다.
실시 예에 의하면, 패턴 영상의 패턴은 재현 렌즈 어레이(126)의 제1 면(S1)에 러프니스 형태로 새겨질 수도 있고, 음각 형태로 새겨질 수도 있다.
또한, 광원(122)은 재현 렌즈 어레이(126)의 제1 면(S1)에 새겨진 패턴 영상의 패턴(125)과 도 5에 도시된 바와 같이 접하여 배치될 수 있지만, 실시 예는 이에 국한되지 않는다. 즉, 다른 실시 예에 의하면, 광원(122)은 패턴 영상의 패턴(125)과 z축 방향으로 이격되어 배치될 수도 있다.
전술한 바와 같이, 도 2에 도시된 표시부(120A)의 경우 패턴 영상의 패턴이 패턴 필름(124)에 새겨지는 반면에, 도 4에 도시된 표시부(120B)의 경우 패턴 영상의 패턴(125)이 재현 렌즈 어레이(126)의 제1 면(S1)에 새겨진다.
한편, 실시 예에 의하면, 전술한 제1 이격 거리(g), 제2 이격 거리(a), 시야각(ψ), 재현된 영상의 깊이의 최대값(max(Δz)), 재현된 영상(RI)의 화소 크기(δI)는 전술한 수학식들에 의할 경우 다음 표 1과 같이 다양한 값을 가질 수 있다.
표 1
구분 g(㎜) a(㎜) ψ(°) max(Δz)(㎜) δI(㎜) 비고
CASE 1 11 110 25.6 132 3 f=10p=5δ=0.3
14 35 20.2 10.5 0.75
20 20 14.3 2.4 0.3
CASE 2 11 110 48.9 66 3 f=10p=10δ=0.3
14 35 39.3 5.25 0.75
20 20 28 1.2 0.3
CASE 3 6 30 45.2 18 1.5 f=5p=5δ=0.3
8 13.3 34.7 2.7 0.5
10 10 28 1.2 0.3
CASE 4 11 110 25.6 440 10 f=10p=5δ=1
14 35 20.2 35 2.5
20 20 14.3 8 1
표 1을 참조하면, 재현 렌즈 어레이(126)를 구성하는 복수의 단위 렌즈 각각의 크기(p)가 CASE 1의 5 ㎜에서 CASE 2의 10 ㎜로 커지면, 시야각(ψ)은 넓어지지만 재현된 영상(RI)의 입체감(max(Δz))은 떨어짐을 알 수 있다.
또한, 재현 렌즈 어레이(126)의 초점 거리(f)가 CASE 1의 10 ㎜에서 CASE 3의 5 ㎜로 감소할 경우 시야각(ψ)은 CASE 2와 유사하게 넓고 입체감(max(Δz))은 CASE 2보다 더욱 떨어지지만 표시부(120)의 z축 방향으로의 폭(g)은 얇아짐을 알 수 있다. 여기서, 초점 거리(f)는 다음 수학식 9와 같은 관계를 갖는다.
수학식 9
Figure PCTKR2016010754-appb-M000009
또한, 패턴 영상에 포함된 화소의 크기(δ)를 CASE 1의 0.3 ㎜에서 CASE 4의 1 ㎜로 증가시킬 경우, 시야각(ψ)은 CASE 1과 동일하면서 입체감(max(Δz))은 CASE 1, 2 또는 3보다 커짐을 알 수 있다.
전술한 표 1에서 살펴본 바와 같이, 재현 렌즈 어레이(126)의 초점 거리(f), 복수의 단위 렌즈 각각의 크기(p), 영상 패턴에 포함된 화소의 크기(δ)를 조정하여, 시야각(ψ)과 입체감(max(Δz))이 조정될 수 있음을 알 수 있다. 따라서, 재현 렌즈 어레이(126)의 초점 거리(f), 복수의 단위 렌즈 각각의 크기(p), 패턴 영상에 포함된 화소의 크기(δ)를 조정하여, 전술한 집적 영상 처리 장치(100)가 적용되는 분야에서 요구하는 시야각(ψ)과 입체감(max(Δz))을 만족시킬 수 있다.
전술한 실시 예에 의한 집적 영상 처리 장치(100)는 다양한 분야에 적용될 수 있다. 따라서, 집적 영상 처리 장치(100)가 픽업부(110, 110A)를 포함하지 않고 표시부(120, 120A, 120B)만을 포함할 경우, 표시부(120, 120A, 120B)는 다양한 분야에 적용될 수 있다. 예를 들어, 표시부(120, 120A, 120B)는 후미등, 차폭등, 브레이크등과 같은 차량용 전등에 적용될 수 있다.
도 8은 실시 예에 의한 집적 영상 처리 장치(100)의 적용례를 설명하기 위한 도면이다.
전술한 실시 예에 의한 집적 영상 처리 장치(100)의 도 5에 도시된 표시부(120B)는 도 8에 도시된 바와 같이 차량(200)의 후미등(tail lamp)에 적용될 수 있다. 비록 도시되지는 않았지만, 도 5에 도시된 표시부(120B) 대신에 도 4에 도시된 표시부(120A)가 차량(200)의 후미등에 적용될 수도 있다.
이 경우, 차량(200)의 후미로부터 이격된 공간 상에 도 3d에 예시된 바와 같은 입체 영상(RI)이 재현될 수 있다.
전술한 실시 예에 의한 집적 영상 처리 장치(100)가 도 8에 도시된 바와 같이 차량(200)의 후미등에 적용될 경우 후방의 다른 차량에게 입체 영상을 제공함으로써 높은 시인성을 제공할 수 있고 디자인적으로 미려한 모습을 제공할 수도 있다.
이상에서 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시 예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
실시 예에 따른 집적 영상 처리 장치는 픽업된 전체 요소 영상을 패턴 필름에 포함시키거나 또는 재현 렌즈 어레이의 후면에 패턴 영상의 패턴을 새김으로써, 표시부에 표시 패널이 없어도 되므로 부피가 작아질 수 있고, 차량 후미등 등에 적용될 경우 후방의 다른 차량에게 입체 영상을 제공하여 높은 시인성을 제공하면서도 디자인적으로 미려한 모습을 제공할 수도 있다.

Claims (20)

  1. 3차원 물체에 대한 전체 요소 영상을 3차원 영상으로 재현하는 표시부를 포함하는 집적 영상 처리 장치에 있어서, 상기 표시부는
    광원; 및
    상기 전체 요소 영상을 패턴화시킨 패턴 영상에 포함되며 상기 전체 요소 영상을 구성하는 복수의 단일 요소 영상을 집적화시켜 입체 영상으로 재현하는 재현 렌즈 어레이를 포함하는 집적 영상 처리 장치.
  2. 제1 항에 있어서, 상기 표시부는
    상기 패턴 영상의 패턴을 포함하며, 상기 광원과 상기 재현 렌즈 어레이 사이에 배치된 패턴 필름을 더 포함하는 집적 영상 처리 장치.
  3. 제1 항에 있어서, 상기 재현 렌즈 어레이는
    상기 광원을 바라보는 제1 면; 및
    상기 제1 면의 반대측에서 상기 재현된 입체 영상을 바라보는 제2 면을 포함하는 집적 영상 처리 장치.
  4. 제3 항에 있어서, 상기 패턴 영상의 패턴은 상기 제1 면에 전사되어 새겨진 집적 영상 처리 장치.
  5. 제4 항에 있어서, 상기 패턴 영상의 상기 패턴은 상기 재현 렌즈 어레이의 상기 제1 면에 러프니스 형태로 새겨지는 집적 영상 처리 장치.
  6. 제4 항에 있어서, 상기 패턴 영상의 상기 패턴은 상기 재현 렌즈 어레이의 상기 제1 면에 음각 형태로 새겨지는 집적 영상 처리 장치.
  7. 제2 항에 있어서, 상기 패턴 영상을 생성하는 픽업부를 더 포함하는 집적 영상 처리 장치.
  8. 제7 항에 있어서, 상기 픽업부는
    상기 3차원 물체로부터 나온 복수의 광선을 상기 복수의 단일 요소 영상으로 통과시키는 픽업 렌즈 어레이를 포함하고,
    상기 픽업 렌즈 어레이를 통과한 상기 복수의 단일 요소 영상으로 이루어진 상기 전체 요소 영상은 상기 패턴 필름에 상기 패턴 영상의 상기 패턴으로 새겨지는 집적 영상 처리 장치.
  9. 제8 항에 있어서, 상기 픽업 렌즈 어레이는 상기 재현 렌즈 어레이와 동일한 특성을 갖는 집적 영상 처리 장치.
  10. 제7 항에 있어서, 상기 픽업부는
    상기 3차원 물체를 모델링하고, 상기 모델링된 결과가 픽업 렌즈 어레이를 통과한 이후의 상기 복수의 단일 요소 영상 각각에 포함된 화소의 조도값을 예측하고, 각 화소의 좌표별 조도값에 대한 데이터를 상기 패턴 영상으로서 생성하는 영상 패턴 생성부를 포함하는 집적 영상 처리 장치.
  11. 제2 항에 있어서, 상기 패턴 필름과 상기 재현 렌즈 어레이 간의 제1 이격 거리는 상기 재현된 입체 영상의 제1 해상도에 따라 아래와 같이 결정되는 집적 영상 처리 장치.
    Figure PCTKR2016010754-appb-I000007
    (여기서, g는 상기 제1 이격 거리를 나타내고, RI는 상기 제1 해상도를 나타내고, a는 상기 재현 렌즈 어레이와 상기 재현된 입체 영상의 중심까지의 제2 이격 거리를 나타내고, δ는 상기 패턴 영상의 단위 화소의 크기를 나타낸다.)
  12. 제2 항에 있어서, 상기 패턴 필름과 상기 재현 렌즈 어레이 간의 제1 이격 거리 및 상기 재현 렌즈 어레이와 상기 재현된 입체 영상의 중심까지의 제2 이격 거리는 상기 재현된 입체 영상의 제1 해상도 및 상기 패턴 영상의 제2 해상도에 따라 아래와 같이 결정되는 집적 영상 처리 장치.
    Figure PCTKR2016010754-appb-I000008
    (여기서, g는 상기 제1 이격 거리를 나타내고, a는 상기 제2 이격 거리를 나타내고, RI는 상기 제1 해상도를 나타내고, RD는 상기 제2 해상도를 나타낸다.)
  13. 제2 항에 있어서, 상기 재현된 입체 영상의 시야각은 아래와 같이 결정되는 집적 영상 처리 장치.
    Figure PCTKR2016010754-appb-I000009
    (여기서, ψ는 상기 시야각을 나타내고, p는 상기 재현 렌즈 어레이를 구성하는 단위 렌즈의 크기를 나타내고, g는 상기 패턴 영상과 상기 재현 렌즈 어레이 간의 제1 이격 거리를 나타낸다.)
  14. 제2 항에 있어서, 상기 재현된 영상의 깊이는 아래와 같은 집적 영상 처리 장치.
    Figure PCTKR2016010754-appb-I000010
    (여기서, Δz는 상기 재현된 입체 영상의 깊이를 나타내고, a는 상기 재현 렌즈 어레이와 상기 재현된 입체 영상의 중심까지의 제2 이격 거리를 나타내고, p는 상기 재현 렌즈 어레이를 구성하는 단위 렌즈의 크기를 나타내고, δI는 상기 재현된 영상의 화소 크기를 나타낸다.)
  15. 제14 항에 있어서, 상기 재현된 영상의 상기 화소 크기는 아래와 같은 집적 영상 처리 장치.
    Figure PCTKR2016010754-appb-I000011
    (여기서, δI는 상기 재현된 영상의 상기 화소 크기를 나타내고, g는 상기 패턴 필름과 상기 재현 렌즈 어레이 간의 제1 이격 거리를 나타내고, a는 상기 재현 렌즈 어레이와 상기 재현된 입체 영상의 중심까지의 제2 이격 거리를 나타내고, δ는 상기 패턴 영상의 단위 화소의 크기를 나타낸다.)
  16. 제14 항에 있어서, 상기 재현된 입체 영상의 제1 해상도는 상기 재현된 영상의 상기 화소 크기와 반비례하는, 집적 영상 처리 장치.
  17. 제2 항에 있어서, 상기 패턴 영상의 제2 해상도는 아래와 같은 집적 영상 처리 장치.
    Figure PCTKR2016010754-appb-I000012
    (여기서 RD는 상기 제2 해상도를 나타내고, RI는 상기 재현된 입체 영상의 제1 해상도를 나타내고, Δz는 상기 재현된 입체 영상의 깊이를 나타내고, ψ는 상기 재현된 입체 영상의 시야각을 나타낸다.)
  18. 제4 항에 있어서, 상기 재현 렌즈 어레이를 구성하는 단위 렌즈의 크기는 1㎜ 내지 2 ㎜ 미만이거나, 5 ㎜ 내지 10㎜ 인 집적 영상 처리 장치.
  19. 제1 항에 있어서, 상기 재현 렌즈 어레이를 구성하는 단위 렌즈는 플라이 아이(flyeye) 렌즈를 포함하는 집적 영상 처리 장치.
  20. 제1 항에 기재된 상기 집적 영상 처리 장치를 포함하는 차량용 램프.
PCT/KR2016/010754 2015-09-25 2016-09-26 집적 영상 처리 장치 및 그를 이용한 차량용 램프 WO2017052325A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680055720.5A CN108141580B (zh) 2015-09-25 2016-09-26 集成图像处理装置及使用该集成图像处理装置的车灯
EP16849050.6A EP3355577B1 (en) 2015-09-25 2016-09-26 Integral image processing device
US15/762,353 US11275255B2 (en) 2015-09-25 2016-09-26 Integral image processing device and vehicular lamp using same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0136821 2015-09-25
KR1020150136821A KR102486430B1 (ko) 2015-09-25 2015-09-25 영상 처리 장치

Publications (1)

Publication Number Publication Date
WO2017052325A1 true WO2017052325A1 (ko) 2017-03-30

Family

ID=58386609

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/010754 WO2017052325A1 (ko) 2015-09-25 2016-09-26 집적 영상 처리 장치 및 그를 이용한 차량용 램프

Country Status (5)

Country Link
US (1) US11275255B2 (ko)
EP (1) EP3355577B1 (ko)
KR (1) KR102486430B1 (ko)
CN (1) CN108141580B (ko)
WO (1) WO2017052325A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108730912A (zh) * 2017-04-21 2018-11-02 黑拉有限责任两合公司 用于车辆的照明装置
CN108833894A (zh) * 2018-06-09 2018-11-16 成都工业学院 一种观看参数可调的集成成像3d显示方法
WO2019118100A1 (en) 2017-12-12 2019-06-20 Flex-N-Gate Advanced Product Development, Llc Backlit 3d lamp

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108881881B (zh) * 2018-08-03 2020-10-09 北京航空航天大学 一种集成成像桌面3d显示的自适应微图像阵列生成方法
TWI772014B (zh) 2021-05-05 2022-07-21 幻景啟動股份有限公司 可降低格柵感的立體影像顯示裝置
CN113759650A (zh) * 2021-07-14 2021-12-07 东风汽车集团股份有限公司 一种车辆地毯灯、车辆地毯灯系统组件和设计方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100910642B1 (ko) * 2007-07-27 2009-08-05 광운대학교 산학협력단 홀로그래피 기법에 의해 획득된 영상의 3차원 집적 영상복원 방법 및 장치
KR20120090507A (ko) * 2011-02-08 2012-08-17 엘지디스플레이 주식회사 집적 영상 방식의 입체 영상 표시 장치
KR20120093693A (ko) * 2011-02-15 2012-08-23 엘지디스플레이 주식회사 입체영상표시장치 및 그 구동방법
KR20130055460A (ko) * 2011-11-18 2013-05-28 인포뱅크 주식회사 차량용 표시장치와 이를 위한 기록매체
KR20130106725A (ko) * 2012-03-20 2013-09-30 엘지디스플레이 주식회사 집적영상 시스템과 그의 구동방법
KR101472921B1 (ko) * 2014-08-11 2014-12-17 골드맥스그룹 주식회사 미세 패턴과 마이크로 렌즈를 이용한 입체라벨

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2609102Y (zh) * 2003-04-15 2004-03-31 陈震 图案架
WO2006093365A1 (en) * 2005-03-02 2006-09-08 Seoul National University Industry Foundation Three-dimensional/ two-dimensional convertible display device
DK1893074T3 (da) * 2005-05-18 2013-11-04 Visual Physics Llc Billedvisning og mikrooptisk sikkerhedssystem
JP2008026654A (ja) * 2006-07-21 2008-02-07 Hitachi Displays Ltd 立体表示装置
JP2008052010A (ja) 2006-08-24 2008-03-06 Noriji Ooishi 立体像表示装置と撮影装置
TWI387316B (zh) * 2008-11-18 2013-02-21 Ind Tech Res Inst 立體影像顯示裝置與立體影像顯示方法
CN101939703B (zh) 2008-12-25 2011-08-31 深圳市泛彩溢实业有限公司 全息三维图像信息采集装置、方法及还原装置、方法
BRPI1008264A2 (pt) * 2009-05-28 2019-09-24 Koninklijke Philips Electrnics N. V. dispositivo de tela autoestereoscopica tendo um campo de visão em uma direção lateral e vertical e luz de fundo colimante
WO2010143639A1 (ja) * 2009-06-12 2010-12-16 旭硝子株式会社 投射型表示装置
WO2012015106A1 (ko) * 2010-07-24 2012-02-02 Chung Hyun In 인테그럴 포토그라피 기술을 응용한 인터레이스 패턴구조 및 입체영상 장치
WO2012144836A2 (ko) * 2011-04-19 2012-10-26 전자부품연구원 3차원 입체 영상 표시 및 기록 장치
CN102209254B (zh) * 2011-05-30 2012-12-05 四川大学 一种一维集成成像方法和装置
US9057880B2 (en) * 2011-11-30 2015-06-16 Reald Inc. Laser beam scanned display apparatus and method thereof
CN103342060B (zh) * 2013-06-18 2016-01-20 坤达国际有限公司 一种立体图像印刷品及立体图像印刷工艺
CN203442674U (zh) * 2013-07-19 2014-02-19 汕头市晟琪塑胶制品有限公司 一种灯罩
KR101620147B1 (ko) * 2013-12-18 2016-05-23 현대자동차주식회사 차량용 램프의 광원모듈
JP6758198B2 (ja) * 2014-06-26 2020-09-23 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 光学アレンジメント、照明デバイス及び照明方法
KR20160040384A (ko) * 2014-10-02 2016-04-14 삼성전자주식회사 발광장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100910642B1 (ko) * 2007-07-27 2009-08-05 광운대학교 산학협력단 홀로그래피 기법에 의해 획득된 영상의 3차원 집적 영상복원 방법 및 장치
KR20120090507A (ko) * 2011-02-08 2012-08-17 엘지디스플레이 주식회사 집적 영상 방식의 입체 영상 표시 장치
KR20120093693A (ko) * 2011-02-15 2012-08-23 엘지디스플레이 주식회사 입체영상표시장치 및 그 구동방법
KR20130055460A (ko) * 2011-11-18 2013-05-28 인포뱅크 주식회사 차량용 표시장치와 이를 위한 기록매체
KR20130106725A (ko) * 2012-03-20 2013-09-30 엘지디스플레이 주식회사 집적영상 시스템과 그의 구동방법
KR101472921B1 (ko) * 2014-08-11 2014-12-17 골드맥스그룹 주식회사 미세 패턴과 마이크로 렌즈를 이용한 입체라벨

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3355577A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108730912A (zh) * 2017-04-21 2018-11-02 黑拉有限责任两合公司 用于车辆的照明装置
CN108730912B (zh) * 2017-04-21 2023-12-08 黑拉有限责任两合公司 用于车辆的照明装置
WO2019118100A1 (en) 2017-12-12 2019-06-20 Flex-N-Gate Advanced Product Development, Llc Backlit 3d lamp
EP3724030A4 (en) * 2017-12-12 2021-02-17 Flex-N-gate Advanced Product Development, LLC BACKLIT 3D LAMP
CN108833894A (zh) * 2018-06-09 2018-11-16 成都工业学院 一种观看参数可调的集成成像3d显示方法

Also Published As

Publication number Publication date
KR102486430B1 (ko) 2023-01-10
EP3355577B1 (en) 2020-06-03
CN108141580B (zh) 2021-02-05
EP3355577A1 (en) 2018-08-01
US11275255B2 (en) 2022-03-15
CN108141580A (zh) 2018-06-08
KR20170037346A (ko) 2017-04-04
EP3355577A4 (en) 2018-09-26
US20180239159A1 (en) 2018-08-23

Similar Documents

Publication Publication Date Title
WO2017052325A1 (ko) 집적 영상 처리 장치 및 그를 이용한 차량용 램프
WO2018139880A1 (en) Head-mounted display apparatus, and method thereof for generating 3d image information
CN107105213B (zh) 立体图像显示装置
JP4268399B2 (ja) 画像表示装置
WO2015037796A1 (en) Display device and method of controlling the same
WO2016010234A1 (en) Curved multi-view image display apparatus and control method thereof
WO2016027930A1 (en) Portable device and method for controlling the same
WO2009125988A2 (en) Fast multi-view three-dimensinonal image synthesis apparatus and method
WO2011127694A1 (zh) 全视差三维显示装置
US20120154376A1 (en) Tracing-type stereo display apparatus and tracing-type stereo display method
ATE259571T1 (de) Stereoskopische videobetrachtung und bildvergrösserungssystem
WO2022014967A1 (ko) 증강 현실 표시 장치
US20210325625A1 (en) Lens Mounting Structures for Head-Mounted Devices
KR20210138696A (ko) 헤드 장착형 디바이스를 위한 광학 모듈
JP5439686B2 (ja) 立体画像表示装置及び立体画像表示方法
WO2001086936A3 (en) Movie camera and photographing method for obtaining three-dimentional image
CN1162732C (zh) 体视显示装置
DE60202786D1 (de) Autostereoskopisches anzeigesystem
WO2020197134A1 (ko) 복수개의 증강 현실용 화상을 이용한 증강 현실용 광학 장치
WO2019112096A1 (ko) 육각 렌즈를 이용한 집적영상 시스템의 시점영상 매핑 방법
JPH07287193A (ja) 虚像立体表示装置
WO2021066335A1 (ko) 헤드 마운티드 디스플레이
CN114898440A (zh) 液晶光栅的驱动方法及显示装置、其显示方法
WO2020130475A1 (en) Apparatus and method for displaying image and computer program thereof
WO2015037908A1 (ko) 차량용 후방시야의 카메라 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16849050

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15762353

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016849050

Country of ref document: EP