WO2019083154A1 - 개별 제어되는 마이크로 led 픽셀들을 갖는 플래쉬 유닛을 포함하는 촬상 장치 및 피부 진단용 촬상 장치 - Google Patents

개별 제어되는 마이크로 led 픽셀들을 갖는 플래쉬 유닛을 포함하는 촬상 장치 및 피부 진단용 촬상 장치

Info

Publication number
WO2019083154A1
WO2019083154A1 PCT/KR2018/010332 KR2018010332W WO2019083154A1 WO 2019083154 A1 WO2019083154 A1 WO 2019083154A1 KR 2018010332 W KR2018010332 W KR 2018010332W WO 2019083154 A1 WO2019083154 A1 WO 2019083154A1
Authority
WO
WIPO (PCT)
Prior art keywords
micro led
led pixels
unit
image
cmos
Prior art date
Application number
PCT/KR2018/010332
Other languages
English (en)
French (fr)
Inventor
유태경
Original Assignee
주식회사 루멘스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170139873A external-priority patent/KR20190046272A/ko
Priority claimed from KR1020170154427A external-priority patent/KR20190057480A/ko
Application filed by 주식회사 루멘스 filed Critical 주식회사 루멘스
Publication of WO2019083154A1 publication Critical patent/WO2019083154A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units

Definitions

  • the present invention relates to an imaging device for skin diagnosis comprising an imaging device comprising a flash unit with individually controlled micro LED pixels and an imaging device for skin diagnosis comprising a lighting unit with individually controlled micro LED pixels.
  • imaging devices Various types of digital cameras as cameras or cameras mounted on smart phones or tablet devices are known as imaging devices. Most of these imaging apparatuses are provided with a flash unit so that the subject can be appropriately illuminated even in a dark illumination, that is, in a low illumination environment. The flash unit illuminates the surroundings including the object at the time of image capturing, so that a desired image can be captured while maintaining sufficient brightness.
  • a skin image for checking the condition of the skin is picked up by using a mobile phone or a separate skin diagnostic tool or the like for skin management.
  • a method of photographing a specific part by bringing a skin diagnosis tool or a cellular phone close to the skin to be picked up is used.
  • the skin is not a smooth surface, so that a portion that clearly appears in the skin image and a portion that does not appear coexist.
  • the part that appears unclearly in the captured skin image is, for example, a part protruding due to a skin trouble such as acne or a rash, and a part where a shadow is formed due to a skin trouble, or a depressed part such as a scar or a pore.
  • an image pickup apparatus including a CCD image sensor for capturing an image including a subject and a portion other than the subject, A processor section for generating a processing result signal based on the detection result of the object detection section and the measurement result of the photometry section; A flash unit having a micro LED panel in which a plurality of arrayed micro LED pixels are arrayed and a CMOS backplane in which CMOS cells for individually operating the micro LED pixels are arrayed, And a signal processing section for generating a processing result signal based on the measurement result of the photometry section, To the CMOS backplane, thereby selectively operating the micro LED pixels.
  • an image captured by the CCD image sensor is divided into a plurality of divided areas by the processor unit, and each of the micro LED pixels corresponds to illuminate each of the divided areas.
  • an image captured by the CCD image sensor is divided into a plurality of divided areas by the processor unit, the micro LED pixels are divided into a plurality of pixel groups, To correspond to each of the divided areas.
  • each of the sub-areas is subdivided by the processor unit into a plurality of sub-areas, and each of the micro LED pixels in the pixel groups is mapped to illuminate each of the sub-areas.
  • the processor unit controls the brightness of the area corresponding to the divided area including the subject among the divided areas And sends a processing result signal to the CMOS backplane to drive a micro LED pixel to illuminate the corresponding area.
  • the processor unit turns off the micro LED pixels corresponding to relatively dark portions among the sub regions including the subject in the final image pickup, and corresponds to a relatively bright portion among the sub regions including the subject And drives the micro LED pixels to emit a processing result signal for illuminating the corresponding sub region to the CMOS backplane.
  • each of the micro LED pixels correspond to each of the CMOS cells, and each of the micro LED pixels and each of the CMOS cells corresponding to each of the micro LED pixels is flip-chip bonded using bumps.
  • the micro LED pixels are formed by sequentially growing a first conductivity type semiconductor layer, an active layer, and a second conductivity type semiconductor layer on a substrate, and then etching the first conductivity type semiconductor layer, The active layer and the second conductivity type semiconductor layer are sequentially removed to form the first conductivity type semiconductor layer, the active layer, and the second conductivity type semiconductor layer.
  • a first conductive metal layer is formed on the first conductive type semiconductor layer in a portion where the micro LED pixels are not formed, so as to be spaced apart from the micro LED pixels.
  • the first conductive metal layer is formed on the first conductive type semiconductor layer along the outline of the micro LED panel.
  • the height of the first conductive metal layer is equal to the height of the micro LED pixels.
  • the first conductive metal layer functions as a common electrode of the micro LED pixels.
  • the CMOS backplane includes a common cell formed corresponding to the first conductive metal layer, and the first conductive metal layer and the common cell are electrically connected by a common bump.
  • the first conductivity type is n-type and the second conductivity type is p-type.
  • the substrate is made of any one of sapphire, SiC, Si, glass, and ZnO.
  • the bumps are formed in each of the CMOS cells, and by recording by heating, micro-LED pixels corresponding to each of the CMOS cells and each of the CMOS cells are electrically connected.
  • the flash unit includes a flash lens array unit having a plurality of flash lenses corresponding to the micro LED pixels on the front surface of the micro LED panel.
  • an image capturing apparatus for skin diagnosis comprising: an image capturing unit for capturing a skin image; a photometry unit for measuring skin brightness in the skin image; A micro-LED panel in which a plurality of micro LED pixels are two-dimensionally arranged, and CMOS cells for individually operating the micro LED pixels are arranged in two dimensions And a processor unit which controls the CMOS backplane using the processing result signal to generate the micro LED pixels according to the skin brightness in the skin image measured by the photometric unit, Thereby selectively operating the memory cell array.
  • a skin image captured by the image capture unit is divided into a plurality of segmented areas by the processor unit, and each of the micro LED pixels is arranged to illuminate each of the segmented areas, Respectively.
  • the skin image captured by the image capture unit is divided into a plurality of divided areas by the processor unit, the micro LED pixels are divided into a plurality of pixel groups, Is corresponding to illuminate each of the above divided areas.
  • each of the sub-areas is subdivided into a plurality of sub-areas by the processor unit, and each of the micro LED pixels in the pixel groups is mapped to illuminate each of the sub-areas.
  • the photometric unit measures skin brightness for each of the divided regions.
  • the processor unit may determine that the brightness of the skin of each of the divided regions measured by the photometric unit is darker than the predetermined reference brightness for each divided region, And transmits the processing result signal to the CMOS backplane so as to drive a micro LED pixel corresponding to the divided area.
  • the photometric unit measures the skin brightness for each of the sub areas.
  • the processor unit may be configured to determine, for a sub-area that is darker than the reference brightness for each of the predetermined sub-areas among skin brightnesses of the sub-areas measured by the photometric unit, The processing result signal is outputted to the CMOS backplane so as to drive a micro LED pixel corresponding to the sub region.
  • each of the micro LED pixels correspond to each of the CMOS cells, and each of the micro LED pixels and each of the CMOS cells corresponding to each of the micro LED pixels is flip-chip bonded using bumps.
  • the micro LED pixels are formed by sequentially growing a first conductivity type semiconductor layer, an active layer, and a second conductivity type semiconductor layer on a substrate, and then etching the first conductivity type semiconductor layer, The active layer and the second conductivity type semiconductor layer are sequentially removed to form the first conductivity type semiconductor layer, the active layer, and the second conductivity type semiconductor layer.
  • a first conductive metal layer is formed on the first conductive type semiconductor layer in a portion where the micro LED pixels are not formed, so as to be spaced apart from the micro LED pixels.
  • the first conductive metal layer is formed on the first conductive type semiconductor layer along the outline of the micro LED panel.
  • the height of the first conductive metal layer is equal to the height of the micro LED pixels.
  • the first conductive metal layer functions as a common electrode of the micro LED pixels.
  • the CMOS backplane includes a common cell formed corresponding to the first conductive metal layer, and the first conductive metal layer and the common cell are electrically connected by a common bump.
  • the first conductivity type is n-type and the second conductivity type is p-type.
  • the substrate is made of any one of sapphire, SiC, Si, glass, and ZnO.
  • the bumps are formed in each of the CMOS cells, and by recording by heating, micro-LED pixels corresponding to each of the CMOS cells and each of the CMOS cells are electrically connected.
  • the illumination unit includes a lens array unit having a plurality of lenses formed on the front surface of the micro LED panel corresponding to the micro LED pixels.
  • the present invention relates to an image sensing device comprising a micro LED panel including a plurality of micro LED pixels and a flash unit having a CMOS backplane in which CMOS cells are arrayed corresponding to each of the micro LED pixels so as to control the micro LED pixels individually, So that the quality of the captured image can be improved by more precisely controlling the flash illumination by the flash unit at the time of the final imaging.
  • the present invention also relates to a method of controlling a micro-LED, comprising micro LED pixels corresponding to each of these sub-areas to illuminate each of the sub-areas of a skin image,
  • (A) is a perspective view showing a side where a flash unit 10 and a lens unit 12 are located
  • (b) is a perspective view showing a display unit 16 and the shutter button 13 are located
  • FIG. 2 is a view showing a flash unit 10 in an image pickup apparatus according to an embodiment of the present invention
  • FIG. 3 is a view showing an example of the flash unit of FIG. 2,
  • FIG. 4 is a view showing the micro LED panel 100 in the flash unit 10 of FIG. 3, wherein (a) is a plan view of the micro LED panel 100, (b) is a corresponding cross-
  • CMOS backplane 200 including a plurality of CMOS cells for separately driving the micro LED panel 100 and the micro LED pixels on the micro LED panel 100 in the flash unit 10 of FIG. Is shown together with the LED panel 100,
  • FIG. 6 is a plan view of the CMOS backplane 200 in order to electrically connect the micro LED panel 100 and the CMOS backplane 200 using the bumps 300 in the flash unit 10 of FIG. And Fig.
  • FIG. 7 is a block diagram for explaining an overall operation of the image pickup apparatus 1 according to the embodiment of the present invention.
  • FIG. 9 is a sectional view taken by each of the micro LED pixels 130 of FIG. 8 in the image to be imaged, where one micro LED pixel 130 is responsible for one area (e.g., R12)
  • FIG. 10 is a diagram showing a relationship between one micro LED pixel and a corresponding divided area
  • FIG. 11 is a diagram showing one frame of an image for one frame to be subjected to flash illumination to be irradiated by an array of micro LED pixels 130 in FIG. 8, that is, an image captured by a CCD image sensor,
  • each of the divided areas S11 to Smn is a divided area occupied by the micro LED pixels in FIG.
  • FIG. 12 is a view showing an imaging device for skin diagnosis according to an embodiment of the present invention.
  • FIG. 13 is a view showing the illumination unit 10 in the imaging apparatus for skin diagnosis according to the embodiment of the present invention.
  • Fig. 14 is a diagram showing an example of the illumination unit of Fig. 13,
  • FIG. 15 is a view showing the micro LED panel 100 in the illumination unit 10 of FIG. 14, wherein (a) is a plan view of the micro LED panel 100, (b) is a corresponding sectional view,
  • CMOS backplane 200 including a plurality of CMOS cells for separately driving the micro LED panel 100 and the micro LED pixels on the micro LED panel 100 in the illumination unit 10 of Fig. 14, Is shown together with the LED panel 100,
  • FIG. 17 is a plan view of the CMOS backplane 200 in order to electrically connect the micro LED panel 100 and the CMOS backplane 200 using the bumps 300 in the illumination unit 10 of FIG. And Fig.
  • FIG. 18 is a block diagram for explaining an overall operation of the imaging device for skin diagnosis 1 (see Fig. 12) according to the embodiment of the present invention.
  • 19 is an example of an array of micro LED pixels 130 in a micro LED panel in a lighting unit 10,
  • FIG. 20 is a divided illumination area occupied by each of the micro LED pixels 130 of Fig. 19 in a skin image to be imaged, where one micro LED pixel 130 is responsible for one area (e.g., R12)
  • FIG. 21 is a diagram showing the relationship between one micro LED pixel and a divided region in charge.
  • the present invention basically comprises a micro-LED panel comprising flashlight, i.e. a plurality of micro LED pixels as a light source, and CMOS cells corresponding to each of the micro LED pixels so as to be able to independently control each of the micro LED pixels, using bumps And each of these micro LED pixels applies illumination for a plurality of divided regions divided into a predetermined number in an image to be imaged, that is, an image captured by the CCD image sensor. , Each micro LED pixel corresponds to each of the divided regions. With this configuration, it is possible to improve the quality of the sensed image by finely adjusting the illumination by the flash unit during the final imaging using the imaging device.
  • FIG. 1 mainly shows components exposed to the outside of the image pickup apparatus 1 such as a lens unit and an operation unit. Various components inside the image pickup apparatus 1 are illustrated in Fig. 7, The overall operation of which will be described later with reference to Fig.
  • a flash unit 10 and a lens unit 12 are located on one side of the image pickup apparatus 1.
  • a shutter button 13 and a display unit 16 are located on the other side of the image pickup apparatus 1.
  • the display unit 16 may be implemented as a touch panel, and the shutter button 13 may be displayed at a predetermined position on the display unit 16 and may be pressed by the user.
  • Control of the overall imaging operation such as zoom in / zoom out operation or on / off of the flash can be performed by the user using a finger or other input means on the display unit 16.
  • Various menu buttons or setting buttons may be displayed on the display unit 16 for this purpose.
  • a subject detecting operation to be described later may be performed by a user touching the display unit 16, and a color temperature detecting operation by the color temperature detecting unit (63 of FIG. 7) may be involved.
  • the lens unit 12 may include a lens system, and a CCD image sensor is disposed behind the lens system (see FIG. 7).
  • the display unit 16 also functions as a finder for confirming the angle of view for image capturing.
  • the user determines an angle of view by observing a subject to be photographed through a zoom-in / zoom-out operation on the display unit 16. [ After the angle of view is determined, an operation for capturing an image is performed by appropriately touching the display unit 16 or pressing the shutter button 13. [
  • the flash unit 10 includes a micro LED panel 100 having a plurality of micro LED pixels for illuminating a predetermined divided area, a CMOS And a backplane (200).
  • the flash unit 10 further includes a flash lens array unit 400 having flash lenses corresponding to the micro LED pixels on the front side of the micro LED panel 100, that is, on the opposite side of the CMOS backplane 200 .
  • the flash unit 10 includes a micro LED panel 100, a CMOS backplane 200, and bumps 300.
  • the micro LED panel 100 is disposed on the CMOS backplane 200 facing the bumps 300 so as to face each of the micro LED pixels 130 on the micro LED panel 100 and the CMOS LEDs 100 on the CMOS backplane 200.
  • [ Are electrically connected to each other so that each of the micro LED pixels 130 can be independently controlled.
  • the specific configuration and formation process of the micro LED panel 100 and the CMOS backplane 200 in the flash unit 10 of FIG. 3 will be described below with reference to FIGS.
  • FIG. 4 is a view illustrating an example of a micro LED panel 100 in the flash unit 10 of FIG. 3.
  • FIG. 5 is a cross-sectional view of the micro LED panel 100 and the micro LED panel 100 And a CMOS backplane 200 including a plurality of CMOS cells for separately driving each of the micro LED pixels on the micro-LED panel 100.
  • FIG. 6 is a cross- The bump 300 is disposed on the CMOS backplane 200 in order to electrically connect the LED panel 100 and the CMOS backplane 200 using the bumps 300.
  • FIG. 5 is a cross-sectional view of the micro LED panel 100 and the micro LED panel 100 And a CMOS backplane 200 including a plurality of CMOS cells for separately driving each of the micro LED pixels on the micro-LED panel 100.
  • FIG. 6 is a cross- The bump 300 is disposed on the CMOS backplane 200 in order to electrically connect the LED panel 100 and the CMOS backplane 200 using the bumps 300.
  • the flash unit 10 in the imaging device 1 includes the micro LED panel 100, the CMOS backplane 200, and the bumps 300 do.
  • the micro LED panel 100 includes a plurality of micro LED pixels 130 and the CMOS backplane 200 corresponds to each of the micro LED pixels 130 to individually drive each of the micro LED pixels 130 (Not shown).
  • the bumps 300 are arranged such that the micro LED pixels 130 and the CMOS cells 230 corresponding to each of the micro LED pixels 130 are arranged to face the micro LED pixels 130 and the CMOS cells 230 Make it electrically connected.
  • the micro LED pixels and the reference numbers of the CMOS cells are represented herein as 130 and 230 only for one micro LED pixel and one CMOS cell for convenience.
  • the micro LED panel 100 is etched after growing the first conductivity type semiconductor layer 132, the active layer 134 and the second conductivity type semiconductor layer 136 on the substrate 110 in order.
  • the micro-LEDs 130 on the micro LED panel 100 are formed through this process.
  • the first conductive semiconductor layer 132 is formed on the substrate 110, An active layer 134, and a second conductive type semiconductor layer 136.
  • the substrate 110 must be formed of a transparent material such as sapphire, SiC, Si, glass, and ZnO, since light that functions as a flash light source must be emitted toward the substrate 110 side.
  • the first conductivity type semiconductor layer 132 may be an n-type semiconductor layer, and the second conductivity type semiconductor layer 136 may be a p-type semiconductor layer.
  • the active layer 134 is a portion where electrons and holes provided from the first conductivity type semiconductor layer 132 and the second conductivity type semiconductor layer 136 are recombined when a power source is applied.
  • the portions 120 where the etched portions, i.e., the micro LED pixels 130 are not formed, are removed by removing the second conductive type semiconductor layer 136 and the active layer 134,
  • the conductive semiconductor layer 132 is exposed.
  • the first conductive type semiconductor layer 132 is formed on the first conductive type semiconductor layer 132 of the portion 120 where the micro LED pixels 130 are not formed in the micro LED panel 100, (140) is formed.
  • the first conductive metal layer 140 is formed on the first conductive semiconductor layer 132 along the outer edge of the micro LED panel 100 to have a predetermined width.
  • the height of the first conductive metal layer 140 is substantially the same as the height of the micro LED pixels 130.
  • the first conductive metal layer 140 is electrically connected to the CMOS backplane 200 by the bumps 300 and functions as a common electrode of the micro LED pixels 130.
  • the first conductive metal layer 140 may be a common ground.
  • the CMOS backplane 200 includes a plurality of CMOS cells 230 for driving each of the micro LED pixels 130 individually.
  • Each of the CMOS cells 230 is electrically connected to the corresponding micro LED pixel via bumps 330.
  • Each of the CMOS cells 230 is an integrated circuit for separately driving the micro LED pixels corresponding to each of the CMOS cells 230.
  • the CMOS backplane 200 may be, for example, an AM (Active Matrix) panel, and thus each of the CMOS cells 230 may be a pixel drive circuit comprising two transistors and one capacitor,
  • an equivalent circuit is formed between the drain terminal of the transistor of the pixel driving circuit and the common ground terminal (for example, 240) In which the individual micro LED pixels are arranged in a matrix.
  • the CMOS backplane 200 includes a common cell 240 formed at a position corresponding to the first conductive metal layer 140.
  • the first conductive metal layer 140 and the common cell 240 include common bumps 340 As shown in Fig.
  • bumps 330 for electrically connecting each of the plurality of CMOS cells to each of the micro LED pixels a common bump 330 for electrically connecting the first conductive metal layer 140 and the common cell 240
  • the bumps 300 may be used as the term including both the bumps 300 and the bumps 300.
  • the CMOS backplane 200 and the micro LED panel 100 in a state in which the bumps 330 and the common bumps 340 are disposed on top of each of the CMOS cells 230 are opposed to each other
  • the bumps 330 and the common bumps 340 are melted by closely contacting the CMOS cells 230 with the micro LED pixels 130 in a one-to-one correspondence and thereby the CMOS cells 230 and the CMOS cells
  • the micro LED pixels 130 corresponding to the respective micro-LEDs 230 are electrically connected as shown in FIG.
  • the micro LED pixels As described above, by configuring the micro LED pixels to be individually controllable in the flash unit 10 in the image pickup apparatus 1 of the present invention, the size, appearance, steric outline, etc. of the subject at the time of image pickup using the image pickup apparatus 1, So that a flashlight capable of obtaining an optimum high-quality image can be provided.
  • An example of an array of micro LED pixels 130 within the micro LED panel 100 is shown in FIG. 3 or FIG. That is, the number of the micro LED pixels 130 and the size of the matrix array may be varied in the micro LED panel 100, depending on the size and application of the image sensing device 1.
  • the frame may be divided into a plurality of divided areas, and the micro LED pixels 130 may be divided into each of the divided areas,
  • Each or a predetermined number of micro LED pixels 130 (hereinafter expressed as pixel groups) are responsible for flash illumination. That is, the area covered by one micro LED pixel in FIG. 8 may be one of R11 through Rmn in FIG. 9, and the relationship between the micro LED pixel and the divided area is shown in FIG.
  • the image of one frame is divided into m * n as S11 to Smn, each of which is a region in which one micro LED pixel is responsible for flash illumination,
  • m * n as S11 to Smn
  • each of which is a region in which one micro LED pixel is responsible for flash illumination
  • an image capturing apparatus 1 includes a CCD image sensor 24 for capturing an image including a subject and a portion other than the subject, a CCD image sensor 24, Based on the detection results of the subject detection unit 62 and the measurement results of the photometry unit 34.
  • the photometry unit 34 detects the position and the size of the photographed image, A micro-LED panel 100 in which a plurality of micro LED pixels 130 (see FIG.
  • CMOS backplane 200 in which CMOS cells 230 for operating the pixels 130 are arrayed, And the processing result generated based on the measurement result of the photometry unit 34 And outputs the resulting signal to the CMOS backplane 200 to selectively operate the micro LED pixels 130.
  • the lens system 20 may be further provided with a fixed lens, a magnifying lens, a correcting lens, a focusing lens, and the like, The lens can function as a zoom lens.
  • Red, green, and blue micro color filters may be disposed on the front side of the CCD image sensor 24, and MOS diodes (MOS capacitors) may be disposed behind each of the red, green, and blue micro color filters.
  • MOS diodes MOS capacitors
  • the CCD image sensor 24 is driven by the CCD driver 31.
  • the signal charges stored in the respective MOS diodes are transferred to generate a voltage signal (image signal) having R, G, and B luminance information corresponding to the signal charge, And is output sequentially from the sensor 24.
  • the CCD image sensor 24 has an electronic shutter function for controlling the charge accumulation time (shutter speed) of each MOS diode in accordance with the pulse timing from the CCD driver 31.
  • the image signal outputted from the CCD image sensor 24 is sent to the analog signal processing section 25.
  • the analog signal processing section 25 may include, for example, a signal processing circuit such as a sampling and holding circuit, a color separation circuit, and a gain adjustment circuit.
  • the signal output from the analog signal processing unit 25 is digitized by the A / D converter 26 and stored in the internal memory 60.
  • the timing generator (TG) 32 provides a timing signal to the CCD driver 31, the analog signal processor 25, and the A / D converter 26. They are synchronized by a timing signal.
  • the description about the signal processing by the analog signal processing unit 25, the conversion by the A / D converter 26, the synchronization by the timing signal of the timing generator (TG), and the like are omitted in the internal memory 60 in this specification But may also be represented by an image captured by the CCD image sensor 24 simply.
  • the processor unit that is, the CPU 33 controls the respective components of the image pickup apparatus 1, and controls the operation of each component according to a user's operation through the display unit 16, that is, a user input signal.
  • the CPU 33 may perform the control of the flash unit 10 and the display control of the display unit 16 and may perform automatic focusing (AF), automatic exposure (AE) control, and the like.
  • the internal memory 60 is a part in which an image captured by the CCD image sensor 24 is stored through processing and conversion processing by the analog signal processing unit 25, the A / D converter 26, Is sent to the image signal processing section 61 through a bus.
  • the image signal processing section 61 may include a digital signal processing section including a luminance signal / color difference signal generation circuit, a correction circuit, a sharpness correction circuit, a contrast correction circuit, a white balance correction circuit, and the like, though not specifically shown.
  • the image data input to the image signal processing section 61 is converted into a luminance signal (Y signal) and color difference signals (Cr and Cb signals) in the luminance signal / color difference signal generation circuit, 60).
  • the image signal processing unit 61 processes the image signal under the control of the CPU 33.
  • the processor unit (CPU) 33 includes a photometric unit 34.
  • the processor unit (CPU) 33 divides one frame F1 of the image stored in the internal memory 60 into a plurality of areas (see Fig. 9). The division of the frame F1 and the description of the divided regions R11 to Rmn in each of the LED pixels 130 will be described later with reference to Figs. 8 to 11. Fig.
  • the internal memory 60 stores the image captured by the CCD image sensor. It can be subjected to processing and conversion by the analog signal processing unit 25, the A / D converter 26 and the like as described above.
  • the image data is read from the internal memory 60 and transferred to the display memory 64 and the image data transferred to the display memory 64 is transferred to the D / Converter) 65 into a predetermined signal (e.g., an NTSC composite color video signal) and displayed through the display unit 16.
  • a predetermined signal e.g., an NTSC composite color video signal
  • the images captured by the CCD image sensor 24 are transmitted and stored in the display memory 64 through the internal memory 60 at regular intervals. Consequently, the image captured by the CCD image sensor 24 as a result can be displayed on the display section 16 in real time. The user can confirm the subject through the display unit 16.
  • the user causes the image data to be read from the internal memory 60 and input to the subject detection unit 62 through a simple operation such as touching or dragging the display unit 16.
  • the object detection section 62 retrieves a face of the person from the image data. Details thereof will be described later in detail with reference to Figs. 8 to 11.
  • the subject detecting unit 62 is connected to a bus. The subject detecting operation by the subject detecting unit 62 is started at the same time in the process of adjusting the focus of the image to be captured by touching after the user confirms the subject on the display unit 16 or in the process of performing the zoom in / .
  • a color temperature detector 63 for detecting and determining the color temperature may be further connected to the bus.
  • the color temperature detecting section 63 can be used for appropriately compensating for the final imaging by the flash illumination in consideration of the color temperature of the subject detected by the color temperature detecting section 63 when the flash unit 10 is illuminated .
  • the color temperature detection by the color temperature detector 63 can be detected using the image captured by the CCD image sensor 24 and can be detected not only for the color temperature of the subject but also for all of the divided areas in the whole image of one frame can do.
  • the processor unit (CPU) 33 controls the zoom drive unit 27 based on the user signal to thereby control the zoom lens (not shown) It is possible to move it to an appropriate position, and further, a motor (not shown) may be provided for movement.
  • the zoom driving unit 27 has a motor (not shown) that moves the zoom lens 21 by a driving force.
  • the position (zoom position) of the zoom lens is detected by the zoom position sensor 29 and transmitted to the processor unit 33.
  • the focus driving unit 28 may further include a motor (not shown), and the driving force of the motor may move the focus lens (not shown) back and forth (left and right direction in the drawing) along the optical axis.
  • the position (focus position) of the focus lens is detected by the focus position sensor 30 and transmitted to the processor unit 33.
  • the processor unit 33 drives the micro LED pixels in the micro LED panel 100 in the CMOS backplane 200 of the flash unit 10 to illuminate the flash light when the shutter button 13 is touched by the user
  • a necessary signal is output to the CMOS backplane 200 side of the flash unit 10.
  • the signal is a processing result signal generated based on the detection result by the object detection unit and the measurement result of the photometry unit.
  • the CMOS backplane 200 drives the micro LED pixels in the micro LED panel 100 individually or as needed, in a predetermined group, as described above, to perform optimal light exposure. This will be described in more detail later with reference to Figs. 8 to 11. Fig.
  • the user finally picks up an image by touching the shutter button 13, and the picked-up image data may or may not be stored in the compression storage mode.
  • the captured image data is compressed in the internal memory 60 by the compression / decompression unit (COMP / DECOMP) 66 and stored in the SD card 18 via the card interface 67 do. In the decompression mode, it is stored in the SD card 18 without being compressed.
  • the compression / decompression unit COMP / DECOMP
  • an imaging application is executed by the user.
  • the imaging device 1 is a mobile device such as a smart phone
  • imaging is started by executing an imaging app or a camera function.
  • a mode selection switch (not shown) Imaging can be started.
  • a series of object detection and brightness measurement operations are performed through the process of touching or dragging the display section 16 after the user directs the imaging apparatus 1 to the subject direction,
  • the processor unit 33 generates a processing result signal.
  • the processing result signal is sent to the CMOS backplane 200 side so that appropriate micro LED pixels in the flash unit 10 irradiate the corresponding divided areas.
  • the series of subject detection and the start of the brightness measurement operation can be performed simultaneously in the zoom in / zoom out process or in the focus adjustment process.
  • Fig. 8 is an example of an array of micro LED pixels 130 in a micro LED panel in a flash unit 10 and Fig. 9 is an example of an array of micro LED pixels 130 in a micro LED panel 130, Region, where one segment (e.g., R12) is served by one micro LED pixel.
  • the dividing operation into the plurality of divided areas in the image of one frame is performed by the processor unit 33.
  • one pixel group including a plurality of micro LED pixels may serve as a corresponding divided region
  • one micro LED pixel 130 is responsible for one divided region R12 .
  • FIG. 10 is a diagram showing the relationship between one micro LED pixel and a corresponding divided area
  • FIG. 11 is a diagram showing a relationship between one micro LED pixel and a divided area in which one flash LED FIG. 11 shows one frame of an image captured by the CCD image sensor.
  • each of the divided areas S11 to Smn is a divided area occupied by the micro LED pixels in FIG.
  • the CMOS backplane 200 may independently control each of the micro LED pixels to serve as one divided area.
  • one micro LED pixel is shown as being illuminated in a spot shape corresponding to a corresponding one of the divided regions in order to illustrate illumination of one divided region.
  • the directivity angle of the micro LED pixels Can also affect.
  • the drawing direction of the micro LED pixels is not taken into consideration in the drawings, but only the vicinity of the center of the irradiated light of the micro LED pixels is shown.
  • the processor unit that is, the CPU 33
  • a processing result signal for illuminating the micro LED pixels corresponding to the divided area including the subject to illuminate the corresponding divided area is emitted to the CMOS backplane 200.
  • the CMOS backplane 200 may be configured to control a plurality of micro LED pixels to operate as one group to serve as a single divided area. That is, the image captured by the CCD image sensor 24 is divided into a plurality of divided areas, the micro LED pixels are divided into a plurality of pixel groups, and each of the pixel groups takes charge of each of the divided areas .
  • each of the sub-regions may be subdivided again into a plurality of sub-regions, and each of the micro LED pixels in the pixel groups may be configured to illuminate and illuminate each of the sub-regions.
  • the micro LED pixels corresponding to relatively dark portions among the sub regions including the subject are turned off, and the micro LED pixels corresponding to the relatively bright portions among the sub regions including the subject are turned off
  • the processing result signal for driving the micro LED pixels to illuminate the corresponding sub area is generated by the CPU 33 and sent to the CMOS backplane so that the dark part is darker and the bright part is brighter in the subject in the captured image .
  • the image captured by the CCD image sensor 24 is divided into a plurality of divided areas, and each of the micro LED pixels can be correspondingly illuminated in each of the divided areas. That is, the image captured by the CCD image sensor 24 is stored in the internal memory 60, and one frame F1 of the image stored in the internal memory 60 is read by the processor unit 33 (FIG. 7) , For example, m * n divided areas S11, S12, ... Smn (hereinafter referred to as S1 to Smn).
  • the photometry unit 34 measures a value indicating the brightness of each divided area (for example, the brightness value of each divided area, the integrated value of brightness values, illumination, etc.) through multimetering.
  • each of the divided areas S11 to Smn in one frame F1 is an area in which each of the micro LED pixels 130 is illuminated.
  • a portion for example, a person's face
  • a portion for example, a person's face
  • other portions backgrounds of sky, mountain, sea, etc.
  • a method of searching for a person's face in one frame F1 for example, a method of extracting the divided regions S34, S35, S44, and S45 in which the subject detecting section 62 has many portions estimated to be skin colors (In this case, when there are many parts exposed to the body such as an arm or a leg, these parts are also detected), or alternatively, the peripheral area around the area (S34, S35) It is possible to use a method of determining the region in which the face is located. The subject detecting unit 62 determines the position of the face in each of the divided regions in this manner.
  • the subject detecting unit 62 reads the data of the image stored in the internal memory 60 (image data before image pick-up), and detects a divided region including a face of a person in one frame F1.
  • the data of the image before imaging can be simultaneously stored in the internal memory 60 during the focus adjustment process or the zoom in / zoom out process.
  • the color temperature detecting section 63 detects the color temperature in one frame F1 of the image stored in the internal memory 60. [ For example, the color temperature detecting section 63 can discriminate and detect the color temperature of each divided region based on the average value of the color temperatures of the divided regions.
  • the metering section 34 performs multimetering on each of the divided areas S11 to Smn in one frame F1 to determine the brightness values of the respective divided areas S11 to Smn, Can be used to control the CMOS backplane 200 of the unit 10. For example, when the divided regions S34, S35, S44, and S45 including the human face are darker than the other divided regions, the micro LED pixels responsible for the divided regions S34, S35, S44, The processor unit 33 controls the CMOS backplane 200 so that the face of the person is brighter than the background so that the face is brighter than the background so that the face of the person can be highlighted in the image finally captured and stored.
  • the processor unit 33 turns on the micro LED pixels responsible for the divided areas that need to be subjected to bright flash illumination by emitting the final result signal to the CMOS backplane 200 side of the flash unit 10, If not, the area is turned off.
  • the segmented areas that need to be subjected to bright flash illumination may increase the output of the micro LED pixels to receive relatively bright flashlights than those that do not, and the micro LED pixels that are responsible for the non- The output of the pixel may be lowered.
  • the final image data which is finally captured under the thus-controlled flash illumination and captured and output by the CCD image sensor 24 is passed through the analog signal processing section 25 and the A / D converter 26, .
  • the final image data is finally recorded in the SD card 18 through the card interface 67 in the compression / decompression unit (COMP / DECOMP)
  • the imaging device of the present invention has been described in the form of a smartphone having a camera function, the imaging device of the present invention may be applied to a digital camera, a tablet PC having a camera function, or other mobile devices.
  • FIGS. 12 to 21 The imaging apparatus for skin diagnosis described below will be described with reference to Figs. 12 to 21.
  • Fig. It should be noted that the drawings shown in FIGS. 12 to 21 and the following description are simplified and exemplified by those having ordinary skill in the art to which the present invention pertains.
  • the imaging device for skin diagnosis of the present invention includes a micro LED panel including a plurality of micro LED pixels as a basic illumination unit for imaging a skin image for skin diagnosis, CMOS pixels corresponding to each of the micro LED pixels are electrically connected to each other using bumps so that each of the micro LED pixels is divided into a plurality of sub- Each micro LED pixel corresponds to each of the divided areas so as to take charge of illumination.
  • the skin diagnostic imaging device may be directly mounted on the smart phone 1a or may be a skin diagnostic tool 1b that can be used in connection with the smart phone 1a.
  • the imaging apparatus for skin diagnosis may be a smart phone 1a using an illuminating unit 10a and an image capturing unit 12a mounted therein, or may be a smart phone 1a using an illuminating unit 10b and an image capturing unit 12b Diagnostic tool 1b.
  • 12 schematically shows the illumination units 10a and 10b (collectively referred to as 10) and the image capture units 12a and 12b (collectively referred to as 12), and the like. The elements are illustrated in Fig.
  • the overall imaging operation using the imaging device for skin diagnosis and the storage / transmission of the skin image can be performed by a skin diagnosis app installed in the smartphone 1a, Lt; / RTI >
  • a skin diagnosis app is executed on the display unit 16, and a skin image is imaged by bringing it close to a human face (f) or other skin requiring diagnosis.
  • a function button such as a zoom in / Various function buttons and setting buttons may be displayed on the display unit 16.
  • the image capturing unit 12 may include a lens system 20 and an image sensor 24 is disposed behind the lens system 20 (see FIG. 18).
  • the display unit 16 also functions as a finder for confirming the angle of view for image capturing.
  • the user determines the angle of view while observing the skin through the zoom-in / zoom-out operation on the display unit 16. After determining the angle of view, the display unit 16 is appropriately touched to capture a skin image.
  • the illumination unit 10 shown in Fig. 13 may be the illumination unit 10a of the smartphone 1a or the illumination unit 10b of the skin diagnosis tool 1b as mentioned above.
  • the illumination unit 10 includes a micro LED panel 100 formed with a plurality of micro LED pixels for illuminating a predetermined divided area, a CMOS And a backplane (200).
  • the illumination unit 10 may further include a lens array unit 400 having lenses corresponding to the micro LED pixels on the front side of the micro LED panel 100, that is, on the opposite side of the CMOS backplane 200 .
  • the illumination unit 10 includes a micro LED panel 100, a CMOS backplane 200, and bumps 300.
  • the micro LED panel 100 is disposed on the CMOS backplane 200 facing the bumps 300 so as to face each of the micro LED pixels 130 on the micro LED panel 100 and the CMOS LEDs 100 on the CMOS backplane 200.
  • the specific configuration and formation process of the micro LED panel 100 and the CMOS backplane 200 in the illumination unit 10 of Fig. 14 will be described below with reference to Figs. 15 to 17. Fig.
  • FIG. 15 is a view showing an example of a micro LED panel 100 in the illumination unit 10 of FIG. 14, and FIG. 16 is a sectional view of a micro LED panel 100 and a micro LED panel 100 And a CMOS backplane 200 including a plurality of CMOS cells for separately driving each of the micro LED pixels on the micro-LED panel 100.
  • FIG. 17 is a cross-sectional view of the micro- The bump 300 is disposed on the CMOS backplane 200 in order to electrically connect the LED panel 100 and the CMOS backplane 200 using the bumps 300.
  • the illumination unit 10 includes a micro LED panel 100, a CMOS backplane 200, and bumps 300.
  • the micro LED panel 100 includes a plurality of micro LED pixels 130 and the CMOS backplane 200 corresponds to each of the micro LED pixels 130 to individually drive each of the micro LED pixels 130 (Not shown).
  • the bumps 300 are arranged such that the micro LED pixels 130 and the CMOS cells 230 corresponding to each of the micro LED pixels 130 are arranged to face the micro LED pixels 130 and the CMOS cells 230 Make it electrically connected.
  • the micro LED pixels and the reference numbers of the CMOS cells are represented herein as 130 and 230 only for one micro LED pixel and one CMOS cell for convenience.
  • the plurality of LED pixels 130 formed on the micro LED panel 100 in the illumination unit 10 of the image pickup device 1 can be individually controlled.
  • the micro LED panel 100 is etched after growing the first conductivity type semiconductor layer 132, the active layer 134 and the second conductivity type semiconductor layer 136 on the substrate 110 in order.
  • the micro-LEDs 130 on the micro LED panel 100 are formed through this process.
  • the first conductive semiconductor layer 132 is formed on the substrate 110, An active layer 134, and a second conductive type semiconductor layer 136. Since the LED light that functions as a light source must be emitted toward the substrate 110, the substrate 110 must be formed of a transparent material.
  • the substrate 110 may be made of any one of sapphire, SiC, Si, glass, and ZnO.
  • the first conductivity type semiconductor layer 132 may be an n-type semiconductor layer, and the second conductivity type semiconductor layer 136 may be a p-type semiconductor layer.
  • the active layer 134 is a portion where electrons and holes provided from the first conductivity type semiconductor layer 132 and the second conductivity type semiconductor layer 136 are recombined when a power source is applied.
  • the portions 120 where the etched portions, i.e., the micro LED pixels 130 are not formed, are removed by removing the second conductive type semiconductor layer 136 and the active layer 134,
  • the conductive semiconductor layer 132 is exposed.
  • the first conductive type semiconductor layer 132 is formed on the first conductive type semiconductor layer 132 of the portion 120 where the micro LED pixels 130 are not formed in the micro LED panel 100, (140) is formed.
  • the first conductive metal layer 140 is formed on the first conductive semiconductor layer 132 along the outer edge of the micro LED panel 100 to have a predetermined width.
  • the height of the first conductive metal layer 140 is substantially the same as the height of the micro LED pixels 130.
  • the first conductive metal layer 140 is electrically connected to the CMOS backplane 200 by the bumps 300 and functions as a common electrode of the micro LED pixels 130.
  • the first conductive metal layer 140 may be a common ground.
  • the CMOS backplane 200 includes a plurality of CMOS cells 230 for driving each of the micro LED pixels 130 individually.
  • Each of the CMOS cells 230 is electrically connected to the corresponding micro LED pixel via bumps 330.
  • Each of the CMOS cells 230 is an integrated circuit for separately driving the micro LED pixels corresponding to each of the CMOS cells 230.
  • the CMOS backplane 200 may be, for example, an AM (Active Matrix) panel, and thus each of the CMOS cells 230 may be a pixel drive circuit comprising two transistors and one capacitor,
  • an equivalent circuit is formed between the drain terminal of the transistor of the pixel driving circuit and the common ground terminal (for example, 240) In which the individual micro LED pixels are arranged in a matrix.
  • the CMOS backplane 200 includes a common cell 240 formed at a position corresponding to the first conductive metal layer 140.
  • the first conductive metal layer 140 and the common cell 240 include common bumps 340 As shown in Fig.
  • bumps 330 for electrically connecting each of the plurality of CMOS cells to each of the micro LED pixels a common bump 330 for electrically connecting the first conductive metal layer 140 and the common cell 240
  • the bumps 300 may be used as the term including both the bumps 300 and the bumps 300.
  • the CMOS backplane 200 and the micro LED panel 100 in a state in which the bumps 330 and the common bumps 340 are disposed on top of each of the CMOS cells 230 are opposed to each other
  • the bumps 330 and the common bumps 340 are melted by closely contacting the CMOS cells 230 with the micro LED pixels 130 in a one-to-one correspondence and thereby the CMOS cells 230 and the CMOS cells
  • the micro LED pixels 130 corresponding to the respective micro-LEDs 230 are electrically connected as shown in FIG.
  • the image sensing apparatus 1 for skin diagnosis In the case of imaging the skin, when the skin image is unclear at the projecting portion or the depression portion or the peripheral portion existing in the skin, by controlling the micro LED pixels corresponding to this portion using the corresponding CMOS cells, .
  • FIG. 14 An example of an array of micro LED pixels 130 in the micro LED panel 100 is shown in FIG. 14 or FIG. That is, the number of the micro LED pixels 130 and the size of the matrix array may be varied in the micro LED panel 100, depending on the size and application of the image sensing device 1.
  • the frame may be divided into a plurality of divided areas, and the micro LED pixels 130 may be divided into each of the divided areas.
  • Each or a predetermined number of micro LED pixels 130 (hereinafter expressed as a group of pixels) are responsible for illumination. That is, in FIG. 19, the area occupied by one micro LED pixel may be one of R11 to Rmn in FIG. 20, and the relationship between the micro LED pixel and the divided area is shown in FIG.
  • an image capturing device 1 for skin diagnosis according to an embodiment of the present invention includes an image capturing unit 12 for capturing a skin image, a skin capturing unit 12 for capturing a skin image captured by the image capturing unit 12, A processor unit (CPU) 33 for generating a processing result signal based on the measurement result of the photometry unit 34 and the photometry unit 34 for measuring the skin brightness in the image, And a lighting unit (10).
  • the lighting unit 10 includes an LED panel 100 and a CMOS backplane 200.
  • LED panel 100 includes a plurality of micro-LED pixels 130 (see Figure 14) arranged in two dimensions, and the CMOS backplane 200 includes micro LED pixels 130 for individually operating micro LED pixels 130, And CMOS cells 230 that are arrayed in a corresponding manner.
  • the processor unit (CPU) 33 controls the CMOS backplane 200 by using the processing result signal so that the micro LED pixels 130 (130), depending on the skin brightness in the skin image measured by the photometric unit 34 So that the portion of the skin image can be clearly seen by increasing the illuminance on the portion that is darkly imaged and unclearly displayed.
  • the image sensor 24 may be a CCD image sensor.
  • the aperture 20, the aperture 23, the image sensor 24 and the capture unit drive unit 31 as the image capturing unit 12, the lens system 20 is not limited to the fixed lens, the magnifying lens, Lens and the like, and the magnifying lens and the correcting lens can function as a zoom lens.
  • the image sensor 24 is driven by the capture unit driver 31. [ For example, depending on the pulse signal provided from the capture unit driver 31, the signal charge accumulated in each MOS diode is transferred to generate a voltage signal (image signal) having R, G, and B luminance information corresponding to the signal charge And can be output sequentially from the sensor 24. [
  • the image signal output from the image sensor 24 is sent to the analog signal processing unit 25.
  • the analog signal processing section 25 may include, for example, a signal processing circuit such as a sampling and holding circuit, a color separation circuit, and a gain adjustment circuit.
  • the signal output from the analog signal processing unit 25 is digitized by the A / D converter 26 and stored in the internal memory 60.
  • the timing generator (TG) 32 provides a timing signal to the capture unit driver 31, the analog signal processor 25, and the A / D converter 26. They are synchronized by a timing signal.
  • the description about the signal processing by the analog signal processing unit 25, the conversion by the A / D converter 26, the synchronization by the timing signal of the timing generator (TG), and the like are omitted in the internal memory 60 in this specification It is simply represented by a skin image captured by the image sensor 24 or a skin image captured by the image capture unit 12 for convenience.
  • the processor unit controls the respective components of the imaging apparatus for skin diagnosis 1, and controls the operation of each component according to the user's operation through the display unit 16, that is, the user input signal.
  • the CPU 33 controls the illumination unit 10 and the display unit 16 according to the processing result signal.
  • the internal memory 60 stores the image captured by the image capture unit 12 via the analog signal processing unit 25, the A / D converter 26, Is sent to the image signal processing section 61 through a bus.
  • the image signal processing section 61 may include a digital signal processing section including a luminance signal / color difference signal generation circuit, a correction circuit, a sharpness correction circuit, a contrast correction circuit, a white balance correction circuit, and the like, though not specifically shown.
  • the image data input to the image signal processing section 61 is converted into a luminance signal (Y signal) and color difference signals (Cr and Cb signals) in the luminance signal / color difference signal generation circuit, 60).
  • the image signal processing unit 61 processes the image signal under the control of the CPU 33.
  • the processor unit (CPU) 33 includes a photometric unit 34.
  • the processor unit (CPU) 33 divides one frame F1 of the image stored in the internal memory 60 into a plurality of areas (see Fig. 20). The division of the frame F1 and the description of the divided regions R11 to Rmn in each of the LED pixels 130 will be described later with reference to Figs.
  • the internal memory 60 stores the image captured by the image capture unit 12. It can be subjected to processing and conversion by the analog signal processing unit 25, the A / D converter 26 and the like as described above.
  • the image data is read from the internal memory 60 and transferred to the display memory 64 and the image data transferred to the display memory 64 is transferred to the D / Converter) 65 into a predetermined signal (e.g., an NTSC composite color video signal) and displayed through the display unit 16.
  • a predetermined signal e.g., an NTSC composite color video signal
  • the images captured by the image capture unit 12 are transmitted and stored in the display memory 64 through the internal memory 60 at regular intervals. Consequently, the skin image captured by the image capturing unit 12 as a result can be displayed on the display unit 16 in real time. The user can confirm the captured skin image through the display unit 16.
  • the user When the captured skin image is confirmed through the display unit 16, the user reads the image data from the internal memory 60 through a simple operation such as touching or dragging the display unit 16 and inputs the read skin image to the subject detection unit 62 .
  • the photometric unit may further include a color temperature detection unit (not shown) as well as detecting the skin brightness for each of the divided regions in the skin image, so that the color temperature can be detected and used for controlling the illumination unit.
  • a color temperature detecting unit for detecting and determining a color temperature is further connected to the bus, and the color temperature detecting unit detects the color temperature of each of the divided regions detected by the color temperature detecting unit, for example, And can be used for the purpose of properly compensating the illumination unit when the image is re-imaged.
  • the processor unit 33 drives the micro LED pixels in the micro LED panel 100 in the CMOS backplane 200 of the illumination unit 10 when a button (not shown) for starting the skin image imaging is touched by the user And sends a necessary signal to the CMOS backplane 200 side of the lighting unit 10 to irradiate the LED light to the skin side.
  • the processor unit generates a processing result signal so as to illuminate a micro LED pixel in charge of the corresponding division area so that a skin image can be brightly picked up at or above a preset reference brightness level for each divided area, Send the signal to the cells.
  • the predetermined reference brightness for each of the divided regions is stored in advance in the internal memory with reference to the brightness of the portion clearly seen in the previously captured skin image or the average brightness in the captured skin image with reference to the previously captured skin image, This can be referred to when processing by department.
  • the CMOS backplane 200 receives the processing result signal from the processor unit 33 to drive the micro LED pixels in the micro LED panel 100 individually or in a predetermined group as necessary, So that light exposure is performed so that an optimal clear image can be obtained from the skin image. This will be described in more detail later with reference to Figs. 19 to 21. Fig.
  • the data of the final skin image captured by the user may or may not be stored in the compressed storage mode.
  • the captured image data is compressed in the internal memory 60 by the compression / decompression unit (COMP / DECOMP) 66 and stored in the SD card 18 via the card interface 67 do. In the decompression mode, it is stored in the SD card 18 without being compressed. Further, it may be transmitted via the wireless communication interface 77 to the server 78 side.
  • the server 78 may be located within or connected to a skin care facility such as a medical facility or a skin care facility for skin care.
  • the skin diagnosis imaging device (1) of the present invention The overall imaging progress of the skin image by the skin diagnosis imaging device (1) of the present invention will be described.
  • a skin diagnosis imaging app is executed by the user.
  • the process of connecting to the skin diagnosis tool 1b must be preceded to the smartphone 1a.
  • the skin diagnostic device may be a tablet PC or other mobile device as well as the smartphone 1a.
  • the user performs a process of touching or dragging the display unit 16 with the illumination unit 10 and the image capturing unit 12 facing the skin and keeping the proper position with respect to the skin diagnosis diagnostic imaging apparatus 1
  • the processor unit 33 generates a processing result signal and controls the CMOS cells corresponding to the portion where the corrected illumination is required to control the corresponding micro LED pixels to illuminate .
  • the skin image is finally captured through a process in which the user touches or drags the display unit (for example, touching the skin image imaging button on the imaging diagnostic application for skin diagnosis).
  • Fig. 19 is an example of an array of micro LED pixels 130 in a micro LED panel in a lighting unit 10 and Fig. 20 is an example of an array of micro LED pixels 130 in a lighting unit 10, As an illumination region, one micro-LED pixel 130 is responsible for one segment (e.g., R12). The dividing operation into the plurality of divided areas in the image of one frame is performed by the processor unit 33. [
  • FIG. 21 is a diagram showing the relationship between one micro LED pixel and a divided region in charge.
  • the CMOS backplane 200 may independently control each of the micro LED pixels to serve as one divided area.
  • FIG. 21 in order to explain that one micro LED pixel illuminates one sub-area, it is shown that the sub-area is illuminated in a spot shape in the corresponding sub-area. However, It can also affect areas. However, for the sake of clarity, it should be understood that only the center portion of the irradiated light of the corresponding micro LED pixel is shown in FIG. 21, not in view of the directivity angle of the micro LED pixel.
  • the CMOS backplane 200 may be implemented to control a plurality of micro LED pixels to operate as a single group, have. That is, the skin image captured by the image capture unit 12 is divided into a plurality of divided regions, the micro LED pixels are divided into a plurality of pixel groups, and each of the pixel groups takes charge of each of these divided regions It may be configured to illuminate.
  • each of the sub-areas may be subdivided again into a plurality of sub-areas, and each of the micro LED pixels in the pixel groups may be configured to illuminate and illuminate each of the sub-areas.
  • a CPU 33 generates a processing result signal for driving the micro LED pixels to illuminate the corresponding sub region, and sends the processing result signal to the CMOS backplane to obtain a clear skin image.
  • the skin image captured by the image capturing unit 12 is divided into a plurality of divided areas by the processor unit 33, and each of the micro LED pixels corresponds to each of the divided areas . That is, the skin image captured by the image capture unit 12 is stored in the internal memory 60, and one frame F1 of the image stored in the internal memory 60 is processed by the processor unit 33, For example, m * n divided areas.
  • the photometry part 34 measures a value (for example, a luminance value of each divided area, an integrated value of luminance values, illuminance, etc.) indicative of the brightness of each divided area through multimetering.
  • each of the divided areas in one frame F1 is a divided area for each of the micro LED pixels 130 to illuminate.
  • the light metering section 34 performs multimetering on each of the divided areas in one frame F1 to determine the brightness value of each of the divided areas and this information is transmitted to the CMOS backplane 200 of the illumination unit 10. [ As shown in FIG.
  • the skin image data finally picked up and output under the illuminating unit thus controlled is recorded in the internal memory 60 after passing through the analog signal processing unit 25 and the A / D converter 26.
  • the final image data is finally written to the SD card 18 via the card interface 67 at the compression / decompression unit (COMP / DECOMP) 66, (78).

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Stroboscope Apparatuses (AREA)

Abstract

개시되는 촬상 장치는, 피사체와 피사체 이외의 부분을 포함하는 화상을 캡쳐하는 CCD 화상 센서와, 상기 CCD 화상 센서에 의해 캡쳐된 화상에서, 피사체의 위치 및 크기를 검출하기 위한 피사체 검출부와, 상기 피사체의 밝기를 계측하는 측광부와, 상기 피사체 검출부의 검출 결과 및 상기 측광부의 계측 결과에 기초한 처리 결과 신호를 생성하는 프로세서부, 그리고, 플래쉬 광원으로서 2차원으로 배열된 복수 개의 마이크로 LED 픽셀들이 어레이된 마이크로 LED 패널과, 상기 마이크로 LED 픽셀들을 개별적으로 동작시키기 위한 CMOS 셀들이 어레이된 CMOS 백플레인을 갖는, 플래쉬 유닛을 포함하며, 상기 프로세서부는 상기 피사체 검출부의 검출 결과 및 상기 측광부의 계측 결과에 기초하여 생성한 처리 결과 신호를 상기 CMOS 백플레인으로 내보냄으로써, 상기 마이크로 LED 픽셀들을 선택적으로 동작시킨다.

Description

개별 제어되는 마이크로 LED 픽셀들을 갖는 플래쉬 유닛을 포함하는 촬상 장치 및 피부 진단용 촬상 장치
본 발명은 개별 제어되는 마이크로 LED 픽셀들을 갖는 플래쉬 유닛을 포함하는 촬상 장치와, 개별 제어되는 마이크로 LED 픽셀들을 갖는 조명 유닛을 포함하는 피부 진단용 촬상 장치를 포함하는 피부 진단용 촬상 장치에 관한 것이다.
촬상 장치로서 다양한 종류의 디지털 카메라, 또는 스마트폰이나 태블릿 기기에 탑재된 카메라 등이 공지되어 있다. 이들 촬상 장치는 대부분 어두운 조명, 즉 저조도 환경하에서도 피사체를 적절히 조명할 수 있도록 플래쉬 유닛을 구비하고 있다. 촬상시 플래쉬 유닛이 피사체를 포함하여 주변을 조명함으로써, 충분한 밝기를 유지하여 원하는 화상을 캡쳐할 수 있다.
또한, 근래 들어, 소형화가 용이하게 저비용으로 제조될 수 있는 LED를 플래쉬 광원으로 이용하는 플래쉬 유닛을 구비한 촬상 장치도 출시되고 있다. 예컨대, 피사체의 색온도에 따라 적색, 녹색 및 청색 LED의 발광량의 비율을 제어하는 기술(미국특허출원공보 US2002/0025157)이 개시된 바 있다.
촬상 장치에 있어서 플래쉬 조명을 이용한 촬상시 여러 가지 문제점이 발생하고 있다. 예를 들어, 촬상시 플래쉬 조명이 요구되는 상황에서 촬상된 화상과, 그렇지 않고 충분한 백그라운드 조명이 있는 낮이나 밝은 실내 공간 내에서 촬상된 화상을 비교하면, 후자에 비해 전자의 경우 촬상된 화상의 퀄리티가 매우 낮은 결과로 이어진다. 뿐만 아니라, 플래쉬 조명을 이용하여 촬상하는 경우, 촬상된 화상 내에서 피사체(가령, 사람)와 그 밖의 영역이 동시에 대체로 전체적으로 균일한 플래쉬 조명을 받음으로 인해, 최종 촬상된 화상 내에서 피사체의 얼굴 윤곽, 이목구비의 윤곽, 또는 피부톤 등이 플래쉬 조명을 이용하지 않는 낮이나 밝은 실내 공간에서 촬상하는 경우에 비해 또렷이 나타나지 않거나 왜곡되는 결과로 이어진다. 따라서, 이러한 문제점들을 해결할 수 있도록 플래쉬 유닛 내의 조명을 적절히 조절할 필요가 있다.
한편, 피부 미용이나 관리에 대한 대중의 관심이 증가하고 있으며, 피부 관리를 위해 의료 시술을 받거나 피부 노화 방지를 위한 화장품의 사용도 또한 성별을 불문하고 증가하고 있다. 일반적으로, 피부 관리를 위해 휴대폰이나 별도의 피부 진단 툴 등을 이용하여 피부의 상태를 점검하기 위한 피부 화상(skin image)을 촬상하고 있다.
종래 피부 진단 툴이나 휴대폰을 이용하여 피부 진단을 위한 피부 화상을 촬상하는 경우, 촬상하고자 하는 피부에 피부 진단 툴이나 휴대폰을 근접시켜 특정 부분을 촬영하는 방식을 사용하고 있다. 하지만, 근접하여 촬상하더라도, 피부가 매끈한 평면이 아니므로, 피부 화상에서 명확하게 나타나는 부분과 그렇지 않은 부분이 공존하게 된다. 촬상된 피부 화상에서 불명확하게 나타나는 부분은, 예컨대, 여드름, 뾰루지 등과 같이 피부 트러블로 인해 튀어나온 부분 및 이로 인해 그늘이 생기는 부분, 또는 흉터나 땀구멍 등의 움푹 패인 부분 등이다. 촬상된 피부 화상에서 불명확하거나 선명하게 나타나지 않은 부분은 촬상된 피부 화상을 이용한 피부 진단시 하나의 피부 화상만으로 피부 상태를 정확히 알기 어려워, 여러 번 중복해서 같은 부분을 촬상해야 하는 불편함이 따르거나, 반복 촬상하더라도 여전히 불명확하여 피부 상태를 정확히 알기 어려운 문제가 있다. 따라서, 이러한 문제를 해결할 수 있는 방안이 피부 진단 장치의 기술 분야에서 요구되고 있다.
본 발명이 해결하고자 하는 과제는, 촬상시 플래쉬 유닛에 의한 조명을 적절히 조절하여 촬상된 화상의 퀄리티를 높일 수 있도록 하기 위해, 복수 개의 마이크로 LED 픽셀들을 포함하는 마이크로 LED 패널과 상기 마이크로 LED 픽셀들을 개별적으로 제어가능하도록 상기 마이크로 LED 픽셀들 각각에 대응되게 CMOS 셀들이 어레이된 CMOS 백플레인을 갖는 플래쉬 유닛을 포함하는 촬상 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는, 피부 진단을 위한 피부 화상의 촬상시 사용되는 피부 진단용 촬상 장치에서, 피부 화상 전체에서 불명확하거나 선명하지 않은 부분이 없도록, 복수 개의 마이크로 LED 픽셀들을 구비하고, 이들을 개별적으로 제어하도록 CMOS 백플레인을 구비함으로써, 해당 부분이 피부 화상에서 명확하게 나타날 수 있도록 하는 피부 진단용 촬상 장치를 제공하는 것이다.
상기 과제를 해결하기 위한 본 발명의 일 측면에 따른 촬상 장치는, 피사체와 피사체 이외의 부분을 포함하는 화상을 캡쳐하는 CCD 화상 센서와, 상기 CCD 화상 센서에 의해 캡쳐된 화상에서, 피사체의 위치 및 크기를 검출하기 위한 피사체 검출부와, 상기 피사체의 밝기를 계측하는 측광부와, 상기 피사체 검출부의 검출 결과 및 상기 측광부의 계측 결과에 기초한 처리 결과 신호를 생성하는 프로세서부와, 플래쉬 광원으로서 2차원으로 배열된 복수 개의 마이크로 LED 픽셀들이 어레이된 마이크로 LED 패널과, 상기 마이크로 LED 픽셀들을 개별적으로 동작시키기 위한 CMOS 셀들이 어레이된 CMOS 백플레인을 갖는, 플래쉬 유닛을 포함하며, 상기 프로세서부는 상기 피사체 검출부의 검출 결과 및 상기 측광부의 계측 결과에 기초하여 생성한 처리 결과 신호를 상기 CMOS 백플레인으로 내보냄으로써, 상기 마이크로 LED 픽셀들을 선택적으로 동작시키는 것을 특징으로 한다.
일 실시예에 따라, 상기 CCD 화상 센서에 의해 캡쳐된 화상은 상기 프로세서부에 의해 복수 개의 분할 영역들로 구분되고, 상기 마이크로 LED 픽셀들 각각은 상기 분할 영역들 각각에 조명하도록 대응된다.
일 실시예에 따라, 상기 CCD 화상 센서에 의해 캡쳐된 화상은 상기 프로세서부에 의해 복수 개의 분할 영역들로 구분되고, 상기 마이크로 LED 픽셀들은 복수 개의 픽셀 그룹들로 구분되며, 상기 픽셀 그룹들 각각이 상기 분할 영역들 각각에 조명하도록 대응된다.
일 실시예에 따라, 상기 분할 영역들 각각은 복수 개의 서브 영역들로 상기 프로세서부에 의해 재분할되고, 상기 픽셀 그룹들 내 마이크로 LED 픽셀들 각각은 상기 서브 영역들 각각을 조명하도록 대응된다.
일 실시예에 따라, 상기 프로세서부는, 상기 측광부에 의해 측정된 피사체의 밝기가 상기 피사체 이외의 부분보다 상대적으로 어두운 경우, 최종 촬상시, 상기 분할 영역들 중 피사체가 포함된 분할 영역에 대응되는 마이크로 LED 픽셀을 구동시켜 해당 분할 영역을 조명하도록 하기 위한 처리 결과 신호를 상기 CMOS 백플레인으로 내보낸다.
일 실시예에 따라, 상기 프로세서부는, 최종 촬상시, 피사체가 포함된 서브 영역들 중 상대적으로 어두운 부분에 대응되는 마이크로 LED 픽셀을 오프시키고, 피사체가 포함된 서브 영역들 중 상대적으로 밝은 부분에 대응되는 마이크로 LED 픽셀을 구동시켜 해당 서브 영역을 조명하도록 하기 위한 처리 결과 신호를 상기 CMOS 백플레인으로 내보낸다.
일 실시예에 따라, 상기 마이크로 LED 픽셀들 각각은 상기 CMOS 셀들 각각에 대응되며, 상기 마이크로 LED 픽셀들 각각과 상기 마이크로 LED 픽셀들 각각에 대응되는 CMOS 셀들 각각은 범프들을 이용하여 플립칩 본딩된다.
일 실시예에 따라, 상기 마이크로 LED 픽셀들은 기판상에 차례대로 제1 도전형 반도체층, 활성층, 및 제2 도전형 반도체층을 성장시킨 후 식각되어 형성되며, 상기 마이크로 LED 픽셀들의 수직구조는, 차례대로, 제1 도전형 반도체층, 활성층 및 제2 도전형 반도체층을 포함하고, 상기 마이크로 LED 픽셀들이 형성되지 않은 부분은, 활성층 및 제2 도전형 반도체층이 제거되어 제1 도전형 반도체층이 노출된다.
일 실시예에 따라, 상기 마이크로 LED 픽셀들이 형성되지 않은 부분의 제1 도전형 반도체층 상에는 상기 마이크로 LED 픽셀들과 이격되게 제1 도전형 메탈층이 형성된다.
일 실시예에 따라, 상기 제1 도전형 메탈층은 상기 제1 도전형 반도체층 상에서 상기 마이크로 LED 패널의 외곽을 따라 형성된다.
일 실시예에 따라, 상기 제1 도전형 메탈층의 높이는 상기 마이크로 LED 픽셀들의 높이와 동일하다.
일 실시예에 따라, 상기 제1 도전형 메탈층은 상기 마이크로 LED 픽셀들의 공통 전극으로서 기능한다.
일 실시예에 따라, 상기 CMOS 백플레인은, 상기 제1 도전형 메탈층에 대응되게 형성된 공통 셀을 포함하고, 상기 제1 도전형 메탈층과 상기 공통 셀은 공통 범프에 의해 전기적으로 연결된다.
일 실시예에 따라, 상기 제1 도전형은 n형이고, 상기 제2 도전형은 p형이다.
일 실시예에 따라, 상기 기판은, 사파이어, SiC, Si, 유리, 및 ZnO 중 어느 하나로 이루어진다.
일 실시예에 따라, 상기 범프들은 상기 CMOS 셀들 각각에 형성되어, 가열에 의해 녹음으로써, 상기 CMOS 셀들 각각과 상기 CMOS 셀들 각각에 대응되는 마이크로 LED 픽셀이 전기적으로 연결된다.
일 실시예에 따라, 상기 플래쉬 유닛은, 상기 마이크로 LED 패널의 전면에 상기 마이크로 LED 픽셀들 각각에 대응되게 형성된 복수 개의 플래쉬 렌즈들을 갖는 플래쉬 렌즈 어레이부를 포함한다.
상기 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 피부 진단용 촬상 장치는, 피부 화상(skin image)을 캡쳐하는 화상 캡쳐 유닛, 상기 피부 화상에서 피부 밝기를 계측하는 측광부, 상기 측광부에서의 계측 결과에 기초하여 처리 결과 신호를 생성하는 프로세서부, 그리고, 복수 개의 마이크로 LED 픽셀들이 2차원으로 배열된 마이크로 LED 패널과, 상기 마이크로 LED 픽셀들을 개별적으로 동작시키기 위한 CMOS 셀들이 2차원으로 배열된 CMOS 백플레인을 갖는, 조명 유닛을 포함하며, 상기 프로세서부는 상기 처리 결과 신호를 이용하여 상기 CMOS 백플레인을 제어함으로써, 상기 측광부에 의해 계측된 상기 피부 화상에서의 피부 밝기에 의존하여 상기 마이크로 LED 픽셀들을 선택적으로 동작시키는 것을 특징으로 한다.
일 실시예에 따라, 상기 화상 캡쳐 유닛에 의해 캡쳐된 피부 화상은 상기 프로세서부에 의해 복수 개의 분할 영역들로 분할되고, 상기 분할 영역들 각각을 조명하도록 상기 마이크로 LED 픽셀들 각각은 상기 분할 영역들 각각에 대응된다.
일 실시예에 따라, 상기 화상 캡쳐 유닛에 의해 캡쳐된 피부 화상은 상기 프로세서부에 의해 복수 개의 분할 영역들로 분할되고, 상기 마이크로 LED 픽셀들은 복수 개의 픽셀 그룹들로 구분되며, 상기 픽셀 그룹들 각각이 상기 분할 영역들 각각을 조명하도록 대응된다.
일 실시예에 따라, 상기 분할 영역들 각각은 상기 프로세서부에 의해 복수 개의 서브 영역들로 재분할되고, 상기 픽셀 그룹들 내 마이크로 LED 픽셀들 각각은 상기 서브 영역들 각각을 조명하도록 대응된다.
일 실시예에 따라, 상기 측광부는 상기 분할 영역들 각각에 대해 피부 밝기를 계측한다.
일 실시예에 따라, 상기 프로세서부는, 상기 측광부에 의해 계측된 상기 분할 영역들 각각의 피부 밝기 중 미리 설정된 분할 영역별 기준 밝기보다 어두운 분할 영역에 대하여, 상기 미리 설정된 분할 영역별 기준 밝기보다 어두운 분할 영역에 대응되는 마이크로 LED 픽셀을 구동시키도록, 상기 처리 결과 신호를 상기 CMOS 백플레인으로 내보낸다.
일 실시예에 따라, 상기 측광부는 상기 서브 영역들 각각에 대해 피부 밝기를 계측한다.
일 실시예에 따라, 상기 프로세서부는, 상기 측광부에 의해 계측된 상기 서브 영역들 각각의 피부 밝기 중 미리 설정된 서브 영역별 기준 밝기보다 어두운 서브 영역에 대하여, 상기 미리 설정된 서브 영역별 기준 밝기보다 어두운 서브 영역에 대응되는 마이크로 LED 픽셀을 구동시키도록, 상기 처리 결과 신호를 상기 CMOS 백플레인으로 내보내는 것을 특징으로 한다.
일 실시예에 따라, 상기 마이크로 LED 픽셀들 각각은 상기 CMOS 셀들 각각에 대응되며, 상기 마이크로 LED 픽셀들 각각과 상기 마이크로 LED 픽셀들 각각에 대응되는 CMOS 셀들 각각은 범프들을 이용하여 플립칩 본딩된다.
일 실시예에 따라, 상기 마이크로 LED 픽셀들은 기판상에 차례대로 제1 도전형 반도체층, 활성층, 및 제2 도전형 반도체층을 성장시킨 후 식각되어 형성되며, 상기 마이크로 LED 픽셀들의 수직구조는, 차례대로, 제1 도전형 반도체층, 활성층 및 제2 도전형 반도체층을 포함하고, 상기 마이크로 LED 픽셀들이 형성되지 않은 부분은, 활성층 및 제2 도전형 반도체층이 제거되어 제1 도전형 반도체층이 노출된다.
일 실시예에 따라, 상기 마이크로 LED 픽셀들이 형성되지 않은 부분의 제1 도전형 반도체층 상에는 상기 마이크로 LED 픽셀들과 이격되게 제1 도전형 메탈층이 형성된다.
일 실시예에 따라, 상기 제1 도전형 메탈층은 상기 제1 도전형 반도체층 상에서 상기 마이크로 LED 패널의 외곽을 따라 형성된다.
일 실시예에 따라, 상기 제1 도전형 메탈층의 높이는 상기 마이크로 LED 픽셀들의 높이와 동일하다.
일 실시예에 따라, 상기 제1 도전형 메탈층은 상기 마이크로 LED 픽셀들의 공통 전극으로서 기능한다.
일 실시예에 따라, 상기 CMOS 백플레인은, 상기 제1 도전형 메탈층에 대응되게 형성된 공통 셀을 포함하고, 상기 제1 도전형 메탈층과 상기 공통 셀은 공통 범프에 의해 전기적으로 연결된다.
일 실시예에 따라, 상기 제1 도전형은 n형이고, 상기 제2 도전형은 p형이다.
일 실시예에 따라, 상기 기판은, 사파이어, SiC, Si, 유리, 및 ZnO 중 어느 하나로 이루어진다.
일 실시예에 따라, 상기 범프들은 상기 CMOS 셀들 각각에 형성되어, 가열에 의해 녹음으로써, 상기 CMOS 셀들 각각과 상기 CMOS 셀들 각각에 대응되는 마이크로 LED 픽셀이 전기적으로 연결된다.
일 실시예에 따라, 상기 조명 유닛은, 상기 마이크로 LED 패널의 전면에 상기 마이크로 LED 픽셀들 각각에 대응되게 형성된 복수 개의 렌즈들을 갖는 렌즈 어레이부를 포함한다.
본 발명은 복수 개의 마이크로 LED 픽셀들을 포함하는 마이크로 LED 패널과 상기 마이크로 LED 픽셀들을 개별적으로 제어가능하도록 상기 마이크로 LED 픽셀들 각각에 대응되게 CMOS 셀들이 어레이된 CMOS 백플레인을 갖는 플래쉬 유닛을 포함하는 촬상 장치를 제공함으로써, 최종 촬상시 플래쉬 유닛에 의한 플래쉬 조명을 보다 정밀하게 조절하여 촬상된 화상의 퀄리티를 높일 수 있는 효과를 갖는다.
또한, 본 발명은 피부 화상의 분할 영역들 각각을 조명하도록 이들 분할 영역들 각각에 대응되는 마이크로 LED 픽셀들을 구비하고, 이들 마이크로 LED 픽셀들 각각을 제어하도록 CMOS 셀들이 어레이된 CMOS 백플레인을 구비하는 피부 진단용 촬상 장치를 제공함으로써, 피부 진단에 사용되는 피부 화상 전체에서 불명확하거나 선명하지 않은 부분이 없도록 함으로써, 피부 진단 작업시 정확성을 도모할 수 있으며, 피부 진단 작업 시간을 단축시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 촬상 장치를 나타낸 도면으로서, (a)는 플래쉬 유닛(10)과 렌즈 유닛(12)이 위치한 면이 보이도록 나타낸 사시도이고, (b)는 디스플레이부(16)와 셔터 버튼(13)이 위치한 면이 보이도록 나타낸 사시도이며,
도 2는 본 발명의 일 실시예에 따른 촬상 장치에서의 플래쉬 유닛(10)을 나타낸 도면이고,
도 3은 도 2의 플래쉬 유닛의 일 예를 나타낸 도면이고,
도 4는 도 3의 플래쉬 유닛(10)에서 마이크로 LED 패널(100)을 나타낸 도면으로서, (a)는 마이크로 LED 패널(100)의 평면도이고 (b)는 대응되는 단면도이고,
도 5는 도 3의 플래쉬 유닛(10)에서 마이크로 LED 패널(100)과 마이크로 LED 패널(100) 상의 마이크로 LED 픽셀들 각각을 개별 구동하기 위한 복수 개의 CMOS 셀들을 포함하는 CMOS 백플레인(200)을 마이크로 LED 패널(100)과 함께 나타낸 도면이고,
도 6은 도 3의 플래쉬 유닛(10)에서 마이크로 LED 패널(100)과 CMOS 백플레인(200)을 범프들(300)을 이용하여 전기적으로 연결시키기 위해, 범프들(300)을 CMOS 백플레인(200) 상에 배치한 상태를 나타낸 도면이고,
도 7은 본 발명의 일 실시예에 따른 촬상 장치(1)의 전반적인 동작을 설명하기 위한 블록도이고,
도 8은 플래쉬 유닛(10) 내 마이크로 LED 패널에서 마이크로 LED 픽셀들(130)의 어레이의 일 예이고,
도 9는 촬상될 화상에서 도 8의 마이크로 LED 픽셀들(130) 각각이 담당하는 분할 영역으로서, 여기서 하나의 영역(예컨대, R12)은 하나의 마이크로 LED 픽셀(130)이 담당하며,
도 10은 하나의 마이크로 LED 픽셀과 담당하는 분할 영역 간의 관계를 나타낸 도면이고,
도 11은 촬상시 도 8의 마이크로 LED 픽셀들(130)의 어레이에 의해 조사되는 플래쉬 조명이 적용되기 위한 한 프레임의 화상, 즉 CCD 화상 센서에 의해 캡쳐된 화상 이미지의 한 프레임을 나타낸 도면으로서, 도 11에서 분할 영역들(S11 ~ Smn) 각각은 도 8에서의 마이크로 LED 픽셀들이 담당하는 분할 영역이다.
도 12는 본 발명의 일 실시예에 따른 피부 진단용 촬상 장치를 나타낸 도면이고,
도 13은 본 발명의 일 실시예에 따른 피부 진단용 촬상 장치에서의 조명 유닛(10)을 나타낸 도면이고,
도 14는 도 13의 조명 유닛의 일 예를 나타낸 도면이고,
도 15는 도 14의 조명 유닛(10)에서 마이크로 LED 패널(100)을 나타낸 도면으로서, (a)는 마이크로 LED 패널(100)의 평면도이고 (b)는 대응되는 단면도이고,
도 16은 도 14의 조명 유닛(10)에서 마이크로 LED 패널(100)과 마이크로 LED 패널(100) 상의 마이크로 LED 픽셀들 각각을 개별 구동하기 위한 복수 개의 CMOS 셀들을 포함하는 CMOS 백플레인(200)을 마이크로 LED 패널(100)과 함께 나타낸 도면이고,
도 17은 도 14의 조명 유닛(10)에서 마이크로 LED 패널(100)과 CMOS 백플레인(200)을 범프들(300)을 이용하여 전기적으로 연결시키기 위해, 범프들(300)을 CMOS 백플레인(200) 상에 배치한 상태를 나타낸 도면이고,
도 18은 본 발명의 일 실시예에 따른 피부 진단용 촬상 장치(1; 도 12 참조)의 전반적인 동작을 설명하기 위한 블록도이고,
도 19는 조명 유닛(10) 내 마이크로 LED 패널에서 마이크로 LED 픽셀들(130)의 어레이의 일 예이고,
도 20은 촬상될 피부 화상에서 도 19의 마이크로 LED 픽셀들(130) 각각이 담당하는 분할 조명 영역으로서, 여기서 하나의 영역(예컨대, R12)은 하나의 마이크로 LED 픽셀(130)이 담당하며,
도 21은 하나의 마이크로 LED 픽셀과 담당하는 분할 영역 간의 관계를 나타낸 도면이다.
본 발명은 기본적으로, 플래쉬 조명, 즉 광원으로서 복수 개의 마이크로 LED 픽셀들을 포함하는 마이크로 LED 패널과, 마이크로 LED 픽셀들 각각을 독립적으로 제어가능하도록 마이크로 LED 픽셀들 각각에 대응되는 CMOS 셀들을 범프들을 이용하여 전기적으로 연결한 형태의 플래쉬 유닛을 적용하고, 이들 마이크로 LED 픽셀들 각각은 촬상될 화상, 즉 CCD 화상 센서에 의해 캡쳐되는 화상에서 소정의 개수로 분할되는 복수 개의 분할 영역들에 대한 조명을 담당하도록, 각각의 분할 영역에 각각의 마이크로 LED 픽셀이 대응되도록 구성되어 있다. 이렇게 구성함으로써, 촬상 장치를 이용한 최종 촬상시, 플래쉬 유닛에 의한 조명을 보다 정밀하게 조절하여 촬상된 화상의 퀄리티를 높일 수 있게 된다.
이하에서는 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예들을 설명한다. 첨부된 도면들 및 이하의 설명은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자로 하여금 본 발명에 관한 이해를 돕기 위한 의도로 간략화되고 예시된 것임에 유의하여야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 촬상 장치를 나타낸 도면으로서, (a)는 플래쉬 유닛(10)과 렌즈 유닛(12)이 위치한 면이 보이도록 나타낸 사시도이고, (b)는 디스플레이부(16)와 셔터 버튼(13)이 위치한 면이 보이도록 나타낸 사시도이다. 도 1에는 렌즈 유닛이나 조작부 등과 같이 촬상 장치(1)의 외부로 노출된 구성요소들을 중점적으로 도시하였으며, 촬상 장치(1) 내부의 각종 구성요소들은 도 7에 예시되어 있고, 촬상 장치(1)의 전반적인 동작은 이후에 도 7을 참조하여 설명한다.
먼저, 도 1에 도시된 바와 같이 촬상 장치(1)의 일측에는 플래쉬 유닛(10) 및 렌즈 유닛(12)이 위치한다. 촬상 장치(1)의 타측에는 셔터 버튼(13)과 디스플레이부(16)가 위치한다. 통상적인 스마트폰에서와 같이, 디스플레이부(16)는 터치 패널로 구현될 수 있고, 셔터 버튼(13)은 디스플레이부(16) 상의 일정 위치에 표시되어 사용자에 의해 눌려지는 경우 촬상이 진행된다. 줌인/줌아웃 작업이나 플래쉬의 온/오프 등의 전반적인 촬상 작업의 제어는 사용자가 디스플레이부(16) 상에서 손가락이나 기타 입력 수단을 이용하여 수행될 수 있다. 이를 위해, 디스플레이부(16) 상에는 다양한 메뉴 버튼이나 설정 버튼이 표시될 수 있다. 또한, 후술되는 피사체 검출 작업도 사용자가 디스플레이부(16)에 터치하는 방식으로 수행될 수 있고, 색온도 검출부(도 7의 63)에 의한 색온도 검출 작업도 수반될 수 있다.
렌즈 유닛(12)은 렌즈계를 포함할 수 있으며, 렌즈계의 후방에는 CCD 화상 센서가 배치된다(도 7 참조).
디스플레이부(16)는 화상 캡쳐를 위해 화각을 확인하기 위한 파인더로서도 기능한다. 사용자는 디스플레이부(16) 상에서 줌인/줌아웃 작업을 통해 촬영될 피사체를 관찰하면서 화각을 결정한다. 화각을 결정한 후, 디스플레이부(16)를 적절히 터치하거나 셔터 버튼(13)을 누름으로써 화상을 캡쳐하는 작업을 진행한다.
도 2는 본 발명의 일 실시예에 따른 촬상 장치에서의 플래쉬 유닛(10)을 나타낸 도면이다. 도 2를 참조하면, 플래쉬 유닛(10)은, 소정의 분할 영역을 조명하기 위한 복수 개의 마이크로 LED 픽셀들이 형성된 마이크로 LED 패널(100), 마이크로 LED 픽셀들 각각을 개별 제어하기 위한 CMOS 셀들이 형성된 CMOS 백플레인(200)을 포함한다. 또한, 플래쉬 유닛(10)은, 마이크로 LED 패널(100)의 전방, 즉 CMOS 백플레인(200)의 반대편에는 마이크로 LED 픽셀들 각각에 대응되게 플래쉬 렌즈들이 형성된 플래쉬 렌즈 어레이부(400)를 더 포함할 수 있다.
도 3은 도 2의 플래쉬 유닛(10)의 일 예이다. 도 3에서는 플래쉬 렌즈 어레이부(400)를 생략하여 도시하였으나, 도 2에 도시된 바와 같이 플래쉬 렌즈 어레이부(400)도 함께 고려될 수 있다. 도 3에 도시된 바와 같이, 플래쉬 유닛(10)은 마이크로 LED 패널(100), CMOS 백플레인(200) 및 범프들(300)을 포함한다. 범프들(300)이 배치된 CMOS 백플레인(200) 상에 마이크로 LED 패널(100)을 마주보게 배치하여 마이크로 LED 패널(100) 상의 마이크로 LED 픽셀들(130) 각각과 CMOS 백플레인(200) 상의 CMOS 셀들이 전기적으로 연결되어 마이크로 LED 픽셀들(130) 각각이 독립적으로 제어될 수 있도록 구성되어 있다. 도 3의 플래쉬 유닛(10)에서 마이크로 LED 패널(100) 및 CMOS 백플레인(200)의 구체적인 구성 및 형성 과정은 도 4 내지 도 6을 참조하여 이하에서 설명된다.
도 4는 도 3의 플래쉬 유닛(10)에서 마이크로 LED 패널(100)의 일 예를 보인 도면이고, 도 5는 도 3의 플래쉬 유닛(10)에서 마이크로 LED 패널(100)과 마이크로 LED 패널(100) 상의 마이크로 LED 픽셀들 각각을 개별 구동하기 위한 복수 개의 CMOS 셀들을 포함하는 CMOS 백플레인(200)을 마이크로 LED 패널(100)과 함께 나타낸 도면이고, 도 6은 도 3의 플래쉬 유닛(10)에서 마이크로 LED 패널(100)과 CMOS 백플레인(200)을 범프들(300)을 이용하여 전기적으로 연결시키기 위해, 범프들(300)을 CMOS 백플레인(200) 상에 배치한 상태를 나타낸 도면이다.
도 3 내지 도 6을 참조하면, 본 발명의 일 실시예에 따른 촬상 장치(1)에서 플래쉬 유닛(10)은, 마이크로 LED 패널(100), CMOS 백플레인(200) 및 범프들(300)을 포함한다. 마이크로 LED 패널(100)은 복수 개의 마이크로 LED 픽셀들(130)을 포함하고, CMOS 백플레인(200)은, 마이크로 LED 픽셀들(130) 각각을 개별 구동시키기 위해 마이크로 LED 픽셀들(130) 각각에 대응하는 복수 개의 CMOS 셀들(230)을 포함한다. 그리고, 범프들(300)은, 마이크로 LED 픽셀들(130)과 CMOS 셀들(230)이 마주하도록 배치한 상태에서, 마이크로 LED 픽셀들(130) 각각과 이들 각각에 대응하는 CMOS 셀들(230)이 전기적으로 연결되도록 한다. 본 명세서 내에서 마이크로 LED 픽셀들 및 CMOS 셀들의 참조부호는, 편의상 하나의 마이크로 LED 픽셀과 하나의 CMOS 셀에 대해서만 130과 230으로 표시하였다. 이와 같은 구성을 통해, CMOS 백플레인(200) 상에 형성된 CMOS 셀들(230) 각각에 마이크로 LED 픽셀들(130) 각각이 대응되게 범프들(300)을 이용하여 플립칩 본딩함으로써, 본 발명의 촬상 장치(1)의 플래쉬 유닛(10)에서 마이크로 LED 패널(100)에 형성된 복수 개의 LED 픽셀들(130)이 개별적으로 제어될 수 있도록 한다.
마이크로 LED 패널(100)은 기판(110) 상에 차례대로 제1 도전형 반도체층(132), 활성층(134), 및 제2 도전형 반도체층(136)을 성장시킨 후 식각된다. 마이크로 LED 패널(100) 상의 마이크로 픽셀들(130)은 이러한 과정을 거쳐서 형성되는 것으로서, 개개의 마이크로 LED 픽셀(130)의 수직 구조를 살펴보면, 기판(110) 위에 제1 도전형 반도체층(132), 활성층(134) 및 제2 도전형 반도체층(136)을 포함한다. 기판(110) 측으로는 플래쉬 광원으로서 기능하는 광이 출사되어야 하므로, 기판(110)은 투명한 재료로 형성되어야 하는데, 예컨대, 사파이어, SiC, Si, 유리, 및 ZnO 중 어느 하나로 이루어질 수 있다. 그리고, 제1 도전형 반도체층(132)은 n형 반도체층이고, 제2 도전형 반도체층(136)은 p형 반도체층일 수 있다. 활성층(134)은 전원의 인가시 제1 도전형 반도체층(132)과 제2 도전형 반도체층(136)으로부터 제공되는 전자와 정공이 재결합되는 부분이다.
마이크로 LED 패널(100)에서, 식각된 부분, 즉 마이크로 LED 픽셀들(130)이 형성되지 않은 부분(120)은, 제2 도전형 반도체층(136)과 활성층(134)이 제거되어, 제1 도전형 반도체층(132)이 노출되어 있다. 마이크로 LED 패널(100)에서 마이크로 LED 픽셀들(130)이 형성되지 않은 부분(120)의 제1 도전형 반도체층(132) 상에는, 마이크로 LED 픽셀들(130)과 이격되게 제1 도전형 메탈층(140)이 형성된다. 제1 도전형 메탈층(140)은 제1 도전형 반도체층(132) 상에서 마이크로 LED 패널(100)의 외곽을 따라 소정의 폭을 갖도록 형성된다. 제1 도전형 메탈층(140)의 높이는 마이크로 LED 픽셀들(130)의 높이와 대체로 동일하게 형성된다. 제1 도전형 메탈층(140)은 범프들(300)에 의해 CMOS 백플레인(200)과 전기적으로 연결되어, 마이크로 LED 픽셀들(130)의 공통 전극으로서 기능한다. 예를 들어, 제1 도전형 메탈층(140)은 공통 접지일 수 있다.
CMOS 백플레인(200)은 마이크로 LED 픽셀들(130) 각각을 개별 구동시키기 위한 복수 개의 CMOS 셀들(230)을 포함한다. CMOS 셀들(230) 각각은 범프들(330)을 통해 대응되는 마이크로 LED 픽셀에 전기적으로 연결된다. CMOS 셀들(230) 각각은 CMOS 셀들(230) 각각에 대응되는 마이크로 LED 픽셀을 개별 구동시키기 위한 집적회로이다. CMOS 백플레인(200)은, 예를 들어, AM(Active Matrix) 패널일 수 있으며, 따라서, CMOS 셀들(230) 각각은, 두 개의 트랜지스터와 하나의 커패시터를 포함하는 픽셀 구동 회로일 수 있고, 범프들(300)을 이용하여 CMOS 백플레인(200)에 마이크로 LED 패널(100)을 플립칩 본딩하는 경우, 등가 회로 상, 상기 픽셀 구동 회로의 트랜지스터의 드레인 단자와 공통 접지 단자(예컨대, 참조부호 240) 사이에 개개의 마이크로 LED 픽셀이 배치되는 형태로 구성될 수 있다.
CMOS 백플레인(200)은 제1 도전형 메탈층(140)과 대응되는 위치에 형성된 공통 셀(240)을 포함하며, 제1 도전형 메탈층(140)과 공통 셀(240)은 공통 범프(340)에 의해 전기적으로 연결된다. 본 명세서 내에서는, 복수 개의 CMOS 셀들 각각과 마이크로 LED 픽셀들 각각을 전기적으로 연결하는 범프들(330)과, 제1 도전형 메탈층(140)과 공통 셀(240)을 전기적으로 연결하는 공통 범프(340)를 모두 포함하는 용어로서 범프들(300)이 사용되기도 한다.
도 6에 도시된 바와 같이, 범프들(330) 및 공통 범프(340)가 CMOS 셀들(230) 각각의 상부에 배치된 상태의 CMOS 백플레인(200)과 마이크로 LED 패널(100)을 서로 마주보게 하여 CMOS 셀들(230)과 마이크로 LED 픽셀들(130)을 일대일 대응시켜 밀착시킨 후 가열하게 되면, 범프들(330) 및 공통 범프(340)가 녹게 되고, 그에 따라 CMOS 셀들(230) 각각과 CMOS 셀들(230) 각각에 대응하는 마이크로 LED 픽셀(130)이 도 3에 도시된 바와 같이, 전기적으로 연결되는 상태로 된다.
이렇듯, 본 발명의 촬상 장치(1) 내 플래쉬 유닛(10)에서 마이크로 LED 픽셀들이 개별적으로 제어될 수 있도록 구성함으로써, 촬상 장치(1)를 이용한 촬상시 피사체의 크기, 생김새, 입체적 윤곽 등에 따라서, 최적의 고화질 화상을 얻을 수 있도록 하는 플래쉬 조명이 제공될 수 있도록 한다. 마이크로 LED 패널(100) 내에서 마이크로 LED 픽셀들(130)의 어레이 예는, 도 3 또는 도 8에 도시되어 있다. 즉, 촬상 장치(1)의 크기나 용도에 따라서, 마이크로 LED 패널(100) 내에서 마이크로 LED 픽셀들(130)의 개수나 행렬 배열 크기는 다양할 수 있다. 또한, 이후 도 8 내지 도 11을 참조하여 설명되는 바와 같이, 한 프레임의 화상을 고려할 때, 프레임이 복수 개의 분할 영역들로 구분될 수 있고, 이러한 각각의 분할 영역별로 마이크로 LED 픽셀들(130) 각각 또는 소정 개수의 마이크로 LED 픽셀들(130)(이후, 픽셀 그룹으로 표현됨)이 플래쉬 조명을 담당하게 된다. 즉, 도 8에서 하나의 마이크로 LED 픽셀이 담당하는 영역이 도 9에서의 R11 ~ Rmn 중 하나의 영역일 수 있으며, 마이크로 LED 픽셀과 분할 영역 간의 관계가 도 10에 도시되어 있다. 이렇게 분할된 영역이 피사체에 적용된 상태가 도 11이며, 도 11에서 한 프레임의 화상은 S11 ~ Smn으로서 m * n개로 분할되고, 각각은 하나의 마이크로 LED 픽셀이 플래쉬 조명을 담당하는 영역이 되며, 따라서, 각각에 대응되는 마이크로 LED 픽셀을 온 또는 오프시킴으로써 촬상되는 화상에서 각각의 분할 영역들(S11 ~ Smn)의 조명 상태를 조절할 수 있게 된다. 더 구체적인 설명은 이후 도 8 내지 도 11을 참조하여 설명된다.
도 7은 본 발명의 일 실시예에 따른 촬상 장치(1)의 전반적인 동작을 설명하기 위한 블록도이다. 도 7을 참조하면, 본 발명의 일 실시예에 따른 촬상 장치(1)는, 피사체와 피사체 이외의 부분을 포함하는 화상을 캡쳐하는 CCD 화상 센서(24), CCD 화상 센서(24)에 의해 캡쳐된 화상에서, 피사체의 위치 및 크기를 검출하기 위한 피사체 검출부(62), 피사체의 밝기를 계측하는 측광부(34), 피사체 검출부(62)의 검출 결과 및 측광부(34)의 계측 결과에 기초하여 처리 결과 신호를 생성하는 프로세서부(CPU)(33), 플래쉬 광원으로서 2차원으로 배열된 복수 개의 마이크로 LED 픽셀들(130; 도 3 참조)이 어레이된 마이크로 LED 패널(100)과, 마이크로 LED 픽셀들(130)을 개별적으로 동작시키기 위한 CMOS 셀들(230)이 어레이된 CMOS 백플레인(200)을 갖는, 플래쉬 유닛(10)을 포함하며, 프로세서부(CPU)(33)는 피사체 검출부(62)의 검출 결과 및 측광부(34)의 계측 결과에 기초하여 생성한 처리 결과 신호를 CMOS 백플레인(200)으로 내보냄으로써, 마이크로 LED 픽셀들(130)을 선택적으로 동작시킨다.
도 7에서, 광의 경로를 살펴보면, 렌즈계(20)를 통과한 후 개구(23)에 의해 광량이 조정되어 CCD 화상 센서(24)로 입사한다. 렌즈 유닛(12)으로서 렌즈계(20)와 개구(23) 만으로 간략화하여 도시하였으나, 렌즈계(20)는, 고정 렌즈, 확대 렌즈, 보정 렌즈 및 초점 렌즈 등이 더 구비될 수 있으며, 확대 렌즈와 보정 렌즈는 줌 렌즈로서 기능할 수 있다.
CCD 화상 센서(24)의 광전면에는 적색, 녹색, 청색 마이크로 컬러 필터가 배치될 수 있고, 적색, 녹색, 청색 마이크로 컬러 필터 각각의 후방에는 MOS 다이오드(MOS 커패시터)가 배치될 수 있다.
CCD 구동부(31)에 의해 CCD 화상 센서(24)가 구동된다. 예컨대, CCD 구동부(31)로부터 제공되는 펄스 신호에 의존하여, 각 MOS 다이오드에 축적된 신호 전하가 전송되어 신호 전하에 대응하는 R, G 및 B 휘도 정보를 갖는 전압 신호(화상 신호)로서 CCD 화상 센서(24)로부터 순차적으로 출력된다. CCD 화상 센서(24)는 CCD 구동부(31)로부터의 펄스 타이밍에 따라 각각의 MOS 다이오드의 전하 축적 시간(셔터 속도)을 제어하는 전자 셔터 기능을 갖는다.
CCD 화상 센서(24)로부터 출력된 화상 신호는 아날로그 신호 처리부(25)로 보내진다. 아날로그 신호 처리부(25)는, 예컨대, 샘플링 홀드 회로, 색 분리 회로 및 이득 조정 회로와 같은 신호 처리 회로를 포함할 수 있다.
아날로그 신호 처리부(25)로부터 출력된 신호는 A/D 변환기(26)에서 디지털화되어 내부 메모리(60)에 저장된다. 타이밍 발생기(TG)(32)는 타이밍 신호를 CCD 구동부(31), 아날로그 신호 처리부(25) 및 A/D 변환기(26)로 제공한다. 타이밍 신호에 의해 이들이 동기화된다. 본 명세서 내에서 내부 메모리(60)에 이러한 아날로그 신호 처리부(25)에 의한 신호 처리, A/D 변환기(26)에 의한 변환,타이밍 발생기(TG)의 타이밍 신호에 의한 동기화 등에 관한 언급을 생략하고 간단히 CCD 화상 센서(24)에 의해 캡쳐되는 화상으로 표현되기도 한다.
프로세서부, 즉 CPU(33)는 촬상 장치(1)의 각 구성요소들을 제어하는데, 디스플레이부(16)를 통한 사용자의 조작, 즉 사용자 입력 신호에 따라 각 구성요소들의 동작을 제어한다. 또한, CPU(33)는 플래쉬 유닛(10)의 제어, 디스플레이부(16)의 표시 제어 등을 수행하고, 자동 초점(AF) 및 자동 노출(AE) 제어 등을 수행할 수 있다.
내부 메모리(60)는 CCD 화상 센서(24)에 의해 캡쳐되는 화상이 아날로그 신호 처리부(25), A/D 변환기(26) 등에 의한 처리, 변환 과정을 거쳐 저장되는 부분으로서, 내부 메모리(60)에 저장된 화상 데이터는 버스(bus)를 통해 화상 신호 처리부(61)로 보내진다. 화상 신호 처리부(61)는 구체적으로 도시되어 있지는 않으나, 휘도 신호/색차 신호 생성 회로를 포함하는 디지털 신호 처리부, 보정 회로, 샤프니스 보정 회로, 콘트라스트 보정 회로, 화이트 밸런스 보정 회로 등을 포함할 수 있다. 화상 신호 처리부(61)에 입력된 화상 데이터는 휘도 신호/색차 신호 생성 회로에서 휘도 신호(Y 신호) 및 색차 신호(Cr, Cb 신호)로 변환되고, 또한 소정의 처리 및 보정을 거쳐 내부 메모리(60)에 저장된다. 화상 신호 처리부(61)는 CPU(33)의 제어하에 화상 신호를 처리한다.
프로세서부(CPU)(33)는 측광부(34)를 포함한다. 프로세서부(CPU)(33)는 내부 메모리(60)에 저장된 화상 중 하나의 프레임(F1)을 복수의 영역으로 분할한다(도 9 참조). 프레임(F1)의 분할, LED 픽셀들(130) 각각에서 담당하는 분할 영역들(R11 ~ Rmn)에 관한 설명은 도 8 내지 도 11을 참조하여 이후에 설명된다.
내부 메모리(60)는 CCD 화상 센서에 의해 캡쳐된 화상을 저장한다. 전술한 바와 같이, 아날로그 신호 처리부(25), A/D 변환기(26) 등에 의한 처리 및 변환을 거칠 수 있다.
디스플레이부(16)에 화상을 표시하기 위해, 화상 데이터는 내부 메모리(60)로부터 읽혀져 디스플레이 메모리(64)로 전송되고, 디스플레이 메모리(64)로 전송된 화상 데이터는 디지털/아날로그 변환기(D/A 변환기)(65)에 의해 소정의 신호(예컨대, NTSC 합성 컬러 비디오 신호)로 변환되어 디스플레이부(16)를 통해 표시된다.
CCD 화상 센서(24)에 의해 캡쳐된 화상은 내부 메모리(60)를 통해 디스플레이 메모리(64)에 일정한 간격으로 전송 및 저장된다. 따라서, 결과적으로 CCD 화상 센서(24)에 의해 캡쳐된 화상은 실시간으로 디스플레이부(16) 상에 표시될 수 있다. 사용자는 디스플레이부(16)를 통해 피사체를 확인할 수 있다.
이 때, 사용자는 디스플레이부(16)를 터치 또는 드래그 등 간단한 작업을 통해 화상 데이터가 내부 메모리(60)로부터 읽혀져 피사체 검출부(62)에 입력되도록 한다. 예를 들어, 대상물이 사람인 경우, 피사체 검출부(62)는 화상 데이터로부터 사람의 얼굴을 검색한다. 이에 관한 상세한 내용은 도 8 내지 도 11을 참조하여 이후에 상세히 설명된다. 피사체 검출부(62)는 버스에 연결되어 있다. 피사체 검출부(62)에 의한 피사체 검출 작업의 시작은, 사용자가 디스플레이부(16)에서 피사체를 확인한 후 터치하여 촬상될 화상의 초점을 조절하는 과정에서, 또는 줌인/줌아웃 기능을 수행하는 과정에서 동시에 수행될 수도 있다.
또한, 색온도를 검출하여 결정하기 위한 색온도 검출부(63)가 버스에 추가로 연결되어 있을 수 있다. 색온도 검출부(63)는, 예를 들어, 플래쉬 유닛(10)에 의한 조명시, 색온도 검출부(63)에서 검출된 피사체의 색온도를 고려하여 최종 촬상시 플래쉬 조명을 통해 적절히 보상하는 용도로 사용될 수 있다. 색온도 검출부(63)에 의한 색온도 검출은, CCD 화상 센서(24)에 의해 캡쳐된 화상을 이용하여 검출할 수 있으며, 피사체의 색온도 뿐만 아니라, 한 프레임의 화상 전체에서 분할 영역들 모두에 대하여도 검출할 수 있다.
프로세서부(CPU)(33)는 사용자가 디스플레이부(16)를 통해 줌인/줌아웃 기능을 실행하는 경우, 이러한 사용자 신호에 기초하여 줌 구동 유닛(27)를 제어함으로써, 줌 렌즈(미도시)를 적절한 위치로 이동시킬 수 있고, 이동을 위해 모터(미도시)를 더 구비할 수 있다.다. 줌 구동 유닛(27)은 구동력에 의해 줌 렌즈(21)를 이동시키는 모터(미도시)를 갖는다. 줌 위치 센서(29)에 의해 줌 렌즈의 위치(줌 위치)가 검출되어 프로세서부(33)로 전송된다.
또한, 초점 구동 유닛(28)도 모터(미도시)를 더 구비할 수 있으며, 모터의 구동력은 초점 렌즈(미도시)를 광축을 따라 전후(도면 상에서는 좌우 방향)로 이동시킬 수 있다. 초점 위치 센서(30)에 의해 초점 렌즈의 위치(초점 위치)가 검출되어 프로세서부(33)로 전송된다.
프로세서부(33)는, 사용자에 의해 셔터 버튼(13)이 터치되는 경우, 플래시 유닛(10)의 CMOS 백플레인(200)에서 마이크로 LED 패널(100) 내의 마이크로 LED 픽셀들을 구동하여 플래쉬 광을 조사하기 위해 플래쉬 유닛(10)의 CMOS 백플레인(200) 측으로 필요한 신호를 내보낸다. 상기 신호는, 피사체 검출 유닛에 의한 검출 결과와, 측광부의 계측 결과에 기초하여 생성된 처리 결과 신호이다.
CMOS 백플레인(200)은 앞서 언급한 바와 같이, 마이크로 LED 패널(100) 내의 마이크로 LED 픽셀들을 개별적으로 또는 필요에 따라 소정의 그룹으로 구동시켜, 최적의 광 노출을 수행할 수 있도록 한다. 이에 관하여는 도 8 내지 도 11을 참조하여 이후에 더 구체적으로 설명된다.
사용자가 셔터 버튼(13)을 터치함으로써, 최종적으로 화상을 촬상하게 되는데, 촬상된 화상 데이터는 압축 저장 모드로 저장될 수도 있고, 그렇지 않을 수도 있다. 압축 저장 모드인 경우, 압축/압축해제부(COMP/DECOMP)(66)에 의해, 촬상된 화상 데이터가 내부 메모리(60)에서 압축되고, 카드 인터페이스(67)를 통해 SD 카드(18)에도 저장된다. 압축 해제 모드인 경우, 압축되지 않고 SD 카드(18)에 바로 저장된다.
다음으로, 도 8 내지 도 11을 참조하여, 본 발명의 촬상 장치(1; 도 1)를 이용하여, 화상 캡쳐를 포함하여, 이 과정에서의 플래쉬 유닛(10)의 동작이 상세히 설명된다.
본 발명의 촬상 장치(1)에 의한 전반적인 촬상 진행 과정을 살펴보면, 우선, 사용자에 의해 촬상 앱이 실행된다. 이처럼 촬상 장치(1)가 스마트폰 등의 모바일 기기인 경우에는 촬상 앱이나 카메라 기능 실행을 통해 촬상이 시작되나, 디지털 카메라인 경우, 모드 선택 스위치(미도시)를 조작함으로써 화상 촬영 모드로 전환시켜 촬상을 시작할 수 있다. 그리고, 사용자가 촬상 장치(1)를 피사체 방향으로 향하도록 한 후, 디스플레이부(16)를 터치하거나 드래그하는 과정을 통해, 일련의 피사체 검출, 밝기 계측 작업 등이 수행되고, 이를 기초로 하여, 프로세서부(33)는 처리 결과 신호를 생성한다. 그 후, 사용자가 셔터 버튼(16)을 터치하는 경우 플래쉬 유닛(10)에서 적절한 마이크로 LED 픽셀들이 해당 분할 영역들을 조사하도록 CMOS 백플레인(200) 측으로, 상기 처리 결과 신호를 내보낸다. 전술한 바와 같이, 상기 일련의 피사체 검출, 밝기 계측 작업의 시작은, 줌인/줌아웃 진행 과정에서 또는 초점 조절 과정에서 동시에 수행될 수 있다.
도 8은 플래쉬 유닛(10) 내 마이크로 LED 패널에서 마이크로 LED 픽셀들(130)의 어레이의 일 예이고, 도 9는 촬상될 화상에서 도 8의 마이크로 LED 픽셀들(130) 각각이 담당하는 플래쉬 조명 영역으로서, 여기서 하나의 분할 영역(예컨대, R12)은 하나의 마이크로 LED 픽셀(130)이 담당한다. 한 프레임의 화상에서 이러한 복수 개의 분할 영역들로의 분할 작업은 프로세서부(33)에 의해 수행된다.
또한, 복수 개의 마이크로 LED 픽셀들을 포함하는 하나의 픽셀 그룹이 이에 대응되는 분할 영역을 담당하는 것도 가능하나, 이 실시예에서는 하나의 마이크로 LED 픽셀(130)이 하나의 분할 영역(R12)을 담당한다. 도 10은 하나의 마이크로 LED 픽셀과 담당하는 분할 영역 간의 관계를 나타낸 도면이고, 도 11은 촬상시 도 8의 마이크로 LED 픽셀들(130)의 어레이에 의해 조사되는 플래쉬 조명이 적용되기 위한 한 프레임의 화상, 즉 CCD 화상 센서에 의해 캡쳐된 화상 이미지의 한 프레임을 나타낸 도면으로서, 도 11에서 분할 영역들(S11 ~ Smn) 각각은 도 8에서의 마이크로 LED 픽셀들이 담당하는 분할 영역이다.
도 8 내지 도 10에 도시된 바와 같이, CMOS 백플레인(200)으로 마이크로 LED 픽셀들 각각을 독립적으로 제어하여 하나의 분할 영역을 담당하는 것으로 구현될 수 있다. 도 10에서는 하나의 마이크로 LED 픽셀이 하나의 분할 영역을 조명하는 것을 설명하기 위해 대응되는 분할 영역에 스팟(spot) 형태로 조명하는 것으로 도시되어 있으나, 마이크로 LED 픽셀의 지향각을 고려할 때 인접한 분할 영역들에도 영향을 미칠 수 있다. 하지만, 명확한 설명을 위해, 이와 같이 도면 내에서는 마이크로 LED 픽셀의 조사 지향각을 고려하여 도시한 것은 아니며, 해당 마이크로 LED 픽셀의 조사 광의 중심 주변만을 도시한 것임을 이해하여야 할 것이다.
프로세서부, 즉 CPU(33)는 측광부(34)에 의해 측정된 피사체의 밝기가 피사체 이외의 부분보다 상대적으로 어두운 경우, 최종 촬상을 위해 사용자가 셔터 버턴(16) 터치하면, 분할 영역들 중 피사체가 포함된 분할 영역에 대응되는 마이크로 LED 픽셀을 구동시켜 해당 분할 영역이 더 밝아지도록 조명하기 위한 처리 결과 신호를 CMOS 백플레인(200)으로 내보낸다.
더 나아가, 도면으로 표현되어 있지는 않으나, CMOS 백플레인(200)으로 복수 개의 마이크로 LED 픽셀들이 하나의 그룹을 이루어서 동작하도록 제어하여 하나의 분할 영역을 담당하는 것으로 구현될 수도 있다. 즉, CCD 화상 센서(24)에 의해 캡쳐된 화상이 복수 개의 분할 영역들로 구분되고, 마이크로 LED 픽셀들이 복수 개의 픽셀 그룹들로 구분되며, 픽셀 그룹들 각각이 분할 영역들 각각을 담당하여 조명하도록 구성될 수도 있다.
예를 들어, 분할 영역들 각각이 다시 복수 개의 서브 영역들로 재분할되고, 픽셀 그룹들 내 마이크로 LED 픽셀들 각각이 서브 영역들 각각을 담당하여 조명하도록 구성될 수 있다. 이와 같이 구성되어, 예를 들어, 최종 촬상시, 피사체가 포함된 서브 영역들 중 상대적으로 어두운 부분에 대응되는 마이크로 LED 픽셀을 오프시키고, 피사체가 포함된 서브 영역들 중 상대적으로 밝은 부분에 대응되는 마이크로 LED 픽셀을 구동시켜 해당 서브 영역을 조명하도록 하기 위한 처리 결과 신호를 CPU(33)에서 생성하여 상기 CMOS 백플레인으로 내보냄으로써, 촬상된 화상 내 피사체에서 어두운 부분은 더 어둡게, 밝은 부분은 더 밝게 처리되도록 할 수 있다.
도 10 및 도 11을 참조하면, CCD 화상 센서(24)에 의해 캡쳐된 화상은 복수 개의 분할 영역들로 구분되고, 마이크로 LED 픽셀들 각각은 상기 분할 영역들 각각에 조명하도록 대응될 수 있다. 즉, CCD 화상 센서(24)에 의해 캡쳐된 화상은 내부 메모리(60)에 저장되고, 내부 메모리(60)에 저장된 화상 중 하나의 프레임(F1)은, 프로세서부(33; 도 7)에 의해, 예를 들어, m * n 개의 분할 영역들(S11, S12, ... Smn; 이하 S1 ~ Smn)로 구분될 수 있다. 촬상 과정에서, 측광부(34; 도 7)가 각 분할 영역의 밝기를 나타내는 값(예컨대, 각 분할 영역의 휘도 값, 휘도 값의 적산 값, 조도 등)을 멀티-미터링을 통해 계측한다. 앞서 언급한 바와 같이, 하나의 프레임(F1)에서 분할 영역들(S11 ~ Smn) 각각은 마이크로 LED 픽셀들(130) 각각이 조명하도록 구획된 영역이다.
가령, 하나의 프레임(F1) 내에서 후배광이나 날씨 등에 기인하여 프레임 내에서 부각되어야 할 부분(예컨대, 사람의 얼굴)이 그 밖의 부분(하늘, 산, 바다 등의 배경)에 비해 상대적으로 어둡게 나오는 경우를 가정해 보자. 하나의 프레임(F1) 내에서 사람의 얼굴 부분이 배경에 비해 상대적으로 밝아지도록 하기 위해, 촬상시 사람의 얼굴 부분을 더 밝게 조명해줄 필요가 있다. 하나의 프레임(F1) 내에서 사람의 얼굴을 검색하는 방법으로는, 예컨대, 피사체 검출부(62)가 피부색으로 추정되는 부분이 많은 분할 영역(S34, S35, S44, S45)을 추출하는 방식을 사용하거나(이 경우에는 팔이나 다리 등의 신체 노출 부분이 많은 경우 이 부분들도 같이 검색됨), 또 다르게는, 사람의 양측 눈이 감지되는 영역(S34, S35)을 중심으로 하여 그 주변 영역을 얼굴이 위치하는 영역으로 결정하는 방식을 사용할 수 있다. 피사체 검출부(62)는 각 분할 영역에서 이와 같은 방식으로 얼굴의 위치를 결정한다.
피사체 검출부(62)는 내부 메모리(60)에 저장된 화상의 데이터(촬상 전 화상 데이터)를 읽어들여, 한 프레임(F1)에서 사람의 얼굴을 포함하는 분할 영역을 검출하게 되는데, 여기서, 촬상 전 화상의 데이터는, 셔터 버튼(16)이 터치되지 않은 상태에서 CCD 화상 센서(24)에 의해 캡쳐된 화상으로서, 플래쉬 유닛(10)에 의한 플래쉬 조명 처리 전의 화상이며, 프레임 단위로 내부 메모리(60)에 저장된다. 촬상 전 화상의 데이터는 전술한 바와 같이, 초점 조절과정이나, 줌인/줌아웃 과정에서 동시에 진행되어 내부 메모리(60)에 저장될 수 있다.
색온도 검출부(63)는 내부 메모리(60)에 저장된 화상의 한 프레임(F1)에서 색온도를 검출해낸다. 예를 들어, 색온도 검출부(63)는 각 분할 영역의 색온도의 평균값에 기초하여 각 분할 영역의 색온도를 판별하여 검출해낼 수 있다.
측광부(34)는 하나의 프레임(F1)에서 분할 영역들(S11 ~ Smn) 각각에 대해 멀티 미터링을 수행하여, 분할 영역들(S11 ~ Smn) 각각의 밝기 값을 결정하고, 이러한 정보들은 플래쉬 유닛(10)의 CMOS 백플레인(200)을 제어하는데 사용될 수 있다. 예를 들어, 사람의 얼굴을 포함하는 분할 영역(S34, S35, S44, S45)이 다른 분할 영역에 비해 어두운 경우, 상기 분할 영역(S34, S35, S44, S45)을 담당하는 마이크로 LED 픽셀들이 해당 영역을 플래쉬 조명하도록 프로세서부(33)가 CMOS 백플레인(200)을 제어함으로써 사람의 얼굴이 배경보다 밝아지도록 하여, 결과적으로는 최종적으로 촬상되어 저장되는 화상에서는 사람의 얼굴이 부각되도록 할 수 있다.
최종 촬상을 위해, 사용자가 셔터 버튼(13)을 터치하면, 내부 메모리(60)에 저장된 화상 중 하나의 프레임(F1)을 이용하여 대상물 검출부(62) 측광부(34)에 의해 계측된 정보들에 의존하여, 프로세서부(33)는 플래쉬 유닛(10)의 CMOS 백플레인(200) 측으로 최종 결과 신호를 내보냄으로써, 밝은 플래쉬 조명을 받아야 할 필요가 있는 분할 영역을 담당하는 마이크로 LED 픽셀을 턴온시키고, 그렇지 않은 영역은 오프 상태로 둔다. 또 다르게는 밝은 플래쉬 조명을 받아야 할 필요가 있는 분할 영역은 그렇지 않은 영역들보다 상대적으로 밝은 플래쉬 조명을 받도록 해당 마이크로 LED 픽셀의 출력을 높이고, 그렇지 않은 영역을 담당하는 마이크로 LED 픽셀들은 상대적으로 마이크로 LED 픽셀의 출력을 낮추는 방식으로 제어할 수도 있다.
이렇게 제어된 플래쉬 조명하에서 최종적으로 촬상되어 CCD 화상 센서(24)에 의해 캡쳐되어 출력되는 최종 화상 데이터는, 아날로그 신호 처리부(25) 및 A/D 변환기(26)를 거친 후 내부 메모리(60)에 기록된다. 최종 화상 데이터는 압축/압축해제부(COMP/DECOMP)(66)에서 카드 인터페이스(67)를 통해 SD 카드(18)에 최종적으로 기록된다.
이상에서 본 발명의 촬상 장치에 관하여, 카메라 기능을 갖는 스마트폰 형태로 구현하여 설명하였으나, 본 발명의 촬상 장치는 디지털 카메라, 카메라 기능을 갖는 태블릿 PC나 기타 모바일 기기 등에도 적용될 수 있을 것이다.
다음으로, 본 발명의 피부 진단용 촬상 장치가 설명된다. 이하에서 설명되는 피부 진단용 촬상 장치에 관하여는 도 12 내지 도 21을 참조한다. 도 12 내지 도 21에 도시된 도면들 및 이하의 설명은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자로 하여금 본 발명에 관한 이해를 돕기 위한 의도로 간략화되고 예시된 것임에 유의하여야 할 것이다.
본 발명의 피부 진단용 촬상 장치는, 피부 진단을 위해 피부 화상(skin image)을 촬상하기 위해, 기본적인 조명 유닛으로서 복수 개의 마이크로 LED 픽셀들을 포함하는 마이크로 LED 패널과, 마이크로 LED 픽셀들 각각을 독립적으로 제어가능하도록 마이크로 LED 픽셀들 각각에 대응되는 CMOS 셀들을 범프들을 이용하여 전기적으로 연결한 구조를 적용하고, 이들 마이크로 LED 픽셀들 각각이, 피부 화상에서 프로세서부에 의해 복수 개로 분할된 분할 영역들에 대한 조명을 담당하도록, 각각의 분할 영역에 각각의 마이크로 LED 픽셀이 대응되도록 구성되어 있다. 이렇게 구성함으로써, 피부 진단을 위한 피부 화상 전체에서 불명확하거나 선명하지 않은 부분이 없도록 함으로써, 피부 진단 작업시 정확성을 도모할 수 있으며, 피부 진단 작업 시간을 단축시킬 수 있다.
도 12는 본 발명의 일 실시예에 따른 피부 진단용 촬상 장치를 나타낸 도면으로이다. 도 12에서 피부 진단용 촬상 장치는 스마트폰(1a)에 직접적으로 탑재될 수도 있고, 스마트폰(1a)에 연결하여 사용할 수 있는 피부 진단 툴(1b)일 수도 있다. 다시 말해, 피부 진단용 촬상 장치는 내부에 탑재된 조명 유닛(10a) 및 화상 캡쳐 유닛(12a)을 이용하는 스마트폰(1a)일 수도 있고, 조명 유닛(10b) 및 화상 캡쳐 유닛(12b)을 갖는 피부 진단 툴(1b)일 수도 있다. 또한, 도 12에서는 조명 유닛(10a, 10b; 이하 총괄하여 10으로 나타냄) 및 화상 캡쳐 유닛(12a, 12b ; 이하 총괄하여 12로 나타냄) 등을 중점적으로 도시하였으며, 피부 진단용 촬상 장치 내부의 각종 구성요소들은 도 18에 예시되어 있고, 이후 도 18을 참조하여 더 구체적으로 설명될 것이다. 또한, 피부 진단용 촬상 장치를 이용한 전반적인 촬상 작업 및 피부 화상의 저장/전송 등은 스마트폰(1a)에 설치되는 피부 진단 앱에 의해 수행될 수 있으며, 따라서, 디스플레이부(16)를 통한 사용자 입력에 의해 진행된다.
도 12에 도시된 바와 같이, 디스플레이부(16) 상에서 피부 진단 앱을 실행시킨 후 사람의 얼굴(f)이나 기타 진단이 필요한 피부에 근접시켜 피부 화상을 촬상하게 되는데, 줌인/줌아웃 등의 기능 버튼을 포함한 다양한 기능 버튼이나 설정 버튼이 디스플레이부(16) 상에 표시될 수 있다.
화상 캡쳐 유닛(12)은 렌즈계(20)를 포함할 수 있으며, 렌즈계(20)의 후방에는 화상 센서(24)가 배치된다(도 18 참조).
디스플레이부(16)는 화상 캡쳐를 위해 화각을 확인하기 위한 파인더로서도 기능한다. 사용자는 디스플레이부(16) 상에서 줌인/줌아웃 작업을 통해 피부를 관찰하면서 화각을 결정한다. 화각을 결정한 후, 디스플레이부(16)를 적절히 터치하여 피부 화상을 캡쳐한다.
도 13은 본 발명의 일 실시예에 따른 피부 진단용 촬상 장치에서의 조명 유닛(10)을 나타낸 도면이다. 도 13에 도시된 조명 유닛(10)은 앞서 언급한 바와 같이 스마트폰(1a)의 조명 유닛(10a) 또는 피부 진단 툴(1b)의 조명 유닛(10b)일 수 있다.
도 13을 참조하면, 조명 유닛(10)은, 소정의 분할 영역을 조명하기 위한 복수 개의 마이크로 LED 픽셀들이 형성된 마이크로 LED 패널(100), 마이크로 LED 픽셀들 각각을 개별 제어하기 위한 CMOS 셀들이 형성된 CMOS 백플레인(200)을 포함한다. 또한, 조명 유닛(10)은, 마이크로 LED 패널(100)의 전방, 즉 CMOS 백플레인(200)의 반대편에는 마이크로 LED 픽셀들 각각에 대응되게 렌즈들이 형성된 렌즈 어레이부(400)를 더 포함할 수 있다.
도 14는 도 13의 조명 유닛(10)의 일 예이다. 도 14에서는 렌즈 어레이부(400)를 생략하여 도시하였으나, 도 13에 도시된 바와 같이 렌즈 어레이부(400)도 함께 고려될 수 있다. 도 14에 도시된 바와 같이, 조명 유닛(10)은 마이크로 LED 패널(100), CMOS 백플레인(200) 및 범프들(300)을 포함한다. 범프들(300)이 배치된 CMOS 백플레인(200) 상에 마이크로 LED 패널(100)을 마주보게 배치하여 마이크로 LED 패널(100) 상의 마이크로 LED 픽셀들(130) 각각과 CMOS 백플레인(200) 상의 CMOS 셀들이 전기적으로 연결되어 마이크로 LED 픽셀들(130) 각각이 독립적으로 제어될 수 있도록 구성되어 있다. 도 14의 조명 유닛(10)에서 마이크로 LED 패널(100) 및 CMOS 백플레인(200)의 구체적인 구성 및 형성 과정은 도 15 내지 도 17을 참조하여 이하에서 설명된다.
도 15는 도 14의 조명 유닛(10)에서 마이크로 LED 패널(100)의 일 예를 보인 도면이고, 도 16은 도 14의 조명 유닛(10)에서 마이크로 LED 패널(100)과 마이크로 LED 패널(100) 상의 마이크로 LED 픽셀들 각각을 개별 구동하기 위한 복수 개의 CMOS 셀들을 포함하는 CMOS 백플레인(200)을 마이크로 LED 패널(100)과 함께 나타낸 도면이고, 도 17은 도 14의 조명 유닛(10)에서 마이크로 LED 패널(100)과 CMOS 백플레인(200)을 범프들(300)을 이용하여 전기적으로 연결시키기 위해, 범프들(300)을 CMOS 백플레인(200) 상에 배치한 상태를 나타낸 도면이다.
도 14 내지 도 17을 참조하면, 본 발명의 일 실시예에 따른 피부 진단용 촬상 장치(1a 또는 1b; 이하 총괄하여 1로 표시함; 도 12 참조)에서 조명 유닛(10)은, 마이크로 LED 패널(100), CMOS 백플레인(200) 및 범프들(300)을 포함한다. 마이크로 LED 패널(100)은 복수 개의 마이크로 LED 픽셀들(130)을 포함하고, CMOS 백플레인(200)은, 마이크로 LED 픽셀들(130) 각각을 개별 구동시키기 위해 마이크로 LED 픽셀들(130) 각각에 대응하는 복수 개의 CMOS 셀들(230)을 포함한다. 그리고, 범프들(300)은, 마이크로 LED 픽셀들(130)과 CMOS 셀들(230)이 마주하도록 배치한 상태에서, 마이크로 LED 픽셀들(130) 각각과 이들 각각에 대응하는 CMOS 셀들(230)이 전기적으로 연결되도록 한다. 본 명세서 내에서 마이크로 LED 픽셀들 및 CMOS 셀들의 참조부호는, 편의상 하나의 마이크로 LED 픽셀과 하나의 CMOS 셀에 대해서만 130과 230으로 표시하였다. 이와 같은 구성을 통해, CMOS 백플레인(200) 상에 형성된 CMOS 셀들(230) 각각에 마이크로 LED 픽셀들(130) 각각이 대응되게 범프들(300)을 이용하여 플립칩 본딩함으로써, 본 발명의 피부 진단용 촬상 장치(1)의 조명 유닛(10)에서 마이크로 LED 패널(100)에 형성된 복수 개의 LED 픽셀들(130)이 개별적으로 제어될 수 있도록 한다.
마이크로 LED 패널(100)은 기판(110) 상에 차례대로 제1 도전형 반도체층(132), 활성층(134), 및 제2 도전형 반도체층(136)을 성장시킨 후 식각된다. 마이크로 LED 패널(100) 상의 마이크로 픽셀들(130)은 이러한 과정을 거쳐서 형성되는 것으로서, 개개의 마이크로 LED 픽셀(130)의 수직 구조를 살펴보면, 기판(110) 위에 제1 도전형 반도체층(132), 활성층(134) 및 제2 도전형 반도체층(136)을 포함한다. 기판(110) 측으로는 광원으로서 기능하는 LED 광이 출사되어야 하므로, 기판(110)은 투명한 재료로 형성되어야 한다. 예컨대, 기판(110)은 사파이어, SiC, Si, 유리, 및 ZnO 중 어느 하나로 이루어질 수 있다. 그리고, 제1 도전형 반도체층(132)은 n형 반도체층이고, 제2 도전형 반도체층(136)은 p형 반도체층일 수 있다. 활성층(134)은 전원의 인가시 제1 도전형 반도체층(132)과 제2 도전형 반도체층(136)으로부터 제공되는 전자와 정공이 재결합되는 부분이다.
마이크로 LED 패널(100)에서, 식각된 부분, 즉 마이크로 LED 픽셀들(130)이 형성되지 않은 부분(120)은, 제2 도전형 반도체층(136)과 활성층(134)이 제거되어, 제1 도전형 반도체층(132)이 노출되어 있다. 마이크로 LED 패널(100)에서 마이크로 LED 픽셀들(130)이 형성되지 않은 부분(120)의 제1 도전형 반도체층(132) 상에는, 마이크로 LED 픽셀들(130)과 이격되게 제1 도전형 메탈층(140)이 형성된다. 제1 도전형 메탈층(140)은 제1 도전형 반도체층(132) 상에서 마이크로 LED 패널(100)의 외곽을 따라 소정의 폭을 갖도록 형성된다. 제1 도전형 메탈층(140)의 높이는 마이크로 LED 픽셀들(130)의 높이와 대체로 동일하게 형성된다. 제1 도전형 메탈층(140)은 범프들(300)에 의해 CMOS 백플레인(200)과 전기적으로 연결되어, 마이크로 LED 픽셀들(130)의 공통 전극으로서 기능한다. 예를 들어, 제1 도전형 메탈층(140)은 공통 접지일 수 있다.
CMOS 백플레인(200)은 마이크로 LED 픽셀들(130) 각각을 개별 구동시키기 위한 복수 개의 CMOS 셀들(230)을 포함한다. CMOS 셀들(230) 각각은 범프들(330)을 통해 대응되는 마이크로 LED 픽셀에 전기적으로 연결된다. CMOS 셀들(230) 각각은 CMOS 셀들(230) 각각에 대응되는 마이크로 LED 픽셀을 개별 구동시키기 위한 집적회로이다. CMOS 백플레인(200)은, 예를 들어, AM(Active Matrix) 패널일 수 있으며, 따라서, CMOS 셀들(230) 각각은, 두 개의 트랜지스터와 하나의 커패시터를 포함하는 픽셀 구동 회로일 수 있고, 범프들(300)을 이용하여 CMOS 백플레인(200)에 마이크로 LED 패널(100)을 플립칩 본딩하는 경우, 등가 회로 상, 상기 픽셀 구동 회로의 트랜지스터의 드레인 단자와 공통 접지 단자(예컨대, 참조부호 240) 사이에 개개의 마이크로 LED 픽셀이 배치되는 형태로 구성될 수 있다.
CMOS 백플레인(200)은 제1 도전형 메탈층(140)과 대응되는 위치에 형성된 공통 셀(240)을 포함하며, 제1 도전형 메탈층(140)과 공통 셀(240)은 공통 범프(340)에 의해 전기적으로 연결된다. 본 명세서 내에서는, 복수 개의 CMOS 셀들 각각과 마이크로 LED 픽셀들 각각을 전기적으로 연결하는 범프들(330)과, 제1 도전형 메탈층(140)과 공통 셀(240)을 전기적으로 연결하는 공통 범프(340)를 모두 포함하는 용어로서 범프들(300)이 사용되기도 한다.
도 17에 도시된 바와 같이, 범프들(330) 및 공통 범프(340)가 CMOS 셀들(230) 각각의 상부에 배치된 상태의 CMOS 백플레인(200)과 마이크로 LED 패널(100)을 서로 마주보게 하여 CMOS 셀들(230)과 마이크로 LED 픽셀들(130)을 일대일 대응시켜 밀착시킨 후 가열하게 되면, 범프들(330) 및 공통 범프(340)가 녹게 되고, 그에 따라 CMOS 셀들(230) 각각과 CMOS 셀들(230) 각각에 대응하는 마이크로 LED 픽셀(130)이 도 14에 도시된 바와 같이, 전기적으로 연결되는 상태로 된다.
이렇듯, 본 발명의 피부 진단용 촬상 장치(1; 도 12의 1a 및 1b 참조) 내 조명 유닛(10)에서 마이크로 LED 픽셀들이 개별적으로 제어될 수 있도록 구성함으로써, 피부 진단용 촬상 장치(1)를 이용하여 피부를 촬상하는 경우, 피부에 존재하는 돌출부나 패인 부분 또는 그 주변부에서 피부 화상이 선명하지 않게 나올 경우, 이 부분에 해당하는 마이크로 LED 픽셀들을 대응되는 CMOS 셀들을 이용하여 제어함으로써, 보다 명확한 피부 화상을 얻을 수 있게 된다. 이렇듯, 피부의 입체적 윤곽에 따라서 적절히 CMOS 셀들을 통해 마이크로 LED 픽셀들을 구동하여 어둡게 촬상된 분할 영역을 더 밝게 조명하여 촬상할 수 있도록 구성함으로써, 피부 진단용 화상의 품질을 높일 수 있으며, 재촬영으로 인한 작업 시간을 대폭 단축할 수 있게 된다.
마이크로 LED 패널(100) 내에서 마이크로 LED 픽셀들(130)의 어레이 예는, 도 14 또는 도 19에 도시되어 있다. 즉, 촬상 장치(1)의 크기나 용도에 따라서, 마이크로 LED 패널(100) 내에서 마이크로 LED 픽셀들(130)의 개수나 행렬 배열 크기는 다양할 수 있다. 또한, 이후 도 19 내지 도 21을 참조하여 설명되는 바와 같이, 한 프레임의 화상을 고려할 때, 프레임이 복수 개의 분할 영역들로 구분될 수 있고, 이러한 각각의 분할 영역별로 마이크로 LED 픽셀들(130) 각각 또는 소정 개수의 마이크로 LED 픽셀들(130)(이후, 픽셀 그룹으로 표현됨)이 조명을 담당하게 된다. 즉, 도 19에서 하나의 마이크로 LED 픽셀이 담당하는 영역이 도 20에서의 R11 ~ Rmn 중 하나의 영역일 수 있으며, 마이크로 LED 픽셀과 분할 영역 간의 관계가 도 21에 도시되어 있다.
도 18은 본 발명의 일 실시예에 따른 피부 진단용 촬상 장치(1)의 전반적인 동작을 설명하기 위한 블록도이다. 도 18을 참조하면, 본 발명의 일 실시예에 따른 피부 진단용 촬상 장치(1)는, 피부 화상(skin image)을 캡쳐하는 화상 캡쳐 유닛(12), 화상 캡쳐 유닛(12)에 의해 캡쳐된 피부 화상에서, 피부 밝기를 계측하는 측광부(34), 측광부(34)의 계측 결과에 기초하여 처리 결과 신호를 생성하는 프로세서부(CPU)(33), 피부 화상의 촬영을 위한 조명을 제공하는 조명 유닛(10) 포함한다. 조명 유닛(10)은, LED 패널(100), CMOS 백플레인(200)을 포함한다. LED 패널(100)은 2차원으로 배열된 복수 개의 마이크로 LED 픽셀들(130; 도 14 참조)을 포함하며, CMOS 백플레인(200)은 마이크로 LED 픽셀들(130)을 개별적으로 동작시키기 위해 마이크로 LED 픽셀들(130)에 대응되게 어레이된 CMOS 셀들(230)을 포함한다. 프로세서부(CPU)(33)는 상기 처리 결과 신호를 이용하여 CMOS 백플레인(200)을 제어함으로써, 측광부(34)에 의해 계측된 상기 피부 화상에서의 피부 밝기에 의존하여 마이크로 LED 픽셀들(130)을 선택적으로 동작시킴으로써, 어둡게 촬상되어 불명확하게 나타난 부분에 조도를 증가시킴으로써, 피부 화상에서 해당 부분이 명확하게 보여질 수 있도록 한다.
도 18의 화상 캡쳐 유닛(12)에서 광의 경로를 살펴보면, 렌즈계(20)를 통과한 후 개구(23)에 의해 광량이 조정되어 화상 센서(24)로 입사한다. 화상 센서(24)는 CCD 화상 센서일 수도 있다. 화상 캡쳐 유닛(12)으로서 렌즈계(20), 개구(23), 화상 센서(24) 및 캡쳐 유닛 구동부(31) 만으로 간략화하여 도시하였으나, 렌즈계(20)는 고정 렌즈, 확대 렌즈, 보정 렌즈 및 초점 렌즈 등을 더 포함할 수 있으며, 확대 렌즈와 보정 렌즈는 줌 렌즈로서 기능할 수 있다.
캡쳐 유닛 구동부(31)에 의해 화상 센서(24)가 구동된다. 예컨대, 캡쳐 유닛 구동부(31)로부터 제공되는 펄스 신호에 의존하여, 각 MOS 다이오드에 축적된 신호 전하가 전송되어 신호 전하에 대응하는 R, G 및 B 휘도 정보를 갖는 전압 신호(화상 신호)로서 화상 센서(24)로부터 순차적으로 출력될 수 있다.
화상 센서(24)로부터 출력된 화상 신호는 아날로그 신호 처리부(25)로 보내진다. 아날로그 신호 처리부(25)는, 예컨대, 샘플링 홀드 회로, 색 분리 회로 및 이득 조정 회로와 같은 신호 처리 회로를 포함할 수 있다.
아날로그 신호 처리부(25)로부터 출력된 신호는 A/D 변환기(26)에서 디지털화되어 내부 메모리(60)에 저장된다. 타이밍 발생기(TG)(32)는 타이밍 신호를 캡쳐 유닛 구동부(31), 아날로그 신호 처리부(25) 및 A/D 변환기(26)로 제공한다. 타이밍 신호에 의해 이들이 동기화된다. 본 명세서 내에서 내부 메모리(60)에 이러한 아날로그 신호 처리부(25)에 의한 신호 처리, A/D 변환기(26)에 의한 변환, 타이밍 발생기(TG)의 타이밍 신호에 의한 동기화 등에 관한 언급을 생략하고 편의상 간단히 화상 센서(24)에 의해 캡쳐된 피부 화상 또는 화상 캡쳐 유닛(12)에 의해 캡쳐된 피부 화상으로 표현된다.
프로세서부, 즉 CPU(33)는 피부 진단용 촬상 장치(1)의 각 구성요소들을 제어하는데, 디스플레이부(16)를 통한 사용자의 조작, 즉 사용자 입력 신호에 따라 각 구성요소들의 동작을 제어한다. 또한, CPU(33)는 처리 결과 신호에 따라 조명 유닛(10)의 제어, 디스플레이부(16)의 표시 제어 등을 수행한다.
내부 메모리(60)는 화상 캡쳐 유닛(12)에 의해 캡쳐된 화상이 아날로그 신호 처리부(25), A/D 변환기(26) 등에 의한 처리, 변환 과정을 거쳐 저장되는 부분으로서, 내부 메모리(60)에 저장된 화상 데이터는 버스(bus)를 통해 화상 신호 처리부(61)로 보내진다. 화상 신호 처리부(61)는 구체적으로 도시되어 있지는 않으나, 휘도 신호/색차 신호 생성 회로를 포함하는 디지털 신호 처리부, 보정 회로, 샤프니스 보정 회로, 콘트라스트 보정 회로, 화이트 밸런스 보정 회로 등을 포함할 수 있다. 화상 신호 처리부(61)에 입력된 화상 데이터는 휘도 신호/색차 신호 생성 회로에서 휘도 신호(Y 신호) 및 색차 신호(Cr, Cb 신호)로 변환되고, 또한 소정의 처리 및 보정을 거쳐 내부 메모리(60)에 저장된다. 화상 신호 처리부(61)는 CPU(33)의 제어하에 화상 신호를 처리한다.
프로세서부(CPU)(33)는 측광부(34)를 포함한다. 프로세서부(CPU)(33)는 내부 메모리(60)에 저장된 화상 중 하나의 프레임(F1)을 복수의 영역으로 분할한다(도 20 참조). 프레임(F1)의 분할, LED 픽셀들(130) 각각에서 담당하는 분할 영역들(R11 ~ Rmn)에 관한 설명은 도 19 내지 도 21을 참조하여 이후에 설명된다.
내부 메모리(60)는 화상 캡쳐 유닛(12)에 의해 캡쳐된 화상을 저장한다. 전술한 바와 같이, 아날로그 신호 처리부(25), A/D 변환기(26) 등에 의한 처리 및 변환을 거칠 수 있다.
디스플레이부(16)에 화상을 표시하기 위해, 화상 데이터는 내부 메모리(60)로부터 읽혀져 디스플레이 메모리(64)로 전송되고, 디스플레이 메모리(64)로 전송된 화상 데이터는 디지털/아날로그 변환기(D/A 변환기)(65)에 의해 소정의 신호(예컨대, NTSC 합성 컬러 비디오 신호)로 변환되어 디스플레이부(16)를 통해 표시된다.
화상 캡쳐 유닛(12)에 의해 캡쳐된 화상은 내부 메모리(60)를 통해 디스플레이 메모리(64)에 일정한 간격으로 전송 및 저장된다. 따라서, 결과적으로 화상 캡쳐 유닛(12)에 의해 캡쳐된 피부 화상은 실시간으로 디스플레이부(16) 상에 표시될 수 있다. 사용자는 디스플레이부(16)를 통해, 캡쳐된 피부 화상을 확인할 수 있다.
디스플레이부(16)를 통해, 캡쳐된 피부 화상을 확인하는 경우, 사용자는 디스플레이부(16)를 터치 또는 드래그 등 간단한 작업을 통해 화상 데이터가 내부 메모리(60)로부터 읽혀져 피사체 검출부(62)에 입력되도록 한다.
더 나아가, 측광부에서 피부 화상 내의 분할 영역들 각각에 대해 피부 밝기를 검출하는 것 뿐만 아니라, 색온도 검출부(미도시)를 더 구비하여, 색온도를 검출하여 조명 유닛의 제어에 이용할 수 있다. 색온도를 검출하여 결정하기 위한 색온도 검출부가 버스에 추가로 연결되며, 색온도 검출부는, 예를 들어, 조명 유닛(10)에 의한 조명시, 색온도 검출부에서 검출된 분할 영역들 각각의 색온도를 고려하여 피부 화상의 재촬상시 조명 유닛을 제어하여 적절히 보상하는 용도로 사용될 수 있다.
프로세서부(33)는, 사용자에 의해 피부 화상 촬상 시작을 위한 버튼(미도시)이 터치되는 경우, 조명 유닛(10)의 CMOS 백플레인(200)에서 마이크로 LED 패널(100) 내의 마이크로 LED 픽셀들을 구동하여 LED 광을 피부 측으로 조사하기 위해 조명 유닛(10)의 CMOS 백플레인(200) 측으로 필요한 신호를 내보낸다. 그 후, 화상 캡쳐 유닛(12)에 의해 피부 화상이 캡쳐되는 경우, 프로세서부(33)에 의한 분할 작업 및 미리 설정된 분할 영역별 기준 밝기와 비교하여, 해당 분할 영역의 피부 밝기가 어두운 경우, 상기 미리 설정된 분할 영역별 기준 밝기 수준으로 또는 그 이상으로 밝게 피부 화상이 촬상될 수 있도록, 해당 분할 영역을 담당하는 마이크로 LED 픽셀을 조명하도록, 프로세서부는 처리 결과 신호를 생성하여 CMOS 백플레인(200) 내의 CMOS 셀들로 신호를 내보낸다. 상기 미리 설정된 분할 영역별 기준 밝기는, 앞서 촬상된 피부 화상에서 명확하게 보이는 부분의 밝기, 또는 촬상된 피부 화상에서의 평균 밝기로서, 사전에 촬상된 피부 화상을 참조하여 내부 메모리에 미리 저장하여 프로세서부에 의한 처리시 이를 참조할 수 있다.
CMOS 백플레인(200)은 앞서 언급한 바와 같이, 프로세서부(33)로부터 처리 결과 신호를 수신하여 마이크로 LED 패널(100) 내의 마이크로 LED 픽셀들을 개별적으로 또는 필요에 따라 소정의 그룹으로 구동시켜, 촬상되는 피부 화상에서 최적의 선명한 화상이 얻어질 수 있도록 광 노출이 이뤄지게 한다. 이에 관하여는 도 19 내지 도 21을 참조하여 이후에 더 구체적으로 설명된다.
사용자에 의해 촬상되는 최종 피부 화상의 데이터는 압축 저장 모드로 저장될 수도 있고, 그렇지 않을 수도 있다. 압축 저장 모드인 경우, 압축/압축해제부(COMP/DECOMP)(66)에 의해, 촬상된 화상 데이터가 내부 메모리(60)에서 압축되고, 카드 인터페이스(67)를 통해 SD 카드(18)에도 저장된다. 압축 해제 모드인 경우, 압축되지 않고 SD 카드(18)에 바로 저장된다. 더 나아가, 무선 통신 인터페이스(77)을 통해 서버(78) 측으로 전송할 수도 있다. 서버(78)는 피부 관리를 위한 의료 시설이나 피부 시술소 등의 피부 관리 기관 내에 위치하거나, 이들 시설 또는 기관과 통신가능하도록 연결되어 있을 수 있다.
다음으로, 도 19 내지 도 21을 참조하여, 본 발명의 피부 진단용 촬상 장치(1; 도 12)를 이용한 피부 화상 캡쳐 과정 및 이 과정에서의 조명 유닛(10)의 동작 과정이 상세히 설명된다.
본 발명의 피부 진단용 촬상 장치(1)에 의한 피부 화상의 전반적인 촬상 진행 과정을 살펴보면, 우선, 사용자에 의해 피부 진단용 촬상 앱이 실행된다. 1b와 같은 외부의 피부 진단 툴을 사용하는 경우에는 스마트폰(1a)에 피부 진단 툴(1b)에 연결하는 과정이 선행되어야 한다. 앞서 언급하지는 않았으나, 피부 진단 기기는 스마트폰(1a) 뿐만 아니라 태블릿 PC나 기타 모바일 기기일 수도 있다.
이후, 사용자가 피부 진단용 촬상 장치(1)를 조명 유닛(10) 및 화상 캡쳐 유닛(12)이 피부 방향으로 향하여 적절한 위치를 유지한 상태에서, 디스플레이부(16)를 터치하거나 드래그하는 과정을 통해, 피부 밝기를 계측하는 작업이 진행되고, 이에 기초하여, 프로세서부(33)는 처리 결과 신호를 생성하여 보정된 조명이 필요한 부분에 대응되는 CMOS 셀들을 제어하여 해당 마이크로 LED 픽셀들이 조명하도록 제어한다. 그 후, 사용자가 디스플레이부를 터치하거나 드래그하는 과정을 통해(예컨대, 피부 진단용 촬상 앱 상에서 피부 화상 촬상 버튼 터치), 최종적으로 피부 화상이 촬상된다.
도 19는 조명 유닛(10) 내 마이크로 LED 패널에서 마이크로 LED 픽셀들(130)의 어레이의 일 예이고, 도 20은 촬상될 피부 화상에서 도 19의 마이크로 LED 픽셀들(130) 각각이 담당하는 분할 조명 영역으로서, 여기서 하나의 분할 영역(예컨대, R12)은 하나의 마이크로 LED 픽셀(130)이 담당한다. 한 프레임의 화상에서 이러한 복수 개의 분할 영역들로의 분할 작업은 프로세서부(33)에 의해 수행된다.
또한, 복수 개의 마이크로 LED 픽셀들을 포함하는 하나의 픽셀 그룹이 이에 대응되는 분할 영역을 담당하는 것도 가능하나, 이 실시예에서는 하나의 마이크로 LED 픽셀(130)이 하나의 분할 영역(R12)을 담당한다. 도 21은 하나의 마이크로 LED 픽셀과 담당하는 분할 영역 간의 관계를 나타낸 도면이다.
도 19 내지 도 21에 도시된 바와 같이, 본 발명의 피부 진단용 촬상 장치에서는 CMOS 백플레인(200)으로 마이크로 LED 픽셀들 각각을 독립적으로 제어하여 하나의 분할 영역을 담당하는 것으로 구현될 수 있다. 도 21에서는 하나의 마이크로 LED 픽셀이 하나의 분할 영역을 조명하는 것을 설명하기 위해 대응되는 분할 영역에 스팟(spot) 형태로 조명하는 것으로 도시되어 있으나, 마이크로 LED 픽셀의 LED 지향각을 고려할 때 인접한 분할 영역들에도 영향을 미칠 수 있다. 하지만, 명확한 설명을 위해, 이와 같이 도 21 내에서는 마이크로 LED 픽셀의 지향각을 고려하여 도시한 것은 아니며, 해당 마이크로 LED 픽셀의 조사 광의 중심부만을 도시한 것임을 이해하여야 할 것이다.
더 나아가, 도면으로 표현되어 있지는 않으나, 본 발명의 피부 진단용 촬상 장치에서 CMOS 백플레인(200)으로 복수 개의 마이크로 LED 픽셀들이 하나의 그룹을 이루어서 동작하도록 제어하여 하나의 분할 영역을 담당하는 것으로 구현될 수도 있다. 즉, 화상 캡쳐 유닛(12)에 의해 캡쳐된 피부 화상이 복수 개의 분할 영역들로 구분되고, 마이크로 LED 픽셀들이 복수 개의 픽셀 그룹들로 구분되며, 픽셀 그룹들 각각이 이들 분할 영역들 각각을 담당하여 조명하도록 구성될 수도 있다.
그리고, 분할 영역들 각각이 다시 복수 개의 서브 영역들로 재분할되고, 픽셀 그룹들 내 마이크로 LED 픽셀들 각각이 서브 영역들 각각을 담당하여 조명하도록 구성될 수 있다. 이와 같이 구성되어, 예를 들어, 피부 화상의 촬상시, 피부 화상 내에서 어둡게 나타나서 피부 상태를 진단하기 어려운 부분(예컨대, 여드름이나 뾰루지로 인해 돌출된 부분, 움푹 패인 부분, 또는 그 주변)에 대응되는 마이크로 LED 픽셀을 구동시켜 해당 서브 영역을 조명하도록 하기 위한 처리 결과 신호를 CPU(33)에서 생성하여 상기 CMOS 백플레인으로 내보냄으로써, 명확한 피부 화상을 얻을 수 있다.
도 21을 참조하면, 화상 캡쳐 유닛(12)에 의해 캡쳐된 피부 화상은 프로세서부(33)에 의해 복수 개의 분할 영역들로 구분되고, 마이크로 LED 픽셀들 각각은 상기 분할 영역들 각각에 조명하도록 대응될 수 있다. 즉, 화상 캡쳐 유닛(12)에 의해 캡쳐된 피부 화상은 내부 메모리(60)에 저장되고, 내부 메모리(60)에 저장된 화상 중 하나의 프레임(F1)은, 프로세서부(33)에 의해, 예를 들어, m * n 개의 분할 영역들로 분할될 수 있다. 피부 화상의 촬상 과정에서, 측광부(34)가 각 분할 영역의 밝기를 나타내는 값(예컨대, 각 분할 영역의 휘도 값, 휘도 값의 적산 값, 조도 등)을 멀티-미터링을 통해 계측한다. 앞서 언급한 바와 같이, 하나의 프레임(F1)에서 분할 영역들 각각은 마이크로 LED 픽셀들(130) 각각이 조명하도록 분할된 영역이다.
측광부(34)는 하나의 프레임(F1)에서 분할 영역들 각각에 대해 멀티 미터링을 수행하여, 분할 영역들 각각의 밝기 값을 결정하고, 이러한 정보들은 조명 유닛(10)의 CMOS 백플레인(200)을 제어하는데 사용될 수 있다.
이렇게 제어되는 조명 유닛 하에서 최종적으로 촬상되어 출력되는 피부 화상 데이터는, 아날로그 신호 처리부(25) 및 A/D 변환기(26)를 거친 후 내부 메모리(60)에 기록된다. 최종 화상 데이터는 압축/압축해제부(COMP/DECOMP)(66)에서 카드 인터페이스(67)를 통해 SD 카드(18)에 최종적으로 기록되거나, 사용자의 선택에 의해 무선 통신 인터페이스(77)를 통해 서버(78)로 전송될 수 있다.
이상에서 본 발명의 피부 진단용 촬상 장치에 관하여 도면들을 참조하여 설명하였으나, 본 발명의 범위는 이하의 청구항들에 의해 정해지는 것임에 유의하여야 할 것이다.

Claims (17)

  1. 피사체와 피사체 이외의 부분을 포함하는 화상을 캡쳐하는 CCD 화상 센서;
    상기 CCD 화상 센서에 의해 캡쳐된 화상에서, 피사체의 위치 및 크기를 검출하기 위한 피사체 검출부;
    상기 피사체의 밝기를 계측하는 측광부;
    상기 피사체 검출부의 검출 결과 및 상기 측광부의 계측 결과에 기초한 처리 결과 신호를 생성하는 프로세서부; 및
    플래쉬 광원으로서 2차원으로 배열된 복수 개의 마이크로 LED 픽셀들이 어레이된 마이크로 LED 패널과, 상기 마이크로 LED 픽셀들을 개별적으로 동작시키기 위한 CMOS 셀들이 어레이된 CMOS 백플레인을 갖는, 플래쉬 유닛; 을 포함하며,
    상기 프로세서부는 상기 피사체 검출부의 검출 결과 및 상기 측광부의 계측 결과에 기초하여 생성한 처리 결과 신호를 상기 CMOS 백플레인으로 내보냄으로써, 상기 마이크로 LED 픽셀들을 선택적으로 동작시키는 것을 특징으로 하는, 촬상 장치.
  2. 청구항 1에 있어서, 상기 CCD 화상 센서에 의해 캡쳐된 화상은 상기 프로세서부에 의해 복수 개의 분할 영역들로 구분되고, 상기 마이크로 LED 픽셀들 각각은 상기 분할 영역들 각각에 조명하도록 대응되는 것을 특징으로 하는, 촬상 장치.
  3. 청구항 1에 있어서, 상기 CCD 화상 센서에 의해 캡쳐된 화상은 상기 프로세서부에 의해 복수 개의 분할 영역들로 구분되고, 상기 마이크로 LED 픽셀들은 복수 개의 픽셀 그룹들로 구분되며, 상기 픽셀 그룹들 각각이 상기 분할 영역들 각각에 조명하도록 대응되는 것을 특징으로 하는, 촬상 장치.
  4. 청구항 3에 있어서, 상기 분할 영역들 각각은 상기 프로세서부에 의해 복수 개의 서브 영역들로 재분할되고, 상기 픽셀 그룹들 내 마이크로 LED 픽셀들 각각은 상기 서브 영역들 각각을 조명하도록 대응되는 것을 특징으로 하는, 촬상 장치.
  5. 청구항 2에 있어서, 상기 프로세서부는,
    상기 측광부에 의해 측정된 피사체의 밝기가 상기 피사체 이외의 부분보다 상대적으로 어두운 경우, 최종 촬상시, 상기 분할 영역들 중 피사체가 포함된 분할 영역에 대응되는 마이크로 LED 픽셀을 구동시켜 해당 분할 영역을 조명하도록 하기 위한 처리 결과 신호를 상기 CMOS 백플레인으로 내보내는 것을 특징으로 하는, 촬상 장치.
  6. 청구항 4에 있어서, 상기 프로세서부는,
    최종 촬상시, 피사체가 포함된 서브 영역들 중 상대적으로 어두운 부분에 대응되는 마이크로 LED 픽셀을 오프시키고, 피사체가 포함된 서브 영역들 중 상대적으로 밝은 부분에 대응되는 마이크로 LED 픽셀을 구동시켜 해당 서브 영역을 조명하도록 하기 위한 처리 결과 신호를 상기 CMOS 백플레인으로 내보내는 것을 특징으로 하는, 촬상 장치.
  7. 청구항 1에 있어서,
    상기 마이크로 LED 픽셀들 각각은 상기 CMOS 셀들 각각에 대응되며, 상기 마이크로 LED 픽셀들 각각과 상기 마이크로 LED 픽셀들 각각에 대응되는 CMOS 셀들 각각은 범프들을 이용하여 플립칩 본딩되는 것을 특징으로 하는, 촬상 장치.
  8. 청구항 7에 있어서, 상기 마이크로 LED 픽셀들은 기판상에 차례대로 제1 도전형 반도체층, 활성층, 및 제2 도전형 반도체층을 성장시킨 후 식각되어 형성되며, 상기 마이크로 LED 픽셀들의 수직구조는, 차례대로, 제1 도전형 반도체층, 활성층 및 제2 도전형 반도체층을 포함하고, 상기 마이크로 LED 픽셀들이 형성되지 않은 부분은, 활성층 및 제2 도전형 반도체층이 제거되어 제1 도전형 반도체층이 노출되는 것을 특징으로 하는, 촬상 장치.
  9. 청구항 8에 있어서, 상기 마이크로 LED 픽셀들이 형성되지 않은 부분의 제1 도전형 반도체층 상에는 상기 마이크로 LED 픽셀들과 이격되게 제1 도전형 메탈층이 형성되는 것을 특징으로 하는, 촬상 장치.
  10. 청구항 9에 있어서, 상기 제1 도전형 메탈층은 상기 제1 도전형 반도체층 상에서 상기 마이크로 LED 패널의 외곽을 따라 형성되는 것을 특징으로 하는, 촬상 장치.
  11. 청구항 9에 있어서, 상기 제1 도전형 메탈층의 높이는 상기 마이크로 LED 픽셀들의 높이와 동일한 것을 특징으로 하는, 촬상 장치.
  12. 청구항 9에 있어서, 상기 제1 도전형 메탈층은 상기 마이크로 LED 픽셀들의 공통 전극으로서 기능하는 것을 특징으로 하는, 촬상 장치.
  13. 청구항 9에 있어서, 상기 CMOS 백플레인은, 상기 제1 도전형 메탈층에 대응되게 형성된 공통 셀을 포함하고, 상기 제1 도전형 메탈층과 상기 공통 셀은 공통 범프에 의해 전기적으로 연결되는 것을 특징으로 하는, 촬상 장치.
  14. 청구항 8에 있어서, 상기 제1 도전형은 n형이고, 상기 제2 도전형은 p형인 것을 특징으로 하는, 촬상 장치.
  15. 청구항 8에 있어서, 상기 기판은, 사파이어, SiC, Si, 유리, 및 ZnO 중 어느 하나로 이루어지는 것을 특징으로 하는, 촬상 장치.
  16. 청구항 8에 있어서, 상기 범프들은 상기 CMOS 셀들 각각에 형성되어, 가열에 의해 녹음으로써, 상기 CMOS 셀들 각각과 상기 CMOS 셀들 각각에 대응되는 마이크로 LED 픽셀이 전기적으로 연결되는 것을 특징으로 하는, 촬상 장치.
  17. 청구항 1에 있어서, 상기 플래쉬 유닛은,
    상기 마이크로 LED 패널의 전면에 상기 마이크로 LED 픽셀들 각각에 대응되게 형성된 복수 개의 플래쉬 렌즈들을 갖는 플래쉬 렌즈 어레이부를 포함하는 것을 특징으로 하는, 촬상 장치.
PCT/KR2018/010332 2017-10-26 2018-09-05 개별 제어되는 마이크로 led 픽셀들을 갖는 플래쉬 유닛을 포함하는 촬상 장치 및 피부 진단용 촬상 장치 WO2019083154A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2017-0139873 2017-10-26
KR1020170139873A KR20190046272A (ko) 2017-10-26 2017-10-26 개별 제어되는 마이크로 led 픽셀들을 갖는 플래쉬 유닛을 포함하는 촬상 장치
KR1020170154427A KR20190057480A (ko) 2017-11-20 2017-11-20 피부 진단용 촬상 장치
KR10-2017-0154427 2017-11-20

Publications (1)

Publication Number Publication Date
WO2019083154A1 true WO2019083154A1 (ko) 2019-05-02

Family

ID=66246522

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/010332 WO2019083154A1 (ko) 2017-10-26 2018-09-05 개별 제어되는 마이크로 led 픽셀들을 갖는 플래쉬 유닛을 포함하는 촬상 장치 및 피부 진단용 촬상 장치

Country Status (1)

Country Link
WO (1) WO2019083154A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020248467A1 (zh) * 2019-06-10 2020-12-17 武汉华星光电技术有限公司 用于屏下辨识方案的液晶显示设备
WO2022150449A1 (en) * 2021-01-11 2022-07-14 The Procter & Gamble Company Dermatological imaging systems and methods for generating three-dimensional (3d) image models

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070026270A (ko) * 2005-09-05 2007-03-08 소니 가부시끼 가이샤 촬상 장치 및 촬상 방법
US20140094878A1 (en) * 2012-10-01 2014-04-03 Albert-Ludwigs-Universitat Freiburg Method for producing a micro-led matrix, micro-led matrix and use of a micro-led matrix
KR20160027730A (ko) * 2014-09-02 2016-03-10 서울바이오시스 주식회사 발광 다이오드
US20160231083A1 (en) * 2013-12-18 2016-08-11 Leupold & Stevens, Inc. Micro-pixelated led reticle display for optical aiming devices
JP6131374B1 (ja) * 2016-07-18 2017-05-17 ルーメンス カンパニー リミテッド マイクロledアレイディスプレイ装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070026270A (ko) * 2005-09-05 2007-03-08 소니 가부시끼 가이샤 촬상 장치 및 촬상 방법
US20140094878A1 (en) * 2012-10-01 2014-04-03 Albert-Ludwigs-Universitat Freiburg Method for producing a micro-led matrix, micro-led matrix and use of a micro-led matrix
US20160231083A1 (en) * 2013-12-18 2016-08-11 Leupold & Stevens, Inc. Micro-pixelated led reticle display for optical aiming devices
KR20160027730A (ko) * 2014-09-02 2016-03-10 서울바이오시스 주식회사 발광 다이오드
JP6131374B1 (ja) * 2016-07-18 2017-05-17 ルーメンス カンパニー リミテッド マイクロledアレイディスプレイ装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020248467A1 (zh) * 2019-06-10 2020-12-17 武汉华星光电技术有限公司 用于屏下辨识方案的液晶显示设备
WO2022150449A1 (en) * 2021-01-11 2022-07-14 The Procter & Gamble Company Dermatological imaging systems and methods for generating three-dimensional (3d) image models

Similar Documents

Publication Publication Date Title
KR100900485B1 (ko) 구조가 개선된 디지털 카메라용 이미지 센싱 수단 및 이를채용한 디지털 카메라
EP3195589A1 (en) Method for capturing image and image capturing apparatus
WO2013122394A1 (en) Data processing apparatus and method using a camera
WO2014189332A1 (en) Imaging sensor capable of phase difference focus detection cross-reference to related patent application
WO2017073852A1 (en) Photographing apparatus using multiple exposure sensor and photographing method thereof
WO2018040444A1 (zh) 一种双摄像头拍照控制方法、拍照控制装置及终端
WO2012115408A2 (ko) 이미지 센서 및 이를 포함하는 촬영 장치
CN111095066B (zh) 摄像装置及摄像装置的对焦控制方法
WO2019083154A1 (ko) 개별 제어되는 마이크로 led 픽셀들을 갖는 플래쉬 유닛을 포함하는 촬상 장치 및 피부 진단용 촬상 장치
WO2016080716A1 (ko) 홍채 인식 카메라 시스템 및 이를 포함하는 단말기와 그 시스템의 홍채 인식 방법
WO2021133025A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2019125074A1 (en) Method of generating composite image using plurality of images with different exposure values and electronic device supporting the same
WO2021162307A1 (ko) 전자 장치 및 그의 hdr 영상 생성 방법
WO2020246710A1 (ko) 뎁스 맵 결정 방법 및 그 방법을 적용한 전자 장치
WO2021215795A1 (ko) 전자 장치의 컬러 필터, 및 그 전자 장치
WO2015163653A1 (en) Imaging device and photographing apparatus
WO2020171450A1 (ko) 뎁스 맵을 생성하는 전자 장치 및 방법
KR20190046272A (ko) 개별 제어되는 마이크로 led 픽셀들을 갖는 플래쉬 유닛을 포함하는 촬상 장치
KR20190057480A (ko) 피부 진단용 촬상 장치
US20100165179A1 (en) Imaging apparatus and imaging method
WO2021246736A1 (ko) 이미지 처리 장치 및 이미지 처리 방법
WO2017043811A1 (ko) 화상 처리 장치 및 화상 처리 방법
CN213342401U (zh) 用于采集和显示的装置以及终端
WO2021025285A1 (ko) 얼굴이 포함된 영상의 노출 값을 조절하는 전자 장치
WO2021162396A1 (ko) 복수의 콘텐츠를 생성하는 방법 및 그 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18869750

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18869750

Country of ref document: EP

Kind code of ref document: A1