WO2015122712A1 - 전자 장치 및 이의 동작 방법 - Google Patents

전자 장치 및 이의 동작 방법 Download PDF

Info

Publication number
WO2015122712A1
WO2015122712A1 PCT/KR2015/001466 KR2015001466W WO2015122712A1 WO 2015122712 A1 WO2015122712 A1 WO 2015122712A1 KR 2015001466 W KR2015001466 W KR 2015001466W WO 2015122712 A1 WO2015122712 A1 WO 2015122712A1
Authority
WO
WIPO (PCT)
Prior art keywords
display panel
electronic device
optical element
image
lens array
Prior art date
Application number
PCT/KR2015/001466
Other languages
English (en)
French (fr)
Inventor
지아오샤오후이
왕하이타오
지오우밍차이
홍타오
리웨이밍
왕씨잉
남동경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201410053867.3A external-priority patent/CN104853008B/zh
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/119,595 priority Critical patent/US10324686B2/en
Publication of WO2015122712A1 publication Critical patent/WO2015122712A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop

Definitions

  • the embodiments below relate to an electronic device and a method of operating the same.
  • the mobile device has an autostereoscopic display function.
  • the stereoscopic display function is a technology that allows a user of the mobile device to watch a 3D image having a continuous disparity change in a horizontal direction and a vertical direction naturally.
  • the mobile device generates a 3D image by using a parallax barrier and / or a lens array to refraction the direction of light rays displayed on the display panel in different directions in 3D space.
  • the embodiments can provide an electronic device capable of switching between 2D display operation and 3D display operation and displaying both 2D and 3D images.
  • embodiments may provide a technique for rapidly generating 3D image data by generating a multiview image through parallel rendering.
  • An electronic device detects a position state of a display panel, an optical element, and the optical element with respect to the display panel, and when the display panel and the optical element are in an overlapping state, the display panel and the optical And a controller configured to generate a 2D image through the display panel when the optical device is separated from the display panel.
  • the controller may measure the displacement of the optical element with respect to the display panel and generate the 3D image based on the measured displacement.
  • the controller may calculate a rendering parameter for generating the 3D image based on the displacement.
  • the measured displacement may comprise a rotation parameter and a translation parameter.
  • the control unit may include a mode selection unit configured to generate a mode selection signal for a display operation of the display panel and the optical element based on the positional state of the optical element and the display panel, and in response to the mode selection signal.
  • a displacement sensor for measuring displacement with respect to the display panel, a parameter generator for calculating a rendering parameter for rendering based on the measured displacement, and a graphic processing unit for generating the 3D image based on the rendering parameter unit).
  • the controller may further include an aligning unit configured to obtain alignment state information between the optical element and the display panel, and the graphic processing unit may generate the 3D image using the rendering parameter according to the alignment state information. have.
  • the mode selection unit detects a position state of the optical element and the display panel, generates a detection signal, and determines a position state of the optical element and the display panel in response to the detection signal. And a mode controller for generating the mode selection signal.
  • the mode selection unit may further include a switching button unit generating a switching signal in response to a user input, and the mode control unit may generate the mode selection signal in response to the switching signal.
  • the mode selector may further include a voice command processor configured to recognize a voice command of a user and to process the voice command to generate a switching signal.
  • the mode controller may generate the mode select signal in response to the switching signal. .
  • the optical device may be implemented as at least one of a micro lens array, a microprism array, and a lenticular lens array.
  • the optical element may be installed in a cover of the electronic device, and the display panel may be installed in a main body of the electronic device.
  • the electronic device may be a portable device.
  • the cover may operate in any one of a flip close method, a flip over method, a slide method, and a rotation method.
  • a method of operating an electronic device may include detecting a positional relationship of an optical element with respect to a display panel, and when the display panel and the optical element overlap, a 3D image through the display panel and the optical element. And generating a 2D image through the display panel when the optical element is separated from the display panel.
  • the generating of the 3D image may include measuring a displacement of the optical element with respect to the display panel, and generating the 3D image based on the measured displacement.
  • the generating of the 3D image may further include calculating a rendering parameter for generating the 3D image based on the measured displacement.
  • the measured displacement may include a rotation parameter and a translation parameter. .
  • the optical device may be implemented as at least one of a micro lens array, a microprism array, and a lenticular lens array.
  • the optical element may be installed in a cover of the electronic device, and the display panel may be installed in a main body of the electronic device.
  • the cover may operate in any one of a flip close method, a flip over method, a slide method, and a rotation method.
  • FIG. 1 is a block diagram of an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a schematic block diagram of the electronic device shown in FIG. 1.
  • FIG. 5 is a schematic block diagram of the controller shown in FIG. 3.
  • FIG. 6 is a diagram for describing a positional relationship between a lens array and a display panel in a 3D display operation state of the display panel shown in FIG. 3.
  • FIG. 7 is a block diagram according to an embodiment of the mode selector illustrated in FIG. 5.
  • FIG. 8 is a block diagram according to another exemplary embodiment of the mode selector illustrated in FIG. 5.
  • FIG. 9 is a block diagram according to another exemplary embodiment of the mode selector illustrated in FIG. 5.
  • FIG. 10 is a diagram for describing displacement information generated from the displacement sensor illustrated in FIG. 5.
  • FIG. 13 is a flowchart for describing a method of generating 3D image data of the GPU illustrated in FIG. 5.
  • FIG. 14 is a diagram for describing an operating method according to an exemplary embodiment of the electronic device shown in FIG. 1.
  • FIG. 15 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • FIG. 16 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • FIG. 17 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • FIG. 18 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • FIG. 19 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • FIG. 20 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • FIG. 1 is a block diagram illustrating an electronic device according to an embodiment
  • FIG. 2 is a diagram for describing mobility of a cover illustrated in FIG. 1.
  • Portable devices include laptop computers, mobile phones, smart phones, tablet PCs, mobile internet devices (MIDs), personal digital assistants (PDAs), enterprise digital assistants (EDAs). , Digital still cameras, digital video cameras, portable multimedia players (PMPs), personal navigation devices or portable navigation devices, handheld game consoles, or e-books (e-book) can be implemented.
  • MIDs mobile internet devices
  • PDAs personal digital assistants
  • EDAs enterprise digital assistants
  • PMPs portable multimedia players
  • PGPs portable navigation devices or portable navigation devices
  • handheld game consoles or e-books (e-book)
  • the electronic device 10 will be described as a mobile phone.
  • the cover 200 may be connected to the main body 100.
  • the cover 200 may be implemented as a single body coupled to the body 100.
  • the cover 200 may be implemented as a removable detachable from the main body 100.
  • the cover 200 may operate (or move) with respect to the main body 100 by a physical force from the outside.
  • the cover 200 may overlap a part of the main body 100.
  • the cover 200 may overlap all of the body 100. As shown in FIG. 2, the cover 200 may overlap all of the body 100 by physical force.
  • the cover 200 illustrates a flip close operation, but the cover 200 may operate in various ways without being limited thereto.
  • the cover 200 may operate in a flip over method, a slide method, or a rotation method.
  • the cover 200 may include some of the electronic devices of the electronic device 10, and the electronic devices included in the cover 200 may be electrically connected to electronic devices implemented in the main body 100.
  • the material of the cover 200 may be implemented to be transparent, translucency, or opaque.
  • FIG. 3 is a schematic block diagram of the electronic device shown in FIG. 1.
  • the electronic device 10 may include an optical element 310, a display panel 330, and a controller 350.
  • the optical element 310 may be implemented in the cover 200.
  • the optical element 330 may be embedded in the cover 200.
  • the optical device 330 may display (or generate) a 3D image by refracting rays emitted from the 2D image of the display panel 330.
  • the optical element 310 may be implemented as at least one of a parallax barrier and a lens array.
  • 4A and 4B illustrate a method of installing a lens array when the optical device illustrated in FIG. 3 is implemented as a lens array.
  • the lens when the optical element 310 is implemented as a lens array, the lens may be installed to face upward.
  • a protective layer may be installed to protect the lens array from wear and tear.
  • the protective layer may be a touch layer including a transparent material and including a touch sensor.
  • the lens when the optical element 310 is implemented as a lens array, the lens may be installed to face downward.
  • the touch layer may be installed on the lens array.
  • a protective layer may be provided on top of the lens array.
  • the lens array may be a micro lens array, a microprism array, or a lenticular lens array.
  • the optical element 310 When the optical element 310 is implemented as a lens array, for example, a micro lens array, the optical element 310 may simultaneously provide a parallax image in a horizontal direction and a vertical direction, and may provide a plurality of visual images. Thus, the optical device 310 may display a real and natural 3D image. When the display panel 330 of the electronic device 10 rotates, the optical element 310 may simultaneously provide different visual images in two horizontal and vertical directions through the micro lens array. Accordingly, the user of the electronic device 10 may watch a 3D image even if the display panel 330 of the electronic device 10 is automatically rotated.
  • the material of the optical device 310 may be implemented to be transparent.
  • the optical element 310 is a lens array 310.
  • the display panel 330 may be implemented as an LCD panel.
  • the display panel 110 may include a touch screen panel, a thin film transistor-liquid crystal display (FTF-LCD) panel, a liquid emitting diode (LED) display panel, an organic LED (OLED) display panel, and an active matrix OLED (AMOLED).
  • the display panel may be implemented as a display panel or a flexible display panel.
  • the display panel 330 may be included in the main body 100.
  • the controller 350 detects a position state of the lens array 310 with respect to the display panel 330, and generates a 3D image or generates a 3D image through the display panel 330 and the lens array 310 according to the detected position state. In operation 330, a 2D image may be generated.
  • FIG. 5 is a schematic block diagram of the controller shown in FIG. 3.
  • the controller 350 may include a mode selector 351, a graphic processing unit 353, a displacement sensor 355, and a parameter generator 357. ), And an aligning unit 359.
  • the mode selector 351 may select a mode selection signal (SEL) for a display operation of the lens array 310 and the display panel 330 based on the position state of the lens array 310 and the display panel 330. Can be generated.
  • the mode selector 351 may generate a mode selection signal SEL having a first level, for example, a low level or a logic 0, for the display panel 330 to perform a 2D display operation. .
  • the mode selector 351 generates a mode selection signal SEL of a second level, for example, high level or logic 1, so that the lens array 310 and the display panel 330 perform a 3D display operation. can do.
  • the electronic device 10 may switch the 2D display operation and the 3D display operation, and display both the 2D image and the 3D image.
  • FIG. 6 is a diagram for describing a positional relationship between a lens array and a display panel in a 3D display operation state of the display panel shown in FIG. 3.
  • the distance G between the preset plane of the lens array 310 and the panel of the display panel 330 is determined by the lens array 310. Can match the focal length of the camera.
  • the distance G between the lens array 310 included in the cover 200 and the display panel 330 included in the main body 100 is defined as the lens array ( And the focal length of 310.
  • the mode selector 351 may perform a mode selection signal so that the lens array 310 and the display panel 330 perform a 3D display operation. (SEL) can be generated.
  • the overlapped state may mean a case where the cover 200 is on the main body 100 and the overlap area between the cover 200 and the main body 100 is equal to or larger than the preset area.
  • the preset area may be the maximum area that the cover 200 and the main body 100 may overlap.
  • the overlapped state of the electronic device 10 in which the cover 200 operates in a flip close manner is a state in which the cover 200 and the main body 100 completely overlap, for example, the cover 200 is a main body. It may be in a state completely touched by 100.
  • the overlapped state of the electronic device 10 in which the cover 200 is operated in a sliding manner may be a state in which the cover 200 slides inward to reach the opposite position completely.
  • the predetermined area may be set to 90% of the maximum area that the cover 200 and the main body 100 can completely overlap. The 90% is not limited thereto in one embodiment.
  • the mode selector 351 may include a mode selection signal SEL to allow the display panel 330 to perform a 2D display operation when the lens array 310 and the display panel 330 are not in an overlapped state. ) Can be created.
  • a state other than the overlapped state may mean a state in which the lens array 310 is separated from the display panel 330.
  • the mode selector 351 may output the mode selection signal SEL to the GPU 353 and / or the displacement sensor 355.
  • FIG. 7 is a block diagram according to an embodiment of the mode selector illustrated in FIG. 5.
  • the mode selector 351A may include a mode controller 351-1 and a position sensor 351-3.
  • the mode selector 351A shows an embodiment of the mode selector 351 shown in FIG. 5.
  • the position sensor 351-3 may be installed in the main body 100 and / or the cover 200.
  • the position sensor 351-3 is a lens array when the cover 200 moves to the main body 100 through an operation method of the cover 200, for example, a flip close method, a flip over method, a slide method, or a rotation method.
  • the position state of the 310 and the display panel 330 may be sensed, and a detection signal SS may be generated.
  • the position sensor 351-3 may output the detection signal SS to the mode controller 351-1.
  • the mode controller 351-1 may determine a position state of the lens array 310 and the display panel 330 in response to the detection signal SS and generate a mode selection signal SEL according to the determination result. For example, the mode controller 351-1 may determine an overlap state between the lens array 310 and the display panel 330 in response to the detection signal SS.
  • the mode controller 351-1 selects a mode such that the lens array 310 and the display panel 330 perform a 3D display operation when the lens array 310 and the display panel 330 overlap.
  • the signal SEL may be generated.
  • the mode controller 351-1 may output a mode selection signal such that the display panel 330 performs a 2D display operation when the lens array 310 and the display panel 330 are not in an overlapped state. SEL).
  • FIG. 8 is a block diagram according to another exemplary embodiment of the mode selector illustrated in FIG. 5.
  • the mode selector 351B may include a mode controller 351-1 and a switching button unit 351-5.
  • the mode selector 351B shows another embodiment of the mode selector 351 shown in FIG. 5.
  • the switching button unit 351-5 may generate a switching signal in response to a user's input of the electronic device 10.
  • the mode controller 351-1 may generate the mode selection signal SEL in response to the switching signal output from the switching button unit 351-5.
  • the mode controller 351-1 when the level of the switching signal is a first level, for example, a low level or logic 0, the mode controller 351-1 causes the display panel 310 to perform a 2D display operation.
  • the mode selection signal SEL may be generated to generate the mode selection signal SEL.
  • the mode controller 351-1 When the level of the switching signal is a second level, for example, a high level or logic 1, the mode controller 351-1 causes the lens array 310 and the display panel 310 to perform a 3D display operation.
  • the mode selection signal SEL may be generated.
  • the user of the electronic device 10 may select a 2D display operation or a 3D display operation through the switching button unit 351-5.
  • the mode selector 351B may further include the position sensor 351-3 shown in FIG. 7. At this time, the user of the electronic device 10 may select an operation state of the position sensor 351-3, for example, ON / OFF. When the operation state of the position sensor 351-3 is in the ON state, the mode selector 351B may automatically control the display operation mode of the display panel 330 through the position sensor 351-3. When the operation state of the position sensor 351-3 is in the OFF state, the mode selector 351B may automatically control the display operation mode through the switching button unit 351-5.
  • the electronic device 10 may perform the 2D display operation and the 3D display operation by simple switching according to the user's needs.
  • FIG. 9 is a block diagram according to another exemplary embodiment of the mode selector illustrated in FIG. 5.
  • the mode selector 351C may include a mode controller 351-1 and a voice command processing unit 351-7.
  • the mode selector 351C shows another embodiment of the mode selector 351 shown in FIG. 5.
  • the voice command processor 351-7 may recognize a voice command of the user of the electronic device 10, process the recognized voice command, and generate a switching signal.
  • the voice command processor 351-7 may generally perform voice recognition and processing operations.
  • the voice command processor 351-7 may be a stand-alone circuit connected to a microphone (not shown), or may be integrated in a computing unit (not shown).
  • the calculator may mean a processor, for example, a central processing unit (CPU).
  • the mode controller 351-1 may generate the mode selection signal SEL in response to the switching signal. For example, when the level of the switching signal is a first level, for example, a low level or logic 0, the mode controller 351-1 causes the display panel 330 to perform a 2D display operation. The mode selection signal SEL may be generated to generate the mode selection signal SEL. When the level of the switching signal is a second level, for example, a high level or logic 1, the mode controller 351-1 causes the lens array 310 and the display panel 330 to perform a 3D display operation. The mode selection signal SEL may be generated.
  • the mode selector 330-3 displays the display.
  • the panel 330 may generate a mode selection signal SEL to perform a 3D display operation.
  • the mode selector 351C may further include a position sensor 351-3 shown in FIG. 7. At this time, the user of the electronic device 10 may select an operation state of the position sensor 351-3, for example, ON / OFF. When the operation state of the position sensor 351-3 is in the ON state, the mode selector 351C may automatically control the display operation mode through the position sensor 351-3. When the operation state of the position sensor 351-3 is in the OFF state, the mode selector 351C may automatically control the display operation mode through the voice command processor 351-7.
  • the electronic device 10 may perform the 2D display operation and the 3D display operation by simple switching according to the user's needs.
  • the above-described 2D / 3D display switching operation allows the user to use the 2D display operation when using basic functions of the mobile phone such as call, message writing, and calendar check, 3D display operation can be used when using a game or the like.
  • the displacement sensor 355 may operate in response to the mode selection signal SEL. For example, when the mode selection signal SEL is at the second level, the displacement sensor 355 may start to operate.
  • the displacement sensor 355 may measure the displacement of the lens array 310 with respect to the display panel 330, and output the measured displacement DI to the parameter generator 357.
  • the measured displacement DI may include a rotation parameter R and a translation parameter T for the display panel 330 of the lens array 310.
  • R is a 3x3 rotational matrix and can mean a 2x2 translational vector.
  • the displacement sensor 355 may include at least one displacement sensor.
  • the displacement sensor 355 may be an inductance type displacement sensor, a capacitance type displacement sensor, an inductosyn, a raster sensor, a magnetostriction displacement sensor, or a magnetic grid. Sensors, rotary transformers, and photoelectric encoders.
  • the displacement sensor 355 may be installed in the main body 100 and / or the cover 200.
  • the displacement sensor 355 may include a first displacement sensor and a second displacement sensor.
  • the first displacement sensor may be installed in the main body 100
  • the second displacement sensor may be installed in the cover 200.
  • the alignment unit 359 may obtain alignment state information between the lens array 310 and the display panel 330.
  • the alignment unit 359 may include a first alignment unit and a second alignment unit.
  • the first aligning unit may be installed in the main body 100, and the second aligning unit 200 may be installed in the cover 200.
  • the aligning unit 359 may obtain alignment state information of the lens array 310 and the display panel 330.
  • the alignment unit 359 may obtain alignment state information through the uneven structure.
  • the first aligning portion may be implemented as an aligning hole / groove, and the second aligning portion may be implemented as an aligning protrusion (or protrusion).
  • the alignment unit 359 may obtain alignment state information of the lens array 310 and the display panel 330 when the second alignment unit is inserted into the first alignment unit.
  • the alignment unit 359 may obtain alignment state information of the lens array 310 and the display panel 330 through a force.
  • the first aligning portion and the second aligning portion may be magnetic materials.
  • any one of the first and second alignment parts may be a magnetic material, and the other may be a metal material having magnetic properties.
  • the alignment unit 359 may obtain alignment state information of the lens array 310 and the display panel 330 when the first alignment unit and the second alignment unit are aligned with each other through a magnetic force.
  • the first aligning unit and the second aligning unit may be aligned by an electromagnetic force.
  • the alignment unit 359 may output alignment state information to the GPU 353.
  • the aligning portion 359 is not limited to the above-described structure.
  • the parameter generator 357 may receive the measured displacement DI.
  • the parameter generator 357 may calculate a rendering parameter R_PR for rendering based on the rotation parameter R and the translation parameter T included in the measured displacement DI.
  • FIG. 11 is a flowchart for describing an operation of the parameter generator illustrated in FIG. 5, and FIGS. 12A and 12B are diagrams for describing an operation of the parameter generator illustrated in FIG. 5.
  • the parameter generator 357 determines a spatial position of the display panel 330 of each lens included in the lens array 310 according to the rotation parameter R and the translation parameter T. Can be calculated (1010).
  • the parameter generator 357 may determine a lens corresponding to each pixel of the interlaced image based on the calculated spatial position (1020).
  • the parameter generator 370 may generate a plurality of ray clusters C1, C2, and C3 by clustering the light field rays of the light field based on the determined lens (1030).
  • Each of the plurality of ray clusters C1, C2, and C3 may correspond to each of the view frustums VF1, VF2, and VF3.
  • 12A and 12B for convenience of description, three frustums corresponding to three ray clusters C1, C2, and C3 and three ray clusters C1, C2, and C3 along the horizontal direction are illustrated. Only VF1, VF2, and VF3) are shown.
  • the plurality of light rays of the light ray cluster C1 may correspond to one frustum VF1.
  • the plurality of light rays of the light ray cluster C2 may correspond to one frustum VF2.
  • the plurality of light rays of the light ray cluster C3 may correspond to one frustum VF3.
  • each of the frustums VF1, VF2, and VF3 may be a perspective view frustum. Further, each of the frustums VF1, VF2, and VF3 may be a shear perspective view frustum.
  • the frustums VF1, VF2, and VF3 corresponding to the plurality of ray clusters C1, C2, and C3 may have a rendering parameter R_PR for rendering.
  • the rendering parameter R_PR may include a view point and a view angle of the frustums VF1, VF2, and VF3.
  • the parameter generator 357 may calculate a rendering parameter R_PR for each frustum corresponding to the plurality of ray clusters C1, C2, and C3 (1040).
  • the parameter generator 357 may transmit the rendering parameter R_PR to the GPU 353 (1050).
  • the GPU 353 may generate 2D image data or 3D image data in response to the mode selection signal SEL.
  • the GPU 353 may generate 2D image data and output the generated 2D image data to the display panel 330. Accordingly, the display panel 330 may perform a 2D display operation.
  • the GPU 353 may generate 3D image data and output the generated 3D image data to the display panel 330.
  • the lens array 310 and the display panel 330 may perform a 3D display operation.
  • the 3D image data may be interlaced 3D image data.
  • FIG. 13 is a flowchart for describing a method of generating 3D image data of the GPU illustrated in FIG. 5.
  • 3D image data may be generated using (R_PR).
  • the GPU 353 may generate a multiview image through geometry duplication based on the rendering parameter R_PR (1210). For example, the GPU 353 geometrically replicates 3D content into each ray cluster C1 to C3, and parallelly renders the frustums VF1, VF2, and VF3 corresponding to each ray cluster C1 to C3 at once. To generate a multiview image.
  • the multiview image may be generated by a geometry shader of the GPU 353.
  • the GPU 353 may store a multiview image as a texture image in a memory (not shown) (1220).
  • the memory may be implemented as a volatile memory device or a nonvolatile memory device.
  • the volatile memory device may be implemented as a dynamic random access memory (DRAM), a static random access memory (SRAM), a thyristor RAM (T-RAM), a zero capacitor RAM (Z-RAM), or a twin transistor RAM (TTRAM).
  • DRAM dynamic random access memory
  • SRAM static random access memory
  • T-RAM thyristor RAM
  • Z-RAM zero capacitor RAM
  • TTRAM twin transistor RAM
  • Nonvolatile memory devices include EEPROM (Electrically Erasable Programmable Read-Only Memory), flash memory, Magnetic RAM (MRAM), Spin-Transfer Torque (STT) -MRAM, Conductive bridging RAM (CBRAM) , Ferroelectric RAM (FeRAM), Phase change RAM (PRAM), Resistive RAM (RRAM), Nanotube RRAM, Polymer RAM (PoRAM), Nano Floating Gate Memory (Nano Floating Gate Memory) NFGM, holographic memory, Molecular Electronics Memory Device, or Insulator Resistance Change Memory.
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • flash memory includes Magnetic RAM (MRAM), Spin-Transfer Torque (STT) -MRAM, Conductive bridging RAM (CBRAM) , Ferroelectric RAM (FeRAM), Phase change RAM (PRAM), Resistive RAM (RRAM), Nanotube RRAM, Polymer RAM (PoRAM), Nano Floating Gate Memory (Nano Floating Gate Memory) NFGM,
  • the GPU 353 may generate 3D image data by pixel rearranging the multiview image (1230). Pixel reordering may be performed by a pixel shader or a fragment shader of the GPU 353.
  • the GPU 353 may output 3D image data to the display panel 330 (1240).
  • the GPU 353 may generate 3D image data quickly by generating a multiview image through parallel rendering.
  • FIG. 14 is a diagram for describing an operating method according to an exemplary embodiment of the electronic device shown in FIG. 1.
  • the electronic device 10 may switch a 2D / 3D display in a flip close manner.
  • the connector 400 may install a short edge of the electronic device 10 as a rotation axis.
  • FIG. 15 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • the electronic device 10 may switch a 2D / 3D display in a flip close manner.
  • the connector 400 may be installed with a long edge of the electronic device 10 as a rotation axis.
  • FIG. 16 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • the electronic device 10 may switch the 2D / 3D display in a slide manner.
  • the slide direction may be a direction perpendicular to the long edge of the electronic device 10.
  • FIG. 17 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • the electronic device 10 may switch a 2D / 3D display in a slide manner.
  • the slide direction may be a direction perpendicular to a short edge of the electronic device 10.
  • FIG. 18 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • the electronic device 10 may switch the 2D / 3D display in a rotational manner.
  • the rotation direction is illustrated in the counterclockwise direction, but is not limited thereto, and the rotation direction may be clockwise.
  • FIG. 19 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • the electronic device 10 may switch a 2D / 3D display in a flip close manner.
  • the cover 200 may overlap a part of the main body 100.
  • FIG. 20 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • the electronic device 10 may switch a 2D / 3D display in a flip close manner.
  • the material of the cover 200 may be implemented to be transparent or translucent.
  • FIG. 21 is a diagram for describing an operating method according to another exemplary embodiment of the electronic device shown in FIG. 1.
  • the electronic device 10 may switch a 2D / 3D display in a flip over manner.
  • the cover 200 may flip from the front of the display panel 330 to the back of the main body 100.
  • the electronic device 10 may be in a 3D display operation state.
  • the electronic device 10 may be in a 2D display operation state.
  • the cover 200 is fully folded by flipping the cover 200 to the back side of the main body 100, the electronic device 10 may be in a 2D display state.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

전자 장치 및 이의 동작 방법이 개시된다. 일 실시예에 따른 전자 장치는 디스플레이 패널과, 광학 소자와, 상기 디스플레이 패널에 대한 상기 광학 소자의 위치 상태를 감지하고, 상기 디스플레이 패널과 상기 광학 소자가 오버랩된 상태일 때 상기 디스플레이 패널 및 상기 광학 소자를 통해 3D 영상을 생성하는, 상기 디스플레이 패널로부터 상기 광학 소자가 이탈된 상태일 때 상기 디스플레이 패널을 통해 2D 영상을 생성하는 제어부를 포함할 수 있다.

Description

전자 장치 및 이의 동작 방법
아래 실시예들은 전자 장치 및 이의 동작 방법에 관한 것이다.
모바일 장치는 스마트 폰으로 발전되어, 다양한 기능을 구비한다. 예를 들어, 상기 모바일 장치는 입체적 디스플레이(autostereoscopic display) 기능을 구비하고 있다. 상기 입체적 디스플레이 기능은 상기 모바일 장치의 사용자가 자연적으로 수평 방향 및 수직 방향의 연속적 시차 변화를 가지는 3D 영상을 시청할 수 있는 기술이다.
상기 모바일 장치는 일반적으로 패럴렉스 배리어(parallax barrier) 및/또는 렌즈 어레이를 사용하여 디스플레이 패널에 나타난 광선의 방향을 3D 공간의 서로 다른 방향에 굴절(refraction)되도록 구현하여 3D 영상을 생성한다.
실시예들은 2D 디스플레이 동작과 3D 디스플레이 동작을 스위칭할 수 있고, 2D 영상과 3D 영상을 모두 디스플레이할 수 있는 전자 장치를 제공할 수 있다.
또한, 실시예들은 병렬 렌더링을 통해 다시점 영상을 생성함으로써, 신속하게 3D 영상 데이터를 생성할 수 있는 기술을 제공할 수 있다.
일 실시예에 따른 전자 장치는 디스플레이 패널과, 광학 소자와, 상기 디스플레이 패널에 대한 상기 광학 소자의 위치 상태를 감지하고, 상기 디스플레이 패널과 상기 광학 소자가 오버랩된 상태일 때 상기 디스플레이 패널 및 상기 광학 소자를 통해 3D 영상을 생성하는, 상기 디스플레이 패널로부터 상기 광학 소자가 이탈된 상태일 때 상기 디스플레이 패널을 통해 2D 영상을 생성하는 제어부를 포함할 수 있다.
상기 제어부는 상기 디스플레이 패널에 대한 상기 광학 소자의 변위를 측정하고, 측정된 변위에 기초하여 상기 3D 영상을 생성할 수 있다.
상기 제어부는 상기 변위에 기초하여 상기 3D 영상을 생성하기 위한 렌더링 파라미터를 계산할 수 있다.
상기 측정된 변위는 회전 파라미터와 병진 파라미터를 포함할 수 있다.
상기 제어부는 상기 광학 소자와 상기 디스플레이 패널의 위치 상태에 기초하여 상기 디스플레이 패널과 상기 광학 소자의 디스플레이 동작을 위한 모드 선택 신호를 생성하는 모드 선택부와, 상기 모드 선택 신호에 응답하여 상기 광학 소자의 상기 디스플레이 패널에 대한 변위를 측정하는 변위 센서와, 측정된 변위에 기초하여 렌더링을 위한 렌더링 파라미터를 계산하는 파라미터 생성부와, 상기 렌더링 파라미터에 기초하여 상기 3D 영상을 생성하는 그래픽 프로세싱 유닛(graphic processing unit)을 포함할 수 있다.
상기 제어부는 상기 광학 소자와 상기 디스플레이 패널간의 얼라이닝 상태 정보를 획득하는 얼라이닝부를 더 포함하고, 상기 그래픽 프로세싱 유닛은 상기 얼라이닝 상태 정보에 따라 상기 렌더링 파리미터를 이용하여 상기 3D 영상을 생성할 수 있다.
상기 모드 선택부는 상기 광학 소자와 상기 디스플레이 패널의 위치 상태를 감지하고, 감지 신호를 생성하는 위치 센서와, 상기 감지 신호에 응답하여 상기 광학 소자와 상기 디스플레이 패널의 위치 상태를 판단하고, 판단 결과에 따라 상기 모드 선택 신호를 생성하는 모드 제어부를 포함할 수 있다.
상기 모드 선택부는 사용자의 입력에 응답하여 스위칭 신호를 생성하는 스위칭 버튼부를 더 포함하고, 상기 모드 제어부는 상기 스위칭 신호에 응답하여 상기 모드 선택 신호를 생성할 수 있다.
상기 모드 선택부는 사용자의 음성 명령을 인식하고, 상기 음성 명령을 처리하여 스위칭 신호를 생성하는 음성 명령 처리부를 더 포함하고, 상기 모드 제어부는 상기 스위칭 신호에 응답하여 상기 모드 선택 신호를 생성할 수 있다.
상기 광학 소자는 마이크로 렌즈 어레이(micro lens array), 마이크로프리즘 어레이(microprism array), 및 렌티큘라 렌즈 어레이(lenticular lens array) 중에서 적어도 하나로 구현될 수 있다.
상기 광학 소자는 상기 전자 장치의 커버에 설치되고, 상기 디스플레이 패널은 상기 전자 장치의 본체에 설치될 수 있다.
상기 전자 장치는 휴대용 장치일 수 있다.
상기 커버는 flip close 방식, flip over 방식, 슬라이드 방식 및 회전 방식 중에서 어느 하나로 동작할 수 있다.
일 실시예에 따른 전자 장치의 동작 방법은 디스플레이 패널에 대한 광학 소자의 위치 관계를 감지하는 단계와, 상기 디스플레이 패널과 상기 광학 소자가 오버랩된 상태일 때 상기 디스플레이 패널 및 상기 광학 소자를 통해 3D 영상을 생성하고, 상기 디스플레이 패널로부터 상기 광학 소자가 이탈된 상태일 때 상기 디스플레이 패널을 통해 2D 영상을 생성하는 단계를 포함할 수 있다.
상기 3D 영상을 생성하는 단계는 상기 디스플레이 패널에 대한 상기 광학 소자의 변위를 측정하고, 측정된 변위에 기초하여 상기 3D 영상을 생성하는 단계를 포함할 수 있다.
상기 3D 영상을 생성하는 단계는 상기 측정된 변위에 기초하여 상기 3D 영상을 생성하기 위한 렌더링 파라미터를 계산하는 단계를 더 포함할 수 있다.상기 측정된 변위는 회전 파라미터와 병진 파라미터를 포함할 수 있다.
상기 광학 소자는 마이크로 렌즈 어레이(micro lens array), 마이크로프리즘 어레이(microprism array), 및 렌티큘라 렌즈 어레이(lenticular lens array) 중에서 적어도 하나로 구현될 수 있다.
상기 광학 소자는 상기 전자 장치의 커버에 설치되고, 상기 디스플레이 패널은 상기 전자 장치의 본체에 설치될 수 있다.
상기 커버는 flip close 방식, flip over 방식, 슬라이드 방식 및 회전 방식 중에서 어느 하나로 동작할 수 있다.
도 1은 일 실시예에 따른 전자 장치의 구성도이고,
도 2는 도 1에 도시된 커버의 이동성을 설명하기 위한 도면이다.
도 3은 도 1에 도시된 전자 장치의 개략적인 블록도이다.
도 4a 및 도 4b는 도 3에 도시된 광학 소자가 렌즈 어레이로 구현될 경우 렌즈 어레이의 설치 방법을 설명하기 위한 도면이다.
도 5는 도 3에 도시된 제어부의 개략적인 블록도이다.
도 6은 도 3에 도시된 디스플레이 패널이 3D 디스플레이 동작 상태에서 렌즈 어레이와 디스플레이 패널의 위치 관계를 설명하기 위한 도면이다.
도 7은 도 5에 도시된 모드 선택부의 일 실시예에 따른 블록도이다.
도 8은 도 5에 도시된 모드 선택부의 다른 실시예에 따른 블록도이다.
도 9는 도 5에 도시된 모드 선택부의 또 다른 실시예에 따른 블록도이다.
도 10은 도 5에 도시된 변위 센서로부터 생성된 변위 정보를 설명하기 위한 도면이다.
도 11은 도 3에 도시된 파라미터 생성부의 동작을 설명하기 위한 플로우 차트이다.
도 12a 및 도 12b는 도 5에 도시된 파라미터 생성부의 동작을 설명하기 위한 도면이다.
도 13은 도 5에 도시된 GPU의 3D 영상 데이터를 생성하는 방법을 설명하기 위한 플로우 차트이다.
도 14는 도 1에 도시된 전자 장치의 일 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 15는 도 1에 도시된 전자 장치의 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 16은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 17은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 18은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 19는 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 20은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 21은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 일 실시예에 따른 전자 장치의 구성도이고, 도 2는 도 1에 도시된 커버의 이동성을 설명하기 위한 도면이다.
도 1 및 도 2를 참조하면, 전자 장치(electric device; 10)는 본체(main body; 100)와 커버(cover; 200)를 포함할 수 있다.
전자 장치(10)는 PC(personal computer), 데이터 서버, 또는 휴대용 장치로 구현될 수 있다.
휴대용 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(tablet) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld game console), 또는 e-북(e-book)으로 구현될 수 있다.
도 1이하에서는 설명의 편의를 위해서 전자 장치(10)를 이동 전화기로 도시하여 설명한다.
커버(200)는 본체(100)에 접속될 수 있다. 예를 들어, 커버(200)는 본체(100)에 결합된 일체형으로 구현될 수 있다. 다른 예를 들어, 커버(200)는 본체(100)와 분리가 가능한 착탈식(removal)으로 구현될 수 있다.
커버(200)는 외부로부터의 물리적 힘에 의하여 본체(100)를 기준으로 동작(또는 이동)할 수 있다. 예를 들어, 커버(200)는 본체(100)의 일부에 오버랩될 수 있다. 다른 예를 들어, 커버(200)는 본체(100)의 전부에 오버랩될 수 있다. 도 2에 도시된 바와 같이, 커버(200)는 물리적 힘에 의하여 본체(100)의 전부에 오버랩될 수 있다.
도 1에서는 커버(200)가 flip close 방식의 동작을 도시하고 있지만, 커버(200)는 이에 한정되지 않고 다양한 방식으로 동작할 수 있다. 예를 들어, 커버(200)는 flip over 방식, 슬라이드 방식, 또는 회전 방식으로 동작할 수 있다.
커버(200)는 전자 장치(10)의 전자 소자들 중 일부를 포함하고, 커버(200)에 포함된 전자 소자들은 본체(100)에 구현된 전자 소자들에 전기적으로 연결될 수 있다.
커버(200)의 재질은 투명(transparent), 반투명(translucency), 또는 불투명(opaque)하게 구현될 수 있다.
도 3은 도 1에 도시된 전자 장치의 개략적인 블록도이다.
도 1 내지 도 3을 참조하면, 전자 장치(10)는 광학 소자(optical element; 310), , 디스플레이 패널(display panel; 330), 및 제어부(controller; 350)를 포함할 수 있다.
광학 소자(310)는 커버(200)에 구현될 수 있다. 예를 들어, 광학 소자(330)는 커버(200)에 내장될 수 있다. 광학 소자(330)는 디스플레이 패널(330)의 2D 영상(2D image)으로부터 방출된 광선들(rays)을 굴절하여 3D 영상(3D image)을 디스플레이(또는 생성)할 수 있다.
광학 소자(310)는 패럴렉스 배리어(parallax barrier)와 렌즈 어레이(lens array) 중에서 적어도 하나로 구현될 수 있다.
도 4a 및 도 4b는 도 3에 도시된 광학 소자가 렌즈 어레이로 구현될 경우 렌즈 어레이의 설치 방법을 설명하기 위한 도면이다.
도 4a에 도시된 바와 같이, 광학 소자(310)가 렌즈 어레이로 구현될 경우 렌즈가 위로 향하도록 설치될 수 있다. 이때, 보호층(protective layer)은 렌즈 어레이가 마손되지 않도록 보호하기 위해 설치될 수 있다. 예를 들어, 보호층은 투명 재질이고 터치 센서를 포함하는 터치층(touch layer)일 수도 있다.
도 4b에 도시된 바와 같이, 광학 소자(310)가 렌즈 어레이로 구현될 경우 렌즈가 아래로 향하도록 설치될 수 있다. 이때, 터치층은 렌즈 어레이의 상부에 설치될 수 있다. 또한, 보호층이 렌즈 어레이의 상부에 설치될 수 있다.
렌즈 어레이는 마이크로 렌즈 어레이(micro lens array), 마이크로프리즘 어레이(microprism array), 또는 렌티큘라 렌즈 어레이(lenticular lens array)일 수 있다.
광학 소자(310)가 렌즈 어레이, 예를 들어 마이크로 렌즈 어레이로 구현될 때, 광학 소자(310)는 수평 방향 및 수직 방향의 시차 영상을 동시에 제공하고, 복수의 시각 영상을 제공할 수 있다. 이에, 광학 소자(310)는 리얼(real)하고 자연적인(natural) 3D 영상을 디스플레이할 수 있다. 전자 장치(10)의 디스플레이 패널(330)이 회전할 때, 광학 소자(310)는 마이크로 렌즈 어레이를 통해 수평 및 수직 두 방향의 서로 다른 시각 영상을 동시에 제공할 수 있다. 이에, 전자 장치(10)의 사용자는 전자 장치(10)의 디스플레이 패널(330)이 자동으로 회전하더라도 3D 영상을 시청할 수 있다.
광학 소자(310)의 재질은 투명(transparent)하게 구현될 수 있다.
이하에서는, 설명의 편의를 위해 광학 소자(310)를 렌즈 어레이(310)로 가정하여 설명한다.
디스플레이 패널(330)은 LCD 패널로 구현될 수 있다. 또한, 디스플레이 패널(110)은 터치 스트린 패널, FTF-LCD(Thin Film Transistor-Liquid Crystal Display) 패널, LED(Liquid Emitting Diode) 디스플레이 패널, OLED(Organic LED) 디스플레이 패널, AMOLED(Active Matrix OLED) 디스플레이 패널, 또는 플렉시블(flexible) 디스플레이 패널로 구현될 수 있다. 예를 들어, 디스플레이 패널(330)은 본체(100)에 포함될 수 있다.
렌즈 어레이(310)와 디스플레이 패널(330)은 제어부(350)의 제어에 따라 2D 디스플레이 동작 또는 3D 디스플레이 동작을 수행할 수 있다.
제어부(350)는 디스플레이 패널(330)에 대한 렌즈 어레이(310)의 위치 상태를 감지하고, 감지된 위치 상태에 따라 디스플레이 패널(330) 및 렌즈 어레이(310)를 통해 3D 영상을 생성하거나 디스플레이 패널(330)을 통해 2D 영상을 생성할 수 있다.
도 5는 도 3에 도시된 제어부의 개략적인 블록도이다.
도 1 내지 도 5를 참조하면, 제어부(350)는 모드 선택부(mode selector; 351), GPU(graphic processing unit; 353), 변위 센서(displacement sensor; 355), 파라미터 생성부(357; parameter generator), 및 얼라이닝부(aligning unit; 359)를 포함할 수 있다.
모드 선택부(351)는 렌즈 어레이(310)와 디스플레이 패널(330)의 위치 상태에 기초하여 렌즈 어레이(310)와 디스플레이 패널(330)의 디스플레이 동작을 위한 모드 선택 신호(mode selection signal; SEL)를 생성할 수 있다. 모드 선택부(351)는 디스플레이 패널(330)이 2D 디스플레이 동작을 수행하도록 제1 레벨, 예를 들어 로우 레벨(low level) 또는 로직(logic) 0인 모드 선택 신호(SEL)를 생성할 수 있다. 모드 선택부(351)는 렌즈 어레이(310)와 디스플레이 패널(330)이 3D 디스플레이 동작을 수행하도록 제2 레벨, 예를 들어 하이 레벨(high level) 또는 로직 1인 모드 선택 신호(SEL)를 생성할 수 있다.
이에, 전자 장치(10)는 2D 디스플레이 동작과 3D 디스플레이 동작을 스위칭할 수 있고, 2D 영상과 3D 영상을 모두 디스플레이할 수 있다.
도 6은 도 3에 도시된 디스플레이 패널이 3D 디스플레이 동작 상태에서 렌즈 어레이와 디스플레이 패널의 위치 관계를 설명하기 위한 도면이다.
도 6에 도시된 바와 같이, 디스플레이 패널(330)이 3D 디스플레이 동작을 수행할 때, 렌즈 어레이(310)의 미리 설정된 평면과 디스플레이 패널(330)의 패널 간의 간격(G)은 렌즈 어레이(310)의 초점 거리와 일치할 수 있다. 커버(200)가 본체(100)에 오버랩된 상태일 때, 커버(200)에 포함된 렌즈 어레이(310)와 본체(100)에 포함된 디스플레이 패널(330) 간의 간격(G)은 렌즈 어레이(310)의 초점 거리와 일치할 수 있다.
예를 들어, 모드 선택부(351)는 렌즈 어레이(310)와 디스플레이 패널(330)이 오버랩된 상태일 때, 렌즈 어레이(310)와 디스플레이 패널(330)이 3D 디스플레이 동작을 수행하도록 모드 선택 신호(SEL)를 생성할 수 있다. 오버랩된 상태는 커버(200)가 본체(100)의 위에 있고, 커버(200)와 본체(100)의 오버랩 면적이 미리 설정된 면적과 같거나 초과하는 경우를 의미할 수 있다. 미리 설정된 면적은 커버(200)와 본체(100)가 오버랩할 수 있는 최대 면적일 수 있다. 예를 들어, 커버(200)가 flip close 방식으로 동작하는 전자 장치(10)의 오버랩된 상태는 커버(200)와 본체(100)가 완전히 오버랩된 상태, 예를 들어, 커버(200)가 본체(100)에 완전히 터치된 상태일 수 있다. 커버(200)가 슬라이드 방식으로 동작하는 전자 장치(10)의 오버랩된 상태는 커버(200)가 안쪽으로 슬라이드하여 반대쪽 위치에 완전히 도달한 상태일 수 있다. 또한, 상기 미리 설정된 면적은 커버(200)와 본체(100)가 완전히 오버랩될 수 있는 최대 면적의 90%로 설정될 수 있다. 상기 90%는 일 실시예로 이에 한정되지 않는다.
다른 예를 들어, 모드 선택부(351)는 렌즈 어레이(310)와 디스플레이 패널(330)이 오버랩된 상태 이외의 상태일 때, 디스플레이 패널(330)이 2D 디스플레이 동작을 수행하도록 모드 선택 신호(SEL)를 생성할 수 있다. 오버랩된 상태 이외의 상태는 렌즈 어레이(310)가 디스플레이 패널(330)로부터 이탈된 상태를 의미할 수 있다.
모드 선택부(351)는 모드 선택 신호(SEL)를 GPU(353) 및/또는 변위 센서(355)로 출력할 수 있다.
도 7은 도 5에 도시된 모드 선택부의 일 실시예에 따른 블록도이다.
도 1 내지 도 7을 참조하면, 모드 선택부(351A)는 모드 제어부(mode controller; 351-1)와 위치 센서(position sensor; 351-3)를 포함할 수 있다. 모드 선택부(351A)는 도 5에 도시된 모드 선택부(351)의 일 실시예를 나타낸다.
위치 센서(351-3)는 본체(100) 및/또는 커버(200)에 설치될 수 있다. 위치 센서(351-3)는 커버(200)의 동작 방식, 예를 들어 flip close 방식, flip over 방식, 슬라이드 방식, 또는 회전 방식을 통해 커버(200)가 본체(100)로 움직일 때, 렌즈 어레이(310)와 디스플레이 패널(330)의 위치 상태를 감지하고, 감지 신호(SS)를 생성할 수 있다. 위치 센서(351-3)는 감지 신호(SS)를 모드 제어부(351-1)로 출력할 수 있다.
모드 제어부(351-1)는 감지 신호(SS)에 응답하여 렌즈 어레이(310)와 디스플레이 패널(330)의 위치 상태를 판단하고, 판단 결과에 따라 모드 선택 신호(SEL)를 생성할 수 있다. 예를 들어, 모드 제어부(351-1)는 감지 신호(SS)에 응답하여 렌즈 어레이(310)와 디스플레이 패널(330) 간의 오버랩 상태를 판단할 수 있다.
예를 들어, 모드 제어부(351-1)는 렌즈 어레이(310)와 디스플레이 패널(330)이 오버랩된 상태일 때, 렌즈 어레이(310)와 디스플레이 패널(330)이 3D 디스플레이 동작을 수행하도록 모드 선택 신호(SEL)를 생성할 수 있다.
다른 예를 들어, 모드 제어부(351-1)는 렌즈 어레이(310)와 디스플레이 패널(330)이 오버랩된 상태 이외의 상태일 때, 디스플레이 패널(330)이 2D 디스플레이 동작을 수행하도록 모드 선택 신호(SEL)를 생성할 수 있다.
도 8은 도 5에 도시된 모드 선택부의 다른 실시예에 따른 블록도이다.
도 1 내지 도 6 및 도 8을 참조하면, 모드 선택부(351B)는 모드 제어부(351-1)와 스위칭 버튼부(switching button unit; 351-5)를 포함할 수 있다. 모드 선택부(351B)는 도 5에 도시된 모드 선택부(351)의 다른 실시예를 나타낸다.
스위칭 버튼부(351-5)는 전자 장치(10)의 사용자의 입력에 응답하여 스위칭 신호를 생성할 수 있다.
모드 제어부(351-1)는 스위칭 버튼부(351-5)로부터 출력된 스위칭 신호에 응답하여 모드 선택 신호(SEL)를 생성할 수 있다.
예를 들어, 스위칭 신호의 레벨이 제1 레벨, 예를 들어 로우 레벨(low level) 또는 로직(logic) 0일 때, 모드 제어부(351-1)는 디스플레이 패널(310)이 2D 디스플레이 동작을 수행하도록 모드 선택 신호(SEL)를 생성할 수 있다. 스위칭 신호의 레벨이 제2 레벨, 예를 들어 하이 레벨(high level) 또는 로직 1일 때, 모드 제어부(351-1)는 렌즈 어레이(310)와 디스플레이 패널(310)이 3D 디스플레이 동작을 수행하도록 모드 선택 신호(SEL)를 생성할 수 있다.
전자 장치(10)의 사용자는 스위칭 버튼부(351-5)를 통해 2D 디스플레이 동작 또는 3D 디스플레이 동작을 선택할 수 있다.
모드 선택부(351B)는 도 7에 도시된 위치 센서(351-3)를 더 포함할 수 있다. 이때, 전자 장치(10)의 사용자는 위치 센서(351-3)의 동작 상태, 예를 들어 ON/OFF를 선택할 수 있다. 위치 센서(351-3)의 동작 상태가 ON 상태일 때, 모드 선택부(351B)는 위치 센서(351-3)를 통해 디스플레이 패널(330)의 디스플레이 동작 모드를 자동으로 제어할 수 있다. 위치 센서(351-3)의 동작 상태가 OFF 상태일 때, 모드 선택부(351B)는 스위칭 버튼부(351-5)를 통해 디스플레이 동작 모드를 자동으로 제어할 수 있다.
즉, 전자 장치(10)는 사용자의 필요에 따라 간단한 스위칭으로 2D 디스플레이 동작과 3D 디스플레이 동작을 수행할 수 있다.
도 9는 도 5에 도시된 모드 선택부의 또 다른 실시예에 따른 블록도이다.
도 1 내지 도 6 및 도 9를 참조하면, 모드 선택부(351C)는 모드 제어부(351-1)와 음성 명령 처리부(voice command processing unit; 351-7)를 포함할 수 있다. 모드 선택부(351C)는 도 5에 도시된 모드 선택부(351)의 또 다른 실시예를 나타낸다.
음성 명령 처리부(351-7) 전자 장치(10)의 사용자의 음성 명령을 인식하고, 인식된 음성 명령을 처리하고 스위칭 신호를 생성할 수 있다. 음성 명령 처리부(351-7)는 전반적으로 음성 인식 및 처리 동작을 수행할 수 있다. 음성 명령 처리부(351-7)는 마이크로폰(microphone; 미도시)에 연결된 독립형 회로일 수 있고, 또는 계산부(computing unit; 미도시)에 집적될 수 있다. 예를 들어, 계산부는 프로세서(processor), 예를 들어 CPU(central processing unit)를 의미할 수 있다.
모드 제어부(351-1)는 스위칭 신호에 응답하여 모드 선택 신호(SEL)를 생성할 수 있다. 예를 들어, 스위칭 신호의 레벨이 제1 레벨, 예를 들어 로우 레벨(low level) 또는 로직(logic) 0일 때, 모드 제어부(351-1)는 디스플레이 패널(330)이 2D 디스플레이 동작을 수행하도록 모드 선택 신호(SEL)를 생성할 수 있다. 스위칭 신호의 레벨이 제2 레벨, 예를 들어 하이 레벨(high level) 또는 로직 1일 때, 모드 제어부(351-1)는 렌즈 어레이(310)와 디스플레이 패널(330)이 3D 디스플레이 동작을 수행하도록 모드 선택 신호(SEL)를 생성할 수 있다.
예를 들어, 커버(200)가 본체(100)에 오버랩된 상태에서, 전자 장치(10)의 사용자가 음성 명령의 일 예로 "3D 디스플레이"를 말할 때, 모드 선택부(330-3)는 디스플레이 패널(330)이 3D 디스플레이 동작을 수행하도록 모드 선택 신호(SEL)를 생성할 수 있다.
모드 선택부(351C)는 도 7에 도시된 위치 센서(351-3)를 더 포함할 수 있다. 이때, 전자 장치(10)의 사용자는 위치 센서(351-3)의 동작 상태, 예를 들어 ON/OFF를 선택할 수 있다. 위치 센서(351-3)의 동작 상태가 ON 상태일 때, 모드 선택부(351C)는 위치 센서(351-3)를 통해 디스플레이 동작 모드를 자동으로 제어할 수 있다. 위치 센서(351-3)의 동작 상태가 OFF 상태일 때, 모드 선택부(351C)는 음성 명령 처리부(351-7)를 통해 디스플레이 동작 모드를 자동으로 제어할 수 있다.
즉, 전자 장치(10)는 사용자의 필요에 따라 간단한 스위칭으로 2D 디스플레이 동작과 3D 디스플레이 동작을 수행할 수 있다.
전자 장치(10)가 휴대용 장치로 구현될 때, 상술한 2D/3D 디스플레이 스위칭 동작을 통해 사용자는 통화, 메시지 작성 및 캘린더 확인 등의 이동 전화기의 기본 기능을 사용시 2D 디스플레이 동작을 이용하고, 비디오 또는 게임 등의 기능을 사용시 3D 디스플레이 동작을 이용할 수 있다.
도 1 내지 도 9를 참조하면, 변위 센서(355)는 모드 선택 신호(SEL)에 응답하여 동작할 수 있다. 예를 들어, 모드 선택 신호(SEL)가 제2 레벨일 때, 변위 센서(355)는 동작을 시작할 수 있다.
변위 센서(355)는 렌즈 어레이(310)의 디스플레이 패널(330)에 대한 변위를 측정하고, 측정된 변위(DI)를 파라미터 생성부(357)로 출력할 수 있다. 도 10에 도시된 바와 같이, 측정된 변위(DI)는 렌즈 어레이(310)의 디스플레이 패널(330)에 대한 회전 파라미터(rotation parameter; R)와 병진 파라미터(translation parameter; T)를 포함할 수 있다. 예를 들어, R은 3x3의 회전 매트릭스이고, 2x2의 병진 벡터를 의미할 수 있다.
변위 센서(355)는 적어도 하나의 변위 센서를 포함할 수 있다. 변위 센서(355)는 인덕턴스형(inductance type) 변위 센서, 커패시턴스형(capacitance type) 변위 센서, 인덕토신(inductosyn), 래스터(raster) 센서, 자기 변형(Magnetostriction) 변위 센서, 자기 그리드(magnetic grid) 센서, 회전 변압기 및 광전 인코더(photoelectric encoder)를 포함할 수 있다.
변위 센서(355)는 본체(100) 및/또는 커버(200)에 설치될 수 있다. 예를 들어, 변위 센서(355)는 제1 변위센서 및 제2 변위 센서를 포함할 수 있다. 제1 변위 센서는 본체(100)에 설치되고, 제2 변위 센서는 커버(200)에 설치될 수 있다.
얼라이닝부(359)는 렌즈 어레이(310)와 디스플레이 패널(330) 간의 얼라이닝 상태 정보를 획득할 수 있다. 얼라이닝부(359)는 제1 얼라이닝부와 제2 얼라이닝부를 포함할 수 있다. 제1 얼라이닝부는 본체(100)에 설치되고, 제2 얼라이닝부(200)는 커버(200)에 설치될 수 있다.
렌즈 어레이(310)와 디스플레이 패널(330)가 오버랩된 상태일 때, 얼라이닝부(359)는 렌즈 어레이(310)와 디스플레이 패널(330)의 얼라이닝 상태 정보를 획득할 수 있다.
예를 들어, 얼라이닝부(359)는 요철 구조를 통해 얼라이닝 상태 정보를 획득할 수 있다. 제1 얼라이닝부는 얼라이닝 홀(hole)/홈(groove)으로 구현되고, 제2 얼라이닝부는 얼라이닝 돌출(또는 돌출부)로 구현될 수 있다. 얼라이닝부(359)는 제2 얼라이닝부가 제1 얼라이닝부에 삽입될 때, 렌즈 어레이(310)와 디스플레이 패널(330)의 얼라이닝 상태 정보를 획득할 수 있다.
다른 예를 들어, 얼라이닝부(359)는 작용력(force)을 통해 렌즈 어레이(310)와 디스플레이 패널(330)의 얼라이닝 상태 정보를 획득할 수 있다. 제1 얼라이닝부와 제2 얼라이닝부는 자성체일 수 있다. 또한, 제1 얼라닝부와 제2 얼라이닝부 중에서 어느 하나는 자성체이고, 다른 하나는 자성을 구비하는 금속체일 수 있다. 얼라이닝부(359)는 제1 얼라이닝부와 제2 얼라이닝부가 자기력을 통해 서로 얼라이닝될 때, 렌즈 어레이(310)와 디스플레이 패널(330)의 얼라이닝 상태 정보를 획득할 수 있다. 제1 얼라이닝부와 제2 얼라이닝부는 전자기력(electromagnetic force)에 의하여 얼라이닝될 수 있다.
얼라이닝부(359)는 얼라이닝 상태 정보를 GPU(353)로 출력할 수 있다. 얼라이닝부(359)는 상기 상술한 구조에 제한되지 않는다.
파라미터 생성부(357)는 측정된 변위(DI)를 수신할 수 있다. 파라미터 생성부(357)는 측정된 변위(DI)에 포함된 회전 파라미터(R)와 병진 파라미터(T)에 기초하여 렌더링을 위한 렌더링 파라미터(R_PR)를 계산할 수 있다.
도 11은 도 5에 도시된 파라미터 생성부의 동작을 설명하기 위한 플로우 차트이고, 12a 및 도 12b는 도 5에 도시된 파라미터 생성부의 동작을 설명하기 위한 도면이다.
도 1 내지 도 12b를 참조하면, 파라미터 생성부(357)는 회전 파라미터(R)와 병진 파라미터(T)에 따라 렌즈 어레이(310)에 포함된 각 렌즈의 디스플레이 패널(330)에 대한 공간 위치를 계산할 수 있다(1010).
파라미터 생성부(357)는 계산된 공간 위치에 기초하여 인터레이스 영상의 각 픽셀에 대응하는 렌즈를 결정할 수 있다(1020).
파리미터 생성부(370)는 결정된 렌즈에 기초하여 라이트 필드의 라이트 필드 광선들을 클러스터링(clustering)하여 복수의 광선 클러스터들(C1, C2, 및 C3)을 생성할 수 있다(1030). 복수의 광선 클러스터들(C1, C2, 및 C3) 각각은 절두체들(view frustums; VF1, VF2, 및 VF3) 각각에 대응할 수 있다. 도 12a 및 도 12b에서는 설명의 편의를 위해 수평 방향에 따른 3개의 광선 클러스터들(C1, C2, 및 C3)과 3개의 광선 클러스터들(C1, C2, 및 C3)에 대응하는 3개의 절두체들(VF1, VF2, 및 VF3)만을 도시하였다.
광선 클러스터(C1)의 복수의 광선들은 하나의 절두체(VF1)에 대응할 수 있다. 광선 클러스터(C2)의 복수의 광선들은 하나의 절두체(VF2)에 대응할 수 있다. 광선 클러스터(C3)의 복수의 광선들은 하나의 절두체(VF3)에 대응할 수 있다.
예를 들어, 절두체들(VF1, VF2, 및 VF3) 각각은 원근 절두체(perspective view frustum)일 수 있다. 또한, 절두체들(VF1, VF2, 및 VF3) 각각은 경사진 원근 절두체(shear perspective view frustum)일 수 있다.
복수의 광선 클러스터들(C1, C2, 및 C3)에 대응하는 절두체들(VF1, VF2, 및 VF3)은 렌더링을 위한 렌더링 파라미터(R_PR)를 가질 수 있다.
렌더링 파라미터(R_PR)는 절두체들(VF1, VF2, 및 VF3)의 시점(viewpoint), 및 시야각(view angle)을 포함할 수 있다.
파라미터 생성부(357)는 복수의 광선 클러스터들(C1, C2, 및 C3)에 대응하는 각 절두체를 위한 렌더링 파라미터(R_PR)를 계산할 수 있다(1040).
파라미터 생성부(357)는 렌더링 파라미터(R_PR)를 GPU(353)로 전송할 수 있다(1050).
GPU(353)는 모드 선택 신호(SEL)에 응답하여 2D 영상 데이터 또는 3D 영상 데이터를 생성할 수 있다.
모드 선택 신호(SEL)가 제1 레벨일 때, GPU(353)는 2D 영상 데이터를 생성하고, 생성된 2D 영상 데이터를 디스플레이 패널(330)로 출력할 수 있다. 이에, 디스플레이 패널(330)은 2D 디스플레이 동작을 수행할 수 있다.
모드 선택 신호(SEL)가 제2 레벨일 때, GPU(353)는 3D 영상 데이터를 생성하고, 생성된 3D 영상 데이터를 디스플레이 패널(330)로 출력할 수 있다. 이에, 렌즈 어레이(310)와 디스플레이 패널(330)은 3D 디스플레이 동작을 수행할 수 있다. 예를 들어, 3D 영상 데이터는 인터레이스 3D 영상 데이터일 수 있다.
도 13는 도 5에 도시된 GPU의 3D 영상 데이터를 생성하는 방법을 설명하기 위한 플로우 차트이다.
도 1 내지 도 13을 참조하면, GPU(353)는 얼라이닝부(359)로부터 출력된 얼라이닝 상태 정보로부터 렌즈 어레이(310)와 디스플레이 패널(330)이 얼라이닝되지 않았다고 판단될 때, 렌더링 파라미터(R_PR)를 이용하여 3D 영상 데이터를 생성할 수 있다.
GPU(353)는 렌더링 파라미터(R_PR)에 기초하여 기하 복제(geometry duplication)를 통해 다시점 영상을 생성할 수 있다(1210). 예를 들어, GPU(353)는 3D 컨텐츠를 각 광선 클러스터(C1 내지 C3)에 기하 복제하고, 각 광선 클러스터(C1 내지 C3)에 대응하는 절두체들(VF1, VF2, 및 VF3)을 한번에 병렬 렌더링하여 다시점 영상을 생성할 수 있다. 예를 들어, 다시점 영상은 GPU(353)의 지오메트리 세이더(geometry shader)에 의해서 생성될 수 있다.
GPU(353)는 다시점 영상을 하나의 텍스처 영상으로 메모리(미도시)에 저장할 수 있다(1220). 메모리는 휘발성 메모리 장치 또는 불휘발성 메모리 장치로 구현될 수 있다.
휘발성 메모리 장치는 DRAM(dynamic random access memory), SRAM(static random access memory), T-RAM(thyristor RAM), Z-RAM(zero capacitor RAM), 또는 TTRAM(Twin Transistor RAM)으로 구현될 수 있다.
불휘발성 메모리 장치는 EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래시(flash) 메모리, MRAM(Magnetic RAM), 스핀전달토크 MRAM(Spin-Transfer Torque(STT)-MRAM), Conductive bridging RAM(CBRAM), FeRAM(Ferroelectric RAM), PRAM(Phase change RAM), 저항 메모리(Resistive RAM: RRAM), 나노튜브 RRAM(Nanotube RRAM), 폴리머 RAM(Polymer RAM: PoRAM), 나노 부유 게이트 메모리(Nano Floating Gate Memory: NFGM), 홀로그래픽 메모리(holographic memory), 분자 전자 메모리 소자(Molecular Electronics Memory Device), 또는 절연 저항 변화 메모리(Insulator Resistance Change Memory)로 구현될 수 있다.
GPU(353)는 다시점 영상을 픽셀 재정리하여 3D 영상 데이터를 생성할 수 있다(1230). 픽셀 재정리는 GPU(353)의 픽셀 세이더(pixel shader 또는 Fragment Shader)에 의하여 수행될 수 있다.
GPU(353)는 3D 영상 데이터를 디스플레이 패널(330)로 출력할 수 있다(1240). GPU(353)는 병렬 렌더링을 통해 다시점 영상을 생성함으로써, 신속하게 3D 영상 데이터를 생성할 수 있다.
도 14는 도 1에 도시된 전자 장치의 일 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 14를 참조하면, 전자 장치(10)는 flip close 방식으로 2D/3D 디스플레이를 스위칭할 수 있다. 커넥터(connector; 400)는 전자 장치(10)의 짧은 에지(short edge)를 회전축으로 설치될 수 있다.
도 15는 도 1에 도시된 전자 장치의 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 15를 참조하면, 전자 장치(10)는 flip close 방식으로 2D/3D 디스플레이를 스위칭할 수 있다. 커넥터(400)는 전자 장치(10)의 긴 에지(long edge)를 회전축으로 설치될 수 있다.
도 16은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 16을 참조하면, 전자 장치(10)는 슬라이드 방식으로 2D/3D 디스플레이를 스위칭할 수 있다. 슬라이드 방향은 전자 장치(10)의 긴 에지(long edge)에 수직된 방향일 수 있다.
도 17은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 17을 참조하면, 전자 장치(10)는 슬라이드 방식으로 2D/3D 디스플레이를 스위칭할 수 있다. 슬라이드 방향은 전자 장치(10)의 짧은 에지(short edge)에 수직된 방향일 수 있다.
도 18은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 18을 참조하면, 전자 장치(10)는 회전 방식으로 2D/3D 디스플레이를 스위칭할 수 있다. 도 18에서는 회전 방향이 반시계 방향으로 도시되어 있지만, 이에 한정되지 않으며, 회전 방향은 시계 방향일 수 있다.
도 19는 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 19를 참조하면, 전자 장치(10)는 flip close 방식으로 2D/3D 디스플레이를 스위칭할 수 있다. 이때, 커버(200)는 본체(100)의 일부에 오버랩될 수 있다.
도 20은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 20을 참조하면, 전자 장치(10)는 flip close 방식으로 2D/3D 디스플레이를 스위칭할 수 있다. 이때, 커버(200)의 재질은 투명 또는 반투명하게 구현될 수 있다.
도 21은 도 1에 도시된 전자 장치의 또 다른 실시예에 따른 동작 방법을 설명하기 위한 도면이다.
도 21을 참조하면, 전자 장치(10)는 flip over 방식으로 2D/3D 디스플레이를 스위칭할 수 있다. 커버(200)가 디스플레이 패널(330)의 정면에서 본체(100)의 뒷면까지 flip할 수 있다. 커버(200)가 디스플레이 패널(330)의 표면까지 flip할 때, 전자 장치(10)는 3D 디스플레이 동작 상태일 수 있다. 커버(200)가 flip하여 디스플레이 패널(330)의 표면에 벗어날 때, 전자 장치(10)는 2D 디스플레이 동작 상태일 수 있다. 또한, 커버(200)를 본체(100)의 뒷면까지 flip하여 완전히 접힐 때, 전자 장치(10)는 2D 디스플레이 상태일 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 디스플레이 패널;
    광학 소자; 및
    상기 디스플레이 패널에 대한 상기 광학 소자의 위치 상태를 감지하고, 상기 디스플레이 패널과 상기 광학 소자가 오버랩된 상태일 때 상기 디스플레이 패널 및 상기 광학 소자를 통해 3D 영상을 생성하는, 상기 디스플레이 패널로부터 상기 광학 소자가 이탈된 상태일 때 상기 디스플레이 패널을 통해 2D 영상을 생성하는 제어부
    를 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 제어부는 상기 디스플레이 패널에 대한 상기 광학 소자의 변위를 측정하고, 측정된 변위에 기초하여 상기 3D 영상을 생성하는 전자 장치.
  3. 제2항에 있어서,
    상기 제어부는 상기 변위에 기초하여 상기 3D 영상을 생성하기 위한 렌더링 파라미터를 계산하는 전자 장치.
  4. 제2항에 있어서,
    상기 측정된 변위는 회전 파라미터와 병진 파라미터를 포함하는 전자 장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 광학 소자와 상기 디스플레이 패널의 위치 상태에 기초하여 상기 디스플레이 패널과 상기 광학 소자의 디스플레이 동작을 위한 모드 선택 신호를 생성하는 모드 선택부;
    상기 모드 선택 신호에 응답하여 상기 광학 소자의 상기 디스플레이 패널에 대한 변위를 측정하는 변위 센서;
    측정된 변위에 기초하여 렌더링을 위한 렌더링 파라미터를 계산하는 파라미터 생성부; 및
    상기 렌더링 파라미터에 기초하여 상기 3D 영상을 생성하는 그래픽 프로세싱 유닛(graphic processing unit)
    을 포함하는 전자 장치.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 광학 소자와 상기 디스플레이 패널간의 얼라이닝 상태 정보를 획득하는 얼라이닝부
    를 더 포함하고,
    상기 그래픽 프로세싱 유닛은 상기 얼라이닝 상태 정보에 따라 상기 렌더링 파리미터를 이용하여 상기 3D 영상을 생성하는 전자 장치.
  7. 제5항에 있어서,
    상기 모드 선택부는,
    상기 광학 소자와 상기 디스플레이 패널의 위치 상태를 감지하고, 감지 신호를 생성하는 위치 센서; 및
    상기 감지 신호에 응답하여 상기 광학 소자와 상기 디스플레이 패널의 위치 상태를 판단하고, 판단 결과에 따라 상기 모드 선택 신호를 생성하는 모드 제어부
    를 포함하는 전자 장치.
  8. 제7항에 있어서,
    상기 모드 선택부는,
    사용자의 입력에 응답하여 스위칭 신호를 생성하는 스위칭 버튼부
    를 더 포함하고,
    상기 모드 제어부는 상기 스위칭 신호에 응답하여 상기 모드 선택 신호를 생성하는 전자 장치.
  9. 제7항에 있어서,
    상기 모드 선택부는,
    사용자의 음성 명령을 인식하고, 상기 음성 명령을 처리하여 스위칭 신호를 생성하는 음성 명령 처리부
    를 더 포함하고,
    상기 모드 제어부는 상기 스위칭 신호에 응답하여 상기 모드 선택 신호를 생성하는 전자 장치.
  10. 제1항에 있어서,
    상기 광학 소자는 마이크로 렌즈 어레이(micro lens array), 마이크로프리즘 어레이(microprism array), 및 렌티큘라 렌즈 어레이(lenticular lens array) 중에서 적어도 하나로 구현되는 전자 장치.
  11. 제1항에 있어서,
    상기 광학 소자는 상기 전자 장치의 커버에 설치되고, 상기 디스플레이 패널은 상기 전자 장치의 본체에 설치되는 전자 장치.
  12. 제1항에 있어서,
    상기 전자 장치는 휴대용 장치인 전자 장치.
  13. 제11항에 있어서,
    상기 커버는 flip close 방식, flip over 방식, 슬라이드 방식 및 회전 방식 중에서 어느 하나로 동작하는 전자 장치.
  14. 디스플레이 패널에 대한 광학 소자의 위치 관계를 감지하는 단계; 및
    상기 디스플레이 패널과 상기 광학 소자가 오버랩된 상태일 때 상기 디스플레이 패널 및 상기 광학 소자를 통해 3D 영상을 생성하고, 상기 디스플레이 패널로부터 상기 광학 소자가 이탈된 상태일 때 상기 디스플레이 패널을 통해 2D 영상을 생성하는 단계
    를 포함하는 전자 장치의 동작 방법.
  15. 제14항에 있어서,
    상기 3D 영상을 생성하는 단계는,
    상기 디스플레이 패널에 대한 상기 광학 소자의 변위를 측정하고, 측정된 변위에 기초하여 상기 3D 영상을 생성하는 단계
    를 포함하는 전자 장치의 동작 방법.
  16. 제15항에 있어서,
    상기 3D 영상을 생성하는 단계는,
    상기 측정된 변위에 기초하여 상기 3D 영상을 생성하기 위한 렌더링 파라미터를 계산하는 단계
    를 더 포함하는 전자 장치의 동작 방법.
  17. 제15항에 있어서,
    상기 측정된 변위는 회전 파라미터와 병진 파라미터를 포함하는 전자 장치의 동작 방법.
  18. 제14항에 있어서,
    상기 광학 소자는 마이크로 렌즈 어레이(micro lens array), 마이크로프리즘 어레이(microprism array), 및 렌티큘라 렌즈 어레이(lenticular lens array) 중에서 적어도 하나로 구현되는 전자 장치의 동작 방법.
  19. 제14항에 있어서,
    상기 광학 소자는 상기 전자 장치의 커버에 설치되고, 상기 디스플레이 패널은 상기 전자 장치의 본체에 설치되는 전자 장치의 동작 방법.
  20. 제19항에 있어서,
    상기 커버는 flip close 방식, flip over 방식, 슬라이드 방식 및 회전 방식 중에서 어느 하나로 동작하는 전자 장치의 동작 방법.
PCT/KR2015/001466 2014-02-17 2015-02-13 전자 장치 및 이의 동작 방법 WO2015122712A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/119,595 US10324686B2 (en) 2014-02-17 2015-02-13 Electronic device and operation method therefor

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201410053867.3A CN104853008B (zh) 2014-02-17 2014-02-17 可切换二维显示和三维显示的便携式设备和方法
CN201410053867.3 2014-02-17
KR10-2014-0111369 2014-08-26
KR1020140111369A KR102187186B1 (ko) 2014-02-17 2014-08-26 전자 장치 및 이의 동작 방법

Publications (1)

Publication Number Publication Date
WO2015122712A1 true WO2015122712A1 (ko) 2015-08-20

Family

ID=53800381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/001466 WO2015122712A1 (ko) 2014-02-17 2015-02-13 전자 장치 및 이의 동작 방법

Country Status (1)

Country Link
WO (1) WO2015122712A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040097972A (ko) * 2004-10-25 2004-11-18 이정혜 소형 디스플레이 패널에 3차원 영상의 구현방법
JP2006514340A (ja) * 2003-04-08 2006-04-27 イクスドライデー テヒノロギーズ ゲーエムベーハー 3次元表示スクリーンを製作するための方法
KR20060060409A (ko) * 2004-11-30 2006-06-05 엘지전자 주식회사 이동단말기의 화상표시장치
JP2007319237A (ja) * 2006-05-30 2007-12-13 Namco Bandai Games Inc 遊技装置
KR20130045109A (ko) * 2011-10-25 2013-05-03 엘지전자 주식회사 디스플레이 모듈 및 이를 구비한 이동 단말기

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006514340A (ja) * 2003-04-08 2006-04-27 イクスドライデー テヒノロギーズ ゲーエムベーハー 3次元表示スクリーンを製作するための方法
KR20040097972A (ko) * 2004-10-25 2004-11-18 이정혜 소형 디스플레이 패널에 3차원 영상의 구현방법
KR20060060409A (ko) * 2004-11-30 2006-06-05 엘지전자 주식회사 이동단말기의 화상표시장치
JP2007319237A (ja) * 2006-05-30 2007-12-13 Namco Bandai Games Inc 遊技装置
KR20130045109A (ko) * 2011-10-25 2013-05-03 엘지전자 주식회사 디스플레이 모듈 및 이를 구비한 이동 단말기

Similar Documents

Publication Publication Date Title
WO2019209041A1 (ko) 플렉서블 디스플레이 및 이를 구비하는 전자 장치
WO2013094953A1 (en) Method for displaying page shape and display apparatus thereof
WO2020153725A1 (en) Electronic device and method for preventing damage of display
WO2019135659A1 (en) Electronic device including sensor for generating image data using incident light through opening formed in display
WO2013151400A1 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
WO2013118941A1 (en) Portable device and method for controlling the same
WO2014116014A1 (en) Transparent display apparatus and method thereof
WO2016052876A1 (en) Display apparatus and controlling method thereof
WO2015199484A2 (en) Portable terminal and display method thereof
WO2016190634A1 (en) Touch recognition apparatus and control method thereof
WO2014046482A1 (en) User terminal apparatus for providing local feedback and method thereof
WO2015167217A1 (en) Display apparatus and controlling method thereof
WO2017119664A1 (en) Display apparatus and control methods thereof
WO2013051752A1 (ko) 터치 감지 장치 및 방법
WO2014088350A1 (en) Display device and method of controlling the same
WO2015046671A1 (en) Display device generating tactile feedback and method of controlling the same
WO2016093524A1 (ko) 정전식 터치 스크린 패널의 터치검출 센서 구조
WO2015115698A1 (en) Portable device and method of controlling therefor
WO2019139367A1 (en) Display device and method for touch interface
WO2019160347A1 (ko) 터치 입력 처리 방법 및 이를 지원하는 전자 장치
WO2017204504A1 (ko) 터치 입력 장치에서 캐릭터의 행동을 제어하는 방법
WO2019199086A1 (ko) 전자 장치 및 전자 장치의 제어 방법
WO2021157804A1 (ko) 증강 현실 구현 방법 및 이를 수행하는 장치
WO2015122712A1 (ko) 전자 장치 및 이의 동작 방법
WO2018101507A1 (en) Display device and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15749302

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15119595

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 15749302

Country of ref document: EP

Kind code of ref document: A1