WO2017200202A1 - 입체 영상 장치 및 그를 포함하는 전자 장치 - Google Patents

입체 영상 장치 및 그를 포함하는 전자 장치 Download PDF

Info

Publication number
WO2017200202A1
WO2017200202A1 PCT/KR2017/003506 KR2017003506W WO2017200202A1 WO 2017200202 A1 WO2017200202 A1 WO 2017200202A1 KR 2017003506 W KR2017003506 W KR 2017003506W WO 2017200202 A1 WO2017200202 A1 WO 2017200202A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
image
half mirror
display panel
aerial image
Prior art date
Application number
PCT/KR2017/003506
Other languages
English (en)
French (fr)
Inventor
김한여울
미란다마테우스 파리아스
배종곤
이요한
한동균
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP17799560.2A priority Critical patent/EP3451661B1/en
Priority to US16/301,563 priority patent/US10838228B2/en
Publication of WO2017200202A1 publication Critical patent/WO2017200202A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/18Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
    • G02B7/182Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
    • G02B7/1822Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors comprising means for aligning the optical axis
    • G02B7/1824Manual alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • H04M1/0269Details of the structure or mounting of specific components for a display module assembly including a flexible display panel mounted in a fixed curved configuration, e.g. display curved around the edges of the telephone housing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/04Supports for telephone transmitters or receivers
    • H04M1/06Hooks; Cradles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724092Interfacing with an external cover providing additional functionalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/322Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45CPURSES; LUGGAGE; HAND CARRIED BAGS
    • A45C11/00Receptacles for purposes not provided for in groups A45C1/00-A45C9/00
    • A45C2011/002Receptacles for purposes not provided for in groups A45C1/00-A45C9/00 for portable handheld communication devices, e.g. mobile phone, pager, beeper, PDA, smart phone
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/144Beam splitting or combining systems operating by reflection only using partially transparent surfaces without spectral selectivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724098Interfacing with an on-board device of a vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0034Details of the connection, e.g. connector, interface
    • H04N2201/0048Type of connection
    • H04N2201/0058Docking-station, cradle or the like
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Definitions

  • the present invention relates to an electronic device and, for example, to a stereoscopic imaging device for converting a planar image (eg, a two-dimensional image) into a stereoscopic image and / or an aerial image and / or an electronic device including the same.
  • a planar image eg, a two-dimensional image
  • an electronic device refers to an electronic device that performs a specific function according to an embedded program such as an electronic notebook, a portable multimedia player, a mobile communication terminal, a tablet PC, a video / audio device, a desktop / laptop computer, a vehicle navigation device, and the like. Means the device. For example, such electronic devices may output stored information as sound or an image.
  • an embedded program such as an electronic notebook, a portable multimedia player, a mobile communication terminal, a tablet PC, a video / audio device, a desktop / laptop computer, a vehicle navigation device, and the like.
  • Such electronic devices may output stored information as sound or an image.
  • various functions have been installed in one mobile communication terminal. For example, not only communication functions, but also entertainment functions such as games, multimedia functions such as music / video playback, communication and security functions for mobile banking, calendar management or electronic wallet, etc. It is.
  • the stereoscopic imaging apparatus may give an image to a user by forming an image on a space other than a plane. Such a stereoscopic image can be accessed by a user through a movie theater or a television, but its contents are limited.
  • Another type of stereoscopic images that a user may encounter may be an advertisement board installed in a multi-use facility.
  • the content provided through the stereoscopic imaging apparatus is limited, and the stereoscopic image may provide only visual information or stimulate user's curiosity, and may be restricted from being actively used by the user.
  • various types of stereoscopic apparatuses and the like have been proposed, but are not only expensive for general users to purchase and use, but also limited in content, and thus may have low usability.
  • Various embodiments of the present disclosure may provide a stereoscopic imaging device and / or an electronic device including the same, which are inexpensive and can be conveniently used in everyday life.
  • an image output from a display panel and / or an electronic device may be imaged in the air, thereby providing a user experience different from that of the electronic device already possessed by the user.
  • the stereoscopic imaging apparatus may include:
  • a cradle for mounting an electronic device including a display panel
  • a half mirror disposed on one surface of the cradle and facing obliquely with respect to a display panel of the electronic device mounted on the cradle;
  • It may include a retroreflective member disposed inclined with respect to the half mirror on the cradle,
  • the half mirror reflects an image output from the display panel (hereinafter referred to as a “first output image”) and enters the retroreflective member, and transmits the image reflected by the retroreflective member.
  • An image corresponding to the first output image may be formed in another space of the half mirror (hereinafter, 'first aerial image').
  • An electronic device may include some or all of the above-described stereoscopic imaging device.
  • stereoscopic imaging device For example,
  • a housing comprising a front surface, a rear surface opposite the front surface, and a side wall formed to at least partially surround a space between the front surface and the rear surface;
  • a display panel including a first display area disposed in the first area of the front surface, and a second display area inclinedly extending from the first display area and positioned inside the housing;
  • a half mirror disposed in a second area of the front surface and adjacent to the second display area
  • It may include a retroreflective member disposed inclined with respect to the half mirror in the housing,
  • the half mirror reflects an image output from the second display area (hereinafter referred to as an “output image”) and enters the retroreflective member, and transmits the image reflected by the retroreflective member,
  • an aerial image corresponding to the output image can be imaged.
  • the stereoscopic imaging apparatus may include:
  • a display panel mounted on a vehicle dashboard or within the dashboard;
  • At least some area may comprise a wind shield disposed on the dashboard,
  • the wind shield may reflect an image output from the display panel to form an aerial image on the dashboard.
  • a stereoscopic image device and / or an electronic device including the same may include a two-dimensional image output through a display panel (eg, a flat panel or curved display panel) by using a half mirror and a retroreflective member.
  • a display panel eg, a flat panel or curved display panel
  • a retroreflective member e.g., a half mirror and a retroreflective member.
  • it can be manufactured inexpensively with only the half mirror and the retroreflective member, and can provide a new experience for the user.
  • a touch panel when a touch panel is mounted on a stereoscopic image device and / or an electronic device, and the image is formed in an area or a space where the touch panel can detect a proximity touch input (eg, hovering),
  • the stereoscopic imaging device and / or the electronic device including the same may include an input device through an image formed in the air.
  • the touch panel may be replaced with another type of sensor (eg, an ultrasonic sensor or an infrared sensor), and the input device may be configured through the combination of the sensor and an image formed in the air.
  • a stereoscopic image device may be conveniently used in combination with an electronic device that outputs an image (for example, a mobile communication terminal that a user already possesses) to provide an aerial image, and may have various user experiences. Can be provided.
  • FIG. 1 is a block diagram illustrating an electronic device (and / or a stereoscopic imaging device) according to various embodiments of the present disclosure.
  • FIG. 2 is a perspective view illustrating an electronic device according to one of various embodiments of the present disclosure.
  • FIG. 3 is a perspective view illustrating a stereoscopic imaging apparatus according to one of various embodiments of the present disclosure.
  • FIG. 4 is a diagram illustrating an operation of a stereoscopic image device and / or an electronic device according to various embodiments of the present disclosure.
  • FIG. 5 is a diagram for describing an image output example of a stereoscopic image device and / or an electronic device according to various embodiments of the present disclosure.
  • FIG. 6 is a diagram illustrating an operation of a stereoscopic imaging device and / or an electronic device according to another one of various embodiments of the present disclosure.
  • FIG. 7 is a perspective view illustrating an electronic device according to another one of various embodiments of the present disclosure.
  • FIG. 8 is a plan view illustrating an electronic device according to another one of various embodiments of the present disclosure.
  • FIG. 9 is a cross-sectional view illustrating an electronic device according to another one of various embodiments of the present disclosure.
  • FIG. 10 is a diagram for describing a modified example of an electronic device, according to another one of various embodiments of the present disclosure.
  • FIG. 11 is a flowchart illustrating a method of operating a stereoscopic image device and / or an electronic device according to various embodiments of the present disclosure.
  • FIG. 12 is a perspective view illustrating a stereoscopic imaging apparatus according to another one of various embodiments of the present disclosure.
  • FIG. 13 is a cross-sectional view illustrating an electronic device according to another one of various embodiments of the present disclosure.
  • FIG. 14 is a perspective view illustrating a stereoscopic imaging apparatus according to yet another one of various embodiments of the present disclosure.
  • 15 is a side view illustrating a state in which a stereoscopic imaging apparatus operates according to another one of various embodiments of the present disclosure.
  • 16 is a side view illustrating a state in which a stereoscopic imaging apparatus is folded according to another one of various embodiments of the present disclosure.
  • FIG. 17 is a perspective view illustrating a stereoscopic imaging apparatus according to yet another one of various embodiments of the present disclosure.
  • FIG. 18 is a cross-sectional view illustrating a stereoscopic imaging apparatus according to yet another one of various embodiments of the present disclosure.
  • FIG. 19 is a cross-sectional view illustrating a modified example of the stereoscopic imaging apparatus according to another one of various embodiments of the present disclosure.
  • FIG. 20 is a perspective view illustrating a stereoscopic imaging apparatus according to another one of various embodiments of the present disclosure.
  • FIG. 21 is a cross-sectional view illustrating a stereoscopic imaging device according to yet another one of various embodiments of the present disclosure.
  • FIG. 22 is a cross-sectional view illustrating an electronic device (including a stereoscopic imaging device) according to yet another one of various embodiments of the present disclosure.
  • FIG. 23 is a cross-sectional view illustrating an electronic device according to another one of various embodiments of the present disclosure.
  • 24A and 24B are diagrams for describing a function or an operation of transmitting a certain object to another electronic device (in other words, moving) or executing the same through an electronic device according to various embodiments of the present disclosure.
  • 25A and 25B illustrate a function or operation for transmitting a specific object to the electronic device or executing a specific object through the electronic device when there are a plurality of electronic devices according to various embodiments of the present disclosure. Drawing.
  • 26A to 26C are diagrams for describing an operation or a function of transmitting / executing a specific object based on location information displayed on an external electronic device according to various embodiments of the present disclosure.
  • 27A to 27D are diagrams for describing an operation or a function of transmitting / executing a specific object between stereoscopic imaging apparatuses according to various embodiments of the present disclosure.
  • 28A to 28C are exemplary diagrams for describing an operation or a function in which an aerial image is enlarged / reduced through a 3D pinch gesture according to various embodiments of the present disclosure.
  • 29A and 29B are diagrams for describing an operation or a function of enlarging / reducing an aerial image through a three-dimensional stretch gesture according to various embodiments of the present disclosure.
  • 30A and 30B are diagrams for describing an operation or a function of controlling a shape of a specific object displayed on an image plane according to a user's three-dimensional touch input.
  • 31A to 31D are diagrams for explaining a function or operation of transmitting / executing a specific object through an aerial image displayed on an image plane.
  • 32 is a flowchart for describing a method of controlling a 3D imaging apparatus according to a 3D control command obtained from a user.
  • 33 and 34 are flowcharts illustrating a method of controlling a stereoscopic imaging apparatus and an electronic device according to a user's approach to the stereoscopic imaging apparatus.
  • expressions such as “A or B”, “at least one of A or / and B” or “one or more of A or / and B” may include all possible combinations of items listed together.
  • “A or B”, “at least one of A and B” or “at least one of A or B” includes (1) at least one A, (2) at least one B, or (3) may refer to a case including both at least one A and at least one B.
  • first,” “second,” “first,” or “second,” as used in various embodiments may modify various components in any order and / or in importance, and define the components. I never do that.
  • the above expressions may be used to distinguish one component from another.
  • the first user device and the second user device may represent different user devices regardless of the order or importance.
  • the first component may be referred to as a second component, and similarly, the second component may be renamed to the first component.
  • One component (such as a first component) is "operatively or communicatively coupled with / to" another component (such as a second component), or " When referred to as “connected to”, it should be understood that any component may be directly connected to the other component or may be connected through another component (eg, a third component).
  • a component e.g., a first component
  • another component e.g., a second component
  • no other component e.g, a third component
  • the expression “configured to” used in this document is, for example, “suitable for”, “having the capacity to” depending on the context. It may be used interchangeably with “designed to”, “adapted to”, “made to”, or “capable of”.
  • the term “configured to” may not necessarily mean “specifically designed to” in hardware. Instead, in some situations, the expression “device configured to” may mean that the device “can” along with other devices or components.
  • the phrase “processor configured (or configured to) perform A, B, and C” may be achieved by executing a dedicated processor (eg, an embedded processor) or one or more software programs stored in a memory device to perform the operation. It may mean a general-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.
  • the electronic device may be a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader (e-). book reader, desktop personal computer, laptop personal computer, netbook computer, workstation, server, personal digital assistant, portable multimedia player, MP3 Players, mobile medical devices, cameras, or wearable devices (e.g. smart glasses, head-mounted-device (HMD)), electronic clothing, electronic bracelets, electronic necklaces, electronic apps It may include at least one of an accessory, an electronic tattoo, a smart mirror, or a smart watch.
  • e-book reader e.g. book reader, desktop personal computer, laptop personal computer, netbook computer, workstation, server, personal digital assistant, portable multimedia player, MP3 Players, mobile medical devices, cameras, or wearable devices (e.g. smart glasses, head-mounted-device (HMD)), electronic clothing, electronic bracelets, electronic necklaces, electronic apps It may include at least one of an accessory, an electronic tattoo, a smart mirror, or a smart watch.
  • HMD head-mounted-dev
  • the electronic device may be a smart home appliance.
  • Smart home appliances are, for example, televisions, digital video disk (DVD) players, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air purifiers, set-top boxes, home automation Home automation control panel, security control panel, TV box (e.g. Samsung HomeSync TM, Apple TV TM or Google TV TM, game consoles (e.g. Xbox TM, PlayStation TM), electronic dictionary, It may include at least one of an electronic key, a camcorder, or an electronic picture frame.
  • DVD digital video disk
  • the electronic device may include a variety of medical devices (e.g., various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Such as CT (computed tomography, imaging or ultrasound), navigation devices, global positioning system receivers, event data recorders (EDRs), flight data recorders (FDRs), automotive infotainment devices, ships Electronic equipment (e.g. ship navigation systems, gyro compasses, etc.), avionics, security devices, vehicle head units, industrial or home robots, automatic teller's machines (financial institutions), shop POS (point of sales) or internet of things (e.g. light bulbs, sensors, electrical or gas meters, sprinkler devices, fire alarms, thermostats, street lights, toasters, Exercise equipment, hot water tank, heater, boiler, and the like.
  • medical devices e.g., various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body
  • an electronic device may be a piece of furniture or a building / structure, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, Water, electricity, gas, or radio wave measuring instrument).
  • the electronic device may be a combination of one or more of the aforementioned various devices.
  • An electronic device according to an embodiment may be a flexible electronic device.
  • the electronic device according to the embodiment of the present disclosure is not limited to the above-described devices, and may include a new electronic device according to technology development.
  • FIG. 1 is a block diagram illustrating an electronic device 10 according to various embodiments of the present disclosure.
  • the electronic device 10 may include all or part of an electronic device and / or a stereoscopic image device according to the embodiment (s) to be described later.
  • the electronic device 10 may include one or more processors (eg, an application processor (AP) 11), a communication module 12, a subscriber identification module 12g, a memory 13, a sensor module 14, and an input device 15. ), Display 16, interface 17, audio module 18, camera module 19a, power management module 19d, battery 19e, indicator 19b, and motor 19c. have.
  • the processor 11 may, for example, run an operating system or an application program to control a plurality of hardware or software components connected to the processor 11, and may perform various data processing and operations.
  • the processor 11 may be implemented with, for example, a system on chip (SoC).
  • SoC system on chip
  • the processor 11 may further include a graphic processing unit (GPU) and / or an image signal processor.
  • the processor 11 may include at least some of the components shown in FIG. 1 (eg, the cellular module 12a).
  • the processor 11 may load and process instructions or data received from at least one of the other components (eg, nonvolatile memory) into volatile memory, and store various data in the nonvolatile memory. have.
  • the communication module 12 may be, for example, a cellular module 12a, a WiFi module 12b, a Bluetooth module 12c, a GNSS module 12d (e.g., a GPS module, a Glonass module, a Beidou module, or a Galileo module). It may include an NFC module 12e and a radio frequency (RF) module 12f.
  • a cellular module 12a e.g., a WiFi module 12b, a Bluetooth module 12c, a GNSS module 12d (e.g., a GPS module, a Glonass module, a Beidou module, or a Galileo module).
  • a GNSS module 12d e.g., a GPS module, a Glonass module, a Beidou module, or a Galileo module.
  • RF radio frequency
  • the cellular module 12a may provide, for example, a voice call, a video call, a text service, or an internet service through a communication network. According to an embodiment of the present disclosure, the cellular module 12a may perform identification and authentication of the electronic device 10 in a communication network by using a subscriber identification module (eg, a SIM card) 12g. According to an embodiment, the cellular module 12a may perform at least some of the functions that the processor 11 may provide. According to an embodiment, the cellular module 12a may include a communication processor (CP).
  • CP communication processor
  • Each of the WiFi module 12b, the Bluetooth module 12c, the GNSS module 12d, or the NFC module 12e may include, for example, a processor for processing data transmitted and received through a corresponding module.
  • at least some (eg, two or more) of the cellular module 12a, WiFi module 12b, Bluetooth module 12c, GNSS module 12d, or NFC module 12e may comprise one integrated chip. (IC) or in an IC package.
  • the RF module 12f may transmit / receive a communication signal (for example, an RF signal), for example.
  • the RF module 12f may include, for example, a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), an antenna, or the like.
  • PAM power amp module
  • LNA low noise amplifier
  • at least one of the cellular module 12a, the WiFi module 12b, the Bluetooth module 12c, the GNSS module 12d, or the NFC module 12e may transmit and receive an RF signal through a separate RF module. Can be.
  • Subscriber identification module 12g may include, for example, a card comprising a subscriber identification module and / or an embedded SIM, and may include unique identification information (eg, an integrated circuit card identifier (ICCID)) or It may include subscriber information (eg, international mobile subscriber identity (IMSI)).
  • ICCID integrated circuit card identifier
  • IMSI international mobile subscriber identity
  • the memory 13 may include, for example, an internal memory 13a or an external memory 13b.
  • the internal memory 13a may be, for example, volatile memory (for example, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.), non-volatile memory (for example, One time programmable ROM (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (e.g., NAND flash or NOR flash, etc.), It may include at least one of a hard drive or a solid state drive (SSD).
  • DRAM dynamic RAM
  • SRAM static RAM
  • SDRAM synchronous dynamic RAM
  • OTPROM One time programmable ROM
  • PROM programmable ROM
  • EPROM erasable and programmable ROM
  • EEPROM electrically erasable and programmable ROM
  • mask ROM mask ROM
  • the external memory 13b may be a flash drive, for example, compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (Mini-SD), or xD (extreme). It may further include a digital, a multi-media card (MMC) or a memory stick (memory stick).
  • the external memory 13b may be functionally and / or physically connected to the electronic device 10 through various interfaces.
  • the sensor module 14 may measure, for example, a physical quantity or detect an operating state of the electronic device 10, and convert the measured or detected information into an electrical signal.
  • the sensor module 14 includes, for example, a gesture sensor 14a, a gyro sensor 14b, an air pressure sensor 14c, a magnetic sensor 14d, an acceleration sensor 14e, a grip sensor 14f, and a proximity sensor ( 14g), color sensor 14h (e.g., red (green, blue) sensor), biometric sensor 14i, temperature / humidity sensor 14j, illuminance sensor 14k, or UV (ultra violet) ) May include at least one of the sensors 14l.
  • the sensor module 14 may comprise, for example, an olfactory sensor, an electromyography sensor, an electroencephalogram sensor, an electrocardiogram sensor. And infrared (IR) sensors, iris sensors, and / or fingerprint sensors.
  • the sensor module 14 may further include a control circuit for controlling at least one or more sensors belonging therein.
  • the electronic device 10 further includes a processor configured to control the sensor module 14, as part of or separately from the processor 11, while the processor 11 is in a sleep state, The sensor module 14 can be controlled.
  • the input device 15 is, for example, a touch panel 15a, a (digital) pen sensor 15b, a key 15c, or an ultrasonic input device ( 15d).
  • the touch panel 15a may use at least one of capacitive, resistive, infrared, or ultrasonic methods, for example.
  • the touch panel 15a may further include a control circuit.
  • the touch panel 15a may further include a tactile layer to provide a tactile response to the user.
  • the (digital) pen sensor 15b may be, for example, part of a touch panel or may include a separate sheet for recognition.
  • the key 15c may include, for example, a physical button, an optical key, or a keypad.
  • the ultrasonic input device 15d may detect ultrasonic waves generated by an input tool through a microphone (for example, the microphone 18d) and check data corresponding to the detected ultrasonic waves.
  • Display 16 may include panel 16a, hologram device 16b, or projector 16c.
  • the panel 16a may be implemented to be, for example, flexible, transparent, or wearable.
  • the panel 16a may be configured as a single module together with the touch panel 15a.
  • panel 16a may include a pressure sensor (or force sensor) capable of measuring the strength of the pressure on the user's touch.
  • the pressure sensor may be integrated with the touch panel 15a or may be implemented with one or more sensors separate from the touch panel 15a.
  • the hologram device 16b may show a stereoscopic image in the air by using interference of light.
  • the projector 16c may display an image by projecting light onto a screen.
  • the screen may be located inside or outside the electronic device 10.
  • the display 16 may further include a control circuit for controlling the panel 16a, the hologram device 16b, or the projector 16c.
  • the interface 17 may be, for example, a high-definition multimedia interface (HDMI) 17a, a universal serial bus (USB) 17b, an optical interface 17c, or a D-subminiature (D-subminiature). 17d). Additionally or alternatively, the interface 17 may be, for example, a mobile high-definition link (MHL) interface, a secure digital (SD) card / multi-media card (MMC) interface, or an IrDA (infrared). data association) may include a standard interface.
  • HDMI high-definition multimedia interface
  • USB universal serial bus
  • USB universal serial bus
  • optical interface 17c or a D-subminiature (D-subminiature). 17d).
  • D-subminiature D-subminiature
  • 17d D-subminiature
  • the interface 17 may be, for example, a mobile high-definition link (MHL) interface, a secure digital (SD) card / multi-media card (MMC) interface, or an I
  • the audio module 18 may bilaterally convert, for example, a sound and an electrical signal.
  • the audio module 18 may process sound information input or output through, for example, a speaker 18a, a receiver 18b, an earphone 18c, a microphone 18d, or the like.
  • the camera module 19a is, for example, a device capable of capturing still images and moving images.
  • the camera module 19a may include one or more image sensors (eg, a front sensor or a rear sensor), a lens, and an image signal processor (ISP). Or flash (eg, LED or xenon lamp, etc.).
  • image sensors eg, a front sensor or a rear sensor
  • ISP image signal processor
  • flash eg, LED or xenon lamp, etc.
  • the power management module 19d may manage power of the electronic device 10, for example.
  • the power management module 19d may include a power management integrated circuit (PMIC), a charger integrated circuit (ICC), or a battery or fuel gauge.
  • the PMIC may have a wired and / or wireless charging scheme.
  • the wireless charging method may include, for example, a magnetic resonance method, a magnetic induction method, an electromagnetic wave method, or the like, and may further include additional circuits for wireless charging, such as a coil loop, a resonance circuit, a rectifier, and the like. have.
  • the battery gauge may measure, for example, the remaining amount of the battery 19e, the voltage, the current, or the temperature during charging.
  • the battery 19e may include, for example, a rechargeable battery and / or a solar battery.
  • the indicator 19b may display a specific state of the electronic device 10 or a part thereof (for example, the processor 11), for example, a booting state, a message state, or a charging state.
  • the motor 19c may convert an electrical signal into mechanical vibration, and may generate a vibration or haptic effect.
  • the electronic device 10 may include a processing device (eg, a GPU) for supporting mobile TV.
  • the processing apparatus for supporting mobile TV may process media data according to a standard such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or mediaFlo TM .
  • DMB digital multimedia broadcasting
  • DVD digital video broadcasting
  • mediaFlo TM mediaFlo TM
  • Each of the components described in this document may be composed of one or more components, and the names of the corresponding components may vary depending on the type of electronic device.
  • the electronic device may be configured to include at least one of the components described in this document, and some components may be omitted or further include additional components.
  • some of the components of the electronic device according to various embodiments of the present disclosure may be combined to form a single entity, and thus may perform the same functions of the corresponding components before being combined.
  • module may refer to a unit that includes one or a combination of two or more of hardware, software, or firmware.
  • a “module” may be interchangeably used with terms such as, for example, unit, logic, logical block, component, or circuit.
  • the module may be a minimum unit or part of an integrally constructed part.
  • the module may be a minimum unit or part of performing one or more functions.
  • the “module” can be implemented mechanically or electronically.
  • a “module” is one of application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs), or programmable-logic devices that perform certain operations, known or developed in the future. It may include at least one.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • At least a portion of an apparatus (e.g., modules or functions thereof) or method (e.g., operations) may be, for example, computer-readable storage media in the form of a program module. It can be implemented as a command stored in. When the command is executed by a processor (for example, the processor 11b), the one or more processors may perform a function corresponding to the command.
  • the computer-readable storage medium may be, for example, the memory 11c.
  • Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical media (e.g. compact disc read only memory), DVD ( digital versatile discs, magneto-optical media (e.g. floptical disks), hardware devices (e.g. read only memory, random access memory (RAM), or flash memory)
  • the program instructions may include not only machine code generated by a compiler, but also high-level language code executable by a computer using an interpreter, etc.
  • the hardware device described above may be various. It can be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
  • Modules or program modules according to various embodiments may include at least one or more of the above components, some may be omitted, or further include other components. Operations performed by modules, program modules, or other components in accordance with various embodiments may be executed in a sequential, parallel, repetitive, or heuristic manner. In addition, some operations may be executed in a different order, may be omitted, or other operations may be added. And the embodiments disclosed herein are presented for the purpose of explanation and understanding of the disclosed, technical content, and do not limit the scope of the technology described in this document. Accordingly, the scope of this document should be construed as including all changes or various other embodiments based on the technical spirit of this document.
  • FIG. 2 is a perspective view illustrating an electronic device 200 according to one of various embodiments of the present disclosure.
  • the electronic device 200 may include a half mirror 231, a retroreflective member 233, and / or a display panel 235 (eg, FIG. Display 16 or panel 16a).
  • the half mirror 231 may transmit a portion of the incident image and / or an amount of light of the image, and reflect the remaining portion.
  • the half mirror 231 may have a transmittance of 50% and a reflectance of 50%.
  • the half mirror 231 may have a shape and a size corresponding to that of the display panel 235.
  • the retroreflective member 233 is, for example, a member that reflects light back in the incident direction when light is incident, and may be provided in a sheet or film form.
  • the retroreflective member 233 may be disposed to be inclined with respect to the half mirror 231 at one side of the half mirror 231.
  • the retroreflective member 233 may be disposed to face one surface of the half mirror 231 in an inclined state with respect to the half mirror 231.
  • the display panel 235 may output an image, a video, or the like (hereinafter, referred to as an “output image”), and may be inclined with respect to the half mirror 231 on one side of the half mirror 231.
  • the display panel 235 may be disposed to face one surface of the half mirror 231 in an inclined state with respect to the half mirror 231.
  • the half mirror 231, the retroreflective member 233, and / or the display panel 235 may be disposed to be inclined with respect to each other, and may be disposed to be substantially triangular when viewed from the side. .
  • at least one of the retroreflective member 233 and / or the display panel 235 may be inclined at a 45 degree angle with respect to the half mirror 231. If both the retroreflective member 233 and the display panel 235 are disposed to be inclined at a 45 degree angle with respect to the half mirror 231, the half mirror 231 and the retroreflective member 233 when viewed from the side. And / or the display panel 235 may form a right isosceles triangle.
  • the half mirror 231 may reflect a part of the output image (and / or the amount of light of the output image) of the display panel 235 and enter the retroreflective member 233.
  • the retroreflective member 233 may reflect the incident output image (and / or the amount of light of the output image) and enter the half mirror 231 again. At least a portion of the output image (and / or the amount of light of the output image) reflected by the retroreflective member 233 may pass through the half mirror 231 to be imaged in the other space of the half mirror 231.
  • an image formed in the other space of the half mirror 231 will be referred to as an "air image".
  • the aerial image may be formed at a position symmetrical with the display panel 235 with respect to the half mirror 231.
  • an imaging surface S (or an area) of the aerial image and an imaging surface (or an area) of the display panel 235 may be located symmetrically with respect to the half mirror 231.
  • the electronic device 200 may further include a housing 201, and an acoustic device (for example, audio) incorporating a speaker device (for example, a voice coil motor type or a piezoelectric type speaker device).
  • a housing 201 may accommodate at least one of the half mirror 231, the retroreflective member 233, and / or the display panel 235.
  • the housing 201 may include a porous member 211 disposed at a front surface of the housing 201 to correspond to a built-in speaker device.
  • the sound generated by the speaker device may be output to the outside through the porous member 211.
  • the housing 201 may not include the porous member 211.
  • the half mirror 231 may be disposed on an upper surface of the housing 201, and the retroreflective member 233 and the display panel 235 may be accommodated in the housing 201.
  • the surface S and / or the area (space) in which the aerial image is formed may be located outside (eg, the top) of the housing 201.
  • the electronic device 200 may be a sound device equipped with a function such as playing a music file or receiving a radio broadcast.
  • the electronic device 200 may output an image representing a function of playing, stopping, rewinding, and fast forwarding through the display panel 235.
  • the display panel 235 may output an image indicating a function of switching an operation mode (eg, a playback mode or a broadcast mode) of the electronic device 200.
  • the display panel 235 may display various types of information (eg, a singer, an album title, a title of a music being played, etc.) regarding the music file being played. You can output an image that represents.
  • the image output by the display panel 235 may be formed on the image plane S of the upper portion of the housing 201.
  • the electronic device 200 may include a first sensor 213 disposed in the housing 201.
  • the first sensor 213 may be a sensor that detects an operating environment of the electronic device 200, such as a proximity sensor or an illumination sensor (for example, the proximity sensor 14g or the illumination sensor 14k of FIG. 1). For example, the position of the user with respect to the aerial image formed on the electronic device 200 and / or the housing 201 may be detected.
  • the electronic device 200 eg, the processor 11 of FIG. 1).
  • the electronic device 200 when it is determined that the user approaches the electronic device 200 based on the information detected by the first sensor 213, the electronic device 200 (eg, the processor 11 of FIG. 1). )) May output an image indicating a function for playing a music file or an image indicating an operation mode switching function through the display panel 235.
  • an image output through the display panel 235 is formed as an aerial image on an imaging surface S (image forming area and / or imaging space) symmetrically positioned with respect to the half mirror 231. It can be visually recognized by the user.
  • an apparatus for providing a stereoscopic image at low cost using the half mirror 231 and the retroreflective member 233 may be provided, and the 2D image may be converted into an aerial image or a 3D image.
  • the image may be processed and output through image processing to improve the visibility of the aerial image (to visually confirm or to display similar to the original image to be displayed). For example, by processing through image processing, it is possible to increase the contrast of an aerial image, adjust its thickness, compensate for brightness, compensate for color, and the like, and various kinds of image effect filters may be used in such image processing.
  • the electronic device 200 may further include a second sensor 215 (eg, the gesture sensor 24a of FIG. 1).
  • the second sensor 215 may include an infrared sensor or an ultrasonic sensor, and may detect an object movement in the imaging surface S (image forming area and / or imaging space).
  • the electronic device 200 may include an input device formed by combining an aerial image formed on the imaging surface S (imaging area and / or an imaging space) and the second sensor 215. Can be. For example, if an image representing a music reproduction function is formed on the imaging surface S, the second sensor 215 detects whether an object (for example, a user's finger) enters a position corresponding to the image.
  • an object for example, a user's finger
  • the electronic device 200 may execute a function indicated by the corresponding image.
  • the second sensor 215 may remain in a deactivated state and may be activated when the first sensor 213 detects that the user approaches the electronic device 200.
  • the first sensor 213 and / or the second sensor 215 may further include a camera (eg, the camera module 19a of FIG. 1) having at least one image sensor.
  • the electronic device 200 may use both the first sensor 213 and / or the second sensor 215 or selectively select a sensor having low power consumption according to an operation state such as a battery level. Can be used as
  • the electronic device 200 further includes a sensor (eg, the first sensor 213 described above) that detects an operating environment, and the like, depending on whether the user approaches or the like.
  • a sensor eg, the first sensor 213 described above
  • An image output through the display panel 235 or an image formed on the imaging surface S may be switched.
  • the electronic device 200 may access or contact the aerial image using a sensor (eg, the second sensor 215 described above) combined with the aerial image formed on the imaging surface S.
  • a sensor eg, the second sensor 215 described above
  • FIG. It can detect and generate input signals or execute functions and / or applications corresponding thereto.
  • FIG. 3 is a perspective view illustrating a stereoscopic imaging apparatus 300 according to one of various embodiments of the present disclosure.
  • the stereoscopic imaging apparatus 300 may pass through the electronic device 30 (eg, a mobile communication terminal) including the display panel 335, and display panel 335 of the electronic device 30. ) Can be converted into an aerial image and imaged.
  • the electronic device 30 eg, a mobile communication terminal
  • the display panel 335, and display panel 335 of the electronic device 30 can be converted into an aerial image and imaged.
  • the stereoscopic imaging apparatus 300 may include a half mirror 331 and a retroreflective member 333. Since the half mirror 331 and the retroreflective member 333 have been described with reference to the embodiment illustrated in FIG. 2, detailed descriptions thereof will be omitted.
  • the stereoscopic imaging apparatus 300 may include a housing 301 accommodating the retroreflective member 333 therein, and the half mirror 331 may be disposed on an upper surface of the housing 301. It may be mounted so as to face the retroreflective member 333 in an inclined state.
  • An opening 315 may be formed at a side surface of the housing 301, and the electronic device 30 may be mounted into the housing 301 through the opening 315.
  • the electronic device 30 may be disposed to face the half mirror 331 and / or the retroreflective member 333 in an inclined state.
  • an image output through the display panel 335 may be a space, for example, an upper portion of the housing 301. It may be formed on the imaging surface (S).
  • the image formed on the imaging surface S may be symmetrical with the display panel 335 of the electronic device 30 mounted inside the housing 301, for example, on the half mirror 331. It may be arranged symmetrically with respect to.
  • the stereoscopic imaging apparatus 300 is disposed on the upper surface of the housing 301 in consideration of the convenience of the user or the appearance of the stereoscopic imaging apparatus 300 in mounting the electronic device 30.
  • the protrusion 319 may be formed, and the half mirror 331 may be disposed on the protrusion 319 to be inclined with respect to the top or front surface of the housing 301.
  • the electronic device 30 may transmit / receive data with the stereoscopic imaging device 300 through short-range wireless communication such as Bluetooth or a data cable.
  • short-range wireless communication such as Bluetooth or a data cable.
  • the electronic device 30 operates in a multimedia playback mode, and an audio signal output from the electronic device 30 is provided to the stereoscopic image device 300 and embedded in the stereoscopic image device 300. Sound can be output by operating the speaker unit.
  • the front surface of the housing 301 may be a porous member 311 and the like that can emit sound.
  • the display panel 335 may be integrated with a touch panel (for example, the touch panel 25a of FIG. 1).
  • the display panel 335 may be utilized as an input device. If the touch panel can detect a proximity touch input (eg, hovering), and the imaging surface S is located in an area where a proximity touch input (eg, hovering) to the touch panel is possible, the imaging surface S
  • the input device may be formed through a combination of the image formed on the touch panel and the touch panel.
  • the stereoscopic imaging apparatus 300 may include a sensor 313 for detecting an operating environment, etc. of the stereoscopic imaging apparatus 300.
  • the sensor 313 may detect whether the user approaches the stereoscopic apparatus 300, and may transmit the detected information to the electronic device 30.
  • the information detected by the sensor 313 may be provided to the electronic device 30 by, for example, a wired method such as a data cable or a wireless method such as Bluetooth.
  • the stereoscopic imaging device 300 may be utilized as a docking station of the electronic device 30.
  • the stereoscopic image device 300 may be utilized as an auxiliary device of the electronic device 30, such as to improve the acoustic performance of the electronic device 30 or to provide a charging function.
  • the stereoscopic imaging apparatus 300 may transmit / receive data with the electronic device 30 in a wireless manner and / or a wired manner.
  • the charging function provided by the stereoscopic imaging apparatus 300 may be performed in a wireless manner and / or a wired manner.
  • the 3D imaging apparatus 300 may be equipped with a wireless power transmission function, and the electronic device having the wireless power reception function may be mounted on the 3D imaging apparatus 300 to charge a battery.
  • the combination of the stereoscopic imaging device 300 and the electronic device 30 may perform the same function as the electronic device 200 shown in FIG. 2.
  • the output image (and / or aerial image) can be switched depending on whether the user has access.
  • the combination of the stereoscopic imaging apparatus 300 and the electronic device 30 may allow a user (or a user's body) to approach an area (eg, the imaging surface S) in which an aerial image is formed. Can be detected to generate an input signal or to execute a specified function or application.
  • the sensor for detecting a user or a user's body may be configured as a touch panel mounted on the display panel 225.
  • the sensor for detecting the approach of the user or the user's body may include an ultrasonic sensor or an infrared sensor (eg, the second sensor 215 of FIG. 2) mounted to the housing 301. .
  • the stereoscopic imaging apparatus may be mounted on household appliances such as a microwave oven, a washing machine, a refrigerator, an electric oven, and the like.
  • household appliances such as a microwave oven, a washing machine, a refrigerator, an electric oven, and the like.
  • home appliances are provided with an operation panel that allows a user to adjust the settings of the corresponding product, and by mounting a stereoscopic image device according to various embodiments of the present disclosure, to provide an additional operation panel or to replace a conventional operation panel. can do.
  • the stereoscopic imaging device mounted on the home appliance may form an aerial image representing the operating state of the home appliance.
  • the remaining operating time of the microwave oven, the operating stage of the washing machine, the current temperature of the refrigerator, the operating temperature of the electric oven, etc. may be provided as an aerial image by the stereoscopic imaging apparatus according to various embodiments of the present disclosure.
  • FIG. 4 is a diagram illustrating an operation of a stereoscopic imaging device and / or an electronic device 400 according to various embodiments of the present disclosure.
  • the stereoscopic imaging apparatus and / or the electronic apparatus 400 may include a half mirror 431, a retroreflective member 433, and / or a display panel 435.
  • the retroreflective member 433 and / or the display panel 435 may be inclined with respect to the half mirror 431 at one side of the half mirror 431.
  • the half mirror 431, the retroreflective member 433, and / or the display panel 435 may be disposed to face each other in an inclined state with respect to each other.
  • the half mirror 431, the retroreflective member 433, and / or the display panel 435 may be arranged substantially in a triangle when viewed from the side.
  • the display panel 435 may be a part of the stereoscopic image device and / or the electronic device 400 (for example, the embodiment illustrated in FIG. 2) or the stereoscopic image device and / or the electronic device 400. May be detachably provided (eg, the embodiment shown in FIG. 3).
  • the reference numeral 400 will be referred to the electronic device 400 in relation to the stereoscopic imaging device and / or the electronic device 400.
  • the display panel 435 may be arranged such that an output image is incident on the half mirror 431.
  • An image or light output by the display panel 435 may be incident to the half mirror 431.
  • the half mirror 431 may transmit a portion of the light amount of the incident output image and / or the output image and reflect the remaining portion.
  • the output image reflected by the half mirror 431 may be incident to the retroreflective member 433.
  • the retroreflective member 433 may reflect the incident output image and enter the half mirror 431 again.
  • the retroreflective member 433 reflects light back in the incident direction such that the image reflected by the retroreflective member 433 is substantially reflected by the half mirror 431. It can proceed in the reverse direction with respect to the progress path of the output image.
  • some or all of the light reflected by the retroreflective member 433 and / or the amount of light reflected by the retroreflective member 433 may pass through the half mirror 431 to form the other region of the half mirror 431.
  • an aerial image in a space may be positioned to achieve.
  • the imaging surface S (imaging area and / or imaging space) of the aerial image is symmetrical with the display panel 435 (or the imaging surface of the display panel) with respect to the half mirror 431. Can be positioned to achieve.
  • the size of the aerial image may look different depending on the position viewed by the user.
  • the electronic device may further include a sensor 413 that detects a location of the user, and the half mirror 431 to correspond to the location of the user detected by the sensor 413.
  • the position and / or inclination angle of the display panel 435 relative to the display panel 435 may be adjusted.
  • the display panel 435 is rotated about the rotation axis (H) provided on one end side adjacent to the half mirror 431, the inclination angle with respect to the half mirror 431 can be adjusted.
  • the electronic device 400 may further include a driving device (eg, a step motor, a servo motor, etc.) for rotating the display panel 435.
  • the display panel 435 may be disposed at the first position DP1 inclined at an angle of about 45 degrees with respect to the half mirror 431.
  • the display panel 435 outputs an image at the first position DP1
  • an aerial image is formed at a first imaging position AP1 that is symmetrical to the first position DP1 with respect to the half mirror 431.
  • the electronic device 400 When the sensor 413 detects that the user moves to the position indicated by 'UP2', the electronic device 400 (eg, the processor 11 of FIG. 1) rotates the display panel 435 to remove the sensor.
  • the display panel 435 In the second position DP2, the display panel 435 may be inclined at an angle of about 30 degrees with respect to the half mirror 431, for example.
  • the electronic device 400 (for example, the processor 11 of FIG. 1) may cause the display panel 435 to move to a third position. It can be rotated to move to (DP3). In the third position DP3, the display panel 435 may be inclined at an approximately 60 degree angle with respect to the half mirror 431, for example.
  • the electronic device 400 may detect a location of a user and form an aerial image suitable for the location.
  • a configuration of adjusting the inclination angle of the display panel 435 with respect to the half mirror 431 is illustrated, but the present invention is not limited thereto.
  • the half mirror 431 may be rotated with respect to the display panel 435, or the retroreflective member 433 may be rotated with respect to the display panel 435.
  • a plurality of rotating shafts (eg, the rotating shaft H) of the display panel 435 may be provided, and the display may be provided according to the position of the user detected through the sensor 413.
  • the panel 435 may rotate about at least one selected rotation axis among the plurality of rotation axes.
  • FIG. 5 is a diagram for describing an image output example of a stereoscopic image device and / or an electronic device according to various embodiments of the present disclosure.
  • the display panel 435 may be fixed at a predetermined position (for example, a position indicated by 'DP1'), and may be adjusted to a user position by adjusting an image output from the display panel 435.
  • a suitable aerial image can be formed.
  • the display panel 435 is inclined at an approximately 45 degree angle with respect to the half mirror 431 (for example, the position indicated by 'DP1' in FIG. 4), and the user is in a first position (for example, If the position is indicated as 'UP1' of FIG. 4, the aerial image may be formed in the same size as the output image. Since the display panel 435 is fixed at the position indicated by 'DP1', the imaging surface S of the aerial image may be fixed at the first imaging position AI1.
  • the aerial image formed at the first imaging position AI1 may appear smaller than when viewed from the first user position UP1.
  • the electronic device 400 detects a change in the position of the user through the sensor 413, and the same as when viewed from the first user position UP1 in the second user position UP2.
  • the output image can be enlarged so that you can see the aerial image in size.
  • the aerial image formed at the first imaging position AI1 may appear larger than when viewed from the first user position UP1.
  • the electronic device 400 detects a change in the position of the user through the sensor 413, and has the same size as that seen from the first user position UP1 even in the third user position UP3.
  • the output image can be scaled down so that you can see the aerial image of the.
  • the electronic device 400 may provide an aerial image suitable for the location of the user by adjusting the aerial image by enlarging or reducing the output image according to the location of the user. .
  • the output image may be enlarged / reduced by changing the enlargement / reduction ratio (or the enlargement / reduction ratio of the upper side and the lower side) of the left and right sides of the output image according to the position of the user.
  • FIG. 6 is a diagram illustrating an operation of a stereoscopic imaging apparatus and / or an electronic device 600 according to another one of various embodiments of the present disclosure.
  • the stereoscopic imaging device and / or the electronic device 600 may further include a second retroreflective member 633b.
  • a second retroreflective member 633b For brevity, the following detailed description of the present embodiment will refer to the stereoscopic image device and / or the electronic device 600 together with the reference numeral '600' and will be referred to as 'electronic device'.
  • the half mirror of the above-described embodiment may transmit a part of light incident on the incident light or an image and reflect the remaining light amount. Some of the image and / or the amount of light in the image reflected by or transmitted through the half mirror may be lost without contributing to the formation of the aerial image. For example, the resolution of the imagery aerial image may be lower than the resolution of the image output by the display panel.
  • the electronic device 600 according to the present exemplary embodiment may at least partially compensate for the loss of light due to the half mirror by utilizing the second retroreflective member 633b.
  • the second retroreflective member 633b may be disposed to face the display panel 635 with a half mirror 631 interposed therebetween.
  • the display panel 635 is positioned at one side of the half mirror 631 together with the first retroreflective member 633a, and the second retroreflective member 633b is disposed at the other side of the half mirror 631. Can be deployed.
  • the image OI output from the display panel 636 and / or a part of the amount of light OI1 of the image is reflected by the half mirror 631, and the other part TR1 may pass through the half mirror 631.
  • the image and / or light amount OI1 reflected by the half mirror 631 of the output image OI may be incident to and reflected by the first retroreflective member 633a.
  • Some or all of the image and / or the light amount RI1 reflected by the first retroreflective member 633a pass through the half mirror 631 and are formed in a space on the other side of the half mirror 631.
  • An aerial image can be formed in S) (imaging area and / or imaging space).
  • the remaining part of the output image and / or the light amount, for example, the image and / or the light amount TR1 transmitted through the half mirror 631 of the output image OI are reflected by the second retroreflective member 633b.
  • the light may enter the half mirror 631.
  • Some or all of the image and / or the light amount RI2 reflected by the second retroreflective member 633b may be reflected by the half mirror 631 to form an aerial image on the imaging surface S.
  • the electronic device 600 may reflect part or all of the image and / or light amount RI1 reflected by the first retroreflective member 633a, and may be reflected by the second retroreflective member 633b.
  • a part or all of the image and / or the light amount RI2 may be combined to form an aerial image on the imaging surface S.
  • the electronic device 600 further includes the second retroreflective member 633b to transmit the half mirror 631 of the output image OI.
  • the image and / or light amount TR1 may contribute to imaging the aerial image.
  • the electronic device 600 including the second retroreflective member 633b may compensate for loss of an image and / or light amount due to transmission or reflection of the half mirror 631.
  • FIG. 7 is a perspective view illustrating an electronic device 700 according to another one of various embodiments of the present disclosure.
  • 8 is a plan view illustrating an electronic device 700 according to another one of various embodiments of the present disclosure.
  • 9 is a cross-sectional view illustrating an electronic device 700 according to another one of various embodiments of the present disclosure.
  • the electronic device 700 may form an aerial image on the upper portion of the housing 701.
  • most of the upper surface of the housing 701 may be made of a half mirror 731, the sensor 713 is disposed along the edge of the half mirror 731, the user's position, or the aerial image The movement of the object and the like may be detected in the formed area.
  • the housing 701 may have a cylindrical cylinder shape, and at least one display panel 735 and a retroreflective member 733 may be disposed therein.
  • the retroreflective member 733 may have a shape of a cone, a polygonal pyramid, a truncated cone or a pyramid, and a plurality of the display panel 735 may be disposed around the retroreflective member 733.
  • the outer circumferential surfaces of the display panel 735 and the retroreflective member 733 may be generally inclined with respect to the half mirror 731.
  • the image output from the display panel 735 is sequentially reflected by the half mirror 731 and the retroreflective member 373, and then passes through the half mirror 731 to pass through the housing 701.
  • the image plane S of the aerial image may be positioned to be symmetrical with the display panel 735 with respect to the half mirror 731.
  • the outer circumferential surface of the retroreflective member 733 is formed as a curved surface, and thus the output image of the display panel 735 may be different from the aerial image formed on the imaging surface S.
  • FIG. For example, if the output image of the display panel 735 looks like a planar shape, the imaging surface S may have a curved shape.
  • the aerial image shown to the user can be adjusted by adjusting the output image according to the position of the user.
  • the reflective surface of the retroreflective member 733 is a curved shape, by partially expanding / reducing an image output through the display panel 735, it is formed on the image plane (S)
  • the aerial image may have a planar shape.
  • the senor 713 detects a user's position with respect to the housing 701 or a movement of an object in the imaging surface S (image forming area or image forming space), thereby detecting the electronic device 700.
  • the operating mode of, the aerial image formed on the imaging surface (S) and the like can be switched.
  • FIG. 10 is a diagram illustrating a modified example of the electronic device 700a according to another one of various embodiments of the present disclosure.
  • the electronic device 700a according to the present exemplary embodiment is a modified example of the embodiment illustrated in FIGS. 7 to 9, and the same reference numerals are used to designate elements that can be easily understood through the preceding embodiments, and the detailed description thereof will be omitted. The description may also be omitted.
  • the display panel 735a of the electronic device 700a may include a curved portion at least partially.
  • the display panel 735a may be a curved display panel.
  • the curved surface, curvature, and the like of the display panel 735a may include specifications (eg, height, outer circumferential inclination angle, outer circumferential curvature, etc.) of the retroreflective member 735, and the shape of an aerial image to be formed on the housing 701. It may be appropriately designed in consideration of.
  • FIG. 11 is a flowchart illustrating an operating method 1100 of a stereoscopic image device and / or an electronic device according to various embodiments of the present disclosure.
  • the stereoscopic imaging apparatus and / or the operating method 1100 of the electronic apparatus including the same may update the aerial image according to an operation environment, such as a location of a user.
  • the operation method 1100 may form an aerial image, and update the aerial image formed according to a change in the position of the user in the state where the aerial image is formed.
  • operation 1101 is an operation of attaching a display panel to a stereoscopic imaging apparatus.
  • the mobile communication terminal may be mounted in a housing (or cradle) in which a half mirror, a retroreflective member, or the like is mounted.
  • operation 1101 may be omitted.
  • the operation method 1100 will be described with reference to FIG. 2, assuming that a display panel is mounted on a stereoscopic image device and / or an electronic device.
  • operation 1102 is an operation of forming and forming an aerial image
  • an image may be output from the display panel 235.
  • the output image may be sequentially reflected by the half mirror 231 and the retroreflective member 233, and then pass through the half mirror 231 again to form an aerial image on the electronic device 200.
  • An imaging surface S (image forming area and / or imaging space) of the aerial image may be positioned symmetrically with the display panel 235 with respect to the half mirror 231.
  • the aerial image formed on the imaging surface S may include information about an operation mode of the electronic device 200, information about a function or an application that can be executed / switched in a current operation mode, and information about a music file being played. It may include information about a received broadcast channel and a broadcast program.
  • the electronic device 200 may perform operation 1121 to adjust the aerial image as necessary.
  • the operation 1121 may operate when the electronic device 200 first forms an aerial image after activation.
  • the operation 1121 may be selectively performed.
  • the electronic device 200 after the operation 1102 and / or the operation 1121, for example, after the aerial image is formed on the imaging surface S, the electronic device 200 performs the operation 1103 by performing the operation 1103.
  • the sensor 213 may monitor a user's location change (eg, access to the electronic device 200, movement in an area adjacent to the electronic device 200, etc.). If there is no change in the position of the user when determining based on the information detected by the first sensor 213, the electronic device 200 performs an operation 1104 to determine an image output through the display panel 235. The current output state can be maintained.
  • the electronic device 200 performs the operation 1105 to operate the first sensor 213.
  • Information regarding a relative position of the user with respect to the electronic device 200 may be acquired through the electronic device 200.
  • the electronic device 200 may perform operation 1106 to update the aerial image formed on the imaging surface S.
  • FIG. For example, when a user approaches the electronic device 200 in a state where information on a music file being played is displayed through an aerial image, the electronic device 200 performs the operation 1105 to perform a function necessary to play music.
  • An aerial image can be formed from an image such as a key or an image of a function key for switching the operation mode. If the aerial image formed on the imaging surface S reflects images of various function keys, the second sensor 215 is activated to move an object in the area where the aerial image is formed (for example, the imaging surface S). Can be monitored.
  • the electronic device 200 performs an object (eg, a user's) on an area (eg, the imaging surface S) in which an aerial image is formed through the second sensor 215.
  • the approach, entry, movement, etc. of the finger can be monitored.
  • the electronic device 200 updates the aerial image formed on the image plane S, and performs operations 1105 and 1106. Can be done.
  • the electronic device 200 may change an operation mode or execute a specified function and / or application. have.
  • Operations leading to operations 1103, 1105, and 1106 may vary according to an operation mode of the electronic device 200.
  • the electronic device 200 displays a broadcast channel or broadcast program information as an aerial image on a portion of the image plane S.
  • FIG. While providing, an aerial image of a function key related to broadcast channel switching, operation mode switching, etc. may be provided to another area of the imaging surface S.
  • the second sensor 215 when the image of the function key is not reflected in at least a part of the aerial image, the second sensor 215 may not be activated yet, and the electronic device 200 detects that the user has approached.
  • the second sensor 215 may be activated at the same time as reflecting the image of the function key in at least a portion of the aerial image.
  • the electronic device including the display panel further includes a touch panel, a proximity sensor, a camera module, and the like. If included, at least one of the touch panel, the proximity sensor, and the camera module may perform the functions of the first sensor 213 and / or the second sensor 215.
  • an electronic device including the same, and / or operations thereof need not be limited to the above-described embodiments.
  • a display panel is included, whether the display panel is mounted in a separate electronic device (eg, a mobile communication terminal) and the electronic device includes a touch panel, or the like, mounted in a stereoscopic imaging device and / or an electronic device.
  • a separate electronic device eg, a mobile communication terminal
  • the electronic device includes a touch panel, or the like, mounted in a stereoscopic imaging device and / or an electronic device.
  • an electronic device including the same, and / or operations thereof may vary.
  • FIG. 12 is a perspective view illustrating a stereoscopic imaging apparatus 1200 according to yet another one of various embodiments of the present disclosure.
  • the stereoscopic imaging apparatus 1200 may include a seating groove 1211 that may accommodate and mount the electronic device 30 including the display panel (eg, the display panel 335 of FIG. 3). A portion of the upper surface may be provided as the half mirror 1231.
  • the housing 1201 of the stereoscopic imaging device 1200 may be used as a cradle for mounting the electronic device 30, and a retroreflective member 1233 may be formed inside the housing 1201. 1231 may be disposed to face an inner surface of the half mirror 1231 in an inclined state with respect to 1231.
  • the electronic device 30 is disposed in the seating groove 1211, at least a portion of the display panel of the electronic device 30 may be positioned to face the inner surface of the half mirror 1231 in an inclined state. .
  • the stereoscopic imaging apparatus 1200 may include a wireless power transmission function, and if the electronic device 30 can wirelessly receive power, it is only disposed in the seating groove 1211. The battery of the electronic device 30 may be charged.
  • the electronic device 30 may transmit / receive data with the stereoscopic imaging device 1200 in a wired manner such as a data cable or a wireless manner such as Bluetooth.
  • the 3D imaging apparatus 1200 may include a sensor 1215 for detecting an object movement or the like on the image plane S, and the information about the movement of the object detected from the sensor 1215. Is provided to the electronic device 30 via wired and / or wireless communication such that the electronic device 30 switches an operation mode or switches the output image and / or the air based on information detected from the sensor 1215. You can update the image.
  • the stereoscopic image device 1200 may include a speaker device, and may receive sound signals of multimedia files such as music played by the electronic device 30 and output sound. While sound is output through the stereoscopic imaging device 1200, the electronic device 30 may output information about a multimedia file being played through a display panel, and the image plane S may be displayed on the electronic device. An aerial image corresponding to the output image of the display panel of 30 can be imaged.
  • the area where the aerial image is formed may include a touch panel integrated into the display panel of the electronic device 30 to detect a proximity touch input (eg, hovering). It can be located within the range of what can be done. For example, if a user keeps a finger or the like for a predetermined time in contact with an aerial image formed on the imaging surface S, the electronic device 30 recognizes a proximity touch input (eg, hovering) and corresponds to a function thereof. You can also run the application.
  • a proximity touch input eg, hovering
  • FIG. 13 is a cross-sectional view illustrating an electronic device 1300 according to another one of various embodiments of the present disclosure.
  • the electronic device 1300 may form part and / or the entirety of a dashboard D in a vehicle.
  • an information window for displaying a speedometer, an RPM gauge, a fuel gauge, and status information of the vehicle may be disposed inside the dashboard D.
  • a protective window may be disposed on the front of the information window, and the electronic device 1300 may form the protective window with a half mirror 1331.
  • the electronic device 1300 may include a retroreflective member 1333 and a display panel 1335.
  • the retro-reflective member 1333 and the display panel 1335 may be inclined with respect to each other and / or with respect to an inner surface of the half mirror 1331 inside the half mirror 1331.
  • the retroreflective member 1333 is disposed at an arbitrary position such as an area between the speedometer and the RPM gauge, an area between the speedometer and the fuel gauge, and the image reflected by the half mirror 1331 and / or The amount of light may be reflected and then incident on the half mirror 1331.
  • the state information of the vehicle eg, the engine oil check lamp, the engine check lamp, the battery check lamp, etc.
  • the state information of the vehicle may be replaced by an image output through the display panel 1335.
  • the display panel 1335 may output various information related to driving of the vehicle in the form of an image. For example, the remaining fuel amount and the gas station location / price information corresponding thereto, information about the estimated time of arrival of the destination input by the user, route and progress information leading to the destination, and various traffic conditions may be output.
  • the image output through the display panel 1335 is reflected from the inner side surface of the half mirror 1331 to be incident on the retroreflective member 1333, and the retroreflective member 1333 is incident on the image and / or The amount of light may be reflected again to be incident to the half mirror 1331.
  • the half mirror 1331 transmits at least a part of the image and / or the amount of light reflected by the retroreflective member 1333 so that the space on the other side of the half mirror 1331 (for example, an imaging surface S) You can form an aerial image.
  • the imaging surface S may be positioned symmetrically with the display panel 1335 with respect to the half mirror 1331.
  • 14 is a perspective view illustrating a stereoscopic imaging apparatus 1400 according to yet another one of various embodiments of the present disclosure.
  • 15 is a side view illustrating a state in which a stereoscopic imaging apparatus 1400 operates according to another one of various embodiments of the present disclosure.
  • 16 is a side view illustrating a state in which a stereoscopic imaging apparatus 1400 is folded according to another one of various embodiments of the present disclosure.
  • the stereoscopic imaging apparatus 1400 may have a form of a protective cover detachably provided to the electronic device 30 including the display panel 1435.
  • the stereoscopic imaging apparatus 1400 may include a cover member 1411, a first flip cover 1413, and a second flip cover 1415.
  • the cover member 1411 may be detachably provided on a rear surface of the electronic device 30 (for example, a surface facing the surface on which the display panel 1435 is mounted).
  • the cover member 1411 may protect the electronic device 30 from external impact by enclosing at least a portion of each of the side and / or rear surfaces of the electronic device 30.
  • the first flip cover 1413 may be rotatably coupled to one side of the cover member 1411, and a part and / or the entirety of the first flip cover 1413 may be formed as a half mirror 1431.
  • the first flip cover 1413 rotates with respect to the cover member 1411, and the front surface of the electronic device 30 (eg, the The display panel 1435 may be opened or closed. Even when the first flip cover 1413 closes the front surface of the electronic device 30, at least a part of the image output through the display panel 1435 may be viewed to the outside through the half mirror 1431. Can be.
  • the second flip cover 1415 is rotatably coupled to the other end of the first flip cover 1413, and may be folded to face an inner side surface of the first flip cover 1413 or the first flip cover 1413. Can be rotated to a position away from the inner surface of the According to various embodiments, some and / or all of the second flip cover 1415 may be a retroreflective member 1433. In one embodiment, the retroreflective member 1433 may be a sheet and / or a film attached to an inner side surface of the second flip cover 1415. In another embodiment, with the first flip cover 1413 closing the front surface of the electronic device 30, the second flip cover 1415 may include the electronic device 30 and the first flip cover ( 1411).
  • first flip cover 1413 (and / or the half mirror 1431) may be disposed between the display panel 1435 with the second flip cover 1415 (and / or the retroreflective member 1433) interposed therebetween. Can be folded to face each other.
  • the second flip cover 1415 (and / or the retroreflective member 1433) may have the other end supported and fixed to the other side of the cover member 1411.
  • the second flip cover 1415 is rotated away from an inner side surface of the first flip cover 1413, the other end of the second flip cover 1415 is connected to the electronic device 30.
  • One side and / or one side of the cover member 1411 may be supported.
  • the first flip cover 1413 (and / or half mirror ( 1431) may be inclined with respect to the display panel 1435.
  • the first flip cover 1413 (and / or half mirror 1431) is disposed to be inclined with respect to the display panel 1435, and the second flip cover 1415 (and / or retroreflective member 1433).
  • the stereoscopic imaging device 1400 eg, the protective cover of the electronic device 30
  • the aerial image may be formed on an outer space of the flip cover 1413.
  • the aerial image may vary according to an operation mode of the electronic device 30. For example, when the electronic device 30 is in the standby mode, information on a date, time, weather, etc. may be provided as an aerial image.
  • the content of the received message is converted into the aerial image.
  • information such as a producer, a title, or a video included in the multimedia file may be provided as an aerial image.
  • the aerial image may be formed at a position symmetrical with respect to the half mirror 1431 at which the display panel 1435 and / or the display panel 1435 output an image. .
  • the display panel 1435 may be a touch screen in which a touch panel is integrated. If the touch panel is integrated in the display panel 1435, and the aerial image formed on the outside of the first flip cover 1413 is formed within a predetermined range, the electronic device 30 may display the display panel 1435. (Eg, a touch panel) and an aerial image may be used to include a proximity touch input (eg, hovering). In another embodiment, if the electronic device 30 is further provided with a separate lighting device, the lighting device may brighten a portion of the aerial image. For example, when a proximity touch input (eg, hovering) is set to a part of the aerial image, the illumination device may illuminate an area where the proximity touch input (eg, hovering) is possible.
  • a proximity touch input eg, hovering
  • the illumination device may illuminate an area where the proximity touch input (eg, hovering) is possible.
  • the input function, the operation mode switching function, and the like of the stereoscopic imaging apparatus 1400 and / or the electronic device may be a combination of an aerial image and various sensors provided in the stereoscopic imaging device and / or the electronic device. Can be provided through.
  • the electronic device 30 is equipped with a camera module, in the state where the aerial image is formed, the camera module determines whether the user approaches, the electronic device 30 and / or the aerial image formed. By detecting a change in relative position of a user, basic information necessary for enlarging / reducing an output image may be provided.
  • FIG. 17 is a perspective view illustrating a stereoscopic imaging apparatus 1700 according to yet another one of various embodiments of the present disclosure.
  • FIG. 18 is a cross-sectional view illustrating a stereoscopic imaging device 1700 according to another one of various embodiments of the present disclosure.
  • the stereoscopic imaging apparatus 1700 may include a cradle 1701, a half mirror 1702, and a retroreflective member 1703. have.
  • the holder 1701 may provide a space for mounting the electronic device 40 including the display panel 43, for example, a slot 1711, and at least one sensor 1713. ) May be included.
  • the sensor 1713 may include, for example, at least one of a camera module, an infrared sensor, a proximity sensor, and an illuminance sensor, and may be disposed at various positions on the cradle 1701.
  • the sensor 1701 (s) may detect the user's position or the user's motion with respect to the cradle 1701, and provide the detected user location information to the electronic device 40, for example. can do.
  • the stereoscopic imaging device 1701 and / or the cradle 1701 may provide a wireless power transmission function, and if the electronic device mounted on the cradle 1701 is equipped with a wireless power reception function.
  • the battery may be charged through the holder 1701.
  • the display panel 43 of the electronic device 40 may be disposed in front of the housing 41, and at least a portion of the edge portion of at least one side may include a curved area C. have.
  • the electronic device 40 may further include a window member mounted on the housing 41, and the display panel 43 may be integrated into an inner surface of the window member.
  • the display panel 43 may include a window member.
  • the curved area C may form part of the side surface of the electronic device 40 and / or the housing 41.
  • a camera module 45, a proximity sensor, an illumination sensor 47, and the like may be disposed on one side of the display panel 43.
  • sensors for detecting a usage environment of the electronic device 40 and / or the display panel 43 when the user is actually in use may be disposed around the display panel 43.
  • the touch panel may be integrated in the display panel 43 to output an image or an icon representing a virtual keypad or various applications in the screen area of the display panel 43. You can execute the function or command you want by touching the image or icon.
  • the electronic device 40 may include various input / output devices such as a keypad, a microphone, a speaker phone, and a detailed description thereof will be omitted.
  • the half mirror 1702 may be mounted on one surface, for example, an upper surface of the holder 1701.
  • the display panel 43 may be inclined with respect to the half mirror 1702.
  • the half mirror 1702 transmits a part of the incident light, and reflects the other part.
  • the retroreflective member 1703 may be disposed on the holder 1701, for example, inclined with respect to the half mirror 1702, and may be incident to the incident direction of light. Can reflect.
  • the direction of incidence of light into the retroreflective member 1703 and the direction in which the light reflected by the retroreflective member 1703 travels may be at least partially parallel.
  • the retroreflective member 1703 may be inclined with respect to the display panel 43.
  • the retroreflective member 1703 and the display panel 43 of the electronic device 40 mounted on the slot 1711 are inclined with respect to each other and / or with respect to the half mirror 1702, respectively. Can be deployed.
  • an image output from the display panel 43 (hereinafter, referred to as a “first output image”) is reflected by the half mirror 1702.
  • the light may enter the retroreflective member 1703.
  • the retroreflective member 1703 may reflect incident light (eg, the first output image of the display panel 43) and enter the half mirror 1702, and the retroreflective member 1703 may be configured to Light incident on the half mirror 1702 may pass through the half mirror 1702 to form a first aerial image on the other side of the half mirror 1702.
  • the first aerial image may be formed to be symmetrical with the display panel 43 with respect to the half mirror 1702.
  • the electronic device 40 when the electronic device 40 is mounted on the holder 1701, for example, the slot 1711, at least a part of the electronic device 40 may be exposed to the outside.
  • the curved area C of the display panel 43 may be exposed to the outside.
  • the curved area C is adjacent to the half mirror 1702 and / or an imaging surface in which the first aerial image is formed. (S) and / or adjacent to the imaging area.
  • the touch panel is integrated in the display panel 43, the user may have various functions in the area exposed to the outside of the holder 1701 (eg, the curved area C) even when the touch panel is mounted on the holder 1701. Touch input can be made.
  • the first output image may be converted according to a user's input operation, and the first aerial image may also be converted according to the first output image.
  • the stereoscopic imaging device 1700 moves the user around the cradle 1701 and / or the first aerial image forming surface S (and User's motion in the imaging area).
  • Information regarding the operation of the user may be provided to the electronic device 40.
  • the 3D image device 1700 is connected to the electronic device 40 by a wired method or a wireless method such as Bluetooth or NFC, and detects a user's motion around the cradle 1701 and the electronic device 40. ) Can be provided.
  • the sensor 1713 (s) is a touch, push, pinch, grag of the user with respect to the first aerial image on the image plane S of the first aerial image.
  • Detected motion can be detected.
  • the electronic device 40 may embed a command or an application corresponding to a user's motion and based on information provided from the stereoscopic imaging device 1700 (for example, information on the user's motion), the electronic device 40 may respond to the motion.
  • Command or application can be executed.
  • FIG. 19 is a cross-sectional view illustrating a modified example of the stereoscopic imaging apparatus 1900 according to another one of various embodiments of the present disclosure.
  • the stereoscopic imaging apparatus 1900 illustrated in FIG. 19 may differ from the exemplary embodiment in the configuration further including the display apparatus 1904. Therefore, in describing the present embodiment, for the configuration easily understood through the preceding embodiment, the reference numerals of the drawings are the same as or omitted from the previous embodiment, the detailed description thereof may also be omitted.
  • the stereoscopic imaging device 1900 may include the display device 1904 mounted to be adjacent to a slot 1711 in which the electronic device 40 is mounted.
  • the display device 1904 has one side adjacent to the half mirror 1702, the other side adjacent to the retroreflective member 1703, and the half mirror 1702 and / or the retroreflective member 1703. It may be disposed inclined with respect to each.
  • An image output from the display device 1904 (hereinafter, referred to as a “second output image”) is reflected by the half mirror 1702 and is incident on the retroreflective member 1703, and the retroreflective member 1703 is provided. ) May reflect the incident image back to the half mirror 1702.
  • the half mirror 1702 may pass through the image reflected by the retroreflective member 1703 to form an image in the other space of the half mirror 1702, for example, an external space of the stereoscopic imaging apparatus 1900. have.
  • an image formed in the other space of the half mirror 1702 corresponding to the second output image will be referred to as a 'second aerial image'.
  • the display device 1904 may be disposed to overlap the display panel 43 of the electronic device 40.
  • the display device 43 may transmit at least a portion of the first output image output from the display panel 43.
  • the first output image is sequentially reflected by the half mirror 1702 and the retroreflective member 1703, and passes through the half mirror 1702 again, so that the first output image is in the other space of the half mirror 1702. It can be imaged with the first aerial image. From the user's line of sight E, the first aerial image and the second aerial image may at least partially overlap.
  • 'overlapped' means that, when viewed by the user, at least partially overlap with regions where the first aerial image and the second aerial image are respectively displayed,
  • the image planes s and S1 of each of the first aerial image and the second aerial image may be at different distances from the user's eyes.
  • the first aerial image and / or the second aerial image may include an image or an icon containing a meaning of a command or an application embedded in the electronic device 40.
  • Various operations may be performed on the imaging surfaces S and S1 (and / or the imaging region) of the first aerial image and / or the second aerial image.
  • the user may touch, grip / stretch, pick and drop an icon or the like included in the first aerial image and / or the second aerial image.
  • the stereoscopic image device 1900 detects such a user's motion through various sensors (for example, the sensor 1713 of FIG. 17) installed in the holder 1701 and transmits the same to the electronic device 40. Can provide.
  • the electronic device 40 may execute a command or an application corresponding to the user's operation based on the information provided from the stereoscopic imaging device 1900.
  • a partial area (eg, the curved area C described above) of the display panel 43 in which the touch panel is integrated is It may be exposed adjacent to one side of the half mirror 1702.
  • the user may directly manipulate (eg, touch, drag, or pinch) the curved area C to execute a command or an application embedded in the electronic device 40.
  • the display device 1904 and / or the user according to the user's motion on the image planes (S, S1) of the first aerial image and / or the second aerial image, or the user's operation on the curved area (C).
  • An image eg, the first output image and / or the second output image
  • the corresponding first aerial image and / or second aerial image may also be converted.
  • the second output image is output independently of the first output image, but may include image information related to the first output image.
  • the first output image may include an image corresponding to the music being played, and the second output image may include information about the music being played ( Eg performer, conductor, singer, year of presentation, etc.).
  • Some areas of the second output image may include various functions (eg, play, pause, rewind, fast forward, etc.) required for music playback.
  • the second output image may include the same image information as the first output image.
  • the second output image includes the same image information as the first output image, so that the resolution of the aerial image (eg, the first aerial image and / or the second aerial image) that the user is actually watching. Can be improved.
  • FIG. 20 is a perspective view illustrating a stereoscopic imaging apparatus 2000 according to another one of various embodiments of the present disclosure.
  • FIG. 21 is a cross-sectional view illustrating a stereoscopic imaging apparatus 2000 according to another one of various embodiments of the present disclosure.
  • the configuration of the electronic device mounted on the stereoscopic image device 2000 can be easily understood through the electronic device (for example, the electronic device of FIG. 17) of the previous embodiment.
  • Reference numerals in the drawings are the same or omitted, and detailed description thereof will be omitted.
  • the stereoscopic imaging apparatus 2000 may include a cradle 2001, a half mirror 2002, and a retroreflective member 2003.
  • the electrons mounted on the cradle 2001 may be used.
  • An image output from the device 40 (eg, the display panel 43) may be imaged as an aerial image.
  • the holder 2001 may include a mounting groove 2011 formed on one surface (for example, an upper surface) to mount the electronic device 40.
  • the electronic device 40 may be accommodated in the mounting groove 2011 and mounted on the stereoscopic imaging device 2000.
  • at least one sensor 2013 may be mounted around the mounting groove 2011, and the sensor 2013 may include at least one of a camera module, an infrared sensor, a proximity sensor, and an illumination sensor. Can be.
  • the sensor 2013 may detect a usage environment of the stereoscopic imaging apparatus 2000 or detect a user's motion around the cradle 2001.
  • the information detected by the sensor 2013 may be provided to the electronic device 40 mounted on the holder 2001, and the electronic device 40 may be based on the information detected by the sensor 2013. You can change the output settings such as operation mode, video and sound.
  • the stereoscopic imaging apparatus 2000 and / or the cradle 2001 may provide a wireless power transmission function, and if the electronic device 40 includes the wireless power reception function, the stereoscopic imaging device ( 2000 may be provided with charging power.
  • the half mirror 2002 may be disposed to cover a portion of the mounting groove 2011 at one edge of the mounting groove 2011.
  • the retroreflective member 2003 may be disposed to be inclined with respect to the half mirror 2002 between the bottom surface of the mounting groove 2011 and the half mirror 2002.
  • the curved area C of the display panel 43 may be formed in the half mirror 2002 and / or the retroreflective member ( 2003).
  • the curved area C and the retroreflective member 2003 may be disposed to be inclined with respect to each other and / or with respect to the half mirror 2002, respectively.
  • another area of the display panel 43 may be exposed to one side of the half mirror 2002.
  • the output image of the curved area C may be formed by the half mirror 2002 and the retroreflective member 2003. After being sequentially reflected, an imaginary surface that penetrates the half mirror 2002 and is inclined to the half mirror 2002 outside the half mirror 2002 (and / or outside the half mirror 2002).
  • (S)) can be formed into an aerial image.
  • the aerial image may include various information such as a battery remaining amount of the electronic device 40, a current time, weather information, whether a message is received, contents of a received message, and the like.
  • the sensor 2013 detects the user's approach and the stereoscopic imaging device 2000 May provide information about a user's access to the electronic device 40.
  • the electronic device 40 may expose an icon corresponding to a preset command or application to one side of the curved area C and / or another area (eg, the half mirror 2002). The area of the display panel 43).
  • the electronic device 40 that recognizes the user's access may include a multimedia function such as a command or an application (for example, checking a message, checking detailed weather information, playing a music or video) that the user is expected to execute.
  • Etc. may be displayed on the curved area C and / or another area.
  • the electronic device receives the received image through the curved area C and / or through the aerial image.
  • the content of the message may be displayed, and an input device capable of writing an answer message, such as a keypad, may be displayed in another area (eg, an area of the display panel 43 exposed to one side of the half mirror 2002).
  • the stereoscopic imaging apparatus (eg, the stereoscopic imaging apparatus of FIGS. 17 to 20) according to various embodiments of the present disclosure may provide various user experiences while passing through an electronic device including a display panel.
  • FIG. 22 is a cross-sectional view illustrating an electronic device 2200 (including a stereoscopic imaging device) according to yet another one of various embodiments of the present disclosure.
  • the electronic device 2200 may include a housing 2201, a display panel 2202, a half mirror 2203, and / or a retroreflective member 2204.
  • the housing 2201 may include a front surface F1, a rear surface F2 opposing the front surface F1, and a space between the front surface F1 and the rear surface F2. At least a portion may include a sidewall (F3) formed to surround.
  • a main circuit board, a supporting member, a battery, and the like which are not shown, may be accommodated.
  • a window member 2221 may be mounted on a front surface of the housing 2201 to transmit an image output from the display panel 2202, and to isolate and protect the display panel 2202 from an external environment.
  • the housing 2201 may be generally made of synthetic resin or metal, and part of the front surface may be made of the transparent window member 2221.
  • a touch panel may be provided between the half mirror 2203 and the window member. The touch panel may detect various user inputs such as a user's touch input or a proximity touch input (eg, hovering).
  • the display panel 2202 may include a first display area DA1 and a second display area DA2.
  • the first display area DA1 may be disposed to face an inner surface of the window member 2221 so as to correspond to the first area FD1 of the front surface F1
  • the second display area DA2 may be disposed to face the inner surface of the window member 2221. It may be inclined to extend from the first display area DA1 and may be positioned inside the housing 2201.
  • the display panel 2202 is a bent and / or flexible panel, and includes an (active matrix) organic light emitting diode (AM) OLED panel. It may include.
  • the electronic device 2200 may further include a touch panel 2205 integrated with the display panel 2202.
  • the touch panel 2205 may be disposed to correspond to the first area FD1 and / or the first display area DA1.
  • the display panel 2202 may include a first display panel corresponding to the first area FD1 and a second display panel independent of the first display panel. It may be disposed inclined within.
  • a plurality of display panels that are independent of each other may have a first display area DA1 and a second display area DA2 of FIG. 22. Each can be arranged correspondingly.
  • the half mirror 2203 may be disposed in a second area FD2 different from the first area FD1 on the front surface of the housing 2201 and / or the electronic device 2200.
  • the half mirror 2203 may be disposed to face the window member 2221 in the second area FD2, and the second display area DA2 may be disposed with respect to the half mirror 2203. It may be arranged to be inclined.
  • the retroreflective member 2204 may be inclined with respect to the half mirror 2203 in the housing 2201.
  • one side of the retroreflective member 2204 is adjacent to an end of the display panel 2202 (eg, the second display area DA2), and the other side is adjacent to the half mirror 2203.
  • Each can be arranged.
  • the electronic device 2200 reflects the output image of the second display area DA2 from the half mirror 2203 to enter the retroreflective member 2204, and then enters the retroreflective member 2204.
  • an aerial image corresponding to the output image may be formed in the outer space of the housing 2201.
  • the aerial image and / or information included in the aerial image formed through the electronic device 2200 may be easily understood through the above-described embodiments.
  • the half mirror 2203 may be replaced with an aerial imaging plate (AIP) device and / or a dihedral corner reflector array (DCRA) device.
  • AIP aerial imaging plate
  • DCRA dihedral corner reflector array
  • the AIP device or DCRA device may itself form an aerial image corresponding to the output image of the second display area DA2.
  • the retroreflective member 2204 does not necessarily need to be installed.
  • the electronic device 2200 may further include at least one sensor 2206, and through the sensor 2206 (s), an image plane S of the aerial image (and And / or movement of the user in the imaging area).
  • the sensor 2206 as described above may include, for example, at least one of a camera module, an infrared sensor, a proximity sensor, and an illuminance sensor.
  • the electronic device 2200 may execute a command or an application corresponding to the electronic device 2200 based on information about a user's movement detected from the sensor 2206 (s). For example, the electronic device 2200 may detect an approach, a touch, a movement, or the like of an object on the image plane S of the aerial image, and perform various input operations.
  • the touch panel 2205 may be applied to the display panel 2202. ) Is integrated, various touch input operations may be performed through the display panel 2202.
  • FIG. 23 is a cross-sectional view of an electronic device 2300 according to another one of various embodiments of the present disclosure.
  • the stereoscopic imaging device and / or the electronic device 2300 may form a part and / or a whole of the dashboard D in the vehicle, and may include a display panel 2301 and a half. By including the mirror 2321, an aerial image can be formed between the windshield 2302 of the vehicle and the driver.
  • the display panel 2301 is inclined with respect to the wind shield 2302, and may be embedded on the dashboard D or in the dashboard D, and may include various information related to driving of a vehicle (eg, Speed, engine temperature, external temperature, vehicle progress information, etc.) can be output as images.
  • the wind shield 2302 may be formed of a half mirror 2321 in a partial region and / or an entire region, and reflects an output image of the display panel 2301 to form an aerial image on the dashboard D.
  • the aerial image may correspond to an output image of the display panel 2301.
  • an imaging surface S of the aerial image may be formed between the wind shield 2302 and the driver.
  • the electronic device 2300 may further include at least one relay lens 2303 disposed between the display panel 2301 and the wind shield 2302.
  • the relay lens 2303 may change a path or enlarge / reduce an image so that the output image of the display panel 2301 is advanced to an area where the half mirror 2321 is formed.
  • the wind shield 2302 (for example, the region formed by the half mirror 2321) may reflect an incident image to form an aerial image corresponding to the output image on the imaging surface S.
  • FIG. if the electronic device 2300 includes the relay lens 2303 (s), the display panel 2301 and the aerial image are the half mirror 2321 (and / or the half mirror 2321). Can be arranged asymmetrically with respect to the optical axis perpendicular to one side).
  • the stereoscopic imaging apparatus may include:
  • a cradle for mounting an electronic device including a display panel
  • a half mirror disposed on one surface of the cradle and facing obliquely with respect to a display panel of the electronic device mounted on the cradle;
  • It may include a retroreflective member disposed inclined with respect to the half mirror on the cradle,
  • the half mirror reflects an image output from the display panel (hereinafter referred to as a “first output image”) and enters the retroreflective member, and transmits the image reflected by the retroreflective member.
  • An image corresponding to the first output image may be formed in another space of the half mirror (hereinafter, 'first aerial image').
  • the holder may be provided as a cover member detachably provided to the electronic device on a surface facing the display panel, and one end of the half mirror is rotatably coupled to one side of the cover member.
  • One end of the retroreflective member may be rotatably coupled to the other end of the half mirror.
  • the half mirror in a state in which the cover member is coupled to the electronic device, 1) the half mirror is folded to face the display panel with the retroreflective member interposed therebetween, or 2) the other end of the retroreflective member is The half mirror may be inclined with respect to the display panel by being supported by the other side of the cover member.
  • the electronic device may further include a touch panel integrated in the display panel, and the stereoscopic image device may include the first touch panel in an area in which the touch panel detects a proximity touch input (eg, hovering). You can image the aerial image.
  • a proximity touch input eg, hovering
  • the electronic device may further include a touch panel integrated into the display panel, and the stereoscopic image device may expose a portion of the display panel to one side of the half mirror.
  • the electronic device may include a curved area that forms at least a part of the side surface of the electronic device as a part of the display panel, and the three-dimensional shape of the electronic device is mounted on the holder.
  • the imaging device may expose at least the curved area to one side of the half mirror.
  • the stereoscopic imaging apparatus may image the first aerial image adjacent to the curved area.
  • the electronic device may include a curved area that forms at least a part of the side surface of the electronic device as a part of the display panel, and the three-dimensional shape of the electronic device is mounted on the holder.
  • the imaging apparatus may form an image output through at least the curved area as the first aerial image, and expose another area of the display panel to one side of the half mirror.
  • the stereoscopic imaging apparatus may further include a first sensor that detects a user position with respect to the first aerial image, and mounts the user's position information detected by the first sensor on the cradle.
  • the electronic device can be provided.
  • the first sensor may include at least one of a camera module, an infrared sensor, a proximity sensor, and an illuminance sensor.
  • the holder may provide a wireless power transmission function.
  • the stereoscopic imaging apparatus may further include a display device disposed to be inclined with respect to the half mirror on the cradle, wherein the display device has one side adjacent to the half mirror and the other side reflexively reflects the half mirror.
  • a display device disposed to be inclined with respect to the half mirror on the cradle, wherein the display device has one side adjacent to the half mirror and the other side reflexively reflects the half mirror.
  • Each can be disposed adjacent to the member,
  • the half mirror reflects an image output from the display apparatus (hereinafter referred to as a “second output image”) and enters the retroreflective member, and transmits the image reflected by the retroreflective member,
  • An image corresponding to the second output image may be formed in the other space of the half mirror (hereinafter, referred to as a “second aerial image”).
  • the display device may be disposed to overlap the display panel of the electronic device mounted on the holder, and may transmit at least a portion of the first output image.
  • the stereoscopic imaging apparatus may form the first aerial image and the second aerial image to overlap each other.
  • An electronic device may include some or all of the above-described stereoscopic imaging device.
  • stereoscopic imaging device For example,
  • a housing comprising a front surface, a rear surface opposite the front surface, and a side wall formed to at least partially surround a space between the front surface and the rear surface;
  • a display panel including a first display area disposed in the first area of the front surface, and a second display area inclinedly extending from the first display area and positioned inside the housing;
  • a half mirror disposed in a second area of the front surface and adjacent to the second display area
  • It may include a retroreflective member disposed inclined with respect to the half mirror in the housing,
  • the half mirror reflects an image output from the second display area (hereinafter referred to as an “output image”) and enters the retroreflective member, and transmits the image reflected by the retroreflective member,
  • an aerial image corresponding to the output image can be imaged.
  • the electronic device may further include a touch panel integrated in the display panel, at least in the first display area.
  • the electronic device may further include a first sensor disposed on a front surface of the housing, wherein the first sensor may access, contact, or contact an object with respect to a surface or a space where the aerial image is formed. The movement can be detected.
  • the first sensor may include at least one of a camera module, an infrared sensor, a proximity sensor, and an illuminance sensor.
  • the stereoscopic imaging apparatus may include:
  • a display panel mounted on a vehicle dashboard or within the dashboard;
  • At least some area may comprise a wind shield disposed on the dashboard,
  • the wind shield may reflect an image output from the display panel to form an aerial image on the dashboard.
  • At least a portion of the wind shield may be formed as a half mirror.
  • the region formed by the half mirror may reflect an image output from the display panel.
  • the stereoscopic imaging apparatus may further include at least one relay lens disposed between the display panel and the wind shield.
  • the relay lens may allow an image output from the display panel to be incident on a region formed by the half mirror.
  • 24A and 24B are diagrams for describing a function or an operation of transmitting a certain object to another electronic device (in other words, moving) or executing the same through an electronic device according to various embodiments of the present disclosure.
  • FIGS. 24A-31D are described based on the stereoscopic imaging apparatus illustrated / described in FIGS. 20-23 by way of example. According to various embodiments of the present disclosure, the embodiments illustrated in FIGS. 24A through 31D may be performed based on a stereoscopic imaging device / electronic device according to various embodiments illustrated in FIGS. 1 through 19 of the present disclosure. Can be.
  • the stereoscopic imaging apparatus 2410 may be combined with the electronic device 40 to provide an aerial image.
  • the electronic device 40 may directly receive data about a specific object from the external electronic device 2400 connected to the electronic device 40 through wired or wireless communication.
  • the electronic device 40 may receive data about the specific object from a data server (not shown) connected to the electronic device 40 and the external electronic device 2400. It may be sent.
  • the electronic device 40 may control the specific object according to a property of the specific object. For example, when the specific object is a “music file 2402” as shown in FIG.
  • the electronic device 40 is connected to the external electronic device 2400 or from the data server 2402. After receiving the data relating to), the received music file may be executed (in other words, played).
  • the music file 2402 is executed, as shown in FIG. 24B, various information such as artist information, tie information, and playback time for the music file 2402 are displayed as an aerial image on the image plane S.
  • FIG. May be provided to the user.
  • the specific object may be a play list (not shown).
  • 24A and 24B illustrate an example in which one electronic device 40 is connected to the external electronic device 2400.
  • the transmission regarding the specific object may be performed or triggered according to a user input, such as a drag gesture for a specific direction, as exemplarily illustrated in FIG. 24A.
  • the specific direction is not limited to the direction in which the electronic device 40 or the stereoscopic image device 2410 is located, and may include any direction.
  • the specific object when a user input is performed from the external electronic device 2400 in the direction of the electronic device 40, the specific object may be transmitted. In another embodiment, when a user input is performed in the opposite direction from the external electronic device 2400 to the electronic device 40, the specific object already transmitted to the electronic device 40 may be deleted.
  • 25A and 25B illustrate a function or operation for transmitting a specific object to the electronic device or executing a specific object through the electronic device when there are a plurality of electronic devices according to various embodiments of the present disclosure. Drawing.
  • an external electronic device 2500 may transmit / execute a request (eg, a music file 2502) from a user 520 to a specific object (eg, a music file 2502).
  • a request eg, a music file 2502
  • a specific object eg, a music file 2502
  • the user may receive a drag gesture in a direction corresponding to the direction in which the 3D image devices 2510a and 2510b are located.
  • the electronic devices 40a and 40b attached to (or inserted into) the stereoscopic image devices 2510a and 2510b, respectively, are sensor modules (eg, GPS modules) that generate location information of the electronic devices 40a and 40b. ) May be included.
  • the electronic devices 40a and 40b may transmit location information generated by the sensor module to the external electronic device 2500 and / or a data server (not shown).
  • the external electronic device 2500 is connected to any one electronic device (for example, the electronic device 40b) corresponding to the direction of the drag gesture of the user based on the location information of the electronic devices 40a and 40b.
  • the external electronic device 2500 directly transmits data for the specific object to one of the electronic devices, or when the data for the specific object is stored in the data server. May request the data server to transmit data about the specific object to the one electronic device.
  • Any one electronic device that has received the data for the specific object may execute the specific object.
  • the specific object is a music file 2502, as shown in FIG. 25B
  • the one electronic device may play the music file 2502.
  • the electronic devices 40a and 40b may be connected to the external electronic device 2500 and / or the data server through wired communication or wireless communication.
  • 26A to 26C are diagrams for describing an operation or a function of transmitting / executing a specific object based on location information displayed on an external electronic device according to various embodiments of the present disclosure.
  • FIGS. 26A to 26C the descriptions of FIGS. 25A and 25B described above may be generally applied equally.
  • location information eg, “device 1”, “device 2”, “device 3”
  • the particular object may be sent / executed based on the indicated location map 2604.
  • the external electronic device 2600 may receive a transmission request regarding the specific object (for example, the music file 2602) from the user 2620.
  • the transmission request may be an example.
  • the electronic device may include a touch / proximity touch input (eg, hovering) of the user 2620.
  • a location map for transmitting the music file 2602 is provided. 2604.
  • the external electronic device 2600 may request a transmission in a direction in which an electronic device / stereoscopic image device for transmitting / executing the music file 2602 is located from the user 2620.
  • the external electronic device 2600 or the data server may input data about the music file 602 to the input of the user 2620.
  • Stereoscopic imaging devices e.g.
  • the music file 2602 may be stored or executed .
  • FIG. 6C a case in which the transmitted music file 2602 is executed is illustrated.
  • 27A to 27D are diagrams for describing an operation or a function of transmitting / executing a specific object between stereoscopic imaging apparatuses according to various embodiments of the present disclosure.
  • the stereoscopic imaging apparatuses 2700a and 2700b may include a camera module (not shown) for detecting the movement of the user 2720.
  • Image information obtained by the camera module may be transmitted to the electronic devices 40a and 40b mounted on the stereoscopic imaging devices 2700a and 2700b.
  • the electronic devices 40a and 40b mounted on the stereoscopic imaging apparatuses 2700a and 2700b may convert the movement of the user 2720 to three-dimensional coordinates based on the image information obtained by the camera module.
  • the camera module may include a depth camera and / or a multi-camera for obtaining depth information necessary for accurately detecting a movement of a finger or the like.
  • the depth camera and / or the multi-camera are exemplarily referred to for the description of the present invention, and the depth information required to detect the movement of the finger, etc. may include the depth
  • the camera module may be provided in the electronic devices 40a and 40b mounted on the stereoscopic imaging devices 2700a and 2700b.
  • the image information may be obtained by a camera module provided in the electronic devices 40a and 40b.
  • the camera module may be provided in the stereoscopic imaging apparatuses 2700a and 2700b and the electronic devices 40a and 40b, respectively.
  • the image information (eg, depth information) may be obtained by a combination of the camera modules provided in the stereoscopic imaging apparatuses 2700a and 2700b and the electronic devices 40a and 40b, respectively.
  • the first electronic device 40a transmits a specific object to the second electronic device 40b or receives an input of a user 2720 for executing through the second electronic device 40b. can do.
  • the input of the user 2720 is a three-dimensional grip of the user 2720 with respect to the imaging surface S or an aerial image formed on the imaging surface S (as shown in FIG. 27A). In other words, it may include a hold and a throw.
  • the input of the user 2720 may further include various gestures such as a three-dimensional touch, a three-dimensional tap, and a three-dimensional drag on the image plane S or the aerial image. have. For example, referring to FIGS.
  • a three-dimensional grip (in other words, a hold) of the user 2720 for the aerial image formed on the imaging surface S or the imaging surface S hold) and drag.
  • the imaging surface S may move.
  • the first electronic device 40a may determine (in other words, calculate) three-dimensional position coordinates of the user 2720 based on image information about the movement of the user 2720.
  • the three-dimensional coordinates of the imaging surface S and the three-dimensional coordinates of the aerial image formed on the imaging surface S may be information known to the first electronic device 40a. Can be.
  • the first electronic device 40a may be configured to determine the three-dimensional position coordinates of the user 2720, the three-dimensional coordinate information of the image plane S, and / or the aerial image formed on the image plane S. It may be determined whether an input of the user 2720 to the aerial image is received based on the 3D coordinate information of the.
  • the first electronic device 40a may display the aerial image. It can be determined that a three-dimensional touch or three-dimensional grip on is performed.
  • a body part of the user 2720 may sense a movement (in other words, a throw gesture) in a specific direction. The movement may be determined by the first electronic device 40a based on the image information of the user 2720 obtained by the camera module.
  • the movement may include image information acquired by the camera module and a sensor module (eg, provided in the first electronic device 40a or the first stereoscopic imaging device 2700a). For example, it may be determined based on data regarding the movement of the user 2720 generated by an infrared sensor module, a proximity sensor module, or the like.
  • a sensor module eg, provided in the first stereoscopic imaging device 2700a
  • data about the generated motion may be transmitted to the first electronic device 40a.
  • the first electronic device 40a may transmit data about a specific object corresponding to the aerial image to the second electronic device 40b.
  • a request message for requesting transmission of data about the specific object may be transmitted to the second electronic device 40b to a data server in which data about the specific object is stored.
  • the second electronic device 40b forms an aerial image including the control menu on the specific object through the second stereoscopic imaging device 2700b on the image forming surface S.
  • FIG. Can be controlled.
  • a three-dimensional gesture such as a three-dimensional touch on the imaging surface s or the aerial image may be performed through a proximity touch input (eg, hovering).
  • the proximity touch input may be detected by the first electronic device 40a or the first stereoscopic imaging device 2700a.
  • 28A to 28C are exemplary diagrams for describing an operation or a function in which an aerial image is enlarged / reduced through a 3D pinch gesture according to various embodiments of the present disclosure.
  • the stereoscopic imaging apparatus 2800 may image an aerial image on an imaging surface S.
  • the electronic device 40 mounted on the stereoscopic image device 2800 may determine whether the user 2810 inputs the 3D pinch gesture. An operation or function of determining whether the pinch gesture is input is based on the movement of the user 2810 detected by at least some of the camera module and the sensor module, as described with reference to FIGS. 27A and 27B. Can be performed.
  • the electronic device 40 displays a specific object (eg, an icon) formed on the image plane S in FIG. 28C. As shown, it can be controlled to be enlarged and displayed. Although not shown, on the contrary, the specific object may be reduced and displayed through the 3D pinch gesture.
  • 29A and 29B are diagrams for describing an operation or a function of enlarging / reducing an aerial image through a three-dimensional stretch gesture according to various embodiments of the present disclosure.
  • an aerial image may be formed on the imaging surface S.
  • the electronic device 40 may detect a 3D stretch gesture from the user 2910.
  • Data for detecting the 3D stretch gesture (for example, image information by a camera module, proximity information of a user through a proximity sensor, etc.) may be stored in the electronic device 40 and / or the stereoscopic imaging device 2900. It can be obtained through.
  • the electronic device 40 enlarges the size of a specific object formed on the image plane S in response to the movement of the user 2910. It can be controlled to form an image.
  • 30A and 30B are diagrams for describing an operation or a function of controlling a shape of a specific object displayed on an image plane according to a user's three-dimensional touch input.
  • a specific object may be displayed on the image plane s.
  • the electronic device 40 mounted on the stereoscopic imaging device 3000 may detect a 3D touch input of the user 3010. If the 3D touch input of the user 3010 is detected, the electronic device 40 may change and display the shape of the specific object. For example, as illustrated in FIG. 30B, the change of the shape may be displayed by changing the shape of the specific object into a moving wave pattern according to the touch input of the user 3010.
  • 31A to 31D are diagrams for explaining a function or operation of transmitting / executing a specific object through an aerial image displayed on an image plane.
  • an imaging surface S may be formed by the stereoscopic imaging apparatus 3100 on which the electronic device 40 is mounted, according to various embodiments of the present disclosure.
  • a menu eg, a “play” menu or a “share” menu 3104 for controlling a specific object (eg, a music file) may be imaged.
  • the electronic device 40 receives a 3D input to any one of the menus displayed on the imaging surface S (for example, the “sharing” menu 3104 for transmitting the music file), the electronic device 40
  • control to display aerial images of various devices eg, device A 3100a, device B 3100b, and device C 3100c
  • the aerial images 3100a, 3100b, and 3100c displayed on the imaging surface S may be imaged at positions corresponding to actual positions of the respective devices based on the position of the electronic device 40.
  • location information of the devices may be provided from a server connected to the electronic device 40 / the stereoscopic imaging device 3100.
  • the user 3110 receives a transmission request for the music file (eg, a 3D grip and throw gesture for the aerial image 3102 corresponding to the music file)
  • the electronic device 40 sends a request message for transmitting data about the music file to the device (for example, the device C) corresponding to the request for transmission, to the server. Can be sent to.
  • data about the music file may be transmitted to a device corresponding to the transfer request.
  • the device for example, the 3D image device 3100c to which the electronic device 40c is connected
  • the device that has received the data for the music file receives the data, as shown in FIG. 31D.
  • Menus eg, a "play” menu and a "save” menu
  • FIG. 31D The function or operation of controlling to form menus corresponding to the reception of the data may be performed by, for example, a processor provided in the electronic device 40c or the stereoscopic imaging device 3100c.
  • At least some of the functions / functions or operations / operations performed by the electronic devices may be stereoscopic devices. For example, it may be performed by various modules (eg, a processor, a camera module, etc.) included in the stereoscopic imaging apparatus 2400, 2500, 2600, 2700, 2800, 2900, 3000, and 3100. Conversely, at least some of the functions / functions or operations / operations performed by the stereoscopic imaging apparatus described with reference to FIGS. 24A through 31D may include various modules (eg, a processor, Camera module, etc.).
  • the electronic device 40 and the stereoscopic image device may further include additional modules / modules or some modules / modules may be omitted.
  • At least some of the electronic device 40 and the stereoscopic image device may include a processor for performing various functions or operations according to various embodiments of the present disclosure.
  • 32 is a flowchart for describing a method of controlling a 3D imaging apparatus according to a 3D control command obtained from a user.
  • a method of controlling a stereoscopic imaging apparatus may include an operation 3200 of displaying an object on an electronic device in order to display an aerial image around the stereoscopic imaging apparatus.
  • a method of controlling a stereoscopic imaging apparatus may include an operation 3210 of receiving information about a user input for controlling the aerial image from the stereoscopic imaging apparatus.
  • a method of controlling a stereoscopic imaging apparatus may include an operation 3220 of controlling the aerial image based on the received information.
  • 33 and 34 are flowcharts illustrating a method of controlling a stereoscopic imaging apparatus and an electronic device according to a user's approach to the stereoscopic imaging apparatus.
  • a method of controlling a stereoscopic imaging apparatus may include an operation 3300 of detecting a user's approach to the stereoscopic imaging apparatus.
  • a method of controlling a 3D image device may include generating 333 data related to the user's approach when the user's approach is detected.
  • a method of controlling a stereoscopic imaging apparatus may include an operation 3320 of transmitting the generated data to an electronic device mounted on the stereoscopic imaging apparatus.
  • a method of controlling the electronic device 40 may include an operation 3400 of executing a first application.
  • the method of controlling the electronic device 40 may include an operation 3410 that determines whether data related to a user's access is received from the stereoscopic image device.
  • an operation of executing a predetermined function related to the first application is performed (3420). ) May be included.
  • the predetermined function may be edited or added by a user.

Abstract

본 발명의 다양한 실시예에 따르면, 입체 영상 장치 및/또는 전자 장치는, 디스플레이 패널을 포함하는 전자 장치를 거치하는 거치대; 상기 거치대의 일면에 배치되어, 상기 거치대에 거치된 상기 전자 장치의 디스플레이 패널에 대하여 경사지게 대면하는 하프 미러; 및 상기 거치대 상에서 상기 하프 미러에 대하여 경사지게 배치된 재귀 반사 부재를 포함할 수 있으며, 상기 하프 미러는, 상기 디스플레이 패널로부터 출력된 이미지(이하, '제1 출력 이미지')를 반사하여 상기 재귀 반사 부재로 입사시키고, 상기 재귀 반사 부재에 의해 반사된 이미지를 투과함으로써, 상기 제1 출력 이미지에 상응하는 이미지를 상기 하프 미러의 타측 공간에 결상(이하, '제1 공중 이미지')시킬 수 있다. 상기와 같은 전자 장치는 실시예에 따라 다양할 수 있다.

Description

입체 영상 장치 및 그를 포함하는 전자 장치
본 발명은 전자 장치에 관한 것으로서, 예를 들면, 평면 이미지(예: 2차원 이미지)를 입체 이미지 및/또는 공중 이미지로 변환하는 입체 영상 장치 및/또는 그를 포함하는 전자 장치에 관한 것이다.
통상적으로 전자 장치라 함은, 가전제품으로부터, 전자 수첩, 휴대용 멀티미디어 재생기, 이동통신 단말기, 태블릿 PC, 영상/음향 장치, 데스크톱/랩톱 컴퓨터, 차량용 내비게이션 등, 탑재된 프로그램에 따라 특정 기능을 수행하는 장치를 의미한다. 예를 들면, 이러한 전자 장치들은 저장된 정보를 음향이나 영상으로 출력할 수 있다. 전자 장치의 집적도가 높아지고, 초고속, 대용량 무선통신이 보편화되면서, 최근에는, 이동통신 단말기 하나에 다양한 기능이 탑재되고 있다. 예를 들면, 통신 기능뿐만 아니라, 게임과 같은 엔터테인먼트 기능, 음악/동영상 재생과 같은 멀티미디어 기능, 모바일 뱅킹 등을 위한 통신 및 보안 기능, 일정 관리나 전자 지갑 등의 기능이 하나의 전자 장치에 집약되고 있는 것이다.
입체 영상 장치는, 이미지, 동영상 등을 출력함에 있어, 평면이 아닌 공간 상에 이미지를 결상함으로써, 사용자에게 입체감을 줄 수 있다. 이러한 입체 영상은, 영화관이나 텔레비젼을 통해 사용자가 접할 수 있으나, 그 컨텐츠(contents)가 제한되어 있다. 사용자가 접할 수 있는 다른 형태의 입체 영상으로는 다중 이용 시설에 설치된 광고판 등을 예로 들 수 있다.
하지만, 앞서 언급한 바와 같이, 입체 영상 장치를 통해 제공되는 컨텐츠가 제한되어 있고, 입체 영상은 단지 시각적인 정보만 제공하거나 사용자의 호기심을 자극할 뿐, 사용자가 적극적으로 활용하는 것이 제한될 수 있다. 또한, 다양한 형태의 입체 영상 장치 등이 제안되고 있지만, 일반 사용자들이 구입하여 사용하기에는 고가일 뿐만 아니라, 컨텐츠 또한 제한되어 활용성이 낮을 수 있다.
본 발명의 다양한 실시예는, 저렴하면서도 일상에서 편리하게 사용할 수 있는 입체 영상 장치 및/또는 그를 포함하는 전자 장치를 제공할 수 있다.
본 발명의 다양한 실시예에 따른 입체 영상 장치는, 디스플레이 패널 및/또는 전자 장치로부터 출력된 이미지를 공중에 결상함으로써, 사용자가 이미 보유한 전자 장치와는 다른 사용자 경험을 제공할 수 있다.
본 발명의 다양한 실시예에 따르면, 입체 영상 장치는,
디스플레이 패널을 포함하는 전자 장치를 거치하는 거치대;
상기 거치대의 일면에 배치되어, 상기 거치대에 거치된 상기 전자 장치의 디스플레이 패널에 대하여 경사지게 대면하는 하프 미러; 및
상기 거치대 상에서 상기 하프 미러에 대하여 경사지게 배치된 재귀 반사 부재를 포함할 수 있으며,
상기 하프 미러는, 상기 디스플레이 패널로부터 출력된 이미지(이하, '제1 출력 이미지')를 반사하여 상기 재귀 반사 부재로 입사시키고, 상기 재귀 반사 부재에 의해 반사된 이미지를 투과함으로써,
상기 제1 출력 이미지에 상응하는 이미지를 상기 하프 미러의 타측 공간에 결상(이하, '제1 공중 이미지')시킬 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는, 상기와 같은 입체 영상 장치의 일부 또는 전체를 포함할 수 있는데, 예를 들면,
전면과, 상기 전면에 대향하는(opposite) 후면과, 상기 전면과 후면 사이의 공간을 적어도 일부 감싸게 형성된 측벽을 포함하는 하우징;
상기 전면의 제1 영역에 배치된 제1 디스플레이 영역과, 상기 제1 디스플레이 영역으로부터 경사지게 연장되어 상기 하우징의 내부로 위치된 제2 디스플레이 영역을 포함하는 디스플레이 패널;
상기 전면의 제2 영역에 배치되며, 상기 제2 디스플레이 영역에 인접하는 하프 미러; 및
상기 하우징의 내부에서 상기 하프 미러에 대하여 경사지게 배치된 재귀 반사 부재를 포함할 수 있으며,
상기 하프 미러는, 상기 제2 디스플레이 영역으로부터 출력된 이미지(이하, '출력 이미지')를 반사하여 상기 재귀 반사 부재로 입사시키고, 상기 재귀 반사 부재에 의해 반사된 이미지를 투과함으로써,
상기 하우징의 외부 공간에서, 상기 출력 이미지에 상응하는 공중 이미지를 결상시킬 수 있다.
본 발명의 다양한 실시예에 따르면, 입체 영상 장치는,
차량용 대시 보드(dash board) 상에 또는 대시 보드 내에 장착된 디스플레이 패널; 및
적어도 일부 영역이 상기 대시 보드 상에 배치된 윈드 쉴드(wind shield)를 포함할 수 있으며,
상기 윈드 쉴드는, 상기 디스플레이 패널로부터 출력된 이미지를 반사하여, 상기 대시 보드 상에 공중 이미지를 결상시킬 수 있다.
본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 그를 포함하는 전자 장치는, 하프 미러와 재귀 반사 부재를 활용하여 디스플레이 패널(예: 평판형 또는 곡면형 디스플레이 패널)을 통해 출력되는 2차원 이미지를 공중에 결상되는 3차원 이미지로 변환할 수 있다. 예컨대, 하프 미러와 재귀 반사 부재만으로 저렴하게 제작될 수 있으며, 사용자에게는 새로운 경험을 제공할 수 있다. 다양한 실시예에 따르면, 입체 영상 장치 및/또는 전자 장치에 터치 패널이 탑재되어 있고, 터치 패널이 근접 터치 입력(예: 호버링(hovering))을 검출할 수 있는 영역 또는 공간에 이미지가 결상된다면, 입체 영상 장치 및/또는 그를 포함하는 전자 장치는 공중에 결상된 이미지를 통한 입력 장치를 구비할 수 있다. 다양한 실시예에 따르면, 터치 패널은 다른 형태의 센서(예: 초음파 센서, 적외선 센서)로 대체될 수 있으며, 이러한 센서와 공중에 결상된 이미지의 조합을 통해 입력 장치를 구성할 수 있다. 본 발명의 다양한 실시예에 따른 입체 영상 장치는, 이미지를 출력하는 전자 장치(예: 사용자가 이미 보유하고 있는 이동통신 단말기)와 조합되어 공중 이미지를 제공하는 등, 간편하게 사용 가능하고, 다양한 사용자 경험을 제공할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 전자 장치(및/또는 입체 영상 장치)를 나타내는 블록도이다.
도 2는 본 발명의 다양한 실시예 중 하나에 따른 전자 장치를 나타내는 사시도이다.
도 3은 본 발명의 다양한 실시예 중 하나에 따른 입체 영상 장치를 나타내는 사시도이다.
도 4는 본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 전자 장치의 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 전자 장치의 이미지 출력 예를 설명하기 위한 도면이다.
도 6은 본 발명의 다양한 실시예 중 다른 하나에 따른 입체 영상 장치 및/또는 전자 장치의 동작을 설명하기 위한 도면이다.
도 7은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치를 나타내는 사시도이다.
도 8은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치를 나타내는 평면 구성도이다.
도 9는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치를 나타내는 단면 구성도이다.
도 10은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치의 변형 예를 설명하기 위한 도면이다.
도 11은 본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 전자 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 12는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치를 나타내는 사시도이다.
도 13은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치를 나타내는 단면 구성도이다.
도 14는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치를 나타내는 사시도이다.
도 15는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치가 작동하는 모습을 나타내는 측면도이다.
도 16은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치가 접철된 모습을 나타내는 측면도이다.
도 17은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치를 나타내는 사시도이다.
도 18은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치를 나타내는 단면 구성도이다.
도 19는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치의 변형 예를 나타내는 단면 구성도이다.
도 20은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치를 나타내는 사시도이다.
도 21은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치를 나타내는 단면 구성도이다.
도 22는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 (입체 영상 장치를 포함하는) 전자 장치를 나타내는 단면 구성도이다.
도 23은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치를 나타내는 단면 구성도이다.
도 24a 및 도 24b는, 특정한(certain) 객체를 본 개시의 다양한 실시예들에 따른 전자 장치에 전송(다른 말로, 이동)하거나 상기 전자 장치를 통하여 실행하는 기능 또는 동작을 설명하기 위한 도면이다.
도 25a 및 도 25b는, 본 개시의 다양한 실시예들에 따른 전자 장치가 복수 개인 경우에, 특정한 객체를 상기 전자 장치에 전송 또는 특정한 객체를 상기 전자 장치를 통하여 실행하는 기능 또는 동작을 설명하기 위한 도면이다.
도 26a 내지 도 26c는, 본 개시의 다양한 실시예들에 따른 외부 전자 장치에 디스플레이 되는 위치 정보에 기초하여 특정한 객체를 전송/실행하는 동작 또는 기능을 설명하기 위한 도면이다.
도 27a 내지 도 27d는, 본 개시의 다양한 실시예들에 따른 입체 영상 장치 사이에서 특정한 객체를 전송/실행하는 동작 또는 기능을 설명하기 위한 도면이다.
도 28a 내지 도 28c는, 본 개시의 다양한 실시예들에 따른 공중 이미지가 3차원 핀치(pinch) 제스처를 통하여 확대/축소되는 동작 또는 기능을 설명하기 위한 예시 도면이다.
도 29a 및 도 29b는, 본 개시의 다양한 실시예들에 따른 공중 이미지를 3차원 스트레치(stretch) 제스처를 통하여 확대/축소하는 동작 또는 기능을 설명하기 위한 도면이다.
도 30a 및 도 30b는, 사용자의 3차원 터치 입력에 따라 결상면에 디스플레이 된 특정한 객체의 형상을 제어하는 동작 또는 기능을 설명하기 위한 도면이다.
도 31a 내지 도 31d는, 결상면에 디스플레이 된 공중이미지를 통하여 특정한 객체를 전송/실행하는 기능 또는 동작을 설명하기 위한 도면이다.
도 32는, 사용자로부터 획득된 3차원 제어 커맨드에 따라 입체 영상 장치를 제어하는 방법을 설명하기 위한 순서도이다.
도 33 및 도 34는 입체 영상 장치에 대한 사용자의 접근에 따른 입체 영상 장치 및 전자 장치를 제어하는 방법을 설명하기 위한 순서도이다.
이하, 본 개시의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다", "가질 수 있다", "포함한다" 또는 "포함할 수 있다" 등의 표현은 해당 특징(예:수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나" 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나" 또는 " A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
다양한 실시예에서 사용된 "제1", "제2", "첫째" 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 해당 구성요소들을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어(operatively or communicatively) coupled with/to)" 있다거나, "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "하는 능력을 가지는(having the capacity to)", "하도록 설계된(designed to)", "하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to) 것"만 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 개시의 실시예들을 배제하도록 해석될 수 없다.
본 개시의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 전자 장치는 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상 전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 스마트 안경, 머리 착용형 장치(head-mounted-device(HMD)), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트 미러, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에서, 전자 장치는 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™ 또는 구글 TV™, 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치 (internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 개시의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 전자 장치(10)를 나타내는 블록도이다.
도 1을 참조하면, 전자 장치(10)는, 후술할 실시예(들)의 전자 장치 및/또는 입체 영상 장치의 전체 또는 일부를 포함할 수 있다. 전자 장치(10)는 하나 이상의 프로세서(예: AP(application processor))(11), 통신 모듈(12), 가입자 식별 모듈(12g), 메모리(13), 센서 모듈(14), 입력 장치(15), 디스플레이(16), 인터페이스(17), 오디오 모듈(18), 카메라 모듈(19a), 전력 관리 모듈(19d), 배터리(19e), 인디케이터(19b), 및 모터(19c)를 포함할 수 있다.
프로세서(11)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(11)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(11)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(11)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서(11)는 도 1에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(12a))를 포함할 수도 있다. 프로세서(11) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈(12)은, 예를 들면, 셀룰러 모듈(12a), WiFi 모듈(12b), 블루투스 모듈(12c), GNSS 모듈(12d)(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈(12e) 및 RF(radio frequency) 모듈(12f)를 포함할 수 있다.
셀룰러 모듈(12a)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(12a)은 가입자 식별 모듈(예: SIM 카드)(12g)을 이용하여 통신 네트워크 내에서 전자 장치(10)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(12a)은 프로세서(11)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(12a)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈(12b), 블루투스 모듈(12c), GNSS 모듈(12d) 또는 NFC 모듈(12e) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(12a), WiFi 모듈(12b), 블루투스 모듈(12c), GNSS 모듈(12d) 또는 NFC 모듈(12e) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(12f)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(12f)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(12a), WiFi 모듈(12b), 블루투스 모듈(12c), GNSS 모듈(12d) 또는 NFC 모듈(12e) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
가입자 식별 모듈(12g)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(13)(예: 메모리(11c))는, 예를 들면, 내장 메모리(13a) 또는 외장 메모리(13b)를 포함할 수 있다. 내장 메모리(13a)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리(13b)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리(13b)는 다양한 인터페이스를 통하여 전자 장치(10)와 기능적으로 및/또는 물리적으로 연결될 수 있다.
센서 모듈(14)은, 예를 들면, 물리량을 계측하거나 전자 장치(10)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(14)은, 예를 들면, 제스처 센서(14a), 자이로 센서(14b), 기압 센서(14c), 마그네틱 센서(14d), 가속도 센서(14e), 그립 센서(14f), 근접 센서(14g), 컬러(color) 센서(14h)(예: RGB(red, green, blue) 센서), 생체 센서(14i), 온/습도 센서(14j), 조도 센서(14k), 또는 UV(ultra violet) 센서(14l) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈(14)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(14)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(10)는 프로세서(11)의 일부로서 또는 별도로, 센서 모듈(14)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(11)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(14)을 제어할 수 있다.
입력 장치(15)는, 예를 들면, 터치 패널(touch panel)(15a), (디지털) 펜 센서(pen sensor)(15b), 키(key)(15c), 또는 초음파(ultrasonic) 입력 장치(15d)를 포함할 수 있다. 터치 패널(15a)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(15a)은 제어 회로를 더 포함할 수도 있다. 터치 패널(15a)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(15b)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(15c)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(15d)는 마이크(예: 마이크(18d))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(16)는 패널(16a), 홀로그램 장치(16b), 또는 프로젝터(16c)를 포함할 수 있다. 패널(16a)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(16a)은 터치 패널(15a)과 하나의 모듈로 구성될 수도 있다. 예를 들어, 패널(16a)은 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(또는 포스 센서)를 포함할 수 있다. 상기 압력 센서는 터치 패널(15a)과 일체형으로 구현되거나, 또는, 터치 패널(15a)과는 별도의 하나 이상의 센서로 구현될 수 있다. 홀로그램 장치(16b)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(16c)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(10)의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 디스플레이(16)는 패널(16a), 홀로그램 장치(16b), 또는 프로젝터(16c)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스(17)는, 예를 들면, HDMI(high-definition multimedia interface)(17a), USB(universal serial bus)(17b), 광 인터페이스(optical interface)(17c), 또는 D-sub(D-subminiature)(17d)를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스(17)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(18)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(18)은, 예를 들면, 스피커(18a), 리시버(18b), 이어폰(18c), 또는 마이크(18d) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(19a)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈(19d)은, 예를 들면, 전자 장치(10)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(19d)은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(19e)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(19e)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(19b)는 전자 장치(10) 또는 그 일부(예: 프로세서(11))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(19c)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 전자 장치(10)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(11b))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(11c)가 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.
도 2는 본 발명의 다양한 실시예 중 하나에 따른 전자 장치(200)를 나타내는 사시도이다.
도 2를 참조하면, 상기 전자 장치(200)(예: 도 1의 전자 장치(10))는, 하프 미러(231), 재귀 반사 부재(233) 및/또는 디스플레이 패널(235)(예: 도 1의 디스플레이(16) 또는 패널(16a))을 포함할 수 있다.
상기 하프 미러(231)는, 입사된 이미지 및/또는 이미지의 광량 중 일부는 투과하고, 나머지 일부는 반사할 수 있다. 예를 들어, 상기 하프 미러(231)는 50%의 투과율과 50%의 반사율을 가질 수 있다. 한 실시예에서, 상기 하프 미러(231)는 상기 디스플레이 패널(235)에 대응하는 형상과 크기를 가질 수 있다.
상기 재귀 반사 부재(233)는, 예를 들면, 빛이 입사되면, 입사된 방향으로 빛을 다시 반사하는 부재로서, 쉬트(sheet) 또는 필름 형태로 제공될 수 있다. 상기 재귀 반사 부재(233)는 상기 하프 미러(231)의 일측에서, 상기 하프 미러(231)에 대하여 경사지게 배치될 수 있다. 예컨대, 상기 재귀 반사 부재(233)는 상기 하프 미러(231)에 대하여 경사진 상태로 상기 하프 미러(231)의 일면에 대면하게 배치될 수 있다.
상기 디스플레이 패널(235)은 이미지, 동영상 등을 출력(이하, '출력 이미지'라 함)할 수 있으며, 상기 하프 미러(231)의 일측에서 상기 하프 미러(231)에 대하여 경사지게 배치될 수 있다. 예컨대, 상기 디스플레이 패널(235)은 상기 하프 미러(231)에 대하여 경사진 상태로 상기 하프 미러(231)의 일면에 대면하게 배치될 수 있다.
다양한 실시예에 따르면, 상기 하프 미러(231), 재귀 반사 부재(233) 및/또는 디스플레이 패널(235)은 서로에 대하여 경사지게 배치될 수 있으며, 측면에서 볼 때 실질적으로 삼각형을 이루게 배치될 수 있다. 다른 실시예에서, 상기 재귀 반사 부재(233) 및/또는 상기 디스플레이 패널(235) 중 적어도 하나는 상기 하프 미러(231)에 대하여 45도 각도로 경사지게 배치될 수 있다. 상기 재귀 반사 부재(233)와 상기 디스플레이 패널(235)이 모두 상기 하프 미러(231)에 대하여 45도 각도로 경사지게 배치되어 있다면, 측면에서 볼 때, 상기 하프 미러(231), 재귀 반사 부재(233) 및/또는 디스플레이 패널(235)은 직각 이등변 삼각형을 이룰 수 있다.
한 실시예에서, 상기 하프 미러(231)는 상기 디스플레이 패널(235)의 출력 이미지(및/또는 출력 이미지의 광량) 중 일부를 반사하여 상기 재귀 반사 부재(233)로 입사시킬 수 있다. 상기 재귀 반사 부재(233)는, 입사된 출력 이미지(및/또는 출력 이미지의 광량)를 반사하여 다시 상기 하프 미러(231)로 입사시킬 수 있다. 상기 재귀 반사 부재(233)에 의해 반사된 출력 이미지(및/또는 출력 이미지의 광량)의 적어도 일부는 상기 하프 미러(231)를 투과하여 상기 하프 미러(231)의 타측 공간에 결상될 수 있다. 이하에서는, 상기 하프 미러(231)의 타측 공간에 결상된 이미지를 '공중 이미지'라 칭하기로 한다. 다양한 실시예에 따르면, 상기 공중 이미지는 상기 하프 미러(231)에 대하여, 상기 디스플레이 패널(235)과 대칭을 이루는 위치에 결상될 수 있다. 예컨대, 상기 공중 이미지의 결상면(S)(또는 영역)과, 상기 디스플레이 패널(235)의 결상면(또는 영역)이 상기 하프 미러(231)에 대하여 서로 대칭을 이루게 위치될 수 있다.
상기 하프 미러(231) 등에 의해 공중 이미지가 결상되는 구성 등에 관해서는 도 4 등을 통해 더 상세하게 살펴보게 될 것이다.
다양한 실시예에 따르면, 상기 전자 장치(200)는 하우징(201)을 더 포함할 수 있으며, 스피커 장치(예: 보이스코일 모터 방식 또는 압전 방식의 스피커 장치)를 내장한 음향 장치(예: 오디오)일 수 있다. 상기 하우징(201)은, 상기 하프 미러(231), 재귀 반사 부재(233) 및/또는 디스플레이 패널(235) 중 적어도 하나를 수용할 수 있다.
상기 하우징(201)은, 내장된 스피커 장치에 대응하도록 전면에 배치된 다공성 부재(211)를 포함할 수 있다. 예컨대, 스피커 장치가 발생시킨 음향은 상기 다공성 부재(211)를 통해 외부로 출력될 수 있다. 어떤 실시예에서, 스피커 장치가 압전 방식의 구조일 경우, 상기 하우징(201)은 다공성 부재(211)를 포함하지 않을 수 있다. 한 실시예에서, 상기 하프 미러(231)는 상기 하우징(201)의 상면에 배치되고, 상기 재귀 반사 부재(233)와 디스플레이 패널(235)은 상기 하우징(201)의 내부로 수용될 수 있다. 예컨대, 상기 공중 이미지가 결상되는 면(S) 및/또는 영역(공간)은 상기 하우징(201)의 외부(예: 상부)에 위치될 수 있다.
한 실시예에서, 상기 전자 장치(200)는, 음악 파일 재생, 라디오 방송 수신 등의 기능이 탑재된 음향 장치일 수 있다. 상기 전자 장치(200)는 상기 디스플레이 패널(235)을 통해 재생, 정지, 되감기, 빨리감기 등의 기능을 나타내는 이미지를 출력할 수 있다. 다른 실시예에서, 상기 디스플레이 패널(235)은 상기 전자 장치(200)의 작동 모드(예: 재생 모드 또는 방송 모드) 전환 기능을 나타내는 이미지를 출력할 수 있다. 또 다른 실시예에서, 상기 전자 장치(200)가 음악을 재생하고 있다면, 상기 디스플레이 패널(235)은 재생 중인 음악 파일에 관한 각종 정보(예: 가수, 앨범 타이틀, 재생 중인 음악의 제목 등)를 나타내는 이미지를 출력할 수 있다. 앞서 언급한 바와 같이, 상기 디스플레이 패널(235)이 출력하는 이러한 이미지는 상기 하우징(201) 상부의 결상면(S)에 결상될 수 있다.
다양한 실시예에 따르면, 상기 전자 장치(200)는, 상기 하우징(201)에 배치된 제1 센서(213)를 포함할 수 있다. 상기 제1 센서(213)는, 근접 센서나 조도 센서(예: 도 1의 근접 센서(14g)나 조도 센서(14k))와 같이 상기 전자 장치(200)의 작동 환경을 검출하는 센서일 수 있으며, 예를 들면, 상기 전자 장치(200) 및/또는 상기 하우징(201) 상에 형성된 공중 이미지에 대한 사용자의 위치를 검출할 수 있다. 한 실시예에서, 상기 제1 센서(213)를 통해 검출된 정보에 기반하여 상기 전자 장치(200)의 주변에 사용자가 없다고 판단되면, 상기 전자 장치(200)(예: 도 1의 프로세서(11))는, 상기 디스플레이 패널(235)을 통해 재생 중인 음악 파일에 관한 정보 또는 수신된 방송 채널이나 프로그램에 관한 정보를 출력할 수 있다. 다른 실시예에서, 상기 제1 센서(213)를 통해 검출된 정보에 기반하여 상기 전자 장치(200) 가까이에 사용자가 접근했다고 판단되면, 상기 전자 장치(200)(예: 도 1의 프로세서(11))는, 상기 디스플레이 패널(235)을 통해 음악 파일 재생을 위한 기능을 나타내는 이미지 또는 작동 모드 전환 기능을 나타내는 이미지를 출력할 수 있다.
앞서 언급한 바와 같이, 상기 디스플레이 패널(235)을 통해 출력된 이미지는, 상기 하프 미러(231)에 대하여 대칭으로 위치된 결상면(S)(결상 영역 및/또는 결상 공간)에 공중 이미지로 결상되어 사용자가 시각적으로 인지할 수 있다. 예컨대, 상기 하프 미러(231)와 재귀 반사 부재(233)를 이용하여 저렴하게 입체 영상을 제공하는 장치를 제공할 수 있으며, 2차원 이미지를 공중 이미지 또는 3차원 이미지로 변환할 수 있다. 한 실시예에 따르면 공중결상 이미지의 시인성(시각적으로 확인하기 좋게 또는 표시할 원본이미지와 유사하게 표시하기 위해) 개선을 위해 이미지 프로세싱을 거쳐서 가공하여 출력할 수도 있다. 예를 들면, 이미지 프로세싱을 거쳐 가공함으로써, 공중 이미지의 컨트라스트 증가, 굵기 조정, 밝기보상, 색깔보상 등을 할 수 있으며, 이러한 이미지 프로세싱에서는 다양한 종류의 이미지 효과필터가 사용될 수 있다.
한 실시예에서, 상기 전자 장치(200)는 제2 센서(215)(예: 도 1의 제스처 센서(24a))를 더 포함할 수 있다. 예를 들어, 상기 제2 센서(215)는 적외선 센서나 초음파 센서를 포함할 수 있으며, 상기 결상면(S)(결상 영역 및/또는 결상 공간)에서의 물체 움직임 등을 검출할 수 있다. 다양한 실시예에 따르면, 상기 전자 장치(200)는 상기 결상면(S)(결상 영역 및/또는 결상 공간)에 결상된 공중 이미지와 상기 제2 센서(215)가 조합되어 이루어진 입력 장치를 구비할 수 있다. 예컨대, 상기 결상면(S)에 음악 재생 기능을 나타내는 이미지가 결상되어 있다면, 상기 제2 센서(215)는 해당 이미지에 대응하는 위치로 물체(예: 사용자의 손가락)가 진입하는지 여부를 검출하고, 물체의 진입 여부에 따라 상기 전자 장치(200)(예: 도 1의 프로세서(11))해당 이미지가 나타내는 기능을 실행할 수 있다. 다른 실시예에서, 상기 제2 센서(215)는 대체로 비활성화된 상태를 유지하며, 상기 제1 센서(213)가 상기 전자 장치(200)에 사용자가 접근한 것을 감지했을 때 활성화될 수 있다.
다양한 실시예에 따르면, 상기 제1 센서(213) 및/또는 상기 제2 센서(215)는 적어도 하나의 이미지 센서를 구비하는 카메라(예: 도 1의 카메라 모듈(19a)을 더 포함할 수 있다. 상기 전자 장치(200)는, 예를 들면, 배터리 레벨 등 작동 상태에 따라, 상기 제1 센서(213) 및/또는 상기 제2 센서(215)를 모두 사용하거나, 소모 전력이 낮은 센서를 선택적으로 사용할 수 있다.
상술한 바와 같이, 본 발명의 다양한 실시예에 따른 전자 장치(200)는, 작동 환경을 검출하는 센서(예: 상술한 제1 센서(213)) 등을 더 포함함으로써, 사용자의 접근 여부 등에 따라 상기 디스플레이 패널(235)을 통해 출력되는 이미지 또는 상기 결상면(S)에 결상되는 이미지 등을 전환할 수 있다. 다른 실시예에서, 상기 전자 장치(200)는 상기 결상면(S)에 결상된 공중 이미지와 조합된 센서(예: 상술한 제2 센서(215))를 이용하여 공중 이미지에 접근 또는 접촉하는 것을 검출하여 입력 신호를 발생시키거나 그에 대응하는 기능 및/또는 어플리케이션을 실행시킬 수 있다.
도 3은 본 발명의 다양한 실시예 중 하나에 따른 입체 영상 장치(300)를 나타내는 사시도이다.
본 실시예에 따른 입체 영상 장치(300)는, 디스플레이 패널(335)을 포함하는 전자 장치(30)(예: 이동통신 단말기)를 거치할 수 있으며, 상기 전자 장치(30)의 디스플레이 패널(335)을 통해 출력되는 이미지를 공중 이미지로 변환, 결상시킬 수 있다.
도 3을 참조하면, 상기 입체 영상 장치(300)는, 하프 미러(331)와 재귀 반사 부재(333)를 포함할 수 있다. 상기 하프 미러(331)와 재귀 반사 부재(333)는 도 2를 통해 도시된 실시예를 통해 살펴본 바 있으므로, 본 실시예에서 그 상세한 설명을 생략하기로 한다.
한 실시예에서, 상기 입체 영상 장치(300)는 상기 재귀 반사 부재(333)를 내부에 수용한 하우징(301)을 포함할 수 있으며, 상기 하프 미러(331)는 상기 하우징(301)의 상면에 장착되어 상기 재귀 반사 부재(333)와 경사진 상태로 마주보게 배치될 수 있다. 상기 하우징(301)의 측면에는 개구(315)가 형성될 수 있는데, 상기 전자 장치(30)가 상기 개구(315)를 통해 상기 하우징(301)의 내부로 거치될 수 있다. 예컨대, 상기 전자 장치(30)는, 상기 하프 미러(331) 및/또는 상기 재귀 반사 부재(333)와 경사진 상태로 마주보게 배치될 수 있다.
다른 실시예에서, 상기 전자 장치(30)가 상기 하우징(301)의 내부에 거치된 상태에서, 상기 디스플레이 패널(335)을 통해 출력되는 이미지는 상기 하우징(301)의 상부의 공간, 예를 들면, 결상면(S)에 결상될 수 있다. 상기 결상면(S)에 결상된 이미지는, 상기 하우징(301)의 내부에 거치된 상기 전자 장치(30)의 디스플레이 패널(335)과 대칭을 이루게, 예를 들어, 상기 하프 미러(331)에 대하여 대칭을 이루게 배치될 수 있다. 한 실시예에서, 상기 전자 장치(30)를 거치함에 있어 사용자의 편의성이나, 상기 입체 영상 장치(300)의 외관 등을 고려하여, 상기 입체 영상 장치(300)는, 하우징(301)의 상면에 형성된 돌출부(319)를 포함할 수 있으며, 상기 하프 미러(331)는 상기 돌출부(319)에 배치되어 상기 하우징(301)의 상면 또는 전면에 대하여 경사지게 배치될 수 있다.
상기 전자 장치(30)는 블루투스 등 근거리 무선 통신이나 데이타 케이블 등을 통해 상기 입체 영상 장치(300)와 데이터를 송수신할 수 있다. 예를 들어, 상기 전자 장치(30)가 멀티미디어 재생 모드로 동작하고 있으며, 상기 전자 장치(30)로부터 출력되는 음향 신호는 상기 입체 영상 장치(300)로 제공되어 상기 입체 영상 장치(300)에 내장된 스피커 장치를 작동시켜 음향을 출력할 수 있다. 상기 하우징(301)의 전면에는 음향을 방출할 수 있는 다공성 부재(311) 등이 배치될 수 있다.
한 실시예에서, 상기 디스플레이 패널(335)에는 터치 패널(예: 도 1의 터치 패널(25a))이 통합되어 있을 수 있다. 예컨대, 상기 디스플레이 패널(335)은 입력 장치로도 활용될 수 있다. 상기 터치 패널이 근접 터치 입력(예: 호버링)을 검출할 수 있고, 상기 결상면(S)이 상기 터치 패널로의 근접 터치 입력(예: 호버링)이 가능한 영역 내에 위치하고 있다면, 상기 결상면(S)에 결상된 이미지와 상기 터치 패널의 조합을 통해 입력 장치가 형성될 수 있다.
다른 실시예에서, 상기 입체 영상 장치(300)는, 상기 입체 영상 장치(300)의 작동 환경 등을 검출하는 센서(313)를 포함할 수 있다. 상기 센서(313)는, 예를 들어, 상기 입체 영상 장치(300)에 사용자가 접근하는지 여부 등을 검출할 수 있으며, 검출된 정보를 상기 전자 장치(30)로 전달할 수 있다. 상기 센서(313) 등이 검출한 정보는, 예를 들어, 데이타 케이블 등의 유선 방식 또는 블루투스 등의 무선 방식으로 상기 전자 장치(30)에 제공될 수 있다.
다양한 실시예에 따르면, 상기 입체 영상 장치(300)는 상기 전자 장치(30)의 도킹 스테이션으로서 활용될 수 있다. 예컨대, 상기 입체 영상 장치(300)는 상기 전자 장치(30)의 음향 성능을 향상시키거나 충전 기능을 제공하는 등, 상기 전자 장치(30)의 보조 장치로서 활용될 수 있다. 앞서 언급한 바와 같이, 상기 입체 영상 장치(300)는 무선 방식 및/또는 유선 방식으로 상기 전자 장치(30)와 데이터를 송수신할 수 있다. 한 실시예에서, 상기 입체 영상 장치(300)가 제공하는 충전 기능은 무선 방식 및/또는 유선 방식으로 이루어질 수 있다. 예컨대, 상기 입체 영상 장치(300)에는 무선 전력 송신 기능이 탑재될 수 있으며, 무선 전력 수신 기능이 탑재된 전자 장치는 상기 입체 영상 장치(300)에 거치되어 배터리를 충전할 수 있다.
다른 실시예에서, 상기 입체 영상 장치(300)와 상기 전자 장치(30)의 조합은 도 2에 도시된 전자 장치(200)와 동일한 기능을 수행할 수 있다. 예컨대, 사용자의 접근 여부에 따라, 출력 이미지(및/또는 공중 이미지)를 전환할 수 있다. 다른 실시예에서, 상기 입체 영상 장치(300)와 상기 전자 장치(30)의 조합은, 공중 이미지가 결상된 영역(예: 상기 결상면(S))에 사용자(또는 사용자의 신체)가 접근하는 것을 검출하여 입력 신호를 발생시키거나, 지정된 기능 또는 어플리케이션을 실행시킬 수 있다. 사용자 또는 사용자의 신체가 접근하는 것을 검출하는 센서는, 상기 디스플레이 패널(225)에 탑재된 터치 패널로 이루어질 수 있다. 다른 실시예에서, 사용자 또는 사용자의 신체가 접근하는 것을 검출하는 센서는, 상기 하우징(301)에 장착되는 초음파 센서나 적외선 센서(예: 도 2의 제2 센서(215))를 포함할 수 있다.
본 발명의 구체적인 실시예에서, 입체 영상 장치나 전자 장치는 음향을 출력하거나 충전 기능을 제공하는 예 등이 개시되어 있으나, 본 발명이 이에 한정될 필요는 없다. 예를 들어, 본 발명의 다양한 실시예에 따른 입체 영상 장치는, 전자레인지, 세탁기, 냉장고, 전기 오븐 등의 가전 제품에 장착될 수 있다. 통상적으로 가전 제품에는 사용자가 해당 제품의 설정을 조정할 수 있는 조작 패널이 설치되어 있는데, 본 발명의 다양한 실시예에 따른 입체 영상 장치를 장착하여, 추가의 조작 패널을 제공하거나 통상적인 조작 패널을 대체할 수 있다. 한 실시예에서, 가전 제품에 탑재된 입체 영상 장치는 가전 제품의 작동 상태를 나타내는 공중 이미지를 형성할 수 있다. 예를 들어, 전자레인지의 잔여 가동 시간, 세탁기의 작동 단계, 냉장고의 현재 온도, 전기 오븐의 작동 온도 등이 본 발명의 다양한 실시예에 따른 입체 영상 장치에 의해 공중 이미지로 제공될 수 있다.
도 4는 본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 전자 장치(400)의 동작을 설명하기 위한 도면이다.
도 4를 참조하면, 본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 전자 장치(400)는 하프 미러(431), 재귀 반사 부재(433) 및/또는 디스플레이 패널(435)을 포함할 수 있다. 상기 재귀 반사 부재(433) 및/또는 디스플레이 패널(435)은 상기 하프 미러(431)의 일측에서, 상기 하프 미러(431)에 대하여 경사지게 배치될 수 있다. 한 실시예에서, 상기 하프 미러(431), 재귀 반사 부재(433) 및/또는 디스플레이 패널(435)은, 측면에서 볼 때, 서로에 대하여 경사진 상태로 마주보게 배치될 수 있다. 예를 들어, 상기 하프 미러(431), 재귀 반사 부재(433) 및/또는 디스플레이 패널(435)은, 측면에서 볼 때, 실질적으로 삼각형을 이루게 배치될 수 있다.
다양한 실시예에 따르면, 상기 디스플레이 패널(435)은 상기 입체 영상 장치 및/또는 전자 장치(400)의 일부(예: 도 2에 도시된 실시예)이거나 상기 입체 영상 장치 및/또는 전자 장치(400)에 착탈 가능하게 제공(예: 도 3에 도시된 실시예)될 수 있다. 간결함을 위하여, 이하의 본 실시예에 대한 상세한 설명에서는 상기 입체 영상 장치 및/또는 전자 장치(400)에 대하여 참조번호 '400'을 병기하여 '전자 장치'라 칭하기로 한다.
도 4는, 상기 디스플레이 패널(435)에서 출력된 이미지의 진행 경로를 'OI'로, 상기 재귀 반사 부재(433)에 의해 반사된 이미지의 진행 경로를 'RI'로 각각 나타내고 있다. 상기 디스플레이 패널(435)은, 출력 이미지가 상기 하프 미러(431)로 입사되도록 배치될 수 있다. 상기 디스플레이 패널(435)이 출력하는 이미지 또는 광은 상기 하프 미러(431)로 입사될 수 있다. 상술한 바와 같이, 상기 하프 미러(431)는 입사된 출력 이미지 및/또는 출력 이미지의 광량 중 일부는 투과하고 나머지 일부는 반사할 수 있다. 상기 하프 미러(431)에 의해 반사된 출력 이미지는, 상기 재귀 반사 부재(433)로 입사될 수 있다. 상기 재귀 반사 부재(433)는 입사된 출력 이미지를 반사하여 다시 상기 하프 미러(431)로 입사시킬 수 있다. 앞서 언급한 바와 같이, 상기 재귀 반사 부재(433)는 입사된 방향으로 빛을 다시 반사함으로써, 상기 재귀 반사 부재(433)에 의해 반사된 이미지는 실질적으로, 상기 하프 미러(431)에 의해 반사된 출력 이미지의 진행 경로에 대하여 역방향으로 진행할 수 있다.
다양한 실시예에 따르면, 상기 재귀 반사 부재(433)에 의해 반사된 이미지 및/또는 반사된 이미지의 광량 중 일부 또는 전체가 상기 하프 미러(431)를 투과하여 상기 하프 미러(431)의 타측 영역(또는 공간)에 공중 이미지를 결상, 형성할 수 있다. 한 실시 예에서, 상기 공중 이미지의 결상면(S)(결상 영역 및/또는 결상 공간)은, 상기 하프 미러(431)에 대하여, 상기 디스플레이 패널(435)(또는 디스플레이 패널의 결상면)과 대칭을 이루게 위치될 수 있다.
다양한 실시예에 따르면, 상기 결상면(S)이 고정된 위치에 있다면, 사용자가 바라보는 위치에 따라 공중 이미지의 크기 등이 다르게 보일 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는, 사용자의 위치를 검출하는 센서(413)를 더 포함할 수 있으며, 상기 센서(413)를 통해 검출되는 사용자의 위치에 대응하도록 상기 하프 미러(431)에 대한 상기 디스플레이 패널(435)의 위치 및/또는 경사각을 조절할 수 있다. 한 실시예에서, 상기 디스플레이 패널(435)은, 상기 하프 미러(431)에 인접하는 일단 측에 제공된 회동축(H)을 중심으로 회동함으로써, 상기 하프 미러(431)에 대한 경사각이 조절될 수 있다. 도시되지는 않지만, 상기 전자 장치(400)는 상기 디스플레이 패널(435)을 회동시키기는 구동 장치(예: 스텝 모터, 서보 모터 등)를 더 포함할 수 있다.
예를 들어, 사용자가 'UP1'으로 지시된 위치에 있을 때, 상기 디스플레이 패널(435)은 상기 하프 미러(431)에 대하여 대략 45도 각도로 경사진 제1 위치(DP1)에 배치될 수 있다. 상기 제1 위치(DP1)에서 상기 디스플레이 패널(435)이 이미지를 출력하면, 상기 하프 미러(431)에 대하여 상기 제1 위치(DP1)에 대칭하는 제1 결상 위치(AP1)에 공중 이미지가 형성될 수 있다.
사용자가 'UP2'로 지시된 위치로 이동함을 상기 센서(413)가 검출하면, 상기 전자 장치(400)(예: 도 1의 프로세서(11))는 상기 디스플레이 패널(435)을 회동시켜 제2 위치(DP2)로 배치할 수 있다. 상기 제2 위치(DP2)에서, 상기 디스플레이 패널(435)은, 예를 들면, 상기 하프 미러(431)에 대하여 대략 30도 각도로 경사지게 위치할 수 있다. 사용자가 'UP3'로 지시된 위치로 이동함을 상기 센서(413)가 검출하면, 상기 전자 장치(400)(예: 도 1의 프로세서(11))는 상기 디스플레이 패널(435)이 제3 위치(DP3)로 이동하도록 회동시킬 수 있다. 상기 제3 위치(DP3)에서, 상기 디스플레이 패널(435)은, 예를 들면, 상기 하프 미러(431)에 대하여 대략 60도 각도로 경사지게 위치할 수 있다.
동일한 이미지일지라도, 사용자의 시선 방향에 따라 그 크기나 형상이 다르게 보일 수 있다. 상기와 같은, 본 발명의 다양한 실시예에 따른 전자 장치(400)는, 사용자의 위치를 검출하여 그 위치에 적합한 공중 이미지를 형성할 수 있다. 본 발명의 구체적인 실시예에서는, 설명의 간결함을 위해, 상기 하프 미러(431)에 대한 상기 디스플레이 패널(435)의 경사각을 조절하는 구성이 예시되고 있지만, 본 발명이 이에 한정될 필요는 없다. 예컨대, 상기 디스플레이 패널(435)에 대하여 상기 하프 미러(431)가 회동하거나, 상기 재귀 반사 부재(433)가 회동하게 설정될 수 있다. 다양한 실시예에 따르면, 상기 디스플레이 패널(435)의 회동축(예: 상기 회동축(H))은 복수로 제공될 수 있으며, 상기 센서(413)를 통해 검출된 사용자의 위치에 따라, 상기 디스플레이 패널(435)은 복수의 회동축들 중 선택된 적어도 하나의 회동축을 중심으로 회동할 수 있다.
도 5는 본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 전자 장치의 이미지 출력 예를 설명하기 위한 도면이다.
도 4에 도시된 실시예에서는, 사용자의 위치에 따라 디스플레이 패널 등의 경사각을 조절하여 사용자 위치에 적합한 공중 이미지를 형성하는 예를 살펴본 바 있다. 도 5를 더 참조하면, 상기 디스플레이 패널(435)은 일정 위치(예: 'DP1'으로 지시된 위치)에 고정될 수 있으며, 상기 디스플레이 패널(435)에서 출력되는 이미지를 조절하여, 사용자 위치에 적합한 공중 이미지를 형성할 수 있다.
예를 들어, 상기 디스플레이 패널(435)이 상기 하프 미러(431)에 대하여 대략 45도 각도로 경사지게 위치되어 있고(예: 도 4의 'DP1'으로 지시된 위치), 사용자가 제1 위치(예: 도 4의 'UP1'으로 지시된 위치)에 있다면, 상기 공중 이미지는 출력 이미지와 동일한 크기로 형성될 수 있다. 상기 디스플레이 패널(435)은 'DP1'으로 지시된 위치에 고정되므로, 상기 공중 이미지의 결상면(S)은 제1 결상 위치(AI1)에 고정될 수 있다.
사용자가 'UP2'로 지시된 제2 사용자 위치로 이동하면, 상기 제1 결상 위치(AI1)에 형성된 공중 이미지는 제1 사용자 위치(UP1)에서 볼 때보다 더 작아 보일 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치(400)는 상기 센서(413)를 통해 사용자의 위치 변화를 검출하고, 상기 제2 사용자 위치(UP2)에서도 제1 사용자 위치(UP1)에서 볼 때와 동일한 크기의 공중 이미지를 볼 수 있도록, 출력 이미지를 확대할 수 있다.
사용자가 'UP3'으로 지시된 제3 사용자 위치로 이동하면, 상기 제1 결상 위치(AI1)에 형성된 공중 이미지는 제1 사용자 위치(UP1)에서 볼 때보다 더 크게 보일 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치(400)는 상기 센서(413)를 통해 사용자의 위치 변화를 검출하고, 제3 사용자 위치(UP3)에서도 제1 사용자 위치(UP1)에서 볼 때와 동일한 크기의 공중 이미지를 볼 수 있도록, 출력 이미지를 축소할 수 있다.
상술한 바와 같이, 본 발명의 다양한 실시예에 따른 전자 장치(400)는, 사용자의 위치에 따라 출력 이미지를 확대하거나 축소하여 공중 이미지를 조절함으로써, 사용자의 위치에 적합한 공중 이미지를 제공할 수 있다. 본 발명의 구체적인 실시예에서, 출력 이미지의 확대/축소를 통해 공중 이미지를 조절하는 단순한 예를 개시하고 있지만, 본 발명이 이에 한정될 필요는 없다. 예를 들어, 사용자의 위치에 따라 출력 이미지의 좌측과 우측의 확대/축소 비율(또는 상측과 하측의 확대/축소 비율)을 달리하여, 출력 이미지가 확대/축소될 수 있다.
도 6은 본 발명의 다양한 실시예 중 다른 하나에 따른 입체 영상 장치 및/또는 전자 장치(600)의 동작을 설명하기 위한 도면이다.
본 발명의 다양한 실시예에 따르면, 상기 입체 영상 장치 및/또는 전자 장치(600)는 제2 재귀 반사 부재(633b)를 더 포함할 수 있다. 간결함을 위하여, 이하의 본 실시예에 대한 상세한 설명에서는 상기 입체 영상 장치 및/또는 전자 장치(600)에 대하여 참조번호 '600'을 병기하여 '전자 장치'라 칭하기로 한다.
상술한 실시예의 하프 미러(예: 도 4의 하프 미러(431))는, 입사된 빛 또는 이미지의 일부 광량은 투과하고 나머지 광량을 반사할 수 있다. 하프 미러에 의해 반사되거나 하프 미러를 투과한 이미지 및/또는 이미지의 광량의 일부는, 공중 이미지의 결상에 기여하지 못하고 손실될 수 있다. 예컨대, 결상된 공중 이미지의 해상도는 디스플레이 패널이 출력하는 이미지의 해상도보다 낮을 수 있다. 본 실시예에 따른 전자 장치(600)는, 상기 제2 재귀 반사 부재(633b)를 활용하여, 하프 미러에 의한 광량의 손실을 적어도 일부 보상할 수 있다.
도 6을 참조하면, 상기 제2 재귀 반사 부재(633b)는 하프 미러(631)를 사이에 두고 디스플레이 패널(635)과 마주보게 배치될 수 있다. 예컨대, 상기 디스플레이 패널(635)은 제1 재귀 반사 부재(633a)와 함께 상기 하프 미러(631)의 일측에 위치되고, 상기 제2 재귀 반사 부재(633b)는 상기 하프 미러(631)의 타측에 배치될 수 있다.
상기 디스플레이 패널(636)로부터 출력된 이미지(OI) 및/또는 이미지의 광량 일부(OI1)는 상기 하프 미러(631)에 의해 반사되며, 나머지 일부(TR1)는 상기 하프 미러(631)를 투과할 수 있다. 출력 이미지(OI) 중 상기 하프 미러(631)에 의해 반사된 이미지 및/또는 광량(OI1)은 상기 제1 재귀 반사 부재(633a)로 입사하여 반사될 수 있다. 상기 제1 재귀 반사 부재(633a)에 의해 반사된 이미지 및/또는 광량(RI1) 중 일부 또는 전체는 상기 하프 미러(631)를 투과하여 상기 하프 미러(631) 타측의 공간에 위치된 결상면(S)(결상 영역 및/또는 결상 공간)에 공중 이미지를 형성할 수 있다.
출력 이미지 및/또는 광량의 나머지 일부, 예컨대, 상기 출력 이미지(OI) 중 상기 하프 미러(631)를 투과한 이미지 및/또는 광량(TR1)은 상기 제2 재귀 반사 부재(633b)에 의해 반사되어, 상기 하프 미러(631)로 입사할 수 있다. 상기 제2 재귀 반사 부재(633b)에 의해 반사된 이미지 및/또는 광량(RI2) 중 일부또는 전체는 상기 하프 미러(631)에 의해 반사되어 상기 결상면(S)에서 공중 이미지를 형성할 수 있다. 예컨대, 상기 전자 장치(600)는, 상기 제1 재귀 반사 부재(633a)에 의해 반사된 이미지 및/또는 광량(RI1)의 일부 또는 전체와, 상기 제2 재귀 반사 부재(633b)에 의해 반사된 이미지 및/또는 광량(RI2)의 일부 또는 전체를 조합하여 상기 결상면(S)에 공중 이미지를 형성할 수 있다.
상술한 바와 같이, 본 발명의 다양한 실시예에 따른 전자 장치(600)는, 상기 제2 재귀 반사 부재(633b)를 더 포함함으로써, 상기 출력 이미지(OI) 중 상기 하프 미러(631)를 투과한 이미지 및/또는 광량(TR1)의 일부 또는 전체가 공중 이미지를 결상하는데 기여할 수 있다. 예컨대, 상기 제2 재귀 반사 부재(633b)를 포함하는 전자 장치(600)는 상기 하프 미러(631)의 투과 또는 반사에 의한 이미지 및/또는 광량의 손실을 보상할 수 있다.
도 7은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치(700)를 나타내는 사시도이다. 도 8은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치(700)를 나타내는 평면 구성도이다. 도 9는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치(700)를 나타내는 단면 구성도이다.
도 7 내지 도 9를 참조하면, 상기 전자 장치(700)는 하우징(701)의 상부에 공중 이미지를 결상할 수 있다. 한 실시예에서, 상기 하우징(701)의 상면 대부분은 하프 미러(731)로 이루어질 수 있으며, 상기 하프 미러(731)의 가장자리를 따라 센서(713)가 배치되어 사용자의 위치, 또는, 공중 이미지가 형성된 영역에서 물체의 움직임 등을 검출할 수 있다.
상기 하우징(701)은 원통형 실린더 형상을 가질 수 있으며, 그의 내부에는 적어도 하나의 디스플레이 패널(735)과 재귀 반사 부재(733)가 배치될 수 있다. 상기 재귀 반사 부재(733)는 원추(cone), 다각뿔, 원뿔대 또는 각뿔대 형상을 가질 수 있으며, 복수의 상기 디스플레이 패널(735)이 상기 재귀 반사 부재(733)의 둘레에 배치될 수 있다. 상기 디스플레이 패널(735)과 상기 재귀 반사 부재(733)의 외주면은 대체로 상기 하프 미러(731)에 대하여 경사지게 배치될 수 있다. 한 실시예에서, 상기 디스플레이 패널(735)에서 출력된 이미지는 상기 하프 미러(731)와 재귀 반사 부재(373)에 의해 순차적으로 반사된 후, 상기 하프 미러(731)를 투과하여 상기 하우징(701)의 상부에 공중 이미지를 형성할 수 있다. 상기 공중 이미지의 결상면(S)은, 상기 하프 미러(731)에 대하여 상기 디스플레이 패널(735)과 대칭을 이루게 위치될 수 있다.
다양한 실시예에 따르면, 상기 재귀 반사 부재(733)의 외주면이 곡면으로 형성된 바, 상기 디스플레이 패널(735)의 출력 이미지와 상기 결상면(S)에 형성된 공중 이미지가 다를 수 있다. 예컨대, 상기 디스플레이 패널(735)의 출력 이미지가 평면 형태로 보인다면, 상기 결상면(S)은 곡면 형태를 가질 수 있다. 상술한 실시예에서는, 사용자의 위치 등에 따라 출력 이미지를 조절하여 사용자에게 보여지는 공중 이미지를 조절할 수 있음을 살펴본 바 있다. 한 실시예에서, 상기 재귀 반사 부재(733)의 반사면이 곡면 형태임을 고려하여, 상기 디스플레이 패널(735)을 통해 출력되는 이미지를 부분적으로 확대/축소함으로써, 상기 결상면(S)에 형성되는 공중 이미지는 평면 형태를 가질 수 있다.
한 실시예에서, 상기 센서(713)는 상기 하우징(701)에 대한 사용자의 위치 또는 상기 결상면(S)(결상 영역 또는 결상 공간)에서 물체의 움직임 등을 검출하여, 상기 전자 장치(700)의 작동 모드, 상기 결상면(S)에 결상된 공중 이미지 등을 전환할 수 있다.
도 10은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치(700a)의 변형 예를 설명하기 위한 도면이다.
본 실시예에 따른 전자 장치(700a)는 도 7 내지 도 9에 도시된 실시예의 변형 예로서, 선행 실시예를 통해 용이하게 이해할 수 있는 구성에 대해서는 그 참조번호를 동일하게 부여하거나 생략하고 그 상세한 설명 또한 생략될 수 있다.
도 10을 참조하면, 상기 전자 장치(700a)의 디스플레이 패널(735a)은 일부분 또는 전체에 곡면부를 포함할 수 있다. 예를 들어, 상기 디스플레이 패널(735a)은 곡면형 디스플레이 패널일 수 있다. 상기 디스플레이 패널(735a)의 곡면, 곡률 등은 상기 재귀 반사 부재(735)의 사양(예: 높이, 외주면 경사각, 외주면 곡률 등)과, 하우징(701)의 상부에 결상하고자 하는 공중 이미지의 형태 등을 고려하여 적절하게 설계될 수 있다.
도 11은 본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 전자 장치의 동작 방법(1100)을 설명하기 위한 흐름도이다.
본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 그를 포함하는 전자 장치의 동작 방법(1100)은, 사용자의 위치 등, 작동 환경에 따라 공중 이미지를 갱신할 수 있다. 도 11을 참조하면, 상기 동작 방법(1100)은, 공중 이미지를 결상하고, 공중 이미지가 결상된 상태에서 사용자의 위치 변화에 따라 결상된 공중 이미지를 갱신할 수 있다.
한 실시예에서, 1101 동작은, 입체 영상 장치에 디스플레이 패널을 장착하는 동작으로서, 예를 들면, 이동통신 단말기가 하프 미러, 재귀 반사 부재 등이 탑재된 하우징(또는 거치대)에 장착될 수 있다. 다른 실시예에서, 입체 영상 장치에 디스플레이 패널이 배치되어 있다면, 상기 1101 동작은 생략될 수 있다.
이하의 상세한 설명에서는, 디스플레이 패널이 입체 영상 장치 및/또는 전자 장치에 장착된 것을 전제로, 도 2를 함께 참조하여 상기 동작 방법(1100)에 관해 살펴보기로 한다.
다양한 실시예에 따르면, 1102 동작은, 공중 이미지를 형성, 결상하는 동작으로서, 상기 전자 장치(200)가 활성화되면, 상기 디스플레이 패널(235)로부터 이미지가 출력될 수 있다. 출력 이미지는 하프 미러(231)와 재귀 반사 부재(233)에 의해 순차적으로 반사된 후 다시 상기 하프 미러(231)를 투과하여 상기 전자 장치(200)의 상부에 공중 이미지를 형성할 수 있다. 상기 공중 이미지의 결상면(S)(결상 영역 및/또는 결상 공간)는 상기 하프 미러(231)에 대하여 상기 디스플레이 패널(235)과 대칭을 이루게 위치할 수 있다. 상기 결상면(S)에 형성된 공중 이미지는, 상기 전자 장치(200)의 작동 모드에 관한 정보, 현재의 작동 모드에서 실행/전환할 수 있는 기능이나 어플리케이션에 관한 정보, 재생 중인 음악 파일에 관한 정보, 수신된 방송 채널 및 방송 프로그램에 관한 정보 등을 포함할 수 있다.
한 실시예에서, 공중 이미지가 결상된 후, 상기 전자 장치(200)는, 필요에 따라 상기 공중 이미지를 조정하는 1121 동작을 수행할 수 있다. 상기 1121 동작은, 상기 전자 장치(200)가 활성화된 후, 처음 공중 이미지를 형성했을 때에 작동할 수 있다. 다른 실시예에서, 상기 전자 장치(200)가 작동하는 동안, 상기 결상면(S)에 형성된 공중 이미지가 변경, 전환되었을 때, 상기 1121 동작은 선택적으로 수행될 수 있다.
다양한 실시예에 따르면, 상기 1102 동작 및/또는 상기 1121 동작 후, 예를 들어, 상기 결상면(S)에 공중 이미지가 결상된 후, 상기 전자 장치(200)는 1103 동작을 수행함으로써 상기 제1 센서(213)를 통해 사용자의 위치 변화(예: 상기 전자 장치(200)로의 접근, 상기 전자 장치(200)에 인접한 영역에서의 이동 등)을 감시할 수 있다. 상기 제1 센서(213)를 통해 검출된 정보에 기반하여 판단할 때 사용자의 위치 변화가 없다면, 상기 전자 장치(200)는 1104 동작을 수행함으로써, 상기 디스플레이 패널(235)을 통해 출력되는 이미지의 현재 출력 상태를 유지할 수 있다.
상기 1103 동작에서 상기 제1 센서(213)를 통해 검출된 정보에 기반하여 판단할 때 사용자의 위치가 변화되었다면, 상기 전자 장치(200)는 1105 동작을 수행함으로써, 상기 제1 센서(213)를 통해 상기 전자 장치(200)에 대한 사용자의 상대적인 위치 등에 관한 정보를 취득할 수 있다.
상기 1105 동작에서 취득된 정보에 따라, 상기 전자 장치(200)는 1106 동작을 수행하여, 상기 결상면(S)에 결상된 공중 이미지를 갱신할 수 있다. 예컨대, 재생 중인 음악 파일에 관한 정보가 공중 이미지를 통해 표시되는 상태에서, 상기 전자 장치(200)로 사용자가 접근하면, 상기 전자 장치(200)는 상기 1105 동작을 수행하여, 음악 재생에 필요한 기능 키 등의 이미지나 작동 모드를 전환하는 기능 키의 이미지로 공중 이미지를 형성할 수 있다. 상기 결상면(S)에 형성된 공중 이미지가 각종 기능 키의 이미지를 반영하고 있다면, 상기 제2 센서(215)가 활성화되어 상기 공중 이미지가 형성된 영역(예: 상기 결상면(S)) 내의 물체 이동 등을 감시할 수 있다.
다른 실시예에서, 상기 전자 장치(200)는 상기 1103 동작을 수행함에 있어 상기 제2 센서(215)를 통해 공중 이미지가 형성된 영역(예: 상기 결상면(S))에서 물체(예: 사용자의 손가락 등)의 접근, 진입, 이동 등을 감시할 수 있다. 상기 제2 센서(215)를 통해 검출되는 물체의 이동 등에 관한 정보에 기반하여, 상기 전자 장치(200)는 상기 결상면(S)에 형성된 공중 이미지를 갱신하는 등, 상기 1105 동작과 1106 동작을 수행할 수 있다. 또 다른 실시예에 따르면, 상기 제2 센서(215)를 통해 검출되는 물체의 이동 등에 관한 정보에 기반하여, 상기 전자 장치(200)는 작동 모드를 변경하거나, 지정된 기능 및/또는 어플리케이션을 실행할 수 있다.
상기 1103 동작, 1105 동작, 1106 동작으로 이어지는 동작은, 상기 전자 장치(200)의 작동 모드에 따라 다양할 수 있다. 예컨대, 방송 수신 모드로 작동하는 상태에서 사용자가 상기 전자 장치(200)에 접근하면, 상기 전자 장치(200)는, 방송 채널이나 방송 프로그램 정보를 상기 결상면(S)의 일부 영역에 공중 이미지로 제공하면서, 상기 결상면(S)의 다른 영역에는 방송 채널 전환, 작동 모드 전환 등에 관련된 기능 키의 공중 이미지를 제공할 수 있다. 어떤 실시예에서, 공중 이미지의 적어도 일부에 기능 키의 이미지가 반영되지 않은 상태에서는 상기 제2 센서(215)가 아직 활성화되지 않을 수 있으며, 사용자가 접근한 것을 검출하여 상기 전자 장치(200)가 공중 이미지의 적어도 일부에 기능 키의 이미지를 반영함과 동시에 상기 제2 센서(215)가 활성화될 수 있다.
한 실시예에 따르면, 디스플레이 패널이 포함된 전자 장치가 거치되는 입체 영상 장치(예: 도 3의 입체 영상 장치)에서, 디스플레이 패널을 포함하는 전자 장치가 터치 패널, 근접 센서, 카메라 모듈 등을 더 포함하고 있다면, 터치 패널, 근접 센서, 카메라 모듈 중 적어도 하나가 상기 제1 센서(213) 및/또는 제2 센서(215)의 기능을 수행할 수 있다.
본 발명의 다양한 실시예에 따른 입체 영상 장치와 그를 포함하는 전자 장치 및/또는 그의 동작은, 상술한 실시예에 의해 한정될 필요는 없다. 예컨대, 디스플레이 패널이 포함되었는지의 여부, 디스플레이 패널이 별도의 전자 장치(예: 이동통신 단말기)에 탑재되고 이러한 전자 장치가 터치 패널 등을 포함하는지의 여부, 입체 영상 장치 및/또는 전자 장치에 탑재된 기능(또는 어플리케이션)의 종류 등에 따라, 본 발명의 다양한 실시예에 따른 입체 영상 장치와 그를 포함하는 전자 장치 및/또는 그의 동작은 다양할 수 있다.
도 12는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치(1200)를 나타내는 사시도이다.
도 12를 참조하면, 상기 입체 영상 장치(1200)는, 디스플레이 패널(예: 도 3의 디스플레이 패널(335))이 포함된 전자 장치(30)를 수용, 거치할 수 있는 안착 홈(1211)을 포함할 수 있으며, 상면의 일부가 하프 미러(1231)로 제공될 수 있다. 예컨대, 상기 입체 영상 장치(1200)의 하우징(1201)은 상기 전자 장치(30)를 거치하는 거치대로 활용될 수 있으며, 상기 하우징(1201)의 내부에는 재귀 반사 부재(1233)가 상기 하프 미러(1231)에 대하여 경사진 상태로 상기 하프 미러(1231)의 내측면과 마주보게 배치될 수 있다. 상기 전자 장치(30)가 상기 안착 홈(1211)에 배치되면, 상기 전자 장치(30)의 디스플레이 패널의 적어도 일부는 상기 하프 미러(1231)의 내측면에 경사진 상태로 마주보게 위치할 수 있다.
상기 안착 홈(1211)에 배치된 상태에서, 상기 전자 장치(30)의 디스플레이 패널이 활성화되면, 상기 하프 미러(1231)의 외측면 상에서, 상기 전자 장치(30)의 디스플레이 패널이 출력하는 이미지가 공중 이미지로 결상될 수 있다. 다양한 실시예에 따르면, 상기 입체 영상 장치(1200)는 무선 전력 송신 기능을 포함할 수 있으며, 상기 전자 장치(30)가 무선으로 전력을 수신할 수 있다면, 상기 안착 홈(1211)에 배치되는 것만으로 상기 전자 장치(30)의 배터리가 충전될 수 있다.
한 실시예에서, 상기 전자 장치(30)는 데이터 케이블과 같은 유선 방식 또는 블루투스 등의 무선 방식으로 상기 입체 영상 장치(1200)와 데이터를 송수신할 수 있다. 예를 들어, 상기 입체 영상 장치(1200)는, 결상면(S)에서의 물체 움직임 등을 검출하는 센서(1215)를 포함할 수 있는데, 상기 센서(1215)로부터 검출되는 물체의 움직임 등에 관한 정보는 유선 및/또는 무선 통신을 통해 상기 전자 장치(30)로 제공되어, 상기 센서(1215)로부터 검출된 정보에 기반하여 상기 전자 장치(30)는 작동 모드를 전환하거나 상기 출력 이미지 및/또는 공중 이미지를 갱신할 수 있다.
다른 실시예에서, 상기 입체 영상 장치(1200)는 스피커 장치를 내장할 수 있으며, 상기 전자 장치(30)에 의해 재생되는 음악 등 멀티미디어 파일의 음향 신호를 제공받아 음향을 출력할 수 있다. 상기 입체 영상 장치(1200)를 통해 음향이 출력되는 동안, 상기 전자 장치(30)는 디스플레이 패널을 통해 재생 중인 멀티미디어 파일에 관한 정보 등을 출력할 수 있으며, 상기 결상면(S)에는 상기 전자 장치(30)의 디스플레이 패널의 출력 이미지에 대응하는 공중 이미지가 결상될 수 있다.
또 다른 실시예에서, 상기 공중 이미지가 결상되는 영역(예: 상기 결상면(S))은, 상기 전자 장치(30)의 디스플레이 패널에 통합된 터치 패널이 근접 터치 입력(예: 호버링)을 검출할 수 있는 범위 이내에 위치할 수 있다. 예컨대, 상기 결상면(S)에 형성된 공중 이미지에 접촉하는 모양으로 사용자가 손가락 등을 일정 시간 이상 유지한다면, 상기 전자 장치(30)은 근접 터치 입력(예: 호버링)을 인식하고 그에 대응하는 기능이나 어플리케이션을 실행할 수 있다.
도 13은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치(1300)를 나타내는 단면 구성도이다.
도 13을 참조하면, 상기 전자 장치(1300)는 차량 내부의 대시 보드(dashboard)(D)의 일부 및/또는 전체를 형성할 수 있다. 도시되지는 않지만, 상기 대시 보드(D)의 내측에는 속도계, RPM 게이지, 연료 게이지 및 차량의 상태 정보 등을 표시하는 정보창이 배치될 수 있다. 상기와 같은 정보창의 전면에는 보호 창(protective window)이 배치될 수 있는데, 상기 전자 장치(1300)는 하프 미러(1331)로 상기 보호 창을 형성할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치(1300)는 재귀 반사 부재(1333)와 디스플레이 패널(1335)을 포함할 수 있다. 예를 들어, 상기 하프 미러(1331)의 내측에는 재귀 반사 부재(1333)와 디스플레이 패널(1335)이 각각 서로에 대하여 및/또는 상기 하프 미러(1331)의 내측면에 대하여 경사지게 배치될 수 있다. 한 실시예에서, 상기 재귀 반사 부재(1333)는 속도계와 RPM 게이지 사이의 영역, 속도계와 연료 게이지 사이의 영역 등 임의의 위치에 배치되어, 상기 하프 미러(1331)에 의해 반사된 이미지 및/또는 광량을 반사하여 다시 상기 하프 미러(1331)로 입사시킬 수 있다. 다른 실시예에서, 차량의 상태 정보(예: 엔진 오일 점검 램프, 엔진 점검 램프, 배터리 점검 램프 등)은 상기 디스플레이 패널(1335)을 통해 출력되는 이미지로 대체될 수 있다.
상기 디스플레이 패널(1335)은 차량 운행에 관련된 다양한 정보들을 이미지 형태로 출력할 수 있다. 예를 들어, 잔여 연료량 및 그에 대응한 주유소 위치/가격 정보, 사용자가 입력한 목적지 도착 예정 시간에 관한 정보, 목적지에 이르는 경로 및 진행 정보, 각종 교통 상황 등의 정보를 출력할 수 있다. 상기 디스플레이 패널(1335)을 통해 출력된 이미지는, 상기 하프 미러(1331)의 내측면에서 반사되어 상기 재귀 반사 부재(1333)로 입사하며, 상기 재귀 반사 부재(1333)는 입사된 이미지 및/또는 광량을 다시 반사하여 상기 하프 미러(1331)로 입사시킬 수 있다. 상기 하프 미러(1331)는 상기 재귀 반사 부재(1333)에 의해 반사된 이미지 및/또는 광량의 적어도 일부를 투과하여, 상기 하프 미러(1331)의 타측면 상의 공간(예: 결상면(S))에 공중 이미지를 형성할 수 있다. 한 실시예에서, 상기 결상면(S)은, 상기 하프 미러(1331)에 대하여, 상기 디스플레이 패널(1335)과 대칭을 이루게 위치할 수 있다.
도 14는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치(1400)를 나타내는 사시도이다. 도 15는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치(1400)가 작동하는 모습을 나타내는 측면도이다. 도 16은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치(1400)가 접철된 모습을 나타내는 측면도이다.
도 14 내지 도 16을 참조하면, 본 발명의 다양한 실시예에 따른 입체 영상 장치(1400)는, 디스플레이 패널(1435)을 포함하는 전자 장치(30)에 착탈 가능하게 제공된 보호 커버의 형태를 가질 수 있다. 예를 들어, 상기 입체 영상 장치(1400)는, 커버 부재(1411), 제1 플립 커버(1413), 제2 플립 커버(1415)를 포함할 수 있다.
한 실시예에서, 상기 커버 부재(1411)는, 상기 전자 장치(30)의 후면(예: 상기 디스플레이 패널(1435)이 장착된 면과 대향하는 면)에 착탈 가능하게 제공될 수 있다. 예를 들어, 상기 커버 부재(1411)는 상기 전자 장치(30)의 측면 및/또는 후면 각각의 적어도 일부를 감싸게 결합함으로써, 외부 충격 등으로부터 상기 전자 장치(30)를 보호할 수 있다.
상기 제1 플립 커버(1413)는 상기 커버 부재(1411)의 일측에 회동 가능하게 결합되며, 상기 제1 플립 커버(1413)의 일부 및/또는 전체가 하프 미러(1431)로 이루어질 수 있다. 상기 커버 부재(1411)가 상기 전자 장치(30)에 결합한 상태에서, 상기 제1 플립 커버(1413)는 상기 커버 부재(1411)에 대하여 회동하면서, 상기 전자 장치(30)의 전면(예: 상기 디스플레이 패널(1435))을 개폐할 수 있다. 상기 제1 플립 커버(1413)가 상기 전자 장치(30)의 전면을 폐쇄한 상태에서도, 상기 디스플레이 패널(1435)을 통해 출력되는 이미지의 적어도 일부는 상기 하프 미러(1431)를 통해 외부로 보여질 수 있다.
상기 제2 플립 커버(1415)는 상기 제1 플립 커버(1413)의 타단에 회동 가능하게 결합되어, 상기 제1 플립 커버(1413)의 내측면에 마주보게 접철되거나, 상기 제1 플립 커버(1413)의 내측면으로부터 멀어진 위치로 회동할 수 있다. 다양한 실시예에 따르면, 상기 제2 플립 커버(1415)의 일부 및/또는 전체가 재귀 반사 부재(1433)일 수 있다. 한 실시예에서, 상기 재귀 반사 부재(1433)는 상기 제2 플립 커버(1415)의 내측면에 부착된 쉬트 및/또는 필름일 수 있다. 다른 실시예에서, 상기 제1 플립 커버(1413)가 상기 전자 장치(30)의 전면을 폐쇄한 상태에서, 상기 제2 플립 커버(1415)는 상기 전자 장치(30)와 상기 제1 플립 커버(1411) 사이에 접철될 수 있다. 예컨대, 상기 제1 플립 커버(1413)(및/또는 상기 하프 미러(1431))는 상기 제2 플립 커버(1415)(및/또는 재귀 반사 부재(1433))를 사이에 두고 상기 디스플레이 패널(1435)과 마주보게 접철될 수 있다.
다양한 실시예에 따르면, 상기 제2 플립 커버(1415)(및/또는 재귀 반사 부재(1433))는 타단이 상기 커버 부재(1411)의 타측에 지지, 고정될 수 있다. 예를 들어, 도 15에 도시된 바와 같이, 상기 제2 플립 커버(1415)가 상기 제1 플립 커버(1413)의 내측면에서 멀어지게 회동한 상태에서, 그의 타단이 상기 전자 장치(30)의 일측 및/또는 상기 커버 부재(1411)의 일측에 지지될 수 있다. 상기 제2 플립 커버(1415)(및/또는 재귀 반사 부재(1433))가 상기 커버 부재(1411)의 타측에 지지, 고정됨에 따라, 상기 제1 플립 커버(1413)(및/또는 하프 미러(1431))는 상기 디스플레이 패널(1435)에 대하여 경사지게 배치될 수 있다.
상기 제1 플립 커버(1413)(및/또는 하프 미러(1431))가 상기 디스플레이 패널(1435)에 대하여 경사지게 배치되고, 상기 제2 플립 커버(1415)(및/또는 재귀 반사 부재(1433))가 상기 커버 부재(1411)의 타측에 위치한 상태에서, 상기 입체 영상 장치(1400)(예: 상기 전자 장치(30)의 보호 커버)는 상기 디스플레이 패널(1435)을 통해 출력되는 이미지를 상기 제1 플립 커버(1413)의 외측 공간 상에 공중 이미지로 형성할 수 있다. 상기 공중 이미지는, 상기 전자 장치(30)의 작동 모드 등에 따라 다양할 수 있다. 예를 들어, 상기 전자 장치(30)가 대기 모드인 상태라면 날짜, 시간, 날씨 등에 관한 정보가 공중 이미지로 제공될 수 있으며, 대기 모드에서 메시지 등이 수신되면 수신된 메시지의 내용이 공중 이미지로 제공될 수 있다. 다른 실시예에 따르면, 상기 전자 장치(30)가 멀티미디어 파일을 재생 중이라면, 멀티미디어 파일의 제작자, 제목 등의 정보 또는 멀티미디어 파일에 포함된 동영상 등이 공중 이미지로 제공될 수 있다. 한 실시예에서, 상기 공중 이미지는, 상기 하프 미러(1431)에 대하여, 상기 디스플레이 패널(1435) 및/또는 상기 디스플레이 패널(1435)이 이미지를 출력하는 영역과 대칭을 이루는 위치에 형성될 수 있다.
다양한 실시예에 따르면, 상기 디스플레이 패널(1435)은 터치 패널이 통합된 터치 스크린일 수 있다. 상기 디스플레이 패널(1435)에 터치 패널이 통합되어 있고, 상기 제1 플립 커버(1413)의 외측에 결상된 공중 이미지가 일정 범위 이내에서 형성된다면, 상기 전자 장치(30)는 상기 디스플레이 패널(1435)(예: 터치 패널)과 공중 이미지의 조합을 이용하여 근접 터치 입력(예: 호버링) 기능을 포함할 수 있다. 다른 실시예에서, 상기 전자 장치(30)에 별도의 조명 장치가 더 제공되어 있다면, 상기 조명 장치는 공중 이미지의 일부분을 더 밝게 비출 수 있다. 예를 들어, 공중 이미지의 일부 영역에 대한 근접 터치 입력(예: 호버링)이 가능하게 설정되어 있다면, 조명 장치를 이용하여 근접 터치 입력(예: 호버링)이 가능한 영역을 더 밝게 비출 수 있다.
다양한 실시예에 따르면, 상기와 같은 입체 영상 장치(1400) 및/또는 전자 장치의 입력 기능, 작동 모드 전환 기능 등은, 공중 이미지와 입체 영상 장치 및/또는 전자 장치에 제공된 각종 센서 등의 조합을 통해 제공될 수 있다. 예를 들어, 상기 전자 장치(30)에 카메라 모듈이 탑재되어 있다면, 공중 이미지가 결상된 상태에서, 상기 카메라 모듈은 사용자의 접근 여부, 상기 전자 장치(30) 및/또는 결상된 공중 이미지에 대한 사용자의 상대적인 위치 변화 등을 감지하여, 출력 이미지의 확대/축소 등에 필요한 기초 정보를 제공할 수 있다.
도 17은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치(1700)를 나타내는 사시도이다. 도 18은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치(1700)를 나타내는 단면 구성도이다.
도 17과 도 18을 참조하면, 본 발명의 다양한 실시에 중 또 다른 하나에 따른 입체 영상 장치(1700)는, 거치대(1701), 하프 미러(1702), 재귀 반사 부재(1703)를 포함할 수 있다.
한 실시예에서, 상기 거치대(1701)는, 디스플레이 패널(43)을 포함하는 전자 장치(40)를 거치하는 공간, 예를 들면, 슬롯(1711)을 제공할 수 있으며, 적어도 하나의 센서(1713)를 포함할 수 있다. 상기 센서(1713)는 예를 들면, 카메라 모듈, 적외선 센서, 근접 센서, 조도 센서 중 적어도 하나를 포함할 수 있으며, 상기 거치대(1701) 상에서 다양한 위치에 각각 배치될 수 있다. 어떤 실시예에서, 상기 센서(1701)(들)는 상기 거치대(1701)에 대한 사용자의 위치나 사용자의 동작 등을 검출할 수 있으며, 검출된 사용자 위치 정보 등을 상기 전자 장치(40)로 제공할 수 있다. 예를 들어, 상기 거치대(1701) 상에서 사용자의 신체 일부(예: 손가락)이 제1 위치에서 제2 위치로 이동했다면, 상기 센서(1713)(들)가 이러한 동작을 검출하여 상기 전자 장치(40)로 제공할 수 있으며, 상기 전자 장치(40)는 수신된 정보(예: 사용자의 신체 일부의 동작에 관한 정보)에 기반하여 설정된 명령을 실행할 수 있다. 다른 실시예에서, 상기 입체 영상 장치(1701) 및/또는 상기 거치대(1701)는 무선 전력 송신 기능을 제공할 수 있으며, 상기 거치대(1701)에 거치되는 전자 장치가 무선 전력 수신 기능이 탑재되어 있다면, 상기 거치대(1701)를 통해 배터리 등을 충전할 수 있다.
어떤 실시예에서, 상기 전자 장치(40)의 디스플레이 패널(43)은 하우징(41)의 전면으로 배치될 수 있으며, 적어도 일부, 예컨대, 적어도 일측의 가장자리 부분은 곡면 영역(C)을 포함할 수 있다. 한 실시예에서, 상기 전자 장치(40)는 상기 하우징(41)에 장착된 윈도우 부재를 더 포함할 수 있으며, 상기 디스플레이 패널(43)은 상기 윈도우 부재의 내측면에 통합될 수 있다. 하지만, 본 발명의 구체적인 실시예에서, 별도로 언급하지 않는다면, 상기 디스플레이 패널(43)은 윈도우 부재를 포함할 수 있다. 다른 실시예에서, 상기 곡면 영역(C)은 상기 전자 장치(40) 및/또는 상기 하우징(41)의 측면 일부를 형성할 수 있다. 상기 하우징(41)의 전면에서, 상기 디스플레이 패널(43)의 일측에는, 카메라 모듈(45), 근접 센서, 조도 센서(47) 등이 배치될 수 있다. 예컨대, 사용자가 실제 사용 중일 때, 상기 전자 장치(40) 및/또는 상기 디스플레이 패널(43)의 사용 환경 등을 검출하기 위한 센서들(예: 상기 카메라 모듈(45), 근접 센서, 조도 센서(47))이 상기 디스플레이 패널(43)의 주변에 배치될 수 있다. 어떤 실시예에서, 상기 디스플레이 패널(43)에는 터치 패널이 통합됨으로써, 상기 디스플레이 패널(43)의 화면 영역 내에서 가상의 키패드나 각종 어플리케이션 등을 나타내는 이미지나 아이콘이 출력될 수 있으며, 사용자는 이러한 이미지 또는 아이콘에 접촉하는 등의 동작을 통해 원하는 기능이나 명령을 실행할 수 있다. 이외에도, 상기 전자 장치(40)는 키패드, 마이크로 폰, 스피커 폰 등 다양한 입출력 장치들을 포함할 수 있으나, 그에 대한 상세한 설명은 생략하기로 한다.
다양한 실시예에 따르면, 상기 하프 미러(1702)는 상기 거치대(1701)의 한 면, 예를 들면, 상면에 장착될 수 있다. 상기 전자 장치(40)가 상기 슬롯(1711)에 거치되었을 때, 상기 디스플레이 패널(43)은 상기 하프 미러(1702)에 대하여 경사지게 위치할 수 있다. 상기 하프 미러(1702)는 입사되는 빛의 일부를 투과하며, 다른 일부는 반사할 수 있다.
다양한 실시예에 따르면, 상기 재귀 반사 부재(1703)는 상기 거치대(1701) 상에서, 예를 들면, 내부에서, 상기 하프 미러(1702)에 대하여 경사지게 배치될 수 있으며, 빛의 입사 방향으로 입사된 빛을 반사할 수 있다. 예컨대, 상기 재귀 반사 부재(1703)로의 빛의 입사 방향과, 상기 재귀 반사 부재(1703)에 의해 반사된 빛이 진행하는 방향은 적어도 부분적으로 평행할 수 있다. 어떤 실시예에서, 상기 재귀 반사 부재(1703)는 상기 디스플레이 패널(43)에 대하여 경사지게 배치될 수 있다. 예컨대, 상기 재귀 반사 부재(1703)와, 상기 슬롯(1711)에 거치된 상기 전자 장치(40)의 디스플레이 패널(43)은 서로에 대하여, 및/또는, 상기 하프 미러(1702)에 대하여 각각 경사지게 배치될 수 있다.
다양한 실시예에 따르면, 상기 하프 미러(1702)의 일측에서, 상기 디스플레이 패널(43)로부터 출력된 이미지(이하, '제1 출력 이미지'라 함)는, 상기 하프 미러(1702)에 의해 반사되어 상기 재귀 반사 부재(1703)로 입사할 수 있다. 상기 재귀 반사 부재(1703)는 입사된 빛(예: 상기 디스플레이 패널(43)의 제1 출력 이미지)을 반사하여 상기 하프 미러(1702)로 입사시킬 수 있으며, 상기 재귀 반사 부재(1703)로부터 상기 하프 미러(1702)로 입사된 빛은 상기 하프 미러(1702)를 투과하여 상기 하프 미러(1702)의 타측에서 제1 공중 이미지를 결상할 수 있다. 한 실시예에서, 상기 제1 공중 이미지는, 상기 하프 미러(1702)에 대하여 상기 디스플레이 패널(43)과 대칭을 이루게 결상될 수 있다.
다양한 실시예에 따르면, 상기 거치대(1701), 예를 들면, 상기 슬롯(1711)에 상기 전자 장치(40)가 거치되었을 때, 상기 전자 장치(40)의 적어도 일부는 외부로 노출될 수 있다. 예를 들어, 상기 전자 장치(40)가 상기 슬롯(1711)에 거치되었을 때, 적어도 상기 디스플레이 패널(43)의 곡면 영역(C)이 외부로 노출될 수 있다. 예를 들어, 상기 전자 장치(40)가 상기 슬롯(1711)에 거치되었을 때, 상기 곡면 영역(C)은 상기 하프 미러(1702)에 인접하게 및/또는 상기 제1 공중 이미지가 결상되는 결상면(S) 및/또는 결상 영역에 인접하게 노출될 수 있다. 상기 디스플레이 패널(43)에 터치 패널이 통합되어 있다면, 상기 거치대(1701)에 거치된 상태에서도, 상기 거치대(1701)의 외부로 노출된 영역(예: 상기 곡면 영역(C))에서 사용자는 다양한 터치 입력을 할 수 있다. 사용자의 입력 동작에 따라 상기 제1 출력 이미지가 변환될 수 있으며, 상기 제1 공중 이미지도 상기 제1 출력 이미지에 따라 변환될 수 있다.
한 실시예에서, 상기 입체 영상 장치(1700)는, 상기 센서(1713)(들)를 통해, 상기 거치대(1701) 주변에서 사용자의 이동 및/또는 상기 제1 공중 이미지 결상면(S)(및/또는 결상 영역)에서 사용자의 동작을 검출할 수 있다. 사용자의 동작 등에 관한 정보는 상기 전자 장치(40)로 제공될 수 있다. 예컨대, 상기 입체 영상 장치(1700)는 유선 방식 또는 블루투스나 NFC 등의 무선 방식으로 상기 전자 장치(40)와 접속되어, 상기 거치대(1701) 주변에서의 사용자 동작 등을 검출하여 상기 전자 장치(40)로 제공할 수 있다. 상기 센서(1713)(들)은 상기 제1 공중 이미지의 결상면(S)에서, 상기 제1 공중 이미지에 대한 사용자의 터치(touch), 푸시(push), 핀치(pinch), 드래그(grag), 그립(grip), 스트레치(stratch), 픽 앤드 드롭(pick and drop), 드로우(throw), 리프트(lift), 폭(poke) 등의 동작 및/또는 상기에 나열한 동작들 중 적어도 2개가 조합된 동작을 검출할 수 있다. 상기 전자 장치(40)는 사용자의 동작에 대응하는 명령 또는 어플리케이션 등을 내장할 수 있으며, 상기 입체 영상 장치(1700)로부터 제공되는 정보(예: 사용자의 동작에 관한 정보)에 기반하여, 그에 대응하는 명령 또는 어플리케이션을 실행할 수 있다.
도 19는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치(1900)의 변형 예를 나타내는 단면 구성도이다.
도 19에 도시된 입체 영상 장치(1900)는, 디스플레이 장치(1904)를 더 포함하는 구성에서 선행 실시예와 차이가 있을 수 있다. 따라서 본 실시예를 설명함에 있어, 선행 실시예를 통해 용이하게 이해할 수 있는 구성에 대해서는 도면의 참조번호를 선행 실시예와 동일하게 부여하거나 생략하고, 그 상세한 설명 또한 생략될 수 있다.
도 19를 참조하면, 상기 입체 영상 장치(1900)는 전자 장치(40)가 거치되는 슬롯(1711)에 인접하도록 장착된 상기 디스플레이 장치(1904)를 포함할 수 있다. 상기 디스플레이 장치(1904)는, 일측이 하프 미러(1702)에 인접하게, 타측이 재귀 반사 부재(1703)에 인접하게 각각 배치되며, 상기 하프 미러(1702) 및/또는 상기 재귀 반사 부재(1703)에 대하여 각각 경사지게 배치될 수 있다. 상기 디스플레이 장치(1904)로부터 출력된 이미지(이하, '제2 출력 이미지'라 함)는 상기 하프 미러(1702)에 의해 반사되어 상기 재귀 반사 부재(1703)로 입사되며, 상기 재귀 반사 부재(1703)는 입사된 이미지를 다시 상기 하프 미러(1702)로 반사할 수 있다. 상기 하프 미러(1702)는 상기 재귀 반사 부재(1703)에 의해 반사된 이미지를 투과하여 상기 하프 미러(1702)의 타측 공간, 예를 들면, 상기 입체 영상 장치(1900)의 외부 공간에 결상할 수 있다. 이하에서는, 상기 제2 출력 이미지에 상응하여, 상기 하프 미러(1702)의 타측 공간에 결상된 이미지를 '제2 공중 이미지'라 칭하기로 한다.
다양한 실시예에 따르면, 상기 슬롯(1711)에 전자 장치(40)가 거치되었을 때, 상기 디스플레이 장치(1904)는 상기 전자 장치(40)의 디스플레이 패널(43)과 중첩하게 배치될 수 있다. 한 실시예에서, 상기 디스플레이 장치(43)는 상기 디스플레이 패널(43)로부터 출력된 제1 출력 이미지를 적어도 일부 투과시킬 수 있다. 예컨대, 상기 제1 출력 이미지는 상기 하프 미러(1702)와 상기 재귀 반사 부재(1703)에 의해 순차적으로 반사되어, 상기 하프 미러(1702)를 다시 투과함으로써, 상기 하프 미러(1702)의 타측 공간에 제1 공중 이미지로 결상될 수 있다. 사용자의 시선(E)에서 볼 때, 상기 제1 공중 이미지와 상기 제2 공중 이미지는 적어도 부분적으로 중첩할 수 있다. 여기서, '중첩한다'라 함은, 사용자가 볼 때, 상기 제1 공중 이미지와 상기 제2 공중 이미지가 각각 표시되는 영역이 적어도 부분적으로 겹치면서,
1) 상기 제1 공중 이미지와 상기 제2 공중 이미지 각각의 결상면(S, S1)이 일치하거나,
2) 상기 제1 공중 이미지와 상기 제2 공중 이미지 각각의 결상면(s, S1)이 사용자의 눈으로부터 서로 다른 거리에 있음을 의미할 수 있다.
다양한 실시예에 따르면, 상기 제1 공중 이미지 및/또는 상기 제2 공중 이미지는, 상기 전자 장치(40)에 내장된 명령 또는 어플리케이션을 의미를 내포하는 이미지 또는 아이콘을 포함할 수 있으며, 사용자는 상기 제1 공중 이미지 및/또는 상기 제2 공중 이미지의 결상면(S, S1)(및/또는 결상 영역)에서 다양한 동작을 할 수 있다. 예를 들어, 사용자는 상기 제1 공중 이미지 및/또는 상기 제2 공중 이미지에 포함된 아이콘 등을 터치하거나, 그립/스트레치하거나, 픽 앤드 드롭하는 등의 동작을 할 수 있다. 한 실시예에서, 상기 입체 영상 장치(1900)는 거치대(1701)에 설치된 다양한 센서(예: 도 17의 센서(1713))들을 통해 상기와 같은 사용자의 동작을 검출하여 상기 전자 장치(40)로 제공할 수 있다. 상기 전자 장치(40)는 상기 입체 영상 장치(1900)로부터 제공되는 정보에 기반하여, 사용자의 동작에 상응하는 명령 또는 어플리케이션 등을 실행할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치(40)가 상기 슬롯(1711)에 거치되었을 때, 터치 패널이 통합된 상기 디스플레이 패널(43)의 일부 영역(예: 상술한 곡면 영역(C))은 상기 하프 미러(1702)의 일측에 인접하게 노출될 수 있다. 사용자는 상기 곡면 영역(C)을 직접 조작(예: 터치, 드래그, 핀치 등)하여 상기 전자 장치(40)에 내장된 명령이나 어플리케이션을 실행할 수 있다. 상기 제1 공중 이미지 및/또는 상기 제2 공중 이미지의 결상면(S, S1)에서의 사용자 동작이나, 상기 곡면 영역(C)에서의 사용자 조작에 따라, 상기 디스플레이 장치(1904) 및/또는 상기 디스플레이 패널(43)을 통해 출력되는 이미지(예: 상기 제1 출력 이미지 및/또는 제2 출력 이미지)가 변환될 수 있다. 상기 제1 출력 이미지 및/또는 제2 출력 이미지가 변환되면, 그에 상응하는 상기 제1 공중 이미지 및/또는 제2 공중 이미지도 변환될 수 있다.
한 실시예에서, 상기 제2 출력 이미지는 상기 제1 출력 이미지와 독립적으로 출력되지만, 상기 제1 출력 이미지에 관련된 이미지 정보를 포함할 수 있다. 예를 들어, 상기 전자 장치(40)를 통해 음악이 재생되고 있다면, 상기 제1 출력 이미지가 재생 중인 음악에 대응하는 영상을 포함할 수 있으며, 상기 제2 출력 이미지는 재생 중인 음악에 대한 정보(예: 연주자, 지휘자, 가수, 발표 연도 등)를 포함할 수 있다. 상기 제2 출력 이미지의 일부 영역에서는 음악 재생에 필요한 다양한 기능(예: 재생, 일시정지, 되감기, 빨리감기 등) 아이콘이 포함될 수 있다. 다른 실시예에서, 상기 제2 출력 이미지는 상기 제1 출력 이미지와 동일한 영상 정보를 포함할 수 있다. 예를 들어, 상기 제2 출력 이미지는 상기 제1 출력 이미지와 동일한 영상 정보를 포함함으로써, 사용자가 실제 시청하게 되는 공중 이미지(예: 상기 제1 공중 이미지 및/또는 제2 공중 이미지)의 해상도를 향상시킬 수 있다.
도 20은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치(2000)를 나타내는 사시도이다. 도 21은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 입체 영상 장치(2000)를 나타내는 단면 구성도이다.
본 실시예의 입체 영상 장치를 설명함에 있어, 상기 입체 영상 장치(2000)에 거치되는 전자 장치의 구성은 선행 실시예의 전자 장치(예: 도 17의 전자 장치)를 통해 용이하게 이해할 수 있으므로, 그에 대한 도면의 참조번호는 동일하게 부여하거나 생략하고, 그 상세한 설명 또한 생략하기로 한다.
도 20과 도 21을 참조하면, 상기 입체 영상 장치(2000)는, 거치대(2001), 하프 미러(2002), 재귀 반사 부재(2003)를 포함할 수 있으며, 상기 거치대(2001)에 거치된 전자 장치(40)(예: 디스플레이 패널(43))로부터 출력된 이미지를 공중 이미지로 결상할 수 있다.
다양한 실시예에 따르면, 상기 거치대(2001)는 일면(예: 상면)에 형성된 거치 홈(2011)을 포함함으로써, 상기 전자 장치(40)를 거치할 수 있다. 예컨대, 상기 전자 장치(40)는 상기 거치 홈(2011)에 수용되는 형태로, 상기 입체 영상 장치(2000)에 거치될 수 있다. 한 실시예에서, 상기 거치 홈(2011)의 주변에는 적어도 하나의 센서(2013)가 탑재될 수 있으며, 상기 센서(2013)는 카메라 모듈, 적외선 센서, 근접 센서, 조도 센서 중 적어도 하나를 포함할 수 있다. 한 실시예에서, 상기 센서(2013)는 상기 입체 영상 장치(2000)의 사용 환경을 검출하거나, 상기 거치대(2001) 주변에서의 사용자 동작을 검출할 수 있다. 상기 센서(2013)를 통해 검출된 정보는 상기 거치대(2001)에 거치된 전자 장치(40)로 제공될 수 있으며, 상기 전자 장치(40)는 상기 센서(2013)를 통해 검출된 정보에 기반하여 작동 모드나 영상, 음향 등의 출력 설정을 변경할 수 있다. 다른 실시예에서, 상기 입체 영상 장치(2000) 및/또는 상기 거치대(2001)는 무선 전력 송신 기능을 제공할 수 있으며, 상기 전자 장치(40)가 무선 전력 수신 기능을 포함한다면 상기 입체 영상 장치(2000)를 통해 충전 전력을 제공받을 수 있다.
다양한 실시예에 따르면, 상기 하프 미러(2002)는 상기 거치 홈(2011)의 일측 가장자리에서, 상기 거치 홈(2011)의 일부분을 덮도록 배치될 수 있다. 상기 재귀 반사 부재(2003)는 상기 거치 홈(2011)의 바닥면과 상기 하프 미러(2002) 사이에서 상기 하프 미러(2002)에 대하여 경사지게 배치될 수 있다. 한 실시예에서, 상기 거치 홈(2011)에 상기 전자 장치(40)가 거치되었을 때, 상기 디스플레이 패널(43)의 곡면 영역(C)이 상기 하프 미러(2002) 및/또는 상기 재귀 반사 부재(2003)에 인접하게 배치될 수 있다. 예컨대, 상기 곡면 영역(C)과 상기 재귀 반사 부재(2003)는 서로에 대하여 및/또는 상기 하프 미러(2002)에 대하여 각각 경사지게 배치될 수 있다. 한 실시예에서, 상기 거치 홈(2011)에 상기 전자 장치(40)가 거치되었을 때, 상기 디스플레이 패널(43)의 다른 영역은 상기 하프 미러(2002)의 일측으로 노출될 수 있다.
다양한 실시예에 따르면, 상기 거치 홈(2011)에 상기 전자 장치(40)가 거치된 상태에서, 상기 곡면 영역(C)의 출력 이미지는 상기 하프 미러(2002)와 재귀 반사 부재(2003)에 의해 순차적으로 반사된 후, 상기 하프 미러(2002)를 투과하여 상기 하프 미러(2002)의 외측 공간(및/또는 상기 하프 미러(2002)의 외측에서 상기 하프 미러(2002)에 경사진 가상의 한 면(S))에서 공중 이미지로 결상될 수 있다. 상기 공중 이미지는, 상기 전자 장치(40)의 배터리 잔량, 현재 시각, 날씨 정보, 메시지 수신 여부, 수신된 메시지의 내용 등의 다양한 정보들을 포함할 수 있다.
어떤 실시예에서, 사용자가 상기 입체 영상 장치(2000) 및/또는 상기 전자 장치(40)에 접근하면, 상기 센서(2013)(들)가 사용자의 접근을 감지하고, 상기 입체 영상 장치(2000)는 사용자 접근에 관한 정보를 상기 전자 장치(40)로 제공할 수 있다. 사용자 접근에 관한 정보에 기반하여 상기 전자 장치(40)는 기 설정된 명령이나 어플리케이션에 상응하는 아이콘을 상기 곡면 영역(C) 및/또는 다른 영역(예: 상기 하프 미러(2002)의 일측으로 노출된 상기 디스플레이 패널(43)의 영역)에 표시할 수 있다. 다른 실시예에서, 사용자가 접근함을 인지한 상기 전자 장치(40)는, 사용자가 실행할 것으로 예상되는 명령 또는 어플리케이션(예: 메시지 확인, 날씨에 관한 상세 정보 확인, 음악이나 동영상 재생 등의 멀티미디어 기능 등)에 관한 아이콘을 상기 곡면 영역(C) 및/또는 다른 영역에 표시할 수 있다. 예를 들어, 상기 공중 이미지를 통해 메시지 수신을 인지하고 사용자가 상기 입체 영상 장치(2000)에 접근하면, 상기 전자 장치는, 상기 곡면 영역(C)을 통해 및/또는 상기 공중 이미지를 통해 수신된 메시지의 내용을 표시하고, 다른 영역(예: 상기 하프 미러(2002)의 일측으로 노출된 상기 디스플레이 패널(43)의 영역)에는 키패드 등 답변 메시지 작성이 가능한 입력 장치를 표시할 수 있다.
이와 같이, 본 발명의 다양한 실시예에 따른 입체 영상 장치(예: 도 17 내지 도 20의 입체 영상 장치)는 디스플레이 패널을 포함한 전자 장치를 거치한 상태에서 다양한 사용자 경험을 제공할 수 있다.
도 22는 본 발명의 다양한 실시예 중 또 다른 하나에 따른 (입체 영상 장치를 포함하는) 전자 장치(2200)를 나타내는 단면 구성도이다.
도 22를 참조하면, 상기 전자 장치(2200)는, 하우징(2201), 디스플레이 패널(2202), 하프 미러(2203) 및/또는 재귀 반사 부재(2204)를 포함할 수 있다.
다양한 실시예에 따르면, 상기 하우징(2201)은, 전면(F1)과, 상기 전면(F1)에 대향하는(opposite) 후면(F2)과, 상기 전면(F1)과 후면(F2) 사이의 공간을 적어도 일부 감싸게 형성된 측벽(F3)을 포함할 수 있다. 상기 하우징(2201)의 내부 공간에는, 도시되지 않은, 주회로 기판, 지지 부재, 배터리 등이 수용될 수 있다. 상기 하우징(2201)의 전면에는 윈도우 부재(2221)가 장착되어, 상기 디스플레이 패널(2202)로부터 출력된 이미지를 투과하며, 상기 디스플레이 패널(2202)을 외부 환경으로부터 격리, 보호할 수 있다. 예컨대, 상기 하우징(2201)은 대체로 합성수지나 금속으로 제작될 수 있으며, 전면의 일부는 투명한 상기 윈도우 부재(2221)로 이루어질 수 있다. 본 발명의 다양한 실시예에 따르면, 상기 하프 미러(2203)와 윈도우 부재 사이에는 터치 패널이 구비될 수 있다. 상기 터치 패널은, 사용자의 터치 입력 또는 근접 터치 입력(예: 호버링)과 같은 다양한 사용자 입력을 감지할 수 있다.
다양한 실시예에 따르면, 상기 디스플레이 패널(2202)은 제1 디스플레이 영역(DA1)과 제2 디스플레이 영역(DA2)을 포함할 수 있다. 상기 제1 디스플레이 영역(DA1)은 상기 전면(F1)의 제1 영역(FD1)에 대응하도록 상기 윈도우 부재(2221)의 내측면에 마주보게 배치될 수 있으며, 상기 제2 디스플레이 영역(DA2)은 상기 제1 디스플레이 영역(DA1)으로부터 경사지게 연장되어 상기 하우징(2201)의 내부로 위치될 수 있다. 예컨대, 상기 디스플레이 패널(2202)은 굽혀진 및/또는 유연성을 가진(bended and/or flexible) 패널로서, (능동형) 유기 발광 다이오드((active matrix) organic light emitting diode; (AM)OLED) 패널을 포함할 수 있다. 어떤 실시예에서, 상기 전자 장치(2200)는 상기 디스플레이 패널(2202)에 통합된 터치 패널(2205)을 더 포함할 수 있다. 예를 들면, 상기 터치 패널(2205)은 상기 제1 영역(FD1) 및/또는 상기 제1 디스플레이 영역(DA1)에 대응하게 배치될 수 있다.
본 실시예에서, 상기 제1 디스플레이 영역(DA1)과 제2 디스플레이 영역(DA2)은 각각 상기 디스플레이 패널(2202)의 서로 다른 영역으로 설정된 예가 개시되지만, 본 발명이 이에 한정될 필요는 없다. 예를 들어, 도시되지는 않지만, 상기 디스플레이 패널(2202)은, 상기 제1 영역(FD1)에 대응하는 제1 디스플레이 패널과, 상기 제1 디스플레이 패널과 독립된 제2 디스플레이 패널이 상기 하우징(2201) 내에 경사지게 배치될 수 있다. 예컨대, 본 발명의 다양한 실시예에 따른 전자 장치(예: 상기 전자 장치(2200))는 서로에 대하여 독립된 복수의 디스플레이 패널들이 도 22의 제1 디스플레이 영역(DA1)과 제2 디스플레이 영역(DA2)에 각각 상응하게 배치될 수 있다.
다양한 실시예에 따르면, 상기 하프 미러(2203)는 상기 하우징(2201) 및/또는 상기 전자 장치(2200)의 전면에서, 상기 제1 영역(FD1)과는 다른 제2 영역(FD2)에 배치될 수 있다. 예를 들어, 상기 하프 미러(2203)는 상기 제2 영역(FD2)에서 상기 윈도우 부재(2221)에 마주보게 배치될 수 있으며, 상기 제2 디스플레이 영역(DA2)은 상기 하프 미러(2203)에 대하여 경사지게 배치될 수 있다. 한 실시예에서, 상기 재귀 반사 부재(2204)는 상기 하우징(2201)의 내부에서 상기 하프 미러(2203)에 대하여 경사지게 배치될 수 있다. 예를 들어, 상기 재귀 반사 부재(2204)의 일측은 상기 디스플레이 패널(2202)(예: 상기 제2 디스플레이 영역(DA2))의 단부에 인접하게, 다른 일측은 상기 하프 미러(2203)에 인접하게 각각 배치될 수 있다.
상기와 같은 전자 장치(2200)는, 상기 제2 디스플레이 영역(DA2)의 출력 이미지를 상기 하프 미러(2203)에서 반사하여 상기 재귀 반사 부재(2204)로 입사시키고, 상기 재귀 반사 부재(2204)에 의해 반사된 빛을 투과함으로써, 상기 하우징(2201)의 외부 공간에서 상기 출력 이미지에 상응하는 공중 이미지를 결상시킬 수 있다. 상기 전자 장치(2200)를 통해 형성된 공중 이미지 및/또는 공중 이미지가 포함하는 정보 등은 상술한 실시예를 통해 용이하게 이해할 수 있을 것이다.
어떤 실시예에서, 상기 하프 미러(2203)는 에어리얼 이미징 플레이트(Areal Imaging Plate; AIP) 소자 및/또는 2면 코너 리플렉터 어레이(Dihedral Corner Reflector Array; DCRA) 소자로 대체될 수 있다. 상기 AIP 소자나 DCRA 소자는 그 자체로서 상기 제2 디스플레이 영역(DA2)의 출력 이미지에 상응하는 공중 이미지를 결상시킬 수 있다. 예를 들어, 상기 하프 미러(2203)가 상기 AIP 소자나 DCRA 소자로 대체된다면, 상기 재귀 반사 부재(2204)가 반드시 설치될 필요는 없다.
다양한 실시예에 따르면, 상기 전자 장치(2200)는, 적어도 하나의 센서(2206)를 더 포함할 수 있으며, 상기 센서(2206)(들)를 통해, 상기 공중 이미지의 결상면(S)(및/또는 결상 영역)에서 사용자의 이동, 동작 등을 검출할 수 있다. 상기와 같은 센서(2206)로는, 예를 들면, 카메라 모듈, 적외선 센서, 근접 센서, 조도 센서 중 적어도 하나를 포함할 수 있다. 상기 전자 장치(2200)는 상기 센서(2206)(들)로부터 검출되는 사용자 이동 등에 관한 정보에 기반하여, 그에 대응하는 명령이나 어플리케이션을 실행할 수 있다. 예컨대, 상기 전자 장치(2200)는 상기 공중 이미지의 결상면(S) 상에서 물체의 접근, 접촉, 이동 등을 감지하여 다양한 입력 동작을 수행할 수 있으며, 상기 디스플레이 패널(2202)에 터치 패널(2205)이 통합되어 있다면 상기 디스플레이 패널(2202)을 통해서도 다양한 터치 입력 동작을 수행할 수 있다.
도 23은 본 발명의 다양한 실시예 중 또 다른 하나에 따른 전자 장치(2300) 단면 구성도이다.
본 발명의 다양한 실시예에 따른 입체 영상 장치 및/또는 전자 장치(2300)는 차량 내부의 대시 보드(dashboard)(D)의 일부 및/또는 전체를 형성할 수 있으며, 디스플레이 패널(2301), 하프 미러(2321)를 포함함으로써, 차량의 윈드 쉴드(2302)와 운전자 사이에 공중 이미지를 결상시킬 수 있다.
상기 디스플레이 패널(2301)은 상기 윈드 쉴드(2302)에 대하여 경사진 상태로, 상기 대시 보드(D) 상에 또는 상기 대시 보드(D)에 내장될 수 있으며, 차량 운행에 관련된 다양한 정보(예: 속도, 엔진 온도, 외부 온도, 차량 진행 정보 등)를 이미지로 출력할 수 있다. 상기 윈드 쉴드(2302)는 일부 영역 및/또는 전체 영역이 하프 미러(2321)로 형성될 수 있으며, 상기 디스플레이 패널(2301)의 출력 이미지를 반사하여 상기 대시 보드(D) 상에 공중 이미지를 결상시킬 수 있다. 예컨대, 상기 공중 이미지는 상기 디스플레이 패널(2301)의 출력 이미지에 상응할 수 있다. 어떤 실시예에서, 상기 공중 이미지의 결상면(S)은 상기 윈드 쉴드(2302)와 운전자 사이에 형성될 수 있다.
다양한 실시예에 따르면, 상기 전자 장치(2300)는 상기 디스플레이 패널(2301)과 상기 윈드 쉴드(2302) 사이에 배치된 적어도 하나의 릴레이 렌즈(relay lens)(2303)를 더 포함할 수 있다. 상기 릴레이 렌즈(2303)는 상기 디스플레이 패널(2301)의 출력 이미지를 상기 하프 미러(2321)가 형성된 영역으로 진행하도록 경로를 변경하거나 이미지의 크기를 확대/축소할 수 있다. 상기 윈드 쉴드(2302)(예: 상기 하프 미러(2321)로 형성된 영역)는 입사된 이미지를 반사하여, 상기 출력 이미지에 상응하는 공중 이미지를 상기 결상면(S)에 결상할 수 있다. 한 실시예에서, 상기 전자 장치(2300)가 상기 릴레이 렌즈(2303)(들)를 포함한다면, 상기 디스플레이 패널(2301)과 공중 이미지는 상기 하프 미러(2321)(및/또는 상기 하프 미러(2321)의 한 면에 수직하는 광축)에 대하여 비대칭으로 배치될 수 있다.
본 발명의 다양한 실시예에 따르면, 입체 영상 장치는,
디스플레이 패널을 포함하는 전자 장치를 거치하는 거치대;
상기 거치대의 일면에 배치되어, 상기 거치대에 거치된 상기 전자 장치의 디스플레이 패널에 대하여 경사지게 대면하는 하프 미러; 및
상기 거치대 상에서 상기 하프 미러에 대하여 경사지게 배치된 재귀 반사 부재를 포함할 수 있으며,
상기 하프 미러는, 상기 디스플레이 패널로부터 출력된 이미지(이하, '제1 출력 이미지')를 반사하여 상기 재귀 반사 부재로 입사시키고, 상기 재귀 반사 부재에 의해 반사된 이미지를 투과함으로써,
상기 제1 출력 이미지에 상응하는 이미지를 상기 하프 미러의 타측 공간에 결상(이하, '제1 공중 이미지')시킬 수 있다.
다양한 실시예에 따르면, 상기 거치대는, 상기 디스플레이 패널에 대향하는 면에서 상기 전자 장치에 탈착 가능하게 제공된 커버 부재로서 제공될 수 있으며, 상기 하프 미러의 일단이 상기 커버 부재의 일측에 회동 가능하게 결합될 수 있고, 상기 재귀 반사 부재의 일단이 상기 하프 미러의 타단에 회동 가능하게 결합될 수 있다.
다양한 실시예에 따르면, 상기 커버 부재가 상기 전자 장치에 결합한 상태에서, 1) 상기 하프 미러는 상기 재귀 반사 부재를 사이에 두고 상기 디스플레이 패널과 마주보게 접철되거나, 2) 상기 재귀 반사 부재의 타단이 상기 커버 부재의 타측에 지지되어 상기 디스플레이 패널에 대하여 상기 하프 미러를 경사지게 배치할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 상기 디스플레이 패널에 통합된 터치 패널을 더 포함할 수 있으며, 상기 입체 영상 장치는 상기 터치 패널이 근접 터치 입력(예: 호버링)을 검출하는 영역 내에 상기 제1 공중 이미지를 결상시킬 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 상기 디스플레이 패널에 통합된 터치 패널을 더 포함할 수 있으며, 상기 입체 영상 장치는 상기 디스플레이 패널의 일부 영역을 상기 하프 미러의 일측으로 노출시킬 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는, 상기 디스플레이 패널의 일부로서 상기 전자 장치의 측면 중 적어도 일부를 형성하는 곡면 영역을 포함할 수 있으며, 상기 전자 장치가 상기 거치대에 거치된 상태에서, 상기 입체 영상 장치는 적어도 상기 곡면 영역을 상기 하프 미러의 일측으로 노출시킬 수 있다.
다양한 실시예에 따르면, 상기 입체 영상 장치는 상기 제1 공중 이미지를 상기 곡면 영역에 인접하게 결상시킬 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는, 상기 디스플레이 패널의 일부로서 상기 전자 장치의 측면 중 적어도 일부를 형성하는 곡면 영역을 포함할 수 있으며, 상기 전자 장치가 상기 거치대에 거치된 상태에서, 상기 입체 영상 장치는 적어도 상기 곡면 영역을 통해 출력되는 이미지를 상기 제1 공중 이미지로 결상하고, 상기 디스플레이 패널의 다른 영역을 상기 하프 미러의 일측으로 노출시킬 수 있다.
다양한 실시예에 따르면, 상기 입체 영상 장치는 상기 제1 공중 이미지에 대한 사용자 위치를 검출하는 제1 센서를 더 포함할 수 있으며, 상기 제1 센서를 통해 검출된 사용자의 위치 정보를 상기 거치대에 거치된 상기 전자 장치로 제공할 수 있다.
다양한 실시예에 따르면, 상기 제1 센서는, 카메라 모듈, 적외선 센서, 근접 센서, 조도 센서 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 상기 거치대는 무선 전력 송신 기능을 제공할 수 있다.
다양한 실시예에 따르면, 상기 입체 영상 장치는, 상기 거치대 상에서 상기 하프 미러에 대하여 경사지게 배치된 디스플레이 장치를 더 포함할 수 있는데, 상기 디스플레이 장치는 일측이 상기 하프 미러에 인접하게, 타측이 상기 재귀 반사 부재에 인접하게 각각 배치될 수 있고,
상기 하프 미러는, 상기 디스플레이 장치로부터 출력된 이미지(이하, '제2 출력 이미지')를 반사하여 상기 재귀 반사 부재로 입사시키고, 상기 재귀 반사 부재에 의해 반사된 이미지를 투과함으로써,
상기 제2 출력 이미지에 상응하는 이미지를 상기 하프 미러의 타측 공간에 결상(이하, '제2 공중 이미지')시킬 수 있다.
다양한 실시예에 따르면, 상기 디스플레이 장치는, 상기 거치대에 거치된 상기 전자 장치의 디스플레이 패널과 중첩하게 배치될 수 있으며, 상기 제1 출력 이미지의 적어도 일부를 투과시킬 수 있다.
다양한 실시예에 따르면, 상기 입체 영상 장치는 상기 제1 공중 이미지와 상기 제2 공중 이미지를 서로 중첩하게 결상시킬 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는, 상기와 같은 입체 영상 장치의 일부 또는 전체를 포함할 수 있는데, 예를 들면,
전면과, 상기 전면에 대향하는(opposite) 후면과, 상기 전면과 후면 사이의 공간을 적어도 일부 감싸게 형성된 측벽을 포함하는 하우징;
상기 전면의 제1 영역에 배치된 제1 디스플레이 영역과, 상기 제1 디스플레이 영역으로부터 경사지게 연장되어 상기 하우징의 내부로 위치된 제2 디스플레이 영역을 포함하는 디스플레이 패널;
상기 전면의 제2 영역에 배치되며, 상기 제2 디스플레이 영역에 인접하는 하프 미러; 및
상기 하우징의 내부에서 상기 하프 미러에 대하여 경사지게 배치된 재귀 반사 부재를 포함할 수 있으며,
상기 하프 미러는, 상기 제2 디스플레이 영역으로부터 출력된 이미지(이하, '출력 이미지')를 반사하여 상기 재귀 반사 부재로 입사시키고, 상기 재귀 반사 부재에 의해 반사된 이미지를 투과함으로써,
상기 하우징의 외부 공간에서, 상기 출력 이미지에 상응하는 공중 이미지를 결상시킬 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는, 적어도 상기 제1 디스플레이 영역에서, 상기 디스플레이 패널에 통합된 터치 패널을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 상기 하우징의 전면 상에 배치된 제1 센서를 더 포함할 수 있으며, 상기 제1 센서는 상기 공중 이미지가 결상되는 면 또는 공간에 대한 물체의 접근, 접촉, 이동을 검출할 수 있다.
다양한 실시예에 따르면, 상기 제1 센서는 카메라 모듈, 적외선 센서, 근접 센서, 조도 센서 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 입체 영상 장치는,
차량용 대시 보드(dash board) 상에 또는 대시 보드 내에 장착된 디스플레이 패널; 및
적어도 일부 영역이 상기 대시 보드 상에 배치된 윈드 쉴드(wind shield)를 포함할 수 있으며,
상기 윈드 쉴드는, 상기 디스플레이 패널로부터 출력된 이미지를 반사하여, 상기 대시 보드 상에 공중 이미지를 결상시킬 수 있다.
다양한 실시예에 따르면, 상기 윈드 쉴드는 적어도 일부 영역이 하프 미러로 형성될 수 있으며,
상기 하프 미러로 형성된 영역이, 상기 디스플레이 패널로부터 출력된 이미지를 반사할 수 있다.
다양한 실시예에 따르면, 상기 입체 영상 장치는, 상기 디스플레이 패널과 상기 윈드 쉴드 사이에 배치된 적어도 하나의 릴레이 렌즈(relay lens)를 더 포함할 수 있으며,
상기 릴레이 렌즈는 상기 디스플레이 패널로부터 출력된 이미지를 상기 하프 미러로 형성된 영역에 입사시킬 수 있다.
도 24a 및 도 24b는, 특정한(certain) 객체를 본 개시의 다양한 실시예들에 따른 전자 장치에 전송(다른 말로, 이동)하거나 상기 전자 장치를 통하여 실행하는 기능 또는 동작을 설명하기 위한 도면이다.
이하에서 설명되는, 도 24a 내지 도 31d에 도시된 실시예들은 도 20 내지 도 23에서 도시된/설명된 입체 영상 장치에 예시적으로 기반하여 설명된다. 본 개시의 다양한 실시예들에 따르면, 도 24a 내지 도 31d에 도시된 실시예들은, 본 개시의 도 1 내지 도 19에 도시된 다양한 실시예들에 따른 입체 영상 장치/전자 장치에 기반하여 수행될 수 있다.
도 24a를 참조하면, 본 개시의 다양한 실시예들에 따른 입체 영상 장치(2410)는 전자 장치(40)와 결합되어 공중 이미지를 제공할 수 있다. 상기 전자 장치(40)는, 상기 전자 장치(40)와 유선 통신 또는 무선 통신을 통하여 연결된 외부 전자 장치(2400)로부터 특정한 객체에 관한 데이터를 직접 전송받을 수 있다. 또는, 본 개시의 다양한 실시예들에 따르면, 상기 전자 장치(40)는, 상기 전자 장치(40) 및 상기 외부 전자 장치(2400)와 연결된 데이터 서버(미도시)로부터 상기 특정한 객체에 관한 데이터를 전송받을 수도 있다. 상기 전자 장치(40)는, 상기 외부 전자 장치(2400)로 또는 상기 데이터 서버로부터 상기 특정한 객체에 관한 데이터를 전송받으면, 상기 특정한 객체의 속성(type)에 따라 상기 특정한 객체를 제어할 수 있다. 예를 들어, 상기 특정한 객체가 도 24a에 도시된 바와 같이 "음악 파일(2402)"인 경우, 상기 전자 장치(40)는 상기 외부 전자 장치(2400)로 또는 상기 데이터 서버로부터 상기 음악 파일(2402)에 관한 데이터를 전송받은 후, 상기 전송받은 음악 파일을 실행(다른 말로, 재생)할 수 있다. 상기 음악 파일(2402)이 실행되는 경우, 도 24b에 도시된 바와 같이, 상기 음악 파일(2402)에 대한 아티스트 정보, 타이들 정보 및 재생 시간 등과 같은 다양한 정보가 결상면(S)에 공중 이미지로 사용자에게 제공될 수 있다. 다양한 실시예에 따르면, 상기 특정한 객체는 플레이 리스트(미도시)일 수 있다. 도 24a 및 도 24b에서는 하나의 전자 장치(40)가 상기 외부 전자 장치(2400)와 연결된 상태를 예시적으로 도시한다. 본 개시의 다양한 실시예들에 따르면, 상기 특정한 객체에 관한 전송은, 도 24a에서 예시적으로 도시된 바와 같이, 특정한 방향에 대한 드래그 제스처와 같은 사용자 입력에 따라 수행 또는 트리거(trigger) 될 수 있다. 상기 특정한 방향은, 상기 전자 장치(40) 또는 상기 입체 영상 장치(2410)가 위치하는 방향으로 제한되지 아니하며, 어떠한 방향도 포함할 수 있다. 다양한 실시예에 따르면, 상기 외부 전자 장치(2400)로부터 상기 전자 장치(40)의 방향으로 사용자의 입력이 수행되면, 상기 특정한 객체를 전송할 수 있다. 다른 실시예에서, 상기 외부 전자 장치(2400)로부터 상기 전자 장치(40)의 반대 방향으로 사용자의 입력이 수행되면, 상기 전자 장치(40)에 이미 전송된 상기 특정한 객체를 삭제할 수 있다.
도 25a 및 도 25b는, 본 개시의 다양한 실시예들에 따른 전자 장치가 복수 개인 경우에, 특정한 객체를 상기 전자 장치에 전송 또는 특정한 객체를 상기 전자 장치를 통하여 실행하는 기능 또는 동작을 설명하기 위한 도면이다.
도 25a를 참조하면, 본 개시의 다양한 실시예들에 따른 외부 전자 장치(2500)는, 사용자(520)로부터 특정한 객체(예를 들면, 음악 파일(2502))에 대한 전송/실행 요청(예를 들면, 입체 영상 장치(2510a, 2510b)가 위치한 방향에 대응하는 방향으로의 드래그 제스처)을 입력받을 수 있다. 상기 입체 영상 장치(2510a, 2510b)에 각각 장착(또는, 삽입)된 전자 장치(40a, 40b)는, 상기 전자 장치(40a, 40b)의 위치 정보를 생성하는 센서 모듈(예를 들면, GPS 모듈)을 포함할 수 있다. 상기 전자 장치(40a, 40b)는, 상기 센서 모듈에 의하여 생성된 위치 정보를 상기 외부 전자 장치(2500) 및/또는 데이터 서버(미도시)에 전송할 수 있다. 상기 외부 전자 장치(2500)는, 상기 전자 장치(40a, 40b)의 위치 정보에 기초하여 상기 사용자의 드래그 제스처의 방향에 대응하는 어느 하나의 전자 장치(예를 들면, 전자 장치(40b))로 특정한 객체가 전송되도록 제어할 수 있다. 예를 들어, 상기 외부 전자 장치(2500)는, 상기 어느 하나의 전자 장치로 상기 특정한 객체에 대한 데이터를 직접 전송하거나, 상기 특정한 객체에 대한 데이터가 상기 데이터 서버에 저장되어 있는 경우, 상기 데이터 서버에 의하여 상기 특정한 객체에 대한 데이터가 상기 어느 하나의 전자 장치로 전송되도록 상기 데이터 서버에 요청할 수 있다. 상기 특정한 객체에 대한 데이터를 수신한 어느 하나의 전자 장치는, 상기 특정한 객체를 실행할 수 있다. 예를 들어, 상기 특정한 객체가 음악 파일(2502)인 경우, 도 25b에 도시된 바와 같이, 상기 어느 하나의 전자 장치는 상기 음악 파일(2502)을 재생할 수 있다. 상기 전자 장치(40a, 40b)는, 상기 외부 전자 장치(2500) 및/또는 상기 데이터 서버와 유선 통신 또는 무선 통신을 통하여 연결될 수 있다.
도 26a 내지 도 26c는, 본 개시의 다양한 실시예들에 따른 외부 전자 장치에 디스플레이 되는 위치 정보에 기초하여 특정한 객체를 전송/실행하는 동작 또는 기능을 설명하기 위한 도면이다.
도 26a 내지 도 26c과 관련하여, 상술한 도 25a 및 도 25b에 관한 설명이 대체로 동일하게 적용될 수 있다. 다만, 도 26a 내지 도 26c에서는, 예를 들어 도 26b에 도시된 바와 같이 전자 장치 또는 입체 영상 장치에 관한 위치 정보(예를 들면, "디바이스 1", " 디바이스 2", "디바이스 3")가 표시된 위치 맵(2604)이 기초하여 상기 특정한 객체가 전송/실행될 수 있는 실시예가 도시된다. 도 26a에 도시된 바와 같이, 외부 전자 장치(2600)는, 사용자(2620)로부터 상기 특정한 객체(예를 들면, 음악 파일(2602)에 관한 전송 요청을 입력받을 수 있다. 상기 전송 요청은 예를 들면, 상기 사용자(2620)의 터치/근접 터치 입력(예: 호버링)을 포함할 수 있다. 상기 외부 전자 장치(2600)는 상기 전송 요청을 입력받으면 상기 음악 파일(2602)을 전송하기 위한 위치 맵(2604)을 디스플레이 할 수 있다. 상기 외부 전자 장치(2600)는, 상기 사용자(2620)로부터 상기 음악 파일(2602)을 전송/실행하기 위한 전자 장치/입체 영상 장치가 위치한 방향으로 전송 요청(예를 들면, 드래그 제스처)을 입력받을 수 있다. 상기 외부 전자 장치(2600) 또는 데이터 서버(미도시)는, 상기 음악 파일(602)에 대한 데이터를 상기 사용자(2620)의 입력에 대응하는 전자 장치/입체 영상 장치(예를 들면, "디바이스 3")로 전송할 수 있다. 상기 음악 파일(2602)에 대한 데이터를 전송받은 어느 하나의 전자 장치(40c)는, 상기 전자 장치(40c)가 장착된 입체 영상 장치(2610c)를 통하여 상기 음악 파일(2602)을 저장하거나, 실행할 수 있다. 도 6c에서는, 상기 전송된 음악 파일(2602)이 실행되는 경우가 예시적으로 도시된다.
도 27a 내지 도 27d는, 본 개시의 다양한 실시예들에 따른 입체 영상 장치 사이에서 특정한 객체를 전송/실행하는 동작 또는 기능을 설명하기 위한 도면이다.
본 개시의 다양한 실시예들에 따른 입체 영상 장치(2700a, 2700b)는, 사용자(2720)의 움직임을 감지하기 위한 카메라 모듈(미도시)을 포함할 수 있다. 상기 카메라 모듈에 의하여 획득된 영상 정보는 상기 입체 영상 장치(2700a, 2700b)에 장착된 전자 장치(40a, 40b)로 전송될 수 있다. 입체 영상 장치(2700a, 2700b)에 장착된 전자 장치(40a, 40b)는, 상기 카메라 모듈에 의하여 획득된 영상 정보에 기초하여 상기 사용자(2720)의 움직임을 3차원 좌표로 변환할 수 있다. 상기 카메라 모듈은, 손가락 등의 움직임을 정확히 검출하는데 필요한 깊이(depth) 정보를 획득하기 위한 깊이 카메라 및/또는 멀티 카메라를 포함할 수 있다. 다만, 본 개시의 다양한 실시예들에 따르면, 상기 깊이 카메라 및/또는 상기 멀티 카메라는 본 발명의 설명을 위하여 예시적으로 언급된 것으로서, 상기 손가락 등의 움직임을 검출하는데 필요한 깊이 정보는, 상기 깊이 카메라 및/또는 상기 멀티 카메라 이외에도 다양한 타입의 카메라 모듈에 의해 획득될 수 있다. 본 개시의 다양한 실시예들에 따르면, 상기 카메라 모듈은 상기 입체 영상 장치(2700a, 2700b)에 장착된 전자 장치(40a, 40b)에 구비될 수도 있다. 이 경우, 상기 영상 정보는 상기 전자 장치(40a, 40b)에 구비된 카메라 모듈에 의하여 획득될 수 있다. 어떤 실시예에서, 상기 카메라 모듈은 상기 입체 영상 장치(2700a, 2700b)와 상기 전자 장치(40a, 40b)에 각각 구비될 수도 있다. 이 경우, 상기 영상 정보(예: 깊이 정보)는 상기 입체 영상 장치(2700a, 2700b)와 상기 전자 장치(40a, 40b)에 각각 구비된 카메라 모듈의 조합에 의하여 획득될 수 있다.
도 27a를 참조하면, 제1 전자 장치(40a)는, 특정한 객체를 제2 전자 장치 (40b)로 전송하거나, 상기 제2 전자 장치(40b)를 통하여 실행하기 위한 사용자(2720)의 입력을 수신할 수 있다. 상기 사용자(2720)의 입력은, 도 27a에 도시된 바와 같이, 상기 결상면(S) 또는 상기 결상면(S)에 결상된 공중 이미지에 대한 사용자(2720)의 3차원 그립(grip)(다른 말로, 홀드(hold)) 및 스로우(throw)를 포함할 수 있다. 본 개시의 다양한 실시예들에 따르면, 상기 사용자(2720)의 입력은, 상기 결상면(S) 또는 상기 공중 이미지에 대한 3차원 터치, 3차원 탭, 3차원 드래그 등 다양한 제스처를 더 포함할 수 있다. 예를 들어, 도 27c와 도 27d를 참조하면, 상기 결상면(S) 또는 상기 결상면(S)에 결상된 공중 이미지에 대한 사용자(2720)의 3차원 그립(grip)(다른 말로, 홀드(hold)) 및 드래그(drag)를 더 포함할 수 있다. 상기 결상면(S) 및/또는 상기 결상면(S)에 결상된 공중 이미지에 대한 사용자(2720)의 그립 및 드래드 동작에 따라, 사용자(2720)의 드래그 방향으로(예: 도 27c에 도시된 위치에서 도 27d에 도시된 위치로) 상기 결상면(S)이 이동할 수 있다.
상기 제1 전자 장치(40a)는, 상기 사용자(2720)의 움직임에 대한 영상 정보를 기초로 상기 사용자(2720)의 3차원 위치 좌표를 결정(다른 말로, 연산)할 수 있다. 본 개시의 다양한 실시에들에 따르면, 상기 결상면(S)의 3차원 좌표 및 상기 결상면(S)에 결상되는 공중 이미지에 대한 3차원 좌표는 상기 제1 전자 장치(40a)에 알려진 정보일 수 있다. 따라서, 상기 제1 전자 장치(40a)는, 상기 결정된 사용자(2720)의 3차원 위치 좌표와, 상기 결상면(S)의 3차원 좌표 정보 및/또는 상기 결상면(S)에 결상되는 공중 이미지의 3차원 좌표 정보를 기초로 상기 공중 이미지에 대한 상기 사용자(2720)의 입력이 수신되었는지 여부를 판단할 수 있다. 예를 들어, 상기 사용자(2720)의 신체 일부(예를 들면, 손가락)가 상기 결상면(S)의 적어도 일부 영역에 일정 시간 이상 위치하는 경우, 상기 제1 전자 장치(40a)는 상기 공중 이미지에 대한 3차원 터치 또는 3차원 그립이 수행된 것으로 판단할 수 있다. 상기 공중 이미지가 상기 사용자(2720)에 의하여 그립 또는 터치된 상태에서 상기 사용자(2720)의 신체 일부가 특정한 방향으로의 움직임(다른 말로, 스로우 제스처)을 감지할 수 있다. 상기 움직임은, 상기 카메라 모듈에 의하여 획득된 상기 사용자(2720)의 영상 정보를 기초로 상기 제1 전자 장치(40a)에 의하여 판단될 수 있다. 본 개시의 다양한 실시예들에 따르면, 상기 움직임은, 상기 카메라 모듈에 의하여 획득된 영상 정보 및, 상기 제1 전자 장치(40a) 또는 상기 제1 입체 영상 장치(2700a)에 구비된 센서 모듈(예를 들면, 적외선 센서 모듈, 근접 센서 모듈 등)에 의하여 생성된 상기 사용자(2720)의 움직임에 관한 데이터에 의하여 판단될 수 있다. 상기 센서 모듈이 상기 제1 입체 영상 장치(2700a)에 구비된 경우, 상기 생성된 움직임에 관한 데이터는 상기 제1 전자 장치(40a)로 전송될 수 있다. 상기 제1 전자 장치(40a)는, 상기 움직임이 감지되면 상기 제2 전자 장치(40b)로 상기 공중 이미지에 대응하는 특정한 객체에 대한 데이터를 전송할 수 있다. 또는, 상기 특정한 객체에 관한 데이터가 저장된 데이터 서버에 상기 제2 전자 장치(40b)로 상기 특정한 객체에 관한 데이터의 전송을 요청하는 요청 메시지를 전송할 수 있다. 상기 제2 전자 장치(40b)는, 도 27b에 도시된 바와 같이, 상기 제2 입체 영상 장치(2700b)를 통하여 상기 특정한 객체에 관한 제어 메뉴를 포함하는 공중 이미지를 상기 결상면(S)에 결상되도록 제어할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 결상면(s) 또는 상기 공중 이미지에 대한 3차원 터치 등과 같은 3차원 제스처는, 근접 터치 입력(예: 호버링)을 통해서도 수행될 수 있다. 상기 근접 터치 입력은 상기 제1 전자 장치(40a) 또는 상기 제1 입체 영상 장치(2700a) 에 의해서 감지될 수 있다.
도 28a 내지 도 28c는, 본 개시의 다양한 실시예들에 따른 공중 이미지가 3차원 핀치(pinch) 제스처를 통하여 확대/축소되는 동작 또는 기능을 설명하기 위한 예시 도면이다.
도 28a을 참조하면, 본 개시의 다양한 실시예들에 따른 입체 영상 장치(2800)는, 결상면(S)에 공중 이미지를 결상 할 수 있다. 상기 입체 영상 장치(2800)에 장착된 전자 장치(40)는, 도 28b에 도시된 바와 같이 사용자(2810)의 3차원 핀치 제스처의 입력 여부를 판단할 수 있다. 상기 핀치 제스처의 입력 여부를 판단하는 동작 또는 기능은, 상기 도 27a 및 도 27b와 관련하여 설명된 바와 같이, 카메라 모듈 및 센서 모듈 중 적어도 일부에 의하여 감지된 상기 사용자(2810)의 움직임에 기초하여 수행될 수 있다. 상기 사용자(2810)의 3차원 핀치 제스처가 입력(다른 말로, 감지)되면, 상기 전자 장치(40)는 상기 결상면(S)에 결상된 특정한 객체(예를 들면, 아이콘)를, 도 28c에 도시된 바와 같이, 확대하여 디스플레이 되도록 제어할 수 있다. 도시되지는 않았으나, 역으로, 상기 3차원 핀치 제스처를 통하여 상기 특정한 객체가 축소되어 디스플레이 될 수 있다.
도 29a 및 도 29b는, 본 개시의 다양한 실시예들에 따른 공중 이미지를 3차원 스트레치(stretch) 제스처를 통하여 확대/축소하는 동작 또는 기능을 설명하기 위한 도면이다.
도 29a를 참조하면, 결상면(S)에는 공중 이미지가 결상될 수 있다. 상기 전자 장치(40)는 사용자(2910)로부터 3차원 스트레치 제스처를 감지할 수 있다. 상기 3차원 스트레치 제스처를 감지하기 위한 데이터(예를 들면, 카메라 모듈에 의한 영상 정보, 근접 센서를 통한 사용자의 근접 정보 등)는 상기 전자 장치(40) 및/또는 상기 입체 영상 장치(2900)를 통하여 획득될 수 있다. 상기 전자 장치(40)는, 상기 3차원 스트레치 제스처가 감지되면, 도 29b에 도시된 바와 같이, 상기 사용자(2910)의 움직임에 대응하여 결상면(S)에 결상된 특정한 객체의 크기가 확대되어 결상되도록 제어할 수 있다.
도 30a 및 도 30b는, 사용자의 3차원 터치 입력에 따라 결상면에 디스플레이 된 특정한 객체의 형상을 제어하는 동작 또는 기능을 설명하기 위한 도면이다.
도 30a을 참조하면, 결상면(s)에는 특정한 객체가 디스플레이 될 수 있다. 본 개시의 다양한 실시예들에 따른 입체 영상 장치(3000)에 장착된 전자 장치(40)는, 사용자(3010)의 3차원 터치 입력을 감지할 수 있다. 상기 전자 장치(40)는, 상기 사용자(3010)의 3차원 터치 입력이 감지되면 상기 특정한 객체의 형상을 변경하여 디스플레이 할 수 있다. 상기 형상의 변경은, 예를 들어 도 30b에 도시된 바와 같이 상기 사용자(3010)의 터치 입력에 따라, 움직이는 물결 무늬 형상으로 상기 특정한 객체의 형상을 변경하여 디스플레이 할 수 있다.
도 31a 내지 도 31d는, 결상면에 디스플레이 된 공중이미지를 통하여 특정한 객체를 전송/실행하는 기능 또는 동작을 설명하기 위한 도면이다.
도 31a를 참조하면, 본 개시의 다양한 실시예들에 따른 전자 장치(40)가 장착되는 입체 영상 장치(3100)에 의하여 결상면(S)이 형성될 수 있다. 상기 결상면(S)에는 특정한 객체(예를 들면, 음악 파일)를 제어하기 위한 메뉴(예를 들면, "재생" 메뉴 또는 "공유" 메뉴(3104))가 결상될 수 있다. 상기 결상면(S)에 디스플레이 된 메뉴 중 어느 하나(예를 들면, 상기 음악 파일의 전송을 위한 "공유" 메뉴(3104))에 대한 3차원 입력을 수신하면, 상기 전자 장치(40)는, 도 31b에 도시된 바와 같이, 상기 전자 장치(40)와 연결된 다양한 디바이스들(예를 들면, 디바이스 A(3100a), 디바이스 B(3100b), 디바이스 C(3100c))에 대한 공중 이미지들을 디스플레이 하도록 제어할 수 있다. 상기 결상면(S)에 디스플레이 된 공중 이미지들(3100a, 3100b, 3100c)은, 상기 전자 장치(40)의 위치를 기준으로 각각의 디바이스들의 실제 위치에 대응하는 위치에 결상될 수 있다. 상기 디바이스들에 대한 위치 정보는, 예를 들어 상기 전자 장치(40)/입체 영상 장치(3100)와 연결된 서버로부터 제공받을 수 있다. 도 31c에 도시된 바와 같이, 상기 사용자(3110)로부터 상기 음악 파일에 대한 전송 요청(예를 들면, 상기 음악 파일에 대응하는 공중 이미지(3102)에 대한 3차원 그립 앤 스로우 제스처)을 입력받으면, 상기 전자 장치(40)는, 상기 전송 요청에 대응하는 디바이스(예를 들면, 상기 디바이스 C)에 상기 음악 파일에 대한 데이터를 전송하기 위하여, 상기 음악 파일에 대한 데이터를 전송하는 요청 메시지를 상기 서버에 전송할 수 있다. 상기 요청 메시지를 상기 서버가 수신하면, 상기 음악 파일에 대한 데이터를 상기 전송 요청에 대응하는 디바이스에 전송할 수 있다. 상기 음악 파일이 전송되면, 상기 음악 파일에 대한 데이터를 수신한 디바이스(예를 들면, 전자 장치(40c)가 연결된 입체 영상 장치(3100c))는, 도 31d에 도시된 바와 같이, 상기 데이터의 수신에 대응하는 메뉴들(예를 들면, "재생" 메뉴 및 "저장" 메뉴)을 결상면(S)에 결상하도록 제어할 수 있다. 상기 데이터의 수신에 대응하는 메뉴들을 결상하도록 제어하는 기능 또는 동작은, 예를 들어, 상기 전자 장치(40c) 또는 상기 입체 영상 장치(3100c)에 구비된 프로세서에 의하여 수행될 수 있다.
도 24a 내지 도 31d에서 설명된 전자 장치(예를 들면, 전자 장치(40, 40a, 40b 및 40c))에 의하여 수행되는 기능/기능들 또는 동작/동작들 중 적어도 일부는 입체 영상 장치(예를 들면, 상기 입체 영상 장치(2400, 2500, 2600, 2700, 2800, 2900, 3000, 3100))에 구비된 다양한 모듈들(예를 들면, 프로세서, 카메라 모듈 등)에 의하여 수행될 수도 있다. 반대로, 상기 도 24a 내지 도 31d에서 설명된 입체 영상 장치에 의하여 수행되는 기능/기능들 또는 동작/동작들 중 적어도 일부는 상기 전자 장치(40)에 구비된 다양한 모듈들(예를 들면, 프로세서, 카메라 모듈 등)의하여 수행될 수도 있다. 이를 위하여, 상기 전자 장치(40) 및 상기 입체 영상 장치는 추가적인 모듈/모듈들을 더 포함하거나, 일부 모듈/모듈들이 생략될 수 있다. 상기 전자 장치(40) 및 상기 입체 영상 장치 중 적어도 일부는, 본 개시의 다양한 실시예들에 따른 다양한 기능들 또는 동작들을 수행하기 위한 프로세서를 포함할 수 있다.
도 32는, 사용자로부터 획득된 3차원 제어 커맨드에 따라 입체 영상 장치를 제어하는 방법을 설명하기 위한 순서도이다.
본 개시의 다양한 실시예들에 따른 입체 영상 장치를 제어하는 방법은, 입체 영상 장치 주변에 공중 이미지를 디스플레이 하기 위하여 전자 장치에 객체를 디스플레이 하는 동작(3200)을 포함할 수 있다.
본 개시의 다양한 실시예들에 따른 입체 영상 장치를 제어하는 방법은, 상기 공중 이미지를 제어하기 위한 사용자 입력에 관한 정보를 상기 입체 영상 장치로부터 수신하는 동작(3210)을 포함할 수 있다.
본 개시의 다양한 실시예들에 따른 입체 영상 장치를 제어하는 방법은, 상기 수신된 정보에 기초하여 상기 공중 이미지를 제어하는 동작(3220)을 포함할 수 있다.
도 33 및 도 34는 입체 영상 장치에 대한 사용자의 접근에 따른 입체 영상 장치 및 전자 장치를 제어하는 방법을 설명하기 위한 순서도이다.
도 33을 참조하면, 본 개시의 다양한 실시예들에 따른 입체 영상 장치를 제어하는 방법은, 상기 입체 영상 장치에 대한 사용자의 접근을 감지하는 동작(3300)을 포함할 수 있다.
본 개시의 다양한 실시예들에 따른 입체 영상 장치를 제어하는 방법은, 상기 사용자의 접근이 감지되면, 상기 사용자의 접근과 관련된 데이터를 생성하는 동작(3310)을 포함할 수 있다.
본 개시의 다양한 실시예들에 따른 입체 영상 장치를 제어하는 방법은, 상기 생성된 데이터를 상기 입체 영상 장치에 장착된 전자 장치에 전송하는 동작(3320)을 포함할 수 있다.
도 34를 참조하면, 본 개시의 다양한 실시예들에 따른 전자 장치(40)를 제어하는 방법은, 제1 어플리케이션을 실행하는 동작(3400)을 포함할 수 있다.
본 개시의 다양한 실시예들에 따른 전자 장치(40)를 제어하는 방법은, 사용자의 접근과 관련된 데이터를 입체 영상 장치로부터 수신하였는지 여부를 판단하는 동작(3410)을 포함할 수 있다.
본 개시의 다양한 실시예들에 따른 전자 장치(40)를 제어하는 방법은, 사용자의 접근과 관련된 데이터를 입체 영상 장치로부터 수신한 경우, 상기 제1 어플리케이션과 관련된 미리 지정된 기능을 실행하는 동작(3420)을 포함할 수 있다. 다양한 실시예에 따르면, 상기 미리 지정된 기능은 사용자에 의해 편집되거나 추가될 수 있다.
이 밖에, 도 32 내지 도 34에 대해서, 본 개시에서 설명된 다양한 전자 장치(40)들 또는 다양한 입체 영상 장치들에 관한 설명이 동일하게 적용될 수 있다.
이상, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해서 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 당해 분야에서 통상의 지식을 가진 자에게 있어서 자명하다 할 것이다.

Claims (31)

  1. 디스플레이 패널을 포함하는 전자 장치를 거치하는 거치대;
    상기 거치대의 일면에 배치되어, 상기 거치대에 거치된 상기 전자 장치의 디스플레이 패널에 대하여 경사지게 대면하는 하프 미러; 및
    상기 거치대 상에서 상기 하프 미러에 대하여 경사지게 배치된 재귀 반사 부재를 포함하고,
    상기 하프 미러는, 상기 디스플레이 패널로부터 출력된 이미지(이하, '제1 출력 이미지')를 반사하여 상기 재귀 반사 부재로 입사시키고, 상기 재귀 반사 부재에 의해 반사된 이미지를 투과함으로써,
    상기 제1 출력 이미지에 상응하는 이미지를 상기 하프 미러의 타측 공간에 결상(이하, '제1 공중 이미지')시키는 입체 영상 장치.
  2. 제1 항에 있어서,
    상기 거치대는, 상기 디스플레이 패널에 대향하는 면에서 상기 전자 장치에 탈착 가능하게 제공된 커버 부재이고,
    상기 하프 미러의 일단이 상기 커버 부재의 일측에 회동 가능하게 결합되며,
    상기 재귀 반사 부재의 일단이 상기 하프 미러의 타단에 회동 가능하게 결합된 입체 영상 장치.
  3. 제2 항에 있어서, 상기 커버 부재가 상기 전자 장치에 결합한 상태에서,
    1) 상기 하프 미러는 상기 재귀 반사 부재를 사이에 두고 상기 디스플레이 패널과 마주보게 접철되거나,
    2) 상기 재귀 반사 부재의 타단이 상기 커버 부재의 타측에 지지되어, 상기 디스플레이 패널에 대하여 상기 하프 미러를 경사지게 배치하는 입체 영상 장치.
  4. 제1 항에 있어서,
    상기 전자 장치는 상기 디스플레이 패널에 통합된 터치 패널을 더 포함하고,
    상기 터치 패널이 근접 터치 입력을 검출하는 영역 내에 상기 제1 공중 이미지를 결상시키는 입체 영상 장치.
  5. 제1 항에 있어서,
    상기 전자 장치는 상기 디스플레이 패널에 통합된 터치 패널을 더 포함하고,
    상기 디스플레이 패널의 일부 영역을 상기 하프 미러의 일측으로 노출시키는 입체 영상 장치.
  6. 제5 항에 있어서,
    상기 전자 장치는, 상기 디스플레이 패널의 일부로서 상기 전자 장치의 측면 중 적어도 일부를 형성하는 곡면 영역을 포함하고,
    상기 전자 장치가 상기 거치대에 거치된 상태에서, 적어도 상기 곡면 영역을 상기 하프 미러의 일측으로 노출시키는 입체 영상 장치.
  7. 제6 항에 있어서, 상기 제1 공중 이미지를 상기 곡면 영역에 인접하게 결상시키는 입체 영상 장치.
  8. 제5 항에 있어서,
    상기 전자 장치는, 상기 디스플레이 패널의 일부로서 상기 전자 장치의 측면 중 적어도 일부를 형성하는 곡면 영역을 포함하고,
    상기 전자 장치가 상기 거치대에 거치된 상태에서, 적어도 상기 곡면 영역을 통해 출력되는 이미지를 상기 제1 공중 이미지로 결상하고, 상기 디스플레이 패널의 다른 영역을 상기 하프 미러의 일측으로 노출시키는 입체 영상 장치.
  9. 제1 항에 있어서,
    상기 제1 공중 이미지에 대한 사용자 위치를 검출하는 제1 센서를 더 포함하고,
    상기 제1 센서를 통해 검출된 사용자의 위치 정보를 상기 거치대에 거치된 상기 전자 장치로 제공하는 입체 영상 장치.
  10. 제9 항에 있어서, 상기 제1 센서는, 카메라 모듈, 적외선 센서, 근접 센서, 조도 센서 중 적어도 하나를 포함하는 입체 영상 장치.
  11. 제1 항에 있어서,
    상기 거치대는 무선 전력 송신 기능을 제공하는 입체 영상 장치.
  12. 제1 항에 있어서,
    상기 거치대 상에서 상기 하프 미러에 대하여 경사지게 배치되면서, 일측이 상기 하프 미러에 인접하게, 타측이 상기 재귀 반사 부재에 인접하게 각각 배치된 디스플레이 장치를 더 포함하고,
    상기 하프 미러는, 상기 디스플레이 장치로부터 출력된 이미지(이하, '제2 출력 이미지')를 반사하여 상기 재귀 반사 부재로 입사시키고, 상기 재귀 반사 부재에 의해 반사된 이미지를 투과함으로써,
    상기 제2 출력 이미지에 상응하는 이미지를 상기 하프 미러의 타측 공간에 결상(이하, '제2 공중 이미지')시키는 입체 영상 장치.
  13. 제12 항에 있어서,
    상기 디스플레이 장치는, 상기 거치대에 거치된 상기 전자 장치의 디스플레이 패널과 중첩하게 배치되고, 상기 제1 출력 이미지의 적어도 일부를 투과시키는 입체 영상 장치.
  14. 제12 항에 있어서, 상기 제1 공중 이미지와 상기 제2 공중 이미지를 서로 중첩하게 결상시키는 입체 영상 장치.
  15. 전자 장치에 있어서,
    전면과, 상기 전면에 대향하는(opposite) 후면과, 상기 전면과 후면 사이의 공간을 적어도 일부 감싸게 형성된 측벽을 포함하는 하우징;
    상기 전면의 제1 영역에 배치된 제1 디스플레이 영역과, 상기 제1 디스플레이 영역으로부터 경사지게 연장되어 상기 하우징의 내부로 위치된 제2 디스플레이 영역을 포함하는 디스플레이 패널;
    상기 전면의 제2 영역에 배치되며, 상기 제2 디스플레이 영역에 인접하는 하프 미러; 및
    상기 하우징의 내부에서 상기 하프 미러에 대하여 경사지게 배치된 재귀 반사 부재를 포함하고,
    상기 하프 미러는, 상기 제2 디스플레이 영역으로부터 출력된 이미지(이하, '출력 이미지')를 반사하여 상기 재귀 반사 부재로 입사시키고, 상기 재귀 반사 부재에 의해 반사된 이미지를 투과함으로써,
    상기 하우징의 외부 공간에서, 상기 출력 이미지에 상응하는 공중 이미지를 결상시키는 전자 장치.
  16. 제15 항에 있어서,
    적어도 상기 제1 디스플레이 영역에서, 상기 디스플레이 패널에 통합된 터치 패널을 더 포함하는 전자 장치.
  17. 제15 항에 있어서,
    상기 하우징의 전면 상에 배치된 제1 센서를 더 포함하고,
    상기 제1 센서는 상기 공중 이미지가 결상되는 면 또는 공간에 대한 물체의 접근, 접촉, 이동을 검출하는 전자 장치.
  18. 제17 항에 있어서, 상기 제1 센서는 카메라 모듈, 적외선 센서, 근접 센서, 조도 센서 중 적어도 하나를 포함하는 전자 장치.
  19. 입체 영상 장치에 있어서,
    차량용 대시 보드(dash board) 상에 또는 대시 보드 내에 장착된 디스플레이 패널; 및
    적어도 일부 영역이 상기 대시 보드 상에 배치된 윈드 쉴드(wind shield)를 포함하며,
    상기 윈드 쉴드는, 상기 디스플레이 패널로부터 출력된 이미지를 반사하여, 상기 대시 보드 상에 공중 이미지를 결상시키는 입체 영상 장치.
  20. 제19 항에 있어서, 상기 윈드 쉴드는 적어도 일부 영역이 하프 미러로 형성되고,
    상기 하프 미러로 형성된 영역이 상기 디스플레이 패널로부터 출력된 이미지를 반사하는 입체 영상 장치.
  21. 제20 항에 있어서,
    상기 디스플레이 패널과 상기 윈드 쉴드 사이에 배치된 적어도 하나의 릴레이 렌즈(relay lens)를 더 포함하고,
    상기 릴레이 렌즈는 상기 디스플레이 패널로부터 출력된 이미지를 상기 하프 미러로 형성된 영역에 입사시키는 입체 영상 장치.
  22. 입체 영상 장치에 장착되는 전자 장치의 제어 방법에 있어서,
    상기 입체 영상 장치 주변에 공중 이미지를 디스플레이 하기 위하여 상기 전자 장치에 객체(object)를 디스플레이 하는 과정과,
    상기 공중 이미지를 제어하기 위한 사용자 입력에 관한 정보를 상기 입체 영상 장치로부터 수신하는 과정과,
    상기 수신된 정보에 기초하여 상기 공중 이미지를 제어하는 과정을 포함하는, 전자 장치의 제어 방법.
  23. 제22항에 있어서,
    상기 공중 이미지를 제어하기 위한 사용자 입력은, 상기 공중 이미지에 대한 3차원 터치, 3차원 탭, 3차원 그립(grip) 및 3차원 스트레치(stretch) 중 적어도 하나를 포함하는 전자 장치의 제어 방법.
  24. 제22항에 있어서,
    상기 수신된 정보에 기초하여 상기 공중 이미지를 제어하는 과정은, 상기 공중 이미지에 대응하는 객체에 관한 데이터를 상기 전자 장치와 연결된 다른 전자 장치로 전송하는 과정을 포함하는 전자 장치의 제어 방법.
  25. 제22항에 있어서,
    상기 수신된 정보에 기초하여 상기 공중 이미지를 제어하는 과정은, 상기 공중 이미지에 대응하는 객체에 관한 데이터를 상기 전자 장치와 연결된 다른 전자 장치로 전송하기 위하여 상기 전자 장치에 연결된 데이터 서버로 상기 데이터의 전송을 요청하는 과정을 포함하는 전자 장치의 제어 방법.
  26. 제22항에 있어서,
    상기 수신된 정보에 기초하여 상기 공중 이미지를 제어하는 과정은, 상기 사용자 입력에 대응하여 상기 공중 이미지의 크기를 확대하거나 축소하는 과정을 포함함을 특징으로 하는 전자 장치의 제어 방법.
  27. 입체 영상 장치에 장착되는 전자 장치에 있어서,
    디스플레이; 및
    상기 디스플레이와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는,
    상기 입체 영상 장치 주변에 공중 이미지를 디스플레이 하기 위하여 상기 전자 장치에 객체(object)를 디스플레이 하도록 제어하고,
    상기 공중 이미지를 제어하기 위한 사용자 입력에 관한 정보를 상기 입체 영상 장치로부터 수신되면, 상기 수신된 정보에 기초하여 상기 공중 이미지를 제어하는 전자 장치.
  28. 제27항에 있어서,
    상기 공중 이미지를 제어하기 위한 사용자 입력은, 상기 공중 이미지에 대한 3차원 터치, 3차원 탭, 3차원 그립(grip) 및 3차원 스트레치(stretch) 중 적어도 하나를 포함하는 전자 장치.
  29. 제27항에 있어서,
    상기 프로세서는, 상기 수신된 정보에 기초하여, 상기 공중 이미지에 대응하는 객체에 관한 데이터를 상기 전자 장치와 연결된 다른 전자 장치로 전송하도록 제어하는 전자 장치.
  30. 제27항에 있어서,
    상기 프로세서는, 상기 수신된 정보에 기초하여, 상기 공중 이미지에 대응하는 객체에 관한 데이터를 상기 전자 장치와 연결된 다른 전자 장치로 전송하기 위하여 상기 전자 장치에 연결된 데이터 서버로 상기 데이터의 전송을 요청하도록 제어하는 전자 장치.
  31. 제27항에 있어서,
    상기 프로세서는, 상기 수신된 정보에 기초하여, 상기 사용자 입력에 대응하여 상기 공중 이미지의 크기가 확대되거나 축소되도록 제어하는 전자 장치.
PCT/KR2017/003506 2016-05-16 2017-03-30 입체 영상 장치 및 그를 포함하는 전자 장치 WO2017200202A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP17799560.2A EP3451661B1 (en) 2016-05-16 2017-03-30 Three-dimensional imaging device and electronic device including same
US16/301,563 US10838228B2 (en) 2016-05-16 2017-03-30 Three-dimensional imaging device and electronic device including same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0059842 2016-05-16
KR1020160059842A KR102510944B1 (ko) 2016-05-16 2016-05-16 입체 영상 장치 및 그를 포함하는 전자 장치

Publications (1)

Publication Number Publication Date
WO2017200202A1 true WO2017200202A1 (ko) 2017-11-23

Family

ID=60326285

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/003506 WO2017200202A1 (ko) 2016-05-16 2017-03-30 입체 영상 장치 및 그를 포함하는 전자 장치

Country Status (4)

Country Link
US (1) US10838228B2 (ko)
EP (1) EP3451661B1 (ko)
KR (1) KR102510944B1 (ko)
WO (1) WO2017200202A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112262451A (zh) * 2018-07-10 2021-01-22 欧姆龙株式会社 输入装置

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3013888A1 (en) * 2017-08-11 2019-02-11 Jason Carl Radel Transmissive aerial image display
US11258890B2 (en) 2018-07-30 2022-02-22 IKIN, Inc. Portable terminal accessory device for holographic projection and user interface
KR20220011115A (ko) * 2019-03-11 2022-01-27 아이킨 인코포레이티드 홀로그래픽 투사 및 사용자 인터페이스를 위한 휴대용 단말 액세서리 디바이스
US20220155614A1 (en) * 2019-03-28 2022-05-19 Mitsubishi Electric Corporation Floating image display device
JP7294643B2 (ja) * 2019-04-28 2023-06-20 株式会社Albedo ディスプレイ装置
DE102019214521B4 (de) * 2019-09-24 2021-04-29 BSH Hausgeräte GmbH Hausgerät und Verfahren zur komfortablen und sicheren Bedienung eines Hausgeräts
JP7272294B2 (ja) * 2020-01-31 2023-05-12 住友電気工業株式会社 表示装置
US11256413B2 (en) 2020-02-10 2022-02-22 Synaptics Incorporated Non-contact gesture commands for touch screens
JP7325757B2 (ja) 2020-03-25 2023-08-15 淳 大▲高▼ 対話可能物体表示プログラムおよび対話可能物体表示装置
US11852963B2 (en) 2020-04-24 2023-12-26 Kohler Co. Systems and methods for controlling a plumbing fixture, smart mirror, and the like using projected images
CN113759564A (zh) * 2020-06-04 2021-12-07 浙江棱镜全息科技有限公司 汽车用空气成像装置及人机交互车载辅助系统
WO2022035168A1 (en) 2020-08-10 2022-02-17 Samsung Electronics Co., Ltd. Method and electronic device for projecting event information on reflector device connected to electronic device
TWI794924B (zh) * 2020-08-31 2023-03-01 美商希瑪有限責任公司 光學元件對準之設備及方法
KR102439092B1 (ko) * 2020-12-02 2022-09-01 이은영 입체 영상 표시장치
WO2022133207A1 (en) * 2020-12-18 2022-06-23 SA Incubator, LLC Interactive display system and method for interactively presenting holographic image
KR102466283B1 (ko) * 2020-12-22 2022-11-14 한국과학기술연구원 이면각 반사체와 반사 편광 필름을 이용한 테이블탑 3d 디스플레이
JP6916568B1 (ja) * 2021-01-29 2021-08-11 株式会社ツガワ 端末処理装置
JP7481289B2 (ja) * 2021-03-31 2024-05-10 マクセル株式会社 空間浮遊映像表示装置
EP4082391B1 (en) * 2021-04-29 2024-01-10 BSH Hausgeräte GmbH Cabinet with a holographic system
JP2022180814A (ja) * 2021-05-25 2022-12-07 アルプスアルパイン株式会社 表示装置
USD994011S1 (en) 2021-06-16 2023-08-01 IKIN, Inc. Holographic projection device
USD988277S1 (en) 2021-06-17 2023-06-06 IKIN, Inc. Portable holographic projection device
USD1009969S1 (en) 2021-06-17 2024-01-02 IKIN, Inc. Holographic device housing
EP4115779A1 (de) * 2021-07-06 2023-01-11 Vorwerk & Co. Interholding GmbH Haushaltsgerät mit multifunktionaler anzeige
WO2023238561A1 (ja) * 2022-06-07 2023-12-14 インターマン株式会社 折り畳み式空中映像表示装置
JP2024017364A (ja) * 2022-07-27 2024-02-08 マクセル株式会社 携帯可能な空間浮遊映像表示システム
JP2024029819A (ja) * 2022-08-23 2024-03-07 マクセル株式会社 空間浮遊映像表示装置
WO2024079832A1 (ja) * 2022-10-13 2024-04-18 三菱電機株式会社 インタフェース装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100110384A1 (en) * 2007-03-30 2010-05-06 Nat'l Institute Of Information & Communications Technology Floating image interaction device and its program
KR20130120835A (ko) * 2012-04-26 2013-11-05 주식회사딜루션 홀로그램 영상 표시 장치
US20150248014A1 (en) * 2014-02-28 2015-09-03 Microsoft Technology Licensing, Llc Control of polarization and diffractive artifact resolution in retro-imaging systems
JP2015230329A (ja) * 2014-06-03 2015-12-21 矢崎総業株式会社 車両用投影表示装置
KR20160037703A (ko) * 2014-09-29 2016-04-06 엘지전자 주식회사 3차원 영상 표시장치

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4509837A (en) * 1980-08-29 1985-04-09 Michiel Kassies Real image projection device
US5818642A (en) * 1996-05-29 1998-10-06 Collette; Anthony W. Message-reflecting apparatus and method of use
KR100558950B1 (ko) * 1999-05-17 2006-03-10 삼성전자주식회사 입체 영상 디스플레이의 하프미러 가변장치
JP2003072426A (ja) * 2001-08-31 2003-03-12 Tokai Rika Co Ltd 車載用赤外線画像表示装置
US6808268B2 (en) * 2001-09-18 2004-10-26 Provision Entertainment, Inc. Projection system for aerial display of three-dimensional video images
JP2005202145A (ja) * 2004-01-15 2005-07-28 Olympus Corp 車載用ヘッドアップディスプレイ、それを備えた車両、及び車載用ヘッドアップディスプレイを備えた車両の製造方法
JP5441059B2 (ja) 2007-07-30 2014-03-12 独立行政法人情報通信研究機構 多視点空中映像表示装置
JP5148960B2 (ja) 2007-09-21 2013-02-20 独立行政法人情報通信研究機構 体積走査型3次元空中映像ディスプレイ
US8360581B2 (en) 2008-05-23 2013-01-29 Eizo Nanao Corporation Stereoscopic image display system
JP2010262229A (ja) 2009-05-11 2010-11-18 National Institute Of Information & Communication Technology 表示装置
KR101102610B1 (ko) 2010-11-26 2012-01-04 하준영 입체 영상 디스플레이 장치
US9059591B2 (en) * 2011-08-30 2015-06-16 L&P Property Management Company Docking station for inductively charged portable electronic device
JP6143161B2 (ja) * 2012-03-30 2017-06-07 日東電工株式会社 表示装置
JP2014032600A (ja) 2012-08-06 2014-02-20 Nitto Denko Corp 表示入力装置
JP5992302B2 (ja) 2012-11-27 2016-09-14 日東電工株式会社 表示装置
US20140157206A1 (en) 2012-11-30 2014-06-05 Samsung Electronics Co., Ltd. Mobile device providing 3d interface and gesture controlling method thereof
JP2014160183A (ja) 2013-02-20 2014-09-04 Stanley Electric Co Ltd 3次元空中表示ディスプレイ装置
JP6278349B2 (ja) 2013-11-05 2018-02-14 日東電工株式会社 携帯型情報機器用ケースおよび映像表示装置のケース
WO2016088683A1 (ja) * 2014-12-01 2016-06-09 合同会社Snパートナーズ 空中像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100110384A1 (en) * 2007-03-30 2010-05-06 Nat'l Institute Of Information & Communications Technology Floating image interaction device and its program
KR20130120835A (ko) * 2012-04-26 2013-11-05 주식회사딜루션 홀로그램 영상 표시 장치
US20150248014A1 (en) * 2014-02-28 2015-09-03 Microsoft Technology Licensing, Llc Control of polarization and diffractive artifact resolution in retro-imaging systems
JP2015230329A (ja) * 2014-06-03 2015-12-21 矢崎総業株式会社 車両用投影表示装置
KR20160037703A (ko) * 2014-09-29 2016-04-06 엘지전자 주식회사 3차원 영상 표시장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3451661A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112262451A (zh) * 2018-07-10 2021-01-22 欧姆龙株式会社 输入装置
CN112262451B (zh) * 2018-07-10 2024-04-23 欧姆龙株式会社 输入装置

Also Published As

Publication number Publication date
EP3451661A4 (en) 2019-05-01
KR102510944B1 (ko) 2023-03-16
EP3451661A1 (en) 2019-03-06
US10838228B2 (en) 2020-11-17
KR20170129022A (ko) 2017-11-24
US20190285904A1 (en) 2019-09-19
EP3451661B1 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
WO2017200202A1 (ko) 입체 영상 장치 및 그를 포함하는 전자 장치
WO2016208945A1 (en) Portable apparatus and method for changing screen of the same
WO2020166892A1 (en) Electronic device for providing augmented reality user interface and operating method thereof
WO2018012719A1 (en) Electronic apparatus having a hole area within screen and control method thereof
WO2017065494A1 (en) Portable device and screen display method of portable device
WO2017213347A2 (en) Mobile device with touch screens and method of controlling the same
WO2017003018A1 (ko) 이동 단말기 및 그 제어 방법
WO2017164680A1 (ko) 디스플레이를 가진 전자 장치
WO2017039321A1 (en) Foldable electronic device including hidden display and information display method thereof
WO2017086700A1 (en) Portable device and method for controlling screen thereof
WO2017082508A1 (ko) 와치형 단말기 및 그 제어방법
WO2017135777A1 (en) Mobile electronic device and method for electronic payment
WO2018016906A1 (ko) 압력 센서를 구비한 전자 장치
WO2018008924A2 (ko) 유저 인터페이스 제공 방법 및 이를 지원하는 전자 장치
WO2012144667A1 (en) Method and electronic device for gesture recognition
WO2017164567A1 (en) Intelligent electronic device and method of operating the same
WO2016167620A1 (en) Apparatus and method for providing information via portion of display
WO2015122590A1 (en) Electronic device and method for controlling the same
WO2017200235A1 (ko) 전자기기 및 그 동작 방법
WO2015105257A1 (ko) 이동 단말기 및 그 제어방법
WO2017039125A1 (en) Electronic device and operating method of the same
WO2017082588A1 (ko) 근거리 통신 안테나 장치 및 이를 구비한 전자 장치
WO2015126012A1 (ko) 이동단말기 및 그 제어방법
WO2018164372A1 (ko) 전자 장치 및 전자 장치의 화면 표시방법
AU2017346260B2 (en) Electronic device and computer-readable recording medium for displaying images

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17799560

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017799560

Country of ref document: EP

Effective date: 20181127