WO2017164545A1 - 디스플레이 장치, 및 디스플레이 장치의 제어방법 - Google Patents

디스플레이 장치, 및 디스플레이 장치의 제어방법 Download PDF

Info

Publication number
WO2017164545A1
WO2017164545A1 PCT/KR2017/002518 KR2017002518W WO2017164545A1 WO 2017164545 A1 WO2017164545 A1 WO 2017164545A1 KR 2017002518 W KR2017002518 W KR 2017002518W WO 2017164545 A1 WO2017164545 A1 WO 2017164545A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
display
image
user interface
degrees
Prior art date
Application number
PCT/KR2017/002518
Other languages
English (en)
French (fr)
Inventor
하정수
윤용섭
이기상
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/087,748 priority Critical patent/US10778966B2/en
Priority to EP17770516.7A priority patent/EP3422710B1/en
Publication of WO2017164545A1 publication Critical patent/WO2017164545A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control

Definitions

  • a display device for displaying an image and a control method of the display device.
  • the display device is a device that outputs a visual and stereoscopic image.
  • the display device displays a video by receiving a broadcast signal transmitted from a video transmission device such as a broadcasting station or a broadcast server, displays a video received through an internet network, or displays a video by processing image data stored in a storage medium.
  • a video transmission device such as a broadcasting station or a broadcast server
  • displays a video received through an internet network or displays a video by processing image data stored in a storage medium.
  • Such a display device includes one or more components that perform different functions to provide an image to a user, and the quality of the image provided to the user varies according to an implementation form or function of each component.
  • Conventional display apparatuses are implemented in a cross-section to provide only an image of one side of an object or a landscape to a user, and thus, it is difficult for a user to enjoy an image provided by the display apparatus unless the display apparatus is viewed from a limited angle.
  • An object of the present invention is to provide a display apparatus for displaying a 3D image photographed 360 degrees in a spherical user interface and a control method of the display apparatus.
  • An object of the present invention is to provide a display apparatus and a control method of a display apparatus that provide a 3D image photographed 360 degrees so that a user can view an image from various angles through a user interface implemented in a sphere.
  • a display device includes a user interface implemented in a sphere; And a controller configured to control the user interface to display the 3D image photographed 360 degrees on the user interface.
  • the user interface may be implemented as a flexible display to directly display a 3D image photographed 360 degrees according to a control signal of the controller.
  • the user interface may include at least one projector for irradiating a beam, and a stereoscopic projection plate onto which the beam irradiated from the at least one projector is projected.
  • the user interface may include a display unit implemented as a touch screen device.
  • the apparatus may further include a detector configured to detect a user's motion, wherein the controller may generate a control signal to output a video content corresponding to the detected user's motion.
  • the sensing unit detects operations of a plurality of users, and the control unit may generate a control signal to individually output image contents corresponding to the plurality of users, respectively.
  • the user interface may include a display unit displaying a 3D image captured by 360 degrees, and an input unit configured to receive a user command, and the controller may generate a control signal to output the image content corresponding to the user command.
  • the input unit may receive a plurality of user commands, and the controller may generate a control signal to separately output the image contents corresponding to the plurality of user commands.
  • the operation of the user may include at least one of a user's position, gesture, mouth, facial expression, or sound.
  • the display apparatus may further include a detector configured to detect a state of the display apparatus or the surrounding environment, and the controller may generate a control signal to output the image content corresponding to the detected state or the surrounding environment.
  • the display device may further include a support for supporting the user interface.
  • the apparatus may further include a storage unit storing the 3D image data photographed at 360 degrees, and the controller may control the user interface to display the 3D image captured at 360 degrees based on the 3D image data captured at 360 degrees stored in the storage unit. .
  • the display apparatus may further include a communication unit configured to receive 3D image data captured by 360 degrees, and the controller may further include a user interface to display a 3D image taken 360 degrees based on the 360 degree imaged 3D image data received by the communication unit. Can be controlled.
  • the display device may be implemented as the head or eye of the robot.
  • a method of controlling a display apparatus including: displaying a 3D image in which a user interface implemented in a sphere is photographed 360 degrees; Detecting a user's motion; And displaying, by the user interface, image content corresponding to the user's operation.
  • the control method of the display apparatus may include receiving a user command; The method may further include displaying another image content corresponding to the user command by the user interface.
  • the user interface may be implemented as a touch screen device.
  • the control method of the display apparatus may include detecting a state of a display apparatus or a surrounding environment; The method may further include outputting image content corresponding to a state or a surrounding environment.
  • the control method of the display apparatus may include: importing 3D image data captured 360 degrees from a storage unit before displaying the 3D image captured 360 degrees; And generating a 3D image photographed 360 degrees based on the 3D image data photographed 360 degrees.
  • the control method of the display apparatus may include: receiving, by the communicator, 3D image data captured 360 degrees before displaying the 3D image captured 360 degrees; And generating a 3D image photographed 360 degrees based on the 3D image data photographed 360 degrees.
  • the user may obtain a three-dimensional and aesthetic feeling such that an object or a landscape represented by a three-dimensional image captured by 360 degrees is actually present inside a spherical user interface. Can be.
  • the user may view an object or a landscape represented by a 3D image photographed 360 degrees from various angles.
  • the image content corresponding to the position of the user may be variously output on the spherical user interface.
  • each user sees different faces of the object or the landscape according to the angle of looking at the user interface. Can be.
  • 1 is an external view of an embodiment of a display device.
  • FIG 2 is an external view of another embodiment of a display device.
  • 3 is an external view of another embodiment of a display device.
  • FIG. 4 is a control block diagram of a display apparatus according to an exemplary embodiment.
  • FIG. 5 is a control block diagram of a display apparatus according to another exemplary embodiment.
  • 6A is an exemplary view of a display unit.
  • 6B is another exemplary view of the display unit.
  • FIG. 7 is an exemplary view of a display unit outputting image content corresponding to a user's operation.
  • FIG. 8 is an exemplary diagram of a display unit for outputting image content corresponding to a user command.
  • 9 to 11 are exemplary views of various embodiments of the display apparatus.
  • FIG. 12 is a flowchart illustrating a control method of a display apparatus according to an exemplary embodiment.
  • FIG. 1 is an external view of an embodiment of a display device
  • FIG. 2 is an external view of another embodiment of a display device
  • FIG. 3 is an external view of another embodiment of a display device.
  • the display apparatus 100 is an apparatus for displaying an image, and displays an image by receiving a broadcast signal transmitted from a broadcasting station or an image signal received through a wired or wireless communication network.
  • the display apparatus 100 may display an image by processing image data stored in a storage medium.
  • the display apparatus 100 may receive analog and digital broadcast signals individually according to channel selection using one tuner, or may separately or simultaneously receive analog and digital broadcast signals using a plurality of tuners. Can be displayed.
  • the display device 100 may display an image as well as output a sound. The sound may be output through a device provided outside the display apparatus 100.
  • the display apparatus 100 includes a user interface 110 implemented in a spherical shape and a support 120 supporting the user interface 110.
  • the user interface 110 is an apparatus for displaying an image.
  • the user interface 110 may function as an input unit by including a touch sensor.
  • the image displayed by the user interface 110 includes a 3D image photographed 360 degrees, and the 360 degree image is an image further including information about one side of the object or the landscape as well as the other side. It may be a set of a plurality of cross-sectional images simultaneously taken from a plurality of points greater than 0 degrees and less than 360 degrees with respect to any one spaced apart from a predetermined distance.
  • the 3D image refers to an image in which an object or a landscape is expressed in three dimensions.
  • the three-dimensional image photographed 360 degrees refers to an image that expresses an object or a landscape in a three-dimensional sense and further includes information on not only one surface of the object or landscape, but also another surface.
  • the user interface 110 when the user interface 110 viewed from an angle displays the front surface of the object, the rear surface of the user interface 110, that is, the user interface 110 is 180 degrees.
  • the face shown when rotated indicates the back of the object. Therefore, when a plurality of users look at the user interface 110, the object or the landscape may look different depending on an angle at which each user looks at the user interface 110.
  • a stereo matching method may be used, but the exemplary embodiment is not limited thereto, and a 3D image of 360 degree may be generated by various methods.
  • the support unit 120 supports the user interface 110 implemented as a sphere.
  • the support unit 120 may be provided with a button or the like for allowing a user to input various control commands.
  • the support unit 120 may include various components necessary for the user interface 110 to display a 3D image photographed 360 degrees.
  • the support 120 may be omitted, and the user interface 110 implemented as a sphere may display a 3D image captured 360 degrees.
  • Various components can be directly embedded.
  • the user interface 110 when the support part 120 is omitted, the user interface 110 may be implemented in a three-dimensional form different from a spherical shape so as to stand on the ground. have. In this case, the user interface 110 may be implemented by cutting a part of the sphere.
  • FIG. 4 is a control block diagram of a display apparatus according to an exemplary embodiment.
  • the display apparatus 100 includes a user interface 110, a storage 130, a controller 140, and a detector 150.
  • the display apparatus 100 may further include the support 120 described above with reference to FIG. 1.
  • the user interface 110 includes a display unit 111 displaying a 3D image photographed 360 degrees and an input unit 112 for receiving a user command.
  • the user interface 110 may be the same as or different from the user interface 110 described above with respect to FIGS.
  • the display 111 may be implemented as a flexible display or a 3D display to display a 3D image photographed directly by 360 degrees.
  • the display 111 may be implemented using a plasma display panel (PDP), a light emitting diode (LED), a liquid crystal display (LCD), or the like.
  • PDP plasma display panel
  • LED light emitting diode
  • LCD liquid crystal display
  • the display 111 may be implemented to include at least one projector and a three-dimensional projection plate for displaying a three-dimensional image taken 360 degrees by projecting a beam irradiated by the projector.
  • the user may view the 3D image photographed 360 degrees from the outer surface that is opposite to the inner surface of the display unit 111 on which the beam is projected.
  • the display unit 111 displays a 3D image photographed 360 degrees to the user.
  • the display 111 may output image content corresponding to a user command according to a control signal of the controller 140.
  • the display 111 may output image content corresponding to at least one user position according to a control signal of the controller 140.
  • the display 111 may output image content corresponding to a surrounding environment according to a control signal of the controller 140. The video content output by the display 111 will be described later.
  • the display 111 may include a touch screen device.
  • the display 111 may also perform a function of the input unit 112 to be described later.
  • the touch screen device may be implemented using a pressure sensitive touch screen panel or a capacitive touch screen panel.
  • the touch screen device may be implemented using a touch screen panel using ultrasonic waves or infrared rays.
  • the input unit 112 may be implemented as a button, a joystick, a jog dial, or the like in addition to the touch screen device.
  • the input unit 112 may be implemented by being combined with the display unit 111 on the display unit 111, but may also be implemented on the support unit 120 described above with reference to FIG. 1.
  • the input unit 112 receives various user commands.
  • the input unit 112 may receive a user command for selecting one icon.
  • the input unit 112 may receive a user command and a rotation angle to physically rotate the display 111 on the support unit 120 of FIG. 1.
  • the input unit 112 may receive a user command and a rotation angle for rotating the 3D image captured by 360 degrees displayed by the display 111.
  • the user may adjust the desired rotation angle by dragging at one point of the display 111 without lifting a finger and then releasing it at another point.
  • the input unit 112 may wake-up a command to display a three-dimensional image captured by 360 degrees while the display 111 does not display a three-dimensional image captured by 360 degrees. You can also enter.
  • the input unit 112 may receive various user commands, and is not limited to the above-described example.
  • the storage unit 130 may be implemented as a memory, and may be implemented as an internal memory installed in a manufacturing step or an external memory that is removable.
  • the storage unit 130 stores programs and data necessary for the controller 140 to control the display apparatus 100.
  • the storage unit 130 stores data about a 360-degree image (hereinafter, referred to as 360-degree 3D image data).
  • the storage unit 130 may store preset values set for each component in the manufacturing stage of the display apparatus 100 and preset values set by the user for each component in the use stage of the display apparatus 100. have.
  • the controller 140 generates a control signal for controlling each component of the display apparatus 100.
  • the controller 140 includes an interface controller 141, a signal processor 142, and a sensing value processor 143, which are divided according to a function to be performed, and each component of the controller 140 is implemented as an independent module. It may be, but may be implemented as a combined module.
  • the interface controller 141 generates a control signal for controlling the display 111 and controls other components based on a user command input to the input unit 112.
  • the interface controller 141 generates a control signal such that the display 111 displays a 360-degree 3D image generated by the signal processor 142.
  • the interface controller 141 may generate a control signal so that the display 111 displays the image content corresponding to the input user command. For example, when the user inputs a wake-up command while the display 111 does not display a 3D image captured by 360 degrees, the interface controller 141 may use the 360 that the display 111 previously displayed. The control signal may be generated to display the 3D image captured again. In addition, when the user selects one icon, the interface controller 141 may generate a control signal to display the image content corresponding to the icon on the display 111.
  • the interface controller 141 may generate a control signal such that the display 111 displays the image content corresponding to the sensing result value generated by the sensing value processor 143. For example, when the distance between the user and the display apparatus 100 is less than the preset reference distance, the interface controller 141 may display an image at any point of the display 111 corresponding to the user's position. You can output the content. In addition, when the user is authenticated, the interface controller 141 may cause the display 111 to output image contents that can be displayed to the authenticated user.
  • the interface controller 141 may output the image content to the display 111 based on the sensing result value of the sensing value processor 143 for various actions of the user, such as a gesture, a mouth shape, an expression, or a sound of the user. can do.
  • the interface control unit 141 may generate a control signal for controlling the signal processing unit 142. Can be.
  • the signal processor 142 may generate image content corresponding to a user command or a detection result value based on the control signal of the controller 141.
  • the signal processor 142 generates a 3D image photographed 360 degrees based on the data stored in the storage 130.
  • the signal processor 142 generates image content corresponding to a user command input from the input unit 112 or a sensing result value of the sensing value processor 143 based on the control signal of the interface controller 141.
  • the sensing value processor 143 determines various operations of the user, such as a user's position, gesture, mouth, facial expression, or sound, based on the sensing value of the sensing unit 150, and the environment around the display apparatus 100, or The state of the display apparatus 100 is determined and the detection result is generated.
  • the sensing result value generated by the sensing value processor 143 may be provided to the interface controller 141.
  • the sensing value processor 143 may determine positions of a plurality of users, and may also determine a distance between each user and the display apparatus 100.
  • the sensing value processor 143 may authenticate the user based on the sensing value of the sensing unit 150.
  • the signal processor 142, the interface controller 141, and the sensing value processor 143 may include a memory for storing programs and data for performing respective functions, and a processor for generating control signals according to the programs and data stored in the memory. It may include. According to an exemplary embodiment, the signal processor 142, the interface controller 141, and the sensing value processor 143 may be implemented as separate memories and processors, or may be implemented as a single memory and a processor.
  • the detector 150 may detect various operations of the user, such as a user's location, gesture, mouth, facial expression, or sound, or authentication information (for example, iris information, fingerprint information, etc.) of the user, or may display the display device 100. Detect the condition or surrounding environment.
  • the detector 150 may include various known sensors capable of detecting a user's voice or motion, such as a camera, a microphone, an ultrasonic sensor, an infrared sensor, a micro wave sensor, and an electromagnetic field sensor.
  • the detection unit 150 detects the state or surrounding environment of the display device 100 such as a global positioning system (GPS), a temperature sensor, a humidity sensor, an acceleration sensor, a dust sensor, a gas sensor, and a tactile sensor. It may include a variety of known sensors that can.
  • GPS global positioning system
  • FIG. 5 is a control block diagram of a display apparatus according to another exemplary embodiment.
  • the display apparatus 100 may include a user interface 110, a controller 140, and a detector 150, and may further include a communicator 160.
  • the user interface 110, the detector 150, and the interface controller 141, the signal processor 142, and the sensing value processor 143 of the display apparatus 100 are included.
  • the implementation forms and functions of the display apparatus 100 according to an embodiment include a user interface 110, a detector 150, and an interface controller 141, a signal processor 142, and a controller 140 of the controller 140. Since it is the same as the function of the sensing value processing unit 143, redundant description is omitted.
  • the display apparatus 100 may further include a communication unit 160 instead of the storage unit 130.
  • the communication unit 160 transmits and receives data with an external device through a wired or wireless communication network.
  • the communicator 160 may receive 3D image data photographed 360 degrees from a server through a wired or wireless communication network.
  • the communication network is not only a wired communication network such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN), but also a universal serial bus (USB) and a high definition multimedia (HDMI). It may include a cable communication network such as an interface, a digital visual interface (DVI), or the like, or a wireless communication network of any kind, such as a mobile radio communication network or a satellite communication network.
  • LAN local area network
  • WAN wide area network
  • VAN value added network
  • HDMI high definition multimedia
  • HDMI high definition multimedia
  • the communication unit 160 may further include a receiver (not shown) for receiving image data.
  • the receiver may include one of a wired communication module, a wireless communication module, and a short range communication module, and may include a combination of a wired communication module, a wireless communication module, and a short range communication module.
  • the communication unit 160 may include one tuner to separately receive analog and digital broadcast signals according to channel selection, or include a plurality of tuners to individually and simultaneously receive analog and digital broadcast signals.
  • the image data or the broadcast signal received through the communication unit 160 includes 3D image data photographed 360 degrees.
  • the image data or the broadcast signal received through the communication unit 160 will be described as an example of three-dimensional image data taken 360 degrees.
  • the controller 130 of the display apparatus 100 may further include a communication controller 144 controlling the communicator 160.
  • the communication control unit 144 converts the image data received from the communication unit 160 and transmits the image data to the signal processing unit 142.
  • the signal processing unit 142 captures 360-degree three-dimensional image data that can be displayed. Generate a control signal to convert to an image.
  • the communication controller 144 may include a memory for storing a program and data for performing a function, and a processor for generating a control signal according to the program and data stored in the memory.
  • the signal processor 142, the interface controller 141, the sensing value processor 143, and the communication controller 144 may be implemented as separate memories and processors, or may be implemented as a single memory and processor. .
  • 6A is an exemplary diagram of a display unit
  • FIG. 6B is another exemplary diagram of a display unit.
  • the spherical display unit 111 may be implemented as a flexible display or a three-dimensional display including a light source to display a three-dimensional image photographed directly by 360 degrees.
  • the display unit 111 includes one projector 111a and a stereoscopic projection plate 111b that displays a three-dimensional image captured by 360 degrees by projecting a beam irradiated by the projector. It can be implemented to. In this case, the user may view the 3D image photographed 360 degrees from the outer surface that is opposite to the inner surface of the display unit 111 on which the beam is projected.
  • the display 111 projects a beam irradiated by the plurality of projectors 111c and 111d and the projectors 111c and 111d to display a 3D image photographed 360 degrees. It may be implemented to include a three-dimensional projection plate 111e. In this case, the image corresponding to the viewing angle of the object or the landscape may be displayed on the entire surface of the spherical stereoscopic projection plate 111e by the combination of the 360-degree 3D images projected by the plurality of projectors 111c and 111d. Can be.
  • the display 111 may include three or more projectors.
  • the display 111 may output various image contents according to a user's operation or a user command.
  • 7 is an exemplary view of a display unit outputting image content corresponding to a user's operation
  • FIG. 8 is an example view of a display unit outputting image content corresponding to a user command.
  • the interface The controller 141 may control the display 111 to output the image content S1 at a point P1 of the display 111 corresponding to the position of the first user U1 based on the detection result value.
  • the size of the output image content S1 may be inversely proportional to the shortest distance l1 between the first user U1 and the display apparatus 100.
  • the display unit 111 authenticates the first user U1 at any point P1 while displaying the 3D image photographed 360 degrees.
  • the password input screen S1 may be further displayed.
  • the sensing unit 150 may detect a plurality of users U1 and U2.
  • the sensing value processor 144 generates the positions of the plurality of users U1 and U2 and the shortest distances l1 and l2 between the users U1 and U2 and the display apparatus 100 as detection result values. .
  • the interface controller 141 outputs the first image content S1 at the first point P1 of the display 111 corresponding to the position of the first user U1 based on the detection result value. And control the display 111 to output the second image content S2 at the second point P2 of the display 111 corresponding to the position of the second user U2.
  • the first image content S1 and the second image content S2 may be the same or different.
  • the interface control unit 141 may correspond to the first point P1 and the second point P2, respectively.
  • the display 111 may be controlled to output the image contents S1 and S2 corresponding to the user.
  • the interface control unit 141 may select any point P1 of the display unit 111 corresponding to the user command.
  • the display 111 may be controlled to output the image content S1.
  • the display 111 may output the image content S1 around a point P1 of the display 111 corresponding to the user command.
  • the display unit 111 when the display unit 111 is implemented as a touch screen device and the first user U1 touches a point P1 of the display unit 111, the display unit 111 photographs 360 degrees. In a state where the three-dimensional image is displayed, a password input screen S1 for authenticating the first user U1 may be further displayed at any point P1.
  • the input unit 112 may receive user commands of the plurality of users U1 and U2.
  • the interface control unit 141 controls the display unit 111 to output the first image content S1 corresponding to the user command of the first user U1, and then to the user command of the second user U2.
  • the display 111 may be controlled to output corresponding second image content S2.
  • the display 111 when the sensing value processor 144 generates the state or the surrounding environment of the display apparatus 100 as a sensing result value based on the sensing value of the sensing unit 150, the display 111 is It is also possible to output the image content corresponding to the state of the display apparatus 100 or the surrounding environment. For example, when it is detected that the humidity is greater than or equal to the preset reference humidity, the display 111 may display a 360-degree 3D image indicating that the humidity is high as the image content.
  • Such a display device 100 may be implemented in various ways in addition to being performed alone, in combination with other devices.
  • 9 to 11 are exemplary views of various embodiments of the display apparatus.
  • the display 111 of the display apparatus 100 may be implemented as the head of the robot 200, and the support 120a may be implemented as the body of the robot.
  • the display 111 of the display apparatus 100 may dynamically express the expression of the robot in various ways, and may express the eyes, the nose, and the mouth three-dimensionally like a face of a real person.
  • the facial expression of the robot expressed by the display 111 may vary according to a user's motion detected by the detector 150, a state of the display apparatus 100, or a surrounding environment.
  • the display 111 of the display apparatus 100 may be implemented as an eyeball portion of the robot 200.
  • the display 111 of the display apparatus 100 may move the position P3 of the pupil corresponding to the operation of the user U detected by the sensor 150 or the state of the display apparatus 100. Can be.
  • the interface controller 141 may arrange the pupil of the robot 200 at the right point P3 corresponding to the position of the user U.
  • the display 111 may be controlled.
  • the display apparatus 100 may be used as a display for displaying a work of art photographed from various angles.
  • the display unit 111 of the display apparatus 100 displays a three-dimensional image photographed 360 degrees, so that the user can appreciate the three-dimensional art work from various angles.
  • the 360-degree 3D image displayed by the display 111 may be a holographic image that can be viewed from all angles.
  • the display apparatus 100 may perform a function of a dual monitor in which a plurality of users may collaborate.
  • the display apparatus 100 may function as various 3D image display apparatuses photographed 360 degrees, such as providing virtual reality as a 3D image photographed 360 degrees.
  • FIG. 12 is a flowchart illustrating a control method of a display apparatus according to an exemplary embodiment, and the components of the display apparatus described with reference to FIG. 12 are the same as those of the display apparatus described above with reference to FIGS. 1 to 11. Omitted description.
  • control method of the display apparatus 100 receives a 3D image signal captured 360 degrees (S1110).
  • the 360-degree 3D image signal may refer to 360-degree 3D image data stored in the storage unit 130, the 360-degree 3D image data received by the communication unit 160 from an external device. Maybe you can.
  • Receiving a 360-degree 3D image signal may be performed by the signal processor 142 of the controller 140.
  • control method of the display apparatus 100 generates a 360-degree 3D image based on the received 360-degree 3D image signal, and generates the 360-degree 3D image.
  • the display is displayed on the display 111 (S1120).
  • the generating of the 3D image captured by 360 degrees may be performed by the signal processor 142 of the controller 140.
  • the displaying of the 3D image captured by 360 degrees may include generating a control signal so that the interface controller 141 of the controller 140 displays the generated 360 degree 3D image, and the display 111 controls the display.
  • the method may include displaying the 3D image photographed 360 degrees based on the signal.
  • the control method of the display apparatus 100 detects a user's motion such as a gesture, a mouth shape, an expression, or a sound of the user (S1130).
  • the detecting of the user's motion may be performed by the sensing unit 150.
  • a user's motion detected may vary.
  • the detecting of the user's motion may include detecting the user's authentication information, and the user's authentication information includes various information for verifying the user's identity such as iris information, fingerprint information, and voice information.
  • control method of the display apparatus 100 outputs the image content corresponding to the user's operation (S1140).
  • the outputting of the image content may include: determining, by the sensing value processor 143, the user's operation based on the sensing value of the sensor 150, generating a detection result value, and determining the image content corresponding to the detection result value;
  • the signal processor 142 loading the image content corresponding to the detection result through the storage 130 or the communication unit 160, and the interface controller 141 displays the image content corresponding to the detection result by the display 111 Generating a control signal such that the display signal is displayed, and displaying the image content by the display unit 111 based on the control signal.
  • the display 111 may change the area of the image content to be displayed according to the user's operation.
  • the display 111 may output a plurality of image contents corresponding to each user.
  • the control method of the display apparatus 100 may receive a user command and output image content corresponding to the user command.
  • a control method of the display apparatus 100 may detect a state and a surrounding environment of the display apparatus 100 and output image content corresponding to a detection result value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

디스플레이 장치는 구형으로 구현된 유저 인터페이스, 및 유저 인터페이스에 360도 촬영된 3차원 영상이 표시되도록 유저 인터페이스를 제어하는 제어부를 포함한다. 개시된 실시예에 따른 디스플레이 장치 및 디스플레이 장치의 제어방법을 이용하는 경우, 유저는 360도 촬영된 3차원 영상이 표현하는 대상체 또는 풍경이 구형의 유저 인터페이스 내부에 실제로 존재하는 것과 같은 입체감 및 심미감을 얻을 수 있다.

Description

디스플레이 장치, 및 디스플레이 장치의 제어방법
영상을 표시하는 디스플레이 장치 및 디스플레이 장치의 제어방법에 관한 것이다.
디스플레이 장치는 시각적이면서 입체적인 영상을 출력하는 장치이다.
디스플레이 장치는 방송국 등 영상 송신 장치 또는 방송 서버에서 전송되는 방송 신호를 수신하여 영상을 디스플레이하거나, 인터넷망을 통해 수신한 영상을 디스플레이하거나, 또는 저장 매체에 저장된 영상 데이터를 처리하여 영상을 디스플레이하는 기능을 가질 수 있다.
이러한 디스플레이 장치는 사용자에게 영상을 제공하기 위해 서로 다른 기능을 수행하는 하나 이상의 구성 요소들을 포함하고, 각 구성 요소의 구현 형태 또는 기능에 따라 사용자에게 제공되는 영상의 품질이 달라진다.
종래의 디스플레이 장치는 단면으로 구현되어 대상체 또는 풍경의 일면에 대한 영상만을 사용자에게 제공할 뿐이어서, 사용자는 디스플레이 장치를 제한된 각도에서 바라보지 않는 이상 디스플레이 장치가 제공하는 영상을 감상하기 어려웠다.
구형으로 구현된 유저 인터페이스에서 360도 촬영된 3차원 영상을 표시하는 디스플레이 장치 및 디스플레이 장치의 제어방법을 제공하고자 한다.
구형으로 구현된 유저 인터페이스를 통하여 다양한 각도에서 유저가 영상을 감상할 수 있도록 360도 촬영된 3차원 영상을 제공하는 디스플레이 장치 및 디스플레이 장치의 제어방법을 제공하고자 한다.
일 측면에 따른 디스플레이 장치는 구형으로 구현된 유저 인터페이스; 및 유저 인터페이스에 360도 촬영된 3차원 영상이 표시되도록 유저 인터페이스를 제어하는 제어부를 포함한다.
유저 인터페이스는 플렉서블 디스플레이로 구현되어 제어부의 제어 신호에 따라 360도 촬영된 3차원 영상을 직접 표시할 수 있다.
유저 인터페이스는 빔을 조사하는 적어도 하나 이상의 프로젝터, 및 적어도 하나 이상의 프로젝터로부터 조사된 빔이 투영되는 입체 투영판을 포함할 수 있다.
유저 인터페이스는 터치스크린 장치로 구현된 디스플레이부를 포함할 수 있다.
유저의 동작을 감지하는 감지부를 더 포함하되, 제어부는 감지된 유저의 동작에 대응하는 영상 컨텐츠를 유저 인터페이스가 출력하도록 제어 신호를 생성할 수 있다.
감지부는 복수의 유저의 동작을 감지하고, 제어부는 복수의 유저에 각각 대응하는 영상 컨텐츠를 유저 인터페이스가 개별적으로 출력하도록 제어 신호를 생성할 수 있다.
유저 인터페이스는 360도 촬영된 3차원 영상을 표시하는 디스플레이부, 및 유저 명령을 입력 받는 입력부를 포함하고, 제어부는 유저 명령에 대응하는 영상 컨텐츠를 디스플레이부가 출력하도록 제어 신호를 생성할 수 있다.
입력부는 복수의 유저 명령을 입력 받고, 제어부는 복수의 유저 명령에 각각 대응하는 영상 컨텐츠를 디스플레이부가 개별적으로 출력하도록 제어 신호를 생성할 수 있다.
유저의 동작은 유저의 위치, 제스처, 입모양, 표정, 또는 소리 중 적어도 어느 하나를 포함할 수 있다.
디스플레이 장치는 디스플레이 장치의 상태 또는 주변 환경을 감지하는 감지부를 더 포함하되, 제어부는 감지된 상태 또는 주변 환경에 대응하는 영상 컨텐츠를 유저 인터페이스가 출력하도록 제어 신호를 생성할 수 있다.
디스플레이 장치는 유저 인터페이스를 지지하는 지지부를 더 포함할 수 있다.
360도 촬영된 3차원 영상 데이터가 저장된 저장부를 더 포함하되, 제어부는 저장부에 저장된 360도 촬영된 3차원 영상 데이터에 기초하여 360도 촬영된 3차원 영상이 표시되도록 유저 인터페이스를 제어할 수 있다.
디스플레이 장치는 360도 촬영된 3차원 영상 데이터를 수신하는 통신부를 더 포함하되, 제어부는 통신부가 수신한 360도 촬영된 3차원 영상 데이터에 기초하여 360도 촬영된 3차원 영상이 표시되도록 유저 인터페이스를 제어할 수 있다.
디스플레이 장치는 로봇의 머리 또는 안구로서 구현될 수 있다.
다른 측면에 따른 디스플레이 장치의 제어방법은 구형으로 구현된 유저 인터페이스가 360도 촬영된 3차원 영상을 표시하는 단계; 유저의 동작을 감지하는 단계; 유저의 동작에 대응하는 영상 컨텐츠를 유저 인터페이스가 표시하는 단계를 포함할 수 있다.
디스플레이 장치의 제어방법은 유저 명령을 입력 받는 단계; 유저 명령에 대응하는 다른 영상 컨텐츠를 유저 인터페이스가 표시하는 단계를 더 포함할 수 있다.
유저 인터페이스는 터치스크린 장치로 구현될 수 있다.
디스플레이 장치의 제어방법은 디스플레이 장치의 상태 또는 주변 환경을 감지하는 단계; 상태 또는 주변 환경에 대응하는 영상 컨텐츠를 출력하는 단계를 더 포함할 수 있다.
디스플레이 장치의 제어방법은 360도 촬영된 3차원 영상을 표시하는 단계 이전에, 저장부에서 360도 촬영된 3차원 영상 데이터를 불러오는 단계; 및 360도 촬영된 3차원 영상 데이터에 기초하여 360도 촬영된 3차원 영상을 생성하는 단계를 더 포함할 수 있다.
디스플레이 장치의 제어방법은 360도 촬영된 3차원 영상을 표시하는 단계 이전에, 통신부가 360도 촬영된 3차원 영상 데이터를 수신하는 단계; 및 360도 촬영된 3차원 영상 데이터에 기초하여 360도 촬영된 3차원 영상을 생성하는 단계를 더 포함할 수 있다.
개시된 실시예에 따른 디스플레이 장치, 및 디스플레이 장치의 제어방법을 이용하는 경우, 유저는 360도 촬영된 3차원 영상이 표현하는 대상체 또는 풍경이 구형의 유저 인터페이스 내부에 실제로 존재하는 것과 같은 입체감 및 심미감을 얻을 수 있다.
또한, 개시된 실시예에 따른 디스플레이 장치, 및 디스플레이 장치의 제어방법을 이용하는 경우, 유저는 360도 촬영된 3차원 영상이 표현하는 대상체 또는 풍경을 다양한 각도에서 감상할 수 있다.
또한, 개시된 실시예에 따른 디스플레이 장치, 및 디스플레이 장치의 제어방법을 이용하는 경우, 구형의 유저 인터페이스 상에서 유저의 위치에 대응하는 영상 컨텐츠가 다양하게 출력될 수 있다.
또한, 개시된 실시예에 따른 디스플레이 장치, 및 디스플레이 장치의 제어방법을 이용하여 다수의 유저가 유저 인터페이스를 바라보는 경우, 각 유저는 유저 인터페이스를 바라보는 각도에 따라 대상체 또는 풍경의 서로 다른 면을 볼 수 있다.
도 1은 디스플레이 장치의 일 실시예에 대한 외관도이다.
도 2는 디스플레이 장치의 다른 실시예에 대한 외관도이다.
도 3은 디스플레이 장치의 또 다른 실시예에 대한 외관도이다.
도 4는 일 실시예에 따른 디스플레이 장치의 제어 블록도이다.
도 5는 다른 실시예에 따른 디스플레이 장치의 제어 블록도이다.
도 6a는 디스플레이부의 일 예시도이다.
도 6b는 디스플레이부의 다른 예시도이다.
도 7은 유저의 동작에 대응하는 영상 컨텐츠를 출력하는 디스플레이부의 일 예시도이다.
도 8은 유저 명령에 대응하는 영상 컨텐츠를 출력하는 디스플레이부의 일 예시도이다.
도 9 내지 도 11은 디스플레이 장치의 다양한 실시예에 대한 예시도이다.
도 12는 일 실시예에 따른 디스플레이 장치의 제어방법에 대한 순서도이다.
본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되는 이하의 상세한 설명과 바람직한 실시 예들로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서에서, 제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.
이하 첨부된 도면을 참조하여 디스플레이 장치, 및 디스플레이 장치의 제어방법을 후술된 실시 예들에 따라 상세하게 설명하도록 한다.
도 1은 디스플레이 장치의 일 실시예에 대한 외관도이고, 도 2는 디스플레이 장치의 다른 실시예에 대한 외관도이고, 도 3은 디스플레이 장치의 또 다른 실시예에 대한 외관도이다.
도 1을 참조하면, 일 실시예에 따른 디스플레이 장치(100)는 영상(image)을 표시하는 장치로서, 방송국에서 전송되는 방송 신호 또는 유무선 통신망을 통해 수신한 영상 신호를 수신하여 영상을 디스플레이한다. 또한, 디스플레이 장치(100)는 저장 매체에 저장된 영상 데이터를 처리하여 영상을 디스플레이할 수도 있다.
예를 들어, 디스플레이 장치(100)는 하나의 튜너를 사용하여 아날로그 및 디지털 방송 신호를 채널 선택에 따라 개별적으로 수신하거나, 다수개의 튜너를 사용하여 아날로그 및 디지털 방송 신호를 개별적으로 또는 동시에 수신하여 영상을 디스플레이할 수 있다. 이러한 디스플레이 장치(100)는 영상을 디스플레이할 뿐만 아니라 사운드를 출력하는 것도 가능하다. 여기서 사운드는 디스플레이 장치(100)의 외부에 마련된 기기를 통해 출력하는 것도 가능하다.
일 실시예에 따른 디스플레이 장치(100)는 구형으로 구현된 유저 인터페이스(110)와 유저 인터페이스(110)를 지지하는 지지부(120)를 포함한다.
유저 인터페이스(110)는 영상을 디스플레이하는 장치로서, 영상을 디스플레이하는 것뿐만 아니라, 터치 센서를 포함함으로써 입력부로서 기능할 수도 있다.
유저 인터페이스(110)가 디스플레이하는 영상은 360도 촬영된 3차원 영상을 포함하고, 360도 촬영 영상은 대상체 또는 풍경의 어느 한 면뿐만 아니라, 다른 면에 대한 정보를 더 포함하는 영상으로서, 대상체로부터 소정 거리 이격된 어느 한 지점을 기준으로 0도 초과 360도 이하의 다수 지점에서 동시에 촬영된 복수의 단면 영상들의 집합일 수 있다. 3차원 영상은 대상체 또는 풍경을 입체감이 있게 표현한 영상을 의미한다.
360도 촬영된 3차원 영상은 대상체 또는 풍경을 입체감이 있게 표현하고 대상체 또는 풍경의 어느 한 면뿐만 아니라, 다른 면에 대한 정보를 더 포함하는 영상을 의미한다.
예를 들어, 도 1에 도시된 바와 같이, 어느 한 각도에서 바라본 유저 인터페이스(110)가 대상체의 전면을 표시하고 있는 경우, 유저 인터페이스(110)의 후면, 즉, 유저 인터페이스(110)를 180도 회전시켰을 때 보여지는 면은 대상체의 후면을 표시한다. 따라서, 다수의 유저가 유저 인터페이스(110)를 바라보는 경우, 각 유저가 유저 인터페이스(110)를 바라보는 각도에 따라 대상체 또는 풍경이 서로 다르게 보일 수 있다.
360도 촬영된 3차원 영상을 생성하는 방식은, 예를 들어 스테레오 매칭 방식을 사용할 수 있으나, 실시예가 이에 한정되는 것은 아니며, 다양한 방식에 의해 360도 촬영된 3차원 영상을 생성할 수 있다.
지지부(120)는 구형으로 구현된 유저 인터페이스(110)를 지지한다.
지지부(120)에는 유저가 다양한 제어 명령을 입력할 수 있도록 하는 버튼 등이 외부에 마련될 수 있다.
또한, 지지부(120)는 유저 인터페이스(110)가 360도 촬영된 3차원 영상을 표시하기 위해 필요한 다양한 구성요소들을 내장할 수도 있다.
한편, 도 2를 참조하면, 다른 실시예에 따른 디스플레이 장치(100)에서, 지지부(120)는 생략될 수 있고, 구형으로 구현된 유저 인터페이스(110)는 360도 촬영된 3차원 영상을 표시하기 위한 다양한 구성요소들을 직접 내장할 수 있다.
또한, 도 3을 참조하면, 또 다른 실시예에 따른 디스플레이 장치(100)에서, 지지부(120)가 생략되는 경우, 유저 인터페이스(110)는 지면에서 세워질 수 있도록 구형과 다른 입체 형태로 구현될 수도 있다. 이 경우, 유저 인터페이스(110)는 구의 일부를 절삭한 형태로 구현될 수도 있다.
이하, 일 실시예에 따른 디스플레이 장치(100)의 세부 구성에 대해서 설명한다. 도 4는 일 실시예에 따른 디스플레이 장치의 제어 블록도이다.
디스플레이 장치(100)는 유저 인터페이스(110), 저장부(130), 제어부(140), 및 감지부(150)를 포함한다. 디스플레이 장치(100)는 도 1과 관련하여 전술한 지지부(120)를 더 포함할 수 있다.
유저 인터페이스(110)는 360도 촬영된 3차원 영상을 표시하는 디스플레이부(111) 및 유저 명령을 입력 받는 입력부(112)를 포함한다. 유저 인터페이스(110)는 도 1 내지 도 3과 관련하여 전술한 유저 인터페이스(110)와 동일할 수도 있고 상이할 수도 있다.
디스플레이부(111)는 플렉서블 디스플레이 또는 3차원 디스플레이로 구현되어 직접 360도 촬영된 3차원 영상을 표시할 수 있다. 이 경우, 디스플레이부(111)는 플라즈마 디스플레이 패널(PDP, plazma display panel), 발광 다이오드(LED, light emitting diode) 또는 액정 디스플레이(LCD, liquid crystal display) 등을 이용하여 구현된 것일 수 있다.
또한, 디스플레이부(111)는 적어도 하나의 프로젝터와 프로젝터에 의해 조사된 빔을 투영하여 360도 촬영된 3차원 영상을 표시하는 입체 투영판을 포함하도록 구현될 수 있다. 이 경우, 유저는 빔이 투영된 디스플레이부(111)의 내부면에 대해 반대면인 외부면에서 360도 촬영된 3차원 영상을 감상할 수 있다.
이러한 디스플레이부(111)는 360도 촬영된 3차원 영상을 유저에게 표시한다. 또한, 디스플레이부(111)는 제어부(140)의 제어 신호에 따라 유저 명령에 대응하는 영상 컨텐츠를 출력할 수 있다. 또한, 디스플레이부(111)는 제어부(140)의 제어 신호에 따라 적어도 하나의 유저 위치에 대응하는 영상 컨텐츠를 출력할 수 있다. 또한, 디스플레이부(111)는 제어부(140)의 제어 신호에 따라 주변 환경에 대응하는 영상 컨텐츠를 출력할 수도 있다. 디스플레이부(111)가 출력하는 영상 컨텐츠에 대하여는 후술한다.
디스플레이부(111)는 터치스크린 장치를 포함할 수도 있다. 디스플레이부(111)가 터치스크린 장치를 포함하는 경우 디스플레이부(111)는 후술할 입력부(112)의 기능도 수행할 수도 있다. 터치스크린 장치는 감압식 터치스크린 패널이나 정전식 터치 스크린 패널을 이용하여 구현된 것일 수 있다. 또한 터치스크린 장치는 초음파나 적외선을 이용한 터치 스크린 패널을 이용하여 구현된 것일 수도 있다.
입력부(112)는 터치스크린 장치 외에도, 버튼, 조이스틱, 또는 조그 다이얼 등으로 구현될 수도 있다.
이와 같은 입력부(112)는 디스플레이부(111) 상에서 디스플레이부(111)와 결합되어 구현될 수 있으나, 도 1과 관련하여 전술한 지지부(120) 상에 구현되는 것도 가능하다.
입력부(112)는 다양한 유저 명령을 입력 받는다.
예를 들어, 디스플레이부(111)가 여러 아이콘들을 표시하는 경우, 입력부(112)는 어느 한 아이콘을 선택하는 유저 명령을 입력 받을 수 있다.
다른 예를 들어, 입력부(112)는 디스플레이부(111)를 도 1의 지지부(120) 상에서 물리적으로 회전시키는 유저 명령 및 회전 각도 등을 입력 받을 수 있다.
또 다른 예를 들어, 입력부(112)는 디스플레이부(111)가 표시하는 360도 촬영된 3차원 영상을 회전시키는 유저 명령 및 회전 각도를 입력 받을 수도 있다. 이 경우, 유저는 디스플레이부(111)의 어느 한 지점에서 손가락을 떼지 않고 드래그한 이후 다른 한 지점에서 떼는 방식으로 원하는 회전 각도를 조절할 수 있다.
또 다른 예를 들어, 입력부(112)는 디스플레이부(111)가 360도 촬영된 3차원 영상을 표시하지 않는 상태에서 360도 촬영된 3차원 영상을 표시하도록 명령하는 웨이크업(Wake-up) 명령을 입력 받을 수도 있다.
이외에도 입력부(112)는 다양한 유저 명령을 입력 받을 수 있는 바, 전술한 예시에 한정되지 아니한다.
저장부(130)는 메모리로 구현될 수 있고, 제조단계에서 설치된 내장 메모리 또는 탈부착이 가능한 외장 메모리로 구현될 수 있다.
저장부(130)는 제어부(140)가 디스플레이 장치(100)를 제어하는 데 필요한 프로그램 및 데이터를 저장한다. 일 예로서, 저장부(130)는 360도 촬영 영상에 대한 데이터(이하, 360도 촬영된 3차원 영상 데이터)를 저장한다.
또한, 저장부(130)는 디스플레이 장치(100)의 제조 단계에서 각 구성요소에 대하여 미리 설정된 설정값, 디스플레이 장치(100)의 사용 단계에서 각 구성요소에 대하여 유저에 의해 설정된 설정값을 저장할 수도 있다.
제어부(140)는 디스플레이 장치(100)의 각 구성요소를 제어하기 위한 제어 신호를 생성한다.
제어부(140)는 수행하는 기능에 따라 구분된, 인터페이스 제어부(141), 신호 처리부(142), 및 센싱값 처리부(143)를 포함하고, 제어부(140)의 각 구성요소는 독립적인 모듈로서 구현될 수도 있으나, 하나의 모듈로서 결합되어 구현되는 것도 가능하다.
인터페이스 제어부(141)는 디스플레이부(111)를 제어하기 위한 제어 신호를 생성하고 입력부(112)에 입력된 유저 명령에 기초하여 다른 구성 요소를 제어한다.
예를 들어, 인터페이스 제어부(141)는 신호 처리부(142)에서 생성한 360도 촬영된 3차원 영상을 디스플레이부(111)가 표시하도록 제어 신호를 생성한다.
또한, 인터페이스 제어부(141)는 입력된 유저 명령에 대응하는 영상 컨텐츠를 디스플레이부(111)가 표시하도록 제어 신호를 생성할 수 있다. 예를 들어, 디스플레이부(111)가 360도 촬영된 3차원 영상을 표시하지 않는 상태에서 유저가 웨이크업 명령을 입력하는 경우, 인터페이스 제어부(141)는 디스플레이부(111)가 이전에 표시하였던 360도 촬영된 3차원 영상을 다시 표시하도록 제어신호를 생성할 수 있다. 또한, 유저가 어느 한 아이콘을 선택한 경우, 인터페이스 제어부(141)는 해당 아이콘에 대응하는 영상 컨텐츠를 디스플레이부(111)가 표시하도록 제어 신호를 생성할 수 있다.
또한, 인터페이스 제어부(141)는 센싱값 처리부(143)가 생성한 감지 결과값에 대응하는 영상 컨텐츠를 디스플레이부(111)가 표시하도록 제어 신호를 생성할 수 있다. 예를 들어, 유저와 디스플레이 장치(100) 간의 거리가 미리 설정된 기준 거리 미만인 경우, 인터페이스 제어부(141)는 유저의 위치에 대응하는 디스플레이부(111)의 어느 한 지점에 디스플레이부(111)가 영상 컨텐츠를 출력하도록 할 수 있다. 또한, 유저가 인증된 경우, 인터페이스 제어부(141)는 디스플레이부(111)가 인증된 유저에게 표시 가능한 영상 컨텐츠들을 출력하도록 할 수 있다. 또한, 인터페이스 제어부(141)는 유저의 제스처, 입모양, 표정, 또는 소리 등 유저의 다양한 동작에 대한 센싱값 처리부(143)의 감지 결과값에 기초하여 디스플레이부(111)가 영상 컨텐츠를 출력하도록 할 수 있다.
입력부(112)로부터 입력된 유저 명령 또는 센싱값 처리부(143)의 감지 결과값에 대응하는 영상 컨텐츠를 생성하기 위하여, 인터페이스 제어부(141)는 신호 처리부(142)를 제어하기 위한 제어 신호를 생성할 수 있다. 제어부(141)의 제어 신호에 기초하여 신호 처리부(142)는 유저 명령 또는 감지 결과값에 대응하는 영상 컨텐츠를 생성할 수 있다.
신호 처리부(142)는 저장부(130)에 저장된 데이터에 기초하여 360도 촬영된 3차원 영상을 생성한다.
또한, 신호 처리부(142)는 인터페이스 제어부(141)의 제어 신호에 기초하여 입력부(112)로부터 입력된 유저 명령 또는 센싱값 처리부(143)의 감지 결과값에 대응하는 영상 컨텐츠를 생성한다.
센싱값 처리부(143)는 감지부(150)의 센싱값에 기초하여 유저의 위치, 제스처, 입모양, 표정, 또는 소리 등 유저의 다양한 동작을 판단하고, 디스플레이 장치(100) 주변의 환경, 또는 디스플레이 장치(100)의 상태 등을 판단하고 감지 결과값을 생성한다. 센싱값 처리부(143)가 생성한 감지 결과값은 인터페이스 제어부(141)에 제공될 수 있다. 예를 들어, 센싱값 처리부(143)는 복수의 유저의 위치를 각각 판단할 수 있고, 각 유저와 디스플레이 장치(100) 간의 거리를 판단할 수도 있다.
또한, 센싱값 처리부(143)는 감지부(150)의 센싱값에 기초하여 유저를 인증할 수도 있다.
이와 같은 신호 처리부(142), 인터페이스 제어부(141), 센싱값 처리부(143)는 각각의 기능을 수행하기 위한 프로그램과 데이터를 저장하는 메모리, 메모리에 저장된 프로그램과 데이터에 따라 제어 신호를 생성하는 프로세서를 포함할 수 있다. 실시 형태에 따라 신호 처리부(142), 인터페이스 제어부(141), 및 센싱값 처리부(143)는 각각 별개의 메모리와 프로세서로 구현되거나, 단일의 메모리와 프로세서로 구현될 수 있다.
감지부(150)는 유저의 위치, 제스처, 입모양, 표정, 또는 소리 등 유저의 다양한 동작 또는 유저의 인증 정보(예를 들어, 홍채 정보, 지문 정보 등)를 감지하거나, 디스플레이 장치(100)의 상태 또는 주변 환경을 감지한다. 예를 들어, 감지부(150)는 카메라, 마이크, 초음파 센서, 적외선 센서, 마이크로 전파 센서, 및 전자장 센서 등 유저의 음성이나 동작을 감지할 수 있는 공지된 다양한 센서를 포함할 수 있다. 또한, 감지부(150)는 위성항법장치(Global Positioning System; GPS), 온도 센서, 습도 센서, 가속도 센서, 먼지 센서, 가스 센서, 및 촉각 센서 등 디스플레이 장치(100)의 상태 또는 주변 환경을 감지할 수 있는 공지된 다양한 센서를 포함할 수 있다.
이하, 다른 실시예에 따른 디스플레이 장치(100)의 구성에 대해서 설명한다. 도 5는 다른 실시예에 따른 디스플레이 장치의 제어 블록도이다.
다른 실시예에 따른 디스플레이 장치(100)는 유저 인터페이스(110), 제어부(140), 및 감지부(150)를 포함하고, 통신부(160)를 더 포함할 수 있다.
다른 실시예에 따른 디스플레이 장치(100)가 포함하는 유저 인터페이스(110), 감지부(150), 및 제어부(140)의 인터페이스 제어부(141), 신호 처리부(142), 및 센싱값 처리부(143)의 구현 형태 및 기능은 일 실시예에 따른 디스플레이 장치(100)가 포함하는 유저 인터페이스(110), 감지부(150), 및 제어부(140)의 인터페이스 제어부(141), 신호 처리부(142), 및 센싱값 처리부(143)의 기능과 동일하므로, 중복된 설명을 생략한다.
다른 실시예에 따른 디스플레이 장치(100)는 저장부(130) 대신 통신부(160)를 더 포함할 수 있다.
통신부(160)는 유무선 통신망을 통해 외부기기와 데이터를 송수신한다. 예를 들어, 통신부(160)는 서버로부터 유무선 통신망을 통해 360도 촬영된 3차원 영상 데이터를 수신할 수 있다.
통신망은 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 통신망뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface) 등과 같은 케이블 통신망이나, 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 통신망을 포함할 수 있다.
이를 위하여, 도시되진 않았으나, 통신부(160)는 영상 데이터를 수신하기 위한 수신부(미도시)를 더 포함할 수 있다. 수신부는 유선 통신 모듈, 무선 통신 모듈 및 근거리 통신 모듈 중 하나를 포함할 수 있고, 유선 통신 모듈, 무선 통신 모듈 및 근거리 통신 모듈의 조합을 포함할 수 있다.
또한, 통신부(160)는 하나의 튜너를 포함하여 아날로그 및 디지털 방송 신호를 채널 선택에 따라 개별적으로 수신하거나, 다수개의 튜너를 포함하여 아날로그 및 디지털 방송 신호를 개별적으로 또는 동시에 수신할 수도 있다.
통신부(160)를 통해 수신되는 영상 데이터 또는 방송 신호는 360도 촬영된 3차원 영상 데이터를 포함한다. 이하, 설명의 편의를 위해, 통신부(160)를 통해 수신되는 영상 데이터 또는 방송 신호가 360도 촬영된 3차원 영상 데이터인 것을 예로 들어 설명한다.
다른 실시예에 따른 디스플레이 장치(100)의 제어부(130)는 통신부(160)를 제어하는 통신 제어부(144)를 더 포함할 수 있다.
통신 제어부(144)는 통신부(160)로부터 수신한 영상 데이터를 변환하여 신호 처리부(142)로 전달하고, 신호 처리부(142)가 360도 촬영된 3차원 영상 데이터를 표시 가능한 360도 촬영된 3차원 영상으로 변환하도록 제어 신호를 생성한다.
통신 제어부(144)는 기능을 수행하기 위한 프로그램과 데이터를 저장하는 메모리, 메모리에 저장된 프로그램과 데이터에 따라 제어 신호를 생성하는 프로세서를 포함할 수 있다. 실시 형태에 따라 신호 처리부(142), 인터페이스 제어부(141), 센싱값 처리부(143), 및 통신 제어부(144)는 각각 별개의 메모리와 프로세서로 구현되거나, 단일의 메모리와 프로세서로 구현될 수 있다.
이하, 도 6a 내지 도 8을 참조하여 디스플레이부(111)의 다양한 실시 형태에 대하여 설명한다. 도 6a는 디스플레이부의 일 예시도이고, 도 6b는 디스플레이부의 다른 예시도이다.
전술한 바와 같이 구형으로 구현된 디스플레이부(111)는 광원을 포함하는 플렉서블 디스플레이 또는 3차원 디스플레이로 구현되어 직접 360도 촬영된 3차원 영상을 표시할 수 있다.
또한, 도 6a에 도시된 바와 같이, 디스플레이부(111)는 하나의 프로젝터(111a)와 프로젝터에 의해 조사된 빔을 투영하여 360도 촬영된 3차원 영상을 표시하는 입체 투영판(111b)을 포함하도록 구현될 수 있다. 이 경우, 유저는 빔이 투영된 디스플레이부(111)의 내부면에 대해 반대면인 외부면에서 360도 촬영된 3차원 영상을 감상할 수 있다.
또한, 도 6b에 도시된 바와 같이, 디스플레이부(111)는 복수개의 프로젝터들(111c, 111d)과 프로젝터들(111c, 111d)에 의해 조사된 빔을 투영하여 360도 촬영된 3차원 영상을 표시하는 입체 투영판(111e)을 포함하도록 구현될 수 있다. 이 경우, 복수개의 프로젝터들(111c, 111d)이 투영한 360도 촬영된 3차원 영상들의 결합에 의해, 구형의 입체 투영판(111e) 전체면에서 대상체 또는 풍경의 시야각에 대응하는 영상이 표시될 수 있다.
도 6b에서는 두 개의 프로젝터들(111c, 111d)에 대해서만 도시되었으나, 디스플레이부(111)는 세 개 이상의 프로젝터들을 포함하는 것도 가능하다.
한편, 디스플레이부(111)는 유저의 동작 또는 유저 명령에 따라 다양한 영상 컨텐츠를 출력할 수 있다. 도 7은 유저의 동작에 대응하는 영상 컨텐츠를 출력하는 디스플레이부의 일 예시도이고, 도 8은 유저 명령에 대응하는 영상 컨텐츠를 출력하는 디스플레이부의 일 예시도이다.
도 7을 참조하면, 센싱값 처리부(144)가 제 1 유저(U1)의 위치 및 제 1 유저(U1)와 디스플레이 장치(100) 간의 최단 거리(l1)를 감지 결과값으로 생성한 경우, 인터페이스 제어부(141)는 감지 결과값에 기초하여 제 1 유저(U1) 위치에 대응하는 디스플레이부(111)의 어느 한 지점(P1)에서 영상 컨텐츠(S1)를 출력하도록 디스플레이부(111)를 제어할 수 있다. 이 경우, 출력되는 영상 컨텐츠(S1)의 크기는 제 1 유저(U1)와 디스플레이 장치(100) 간의 최단 거리(l1)에 반비례할 수 있다.
예를 들어, 제 1 유저(U1)가 감지된 경우, 디스플레이부(111)는 360도 촬영된 3차원 영상을 표시하고 있는 상태에서, 어느 한 지점(P1)에서 제 1 유저(U1)를 인증하기 위한 패스워드 입력 화면(S1)을 더 표시할 수 있다.
또한, 감지부(150)는 복수의 유저들(U1, U2)을 감지할 수 있다. 이 경우, 센싱값 처리부(144)는 복수의 유저들(U1, U2)의 위치 및 각 유저(U1, U2)와 디스플레이 장치(100) 간의 최단 거리(l1, l2)를 감지 결과값으로 생성한다.
인터페이스 제어부(141)는 감지 결과값에 기초하여 제 1 유저(U1) 위치에 대응하는 디스플레이부(111)의 제 1 지점(P1)에서 제 1 영상 컨텐츠(S1)를 출력하도록 디스플레이부(111)를 제어하고, 제 2 유저(U2) 위치에 대응하는 디스플레이부(111)의 제 2 지점(P2)에서 제 2 영상 컨텐츠(S2)를 출력하도록 디스플레이부(111)를 제어할 수 있다.
제 1 영상 컨텐츠(S1)와 제 2 영상 컨텐츠(S2)는 동일할 수도 있고, 상이할 수도 있다. 예를 들어, 인증 과정에 의해 제 1 유저(U1)와 제 2 유저(U2)가 다른 유저로서 판단된 경우, 인터페이스 제어부(141)는 제 1 지점(P1)과 제 2 지점(P2)에 각 유저에 대응하는 영상 컨텐츠(S1, S2)가 출력되도록 디스플레이부(111)를 제어할 수 있다.
또한, 도 8을 참조하면, 입력부(112)가 제 1 유저(U1)의 유저 명령을 입력 받은 경우, 인터페이스 제어부(141)는 유저 명령에 대응하는 디스플레이부(111)의 어느 한 지점(P1)에서 영상 컨텐츠(S1)를 출력하도록 디스플레이부(111)를 제어할 수 있다. 이 경우, 디스플레이부(111)는 유저 명령에 대응하는 디스플레이부(111)의 어느 한 지점(P1)을 중심으로 영상 컨텐츠(S1)를 출력할 수 있다.
예를 들어, 디스플레이부(111)가 터치스크린 장치로서 구현되고, 제 1 유저(U1)가 디스플레이부(111)의 어느 한 지점(P1)을 터치한 경우, 디스플레이부(111)는 360도 촬영된 3차원 영상을 표시하고 있는 상태에서, 어느 한 지점(P1)에서 제 1 유저(U1)를 인증하기 위한 패스워드 입력 화면(S1)을 더 표시할 수 있다.
또한, 입력부(112)는 복수의 유저들(U1, U2)의 유저 명령들을 입력 받을 수 있다. 이 경우, 인터페이스 제어부(141)는 제 1 유저(U1)의 유저 명령에 대응하는 제 1 영상 컨텐츠(S1)를 출력하도록 디스플레이부(111)를 제어하고, 제 2 유저(U2)의 유저 명령에 대응하는 제 2 영상 컨텐츠(S2)를 출력하도록 디스플레이부(111)를 제어할 수 있다.
또한, 도시되지는 않았으나, 센싱값 처리부(144)가 감지부(150)의 센싱값에 기초하여 디스플레이 장치(100)의 상태 또는 주변 환경을 감지 결과값으로 생성한 경우, 디스플레이부(111)는 디스플레이 장치(100)의 상태 또는 주변 환경에 대응하는 영상 컨텐츠를 출력하는 것도 가능하다. 예를 들어, 습도가 미리 설정된 기준 습도 이상인 것으로 감지된 경우, 디스플레이부(111)는 습도가 높다는 것을 알리는 360도 촬영된 3차원 영상을 영상 컨텐츠로서 표시할 수 있다.
한편, 이와 같은 디스플레이 장치(100)는 단독으로 실시되는 것뿐만 아니라, 다른 장치들과 결합되어 다양하게 실시될 수 있다. 도 9 내지 도 11은 디스플레이 장치의 다양한 실시예에 대한 예시도이다.
일 예로서, 도 9를 참조하면, 디스플레이 장치(100)의 디스플레이부(111)는 로봇(200)의 머리 부분으로서 구현될 수 있고, 지지부(120a)는 로봇의 몸체로서 구현될 수 있다. 이 경우, 디스플레이 장치(100)의 디스플레이부(111)는 로봇의 표정을 다양하게 역동적으로 표현할 수 있고, 실제 사람의 얼굴과 같이 입체적으로 눈, 코, 입을 표현할 수 있다. 디스플레이부(111)가 표현하는 로봇의 표정은 감지부(150)가 감지한 유저의 동작, 디스플레이 장치(100)의 상태, 또는 주변 환경에 따라 달라질 수 있다.
다른 예로서, 도 10을 참조하면, 디스플레이 장치(100)의 디스플레이부(111)는 로봇(200)의 안구 부분으로서 구현될 수 있다. 이 경우, 디스플레이 장치(100)의 디스플레이부(111)는 눈동자의 위치(P3)를 감지부(150)가 감지한 유저(U)의 동작, 또는 디스플레이 장치(100)의 상태에 대응되게 이동시킬 수 있다.
예를 들어, 유저(U)가 로봇(200)의 우측에 위치하는 경우, 인터페이스 제어부(141)는 유저(U)의 위치에 대응되는 우측 지점(P3)에 로봇(200)의 눈동자가 위치하도록 디스플레이부(111)를 제어할 수 있다.
또 다른 예로서, 도 11을 참조하면, 디스플레이 장치(100)는 여러 각도에서 촬영된 예술 작품을 전시하기 위한 용도로서 이용되는 것도 가능하다.
이 경우, 디스플레이 장치(100)의 디스플레이부(111)가 360도 촬영된 3차원 영상을 표시함으로써 유저는 입체적으로 표현된 예술 작품을 다양한 각도에서 감상할 수 있다.
디스플레이부(111)가 표시하는 360도 촬영된 3차원 영상은 모든 각도에서 감상이 가능한 홀로그램 영상일 수 있다.
또한, 도시되진 않았으나, 또 다른 예로서 디스플레이 장치(100)는 복수의 유저들이 공동 작업 가능한 듀얼 모니터의 기능을 수행할 수도 있다.
이외에도, 디스플레이 장치(100)는 가상 현실을 360도 촬영된 3차원 영상으로서 제공하는 등 다양한 360도 촬영된 3차원 영상 디스플레이 장치로서 기능할 수 있다.
이하, 도 12를 참조하여, 일 실시예에 따른 디스플레이 장치(100)의 제어방법에 대해 설명한다. 도 12는 일 실시예에 따른 디스플레이 장치의 제어방법에 대한 순서도이고, 도 12에서 기술되는 디스플레이 장치의 구성요소들은 도 1 내지 도 11과 관련하여 전술한 디스플레이 장치의 구성요소들과 동일한 바, 중복된 설명을 생략한다.
우선, 일 실시예에 따른 디스플레이 장치(100)의 제어방법은 360도 촬영된 3차원 영상 신호를 수신한다(S1110).
360도 촬영된 3차원 영상 신호는 저장부(130)에 저장된 360도 촬영된 3차원 영상 데이터를 의미할 수 있고, 통신부(160)가 외부기기로부터 수신한 360도 촬영된 3차원 영상 데이터를 의미할 수도 있따.
360도 촬영된 3차원 영상 신호를 수신하는 단계는 제어부(140)의 신호 처리부(142)에 의해 수행될 수 있다.
이어서, 일 실시예에 따른 디스플레이 장치(100)의 제어방법은 수신한 360도 촬영된 3차원 영상 신호에 기초하여 360도 촬영된 3차원 영상을 생성하고, 생성된 360도 촬영된 3차원 영상을 디스플레이부(111)를 통해 표시한다(S1120).
360도 촬영된 3차원 영상을 생성하는 단계는 제어부(140)의 신호 처리부(142)에 의해 수행될 수 있다.
360도 촬영된 3차원 영상을 표시하는 단계는 제어부(140)의 인터페이스 제어부(141)가 생성된 360도 촬영된 3차원 영상을 표시하도록 제어 신호를 생성하는 단계, 및 디스플레이부(111)가 제어 신호에 기초하여 360도 촬영된 3차원 영상을 표시하는 단계를 포함할 수 있다.
이어서, 일 실시예에 따른 디스플레이 장치(100)의 제어방법은 유저의 제스처, 입모양, 표정, 또는 소리 등 유저의 동작을 감지한다(S1130).
유저의 동작을 감지하는 단계는 감지부(150)에 의해 수행될 수 있다.
감지부(150)의 구현 형태에 따라 감지되는 유저의 동작이 달라질 수 있다.
유저의 동작을 감지하는 단계는 유저의 인증 정보를 감지하는 단계를 포함할 수 있고, 유저의 인증 정보는 홍채 정보, 지문 정보, 및 음성 정보 등 유저의 신원을 검증하는 다양한 정보를 포함한다.
이어서, 일 실시예에 따른 디스플레이 장치(100)의 제어방법은 유저의 동작에 대응하는 영상 컨텐츠를 출력한다(S1140).
영상 컨텐츠를 출력하는 단계는 센싱값 처리부(143)가 감지부(150)의 센싱값에 기초하여 유저의 동작을 판단하고 감지 결과값을 생성하고 감지 결과값에 대응하는 영상 컨텐츠를 판단하는 단계, 신호 처리부(142)가 감지 결과값에 대응하는 영상 컨텐츠를 저장부(130) 또는 통신부(160)를 통해 불러오는 단계, 인터페이스 제어부(141)가 감지 결과값에 대응하는 영상 컨텐츠를 디스플레이부(111)가 표시하도록 제어 신호를 생성하는 단계, 및 디스플레이부(111)가 제어 신호에 기초하여 영상 컨텐츠를 표시하는 단계를 포함할 수 있다.
이 경우, 디스플레이부(111)는 유저의 동작에 따라 표시하는 영상 컨텐츠의 영역을 변경시킬 수 있다.
또한, 디스플레이부(111)는 복수의 유저가 감지된 경우, 각 유저에 대응되는 영상 컨텐츠를 복수개 출력할 수 있다.
다른 실시예에 따른 디스플레이 장치(100)의 제어방법은 유저 명령을 입력 받고, 유저 명령에 대응하는 영상 컨텐츠를 출력할 수 있다.
또 다른 실시예에 따른 디스플레이 장치(100)의 제어방법은 디스플레이 장치(100)의 상태 및 주변 환경을 감지하고, 감지 결과값에 대응하는 영상 컨텐츠를 출력할 수 잇다.
전술한 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 구형으로 구현된 유저 인터페이스; 및
    상기 유저 인터페이스에 360도 촬영된 3차원 영상이 표시되도록 상기 유저 인터페이스를 제어하는 제어부를 포함하는 디스플레이 장치.
  2. 제 1 항에 있어서,
    상기 유저 인터페이스는 플렉서블 디스플레이로 구현되어 상기 제어부의 제어 신호에 따라 360도 촬영된 3차원 영상을 직접 표시하는 디스플레이 장치.
  3. 제 1 항에 있어서,
    상기 유저 인터페이스는 빔을 조사하는 적어도 하나 이상의 프로젝터, 및 상기 적어도 하나 이상의 프로젝터로부터 조사된 빔이 투영되는 입체 투영판을 포함하는 디스플레이 장치.
  4. 제 1 항에 있어서,
    상기 유저 인터페이스는 터치스크린 장치로 구현된 디스플레이부를 포함하는 디스플레이 장치.
  5. 제 1 항에 있어서,
    유저의 동작을 감지하는 감지부를 더 포함하되,
    상기 제어부는 감지된 유저의 동작에 대응하는 영상 컨텐츠를 상기 유저 인터페이스가 출력하도록 제어 신호를 생성하는 디스플레이 장치.
  6. 제 5 항에 있어서,
    상기 감지부는 복수의 유저의 동작을 감지하고,
    상기 제어부는 상기 복수의 유저에 각각 대응하는 영상 컨텐츠를 상기 유저 인터페이스가 개별적으로 출력하도록 제어 신호를 생성하는 디스플레이 장치.
  7. 제 1 항에 있어서,
    상기 유저 인터페이스는 360도 촬영된 3차원 영상을 표시하는 디스플레이부, 및 유저 명령을 입력 받는 입력부를 포함하고,
    상기 제어부는 상기 유저 명령에 대응하는 영상 컨텐츠를 상기 디스플레이부가 출력하도록 제어 신호를 생성하는 디스플레이 장치.
  8. 제 7 항에 있어서,
    상기 입력부는 복수의 유저 명령을 입력 받고,
    상기 제어부는 상기 복수의 유저 명령에 각각 대응하는 영상 컨텐츠를 상기 디스플레이부가 개별적으로 출력하도록 제어 신호를 생성하는 디스플레이 장치.
  9. 제 1 항에 있어서,
    상기 디스플레이 장치의 상태 또는 주변 환경을 감지하는 감지부를 더 포함하되,
    상기 제어부는 감지된 상태 또는 주변 환경에 대응하는 영상 컨텐츠를 상기 유저 인터페이스가 출력하도록 제어 신호를 생성하는 디스플레이 장치.
  10. 제 1 항에 있어서,
    360도 촬영된 3차원 영상 데이터가 저장된 저장부를 더 포함하되,
    상기 제어부는 상기 저장부에 저장된 360도 촬영된 3차원 영상 데이터에 기초하여 상기 360도 촬영된 3차원 영상이 표시되도록 상기 유저 인터페이스를 제어하는 디스플레이 장치.
  11. 제 1 항에 있어서,
    360도 촬영된 3차원 영상 데이터를 수신하는 통신부를 더 포함하되,
    상기 제어부는 상기 통신부가 수신한 360도 촬영된 3차원 영상 데이터에 기초하여 상기 360도 촬영된 3차원 영상이 표시되도록 상기 유저 인터페이스를 제어하는 디스플레이 장치.
  12. 제 1 항에 있어서,
    상기 디스플레이 장치는 로봇의 머리 또는 안구로서 구현된 디스플레이 장치.
  13. 구형으로 구현된 유저 인터페이스가 360도 촬영된 3차원 영상을 표시하는 단계;
    유저의 동작을 감지하는 단계;
    상기 유저의 동작에 대응하는 영상 컨텐츠를 상기 유저 인터페이스가 표시하는 단계를 포함하는 디스플레이 장치의 제어방법.
  14. 제 13 항에 있어서,
    유저 명령을 입력 받는 단계;
    상기 유저 명령에 대응하는 다른 영상 컨텐츠를 상기 유저 인터페이스가 표시하는 단계를 더 포함하는 디스플레이 장치의 제어방법.
  15. 제 13 항에 있어서,
    상기 디스플레이 장치의 상태 또는 주변 환경을 감지하는 단계;
    상기 상태 또는 주변 환경에 대응하는 영상 컨텐츠를 출력하는 단계를 더 포함하는 디스플레이 장치의 제어방법.
PCT/KR2017/002518 2016-03-24 2017-03-08 디스플레이 장치, 및 디스플레이 장치의 제어방법 WO2017164545A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/087,748 US10778966B2 (en) 2016-03-24 2017-03-08 Display device and method for controlling display device
EP17770516.7A EP3422710B1 (en) 2016-03-24 2017-03-08 Display device and method for controlling display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160035337A KR102590132B1 (ko) 2016-03-24 2016-03-24 디스플레이 장치, 및 디스플레이 장치의 제어방법
KR10-2016-0035337 2016-03-24

Publications (1)

Publication Number Publication Date
WO2017164545A1 true WO2017164545A1 (ko) 2017-09-28

Family

ID=59900597

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/002518 WO2017164545A1 (ko) 2016-03-24 2017-03-08 디스플레이 장치, 및 디스플레이 장치의 제어방법

Country Status (4)

Country Link
US (1) US10778966B2 (ko)
EP (1) EP3422710B1 (ko)
KR (1) KR102590132B1 (ko)
WO (1) WO2017164545A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110515263A (zh) * 2019-08-06 2019-11-29 无锡汉咏科技股份有限公司 一种新型全息可交互球形显示装置
KR102276140B1 (ko) * 2019-11-07 2021-07-12 이경은 사용자 감응 기반의 스마트 홀로그램 디스플레이 장치
CN111127998A (zh) * 2020-01-07 2020-05-08 北京小米移动软件有限公司 智能地球仪、及智能地球仪的控制方法及存储介质
US12011658B2 (en) * 2022-04-21 2024-06-18 Sony Interactive Entertainment Inc. Single unit deformable controller

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006212717A (ja) * 2005-02-01 2006-08-17 Advanced Telecommunication Research Institute International ロボット装置
KR20140126186A (ko) * 2013-04-22 2014-10-30 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR20150118753A (ko) * 2014-04-15 2015-10-23 엘지전자 주식회사 터치 센서티브 플렉서블 디스플레이 디바이스 및 그 제어 방법
KR20160015925A (ko) * 2014-08-01 2016-02-15 삼성전자주식회사 영상표시장치 및 영상표시장치의 구동방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7277226B2 (en) * 2004-01-16 2007-10-02 Actuality Systems, Inc. Radial multiview three-dimensional displays
US8884883B2 (en) * 2008-01-25 2014-11-11 Microsoft Corporation Projection of graphical objects on interactive irregular displays
AU2011364912B2 (en) * 2011-04-06 2014-03-20 Hisense Electric Co., Ltd Method,device,system,television and stereo glasses for adjusting stereo image
JP6186775B2 (ja) * 2012-05-31 2017-08-30 株式会社リコー 通信端末、表示方法、及びプログラム
US20160085332A1 (en) * 2014-09-23 2016-03-24 Continental Automotive Systems Inc. Touch sensitive holographic display system and method of using the display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006212717A (ja) * 2005-02-01 2006-08-17 Advanced Telecommunication Research Institute International ロボット装置
KR20140126186A (ko) * 2013-04-22 2014-10-30 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR20150118753A (ko) * 2014-04-15 2015-10-23 엘지전자 주식회사 터치 센서티브 플렉서블 디스플레이 디바이스 및 그 제어 방법
KR20160015925A (ko) * 2014-08-01 2016-02-15 삼성전자주식회사 영상표시장치 및 영상표시장치의 구동방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BENKO, HRVOJE ET AL.: "Sphere: Multi-touch Interactions on a Spherical Display", PROCEEDINGS OF THE 21ST ANNUAL ACM SYMPOSIUM ON USER INTERFACE SOFTWARE AND TECHNOLOGY (UIST, 19 October 2008 (2008-10-19), pages 77 - 86, XP058231337 *

Also Published As

Publication number Publication date
EP3422710A4 (en) 2019-04-10
US10778966B2 (en) 2020-09-15
KR102590132B1 (ko) 2023-10-18
US20190089949A1 (en) 2019-03-21
EP3422710A1 (en) 2019-01-02
KR20170110920A (ko) 2017-10-12
EP3422710B1 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
WO2017164545A1 (ko) 디스플레이 장치, 및 디스플레이 장치의 제어방법
WO2017126797A1 (ko) Hmd 디바이스 및 그 제어 방법
WO2016021747A1 (ko) 헤드 마운티드 디스플레이 장치 및 그것의 제어 방법
WO2014081076A1 (en) Head mount display and method for controlling the same
WO2018074893A1 (ko) 디스플레이 장치 및 디스플레이 장치의 영상 처리 방법
WO2017065535A1 (ko) 전자 장치 및 그 제어 방법
WO2019164092A1 (ko) 디스플레이를 통해 표시된 제 1 콘텐트에 대해 제 2 콘텐트를 외부 객체의 움직임에 따라 제공하기 위한 전자 장치 및 그의 동작 방법
WO2012002593A1 (ko) 3차원 입체 영상 표시 시스템 및 이를 이용한 3차원 입체 영상 표시 방법
WO2017126741A1 (ko) Hmd 디바이스 및 그 제어 방법
WO2019156480A1 (ko) 시선에 기반한 관심 영역 검출 방법 및 이를 위한 전자 장치
WO2017007101A1 (ko) 스마트 디바이스 및 이의 제어방법
WO2019112114A1 (ko) 글래스 타입 단말기 및 그것의 동작방법
WO2022158953A1 (en) Extended reality interaction in synchronous virtual spaces using heterogeneous devices
WO2021066564A1 (ko) 복수의 카메라들을 포함하고 형태가 변하는 전자 장치 및 이미지 촬영 방법
WO2017155159A1 (en) Camera module
WO2019074243A1 (en) DISPLAY DEVICE, USER TERMINAL DEVICE, DISPLAY SYSTEM COMPRISING THE SAME, AND ASSOCIATED COMAND METHOD
WO2019135550A1 (en) Electronic device for controlling image display based on scroll input and method thereof
WO2016122153A1 (en) Display apparatus and control method thereof
WO2021107200A1 (ko) 이동 단말기 및 이동 단말기 제어 방법
WO2017065556A1 (ko) 영상 투사 장치, 그의 투사 영역 확장 방법 및 비일시적 컴퓨터 판독가능 기록매체
WO2019164287A1 (ko) 전자 장치 및 그의 증강 현실 객체 제공 방법
WO2022255730A1 (ko) 전자장치 및 그 제어방법
WO2019054790A1 (ko) 콘텐츠 처리 방법 및 이를 지원하는 전자 장치
WO2018093075A1 (ko) 전자 장치 및 그의 제어 방법
WO2020204594A1 (ko) 가상 현실 장치 및 그 제어 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2017770516

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017770516

Country of ref document: EP

Effective date: 20180924

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17770516

Country of ref document: EP

Kind code of ref document: A1