WO2023140394A1 - 멀티미디어 장치 - Google Patents

멀티미디어 장치 Download PDF

Info

Publication number
WO2023140394A1
WO2023140394A1 PCT/KR2022/000969 KR2022000969W WO2023140394A1 WO 2023140394 A1 WO2023140394 A1 WO 2023140394A1 KR 2022000969 W KR2022000969 W KR 2022000969W WO 2023140394 A1 WO2023140394 A1 WO 2023140394A1
Authority
WO
WIPO (PCT)
Prior art keywords
multimedia device
light emitting
processor
external device
user
Prior art date
Application number
PCT/KR2022/000969
Other languages
English (en)
French (fr)
Inventor
조태훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/000969 priority Critical patent/WO2023140394A1/ko
Publication of WO2023140394A1 publication Critical patent/WO2023140394A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements

Definitions

  • the present invention relates to multimedia devices.
  • embodiments of the present invention can be applied to a multimedia device that can be combined with an external device.
  • a creator in its literal sense, is a job that produces (creates) content and also uploads and distributes the created content through a digital network.
  • creators refer to creators who produce and upload videos.
  • a creator is a job that anyone can easily access because there are no restrictions on the format or content of the content produced or the qualifications for creators. Unlike in the past, this is because anyone can easily create content without much effort through standardized hardware performance and simple and simplified editing tools.
  • creators need equipment for producing or uploading content.
  • the creator may create content using a single device such as a smartphone.
  • a single device such as a smartphone.
  • the user's voice is not accurately captured, or the quality of the content is deteriorated.
  • Embodiments are aimed at providing a multimedia device for solving the above problems.
  • Embodiments are aimed at providing a single multimedia device.
  • the embodiments aim to provide a low-cost multimedia device.
  • embodiments aim to provide a multimedia device that is easy to install.
  • the embodiments aim to provide a portable multimedia device.
  • Embodiments provide a multimedia device that solves the above problems.
  • a body a wireless power transmission/reception unit positioned within the body and coupled to the external device to receive power from the external device when the distance to the external device is less than or equal to a preset distance;
  • a communication unit formed on the body and transmitting and receiving data to and from an external device; a camera formed on one side of the body; and one or more microphones formed on the body; It provides a multimedia device comprising a.
  • a camera hole penetrating at least a portion of the body It provides a multimedia device further comprising a.
  • a cover that covers a camera hole, displays a first color when power less than a preset value is supplied into the multimedia device, and displays a second color when power exceeding a preset value is supplied into the multimedia device; It provides a multimedia device further comprising a.
  • the body includes a first body and a second body, and the body includes: a hinge portion that connects the first body and the second body and allows the first body and the second body to rotate in different directions; Including, it provides a multimedia device.
  • a multimedia device may include a camera hole penetrating at least a portion of a body;
  • the camera hole further includes a first reflector that reflects an image of an object opposite the camera hole toward the hinge portion, and the hinge portion includes a second reflector that reflects an image incident from the first reflector toward an external device.
  • the body includes a first body and a second body, and the body is a flexible body in which the first body and the second body are bent at a predetermined angle or more.
  • the body includes a first body and a second body, and the second body slides with respect to the first body, providing a multimedia device.
  • a multimedia device may include a sensor for sensing a user's touch input to a body; and a processor controlling at least one of components included in the multimedia device. Further including, the processor determines information on a preset touch input that matches the user's touch input sensed by the sensor, and controls a preset operation corresponding to the matched information on the preset touch input to be performed by at least one of the components included in the multimedia device.
  • the processor controls the camera to be turned on or off.
  • a multimedia device when a first touch is sensed from a first point on the body to a second point on the body through a sensor as a user's touch input, the processor controls the camera to be turned on or off.
  • the processor controls the microphone to be turned on or off. Provides a multimedia device.
  • a light emitting unit that is formed on at least a portion of the body and emits light; Including, the light emitting unit, provides a multimedia device including a plurality of light emitting elements arranged in one or more rows (row).
  • the light emitting unit displays a first color when a first notice is generated with respect to an external device, and when a second notice is generated with respect to an external device, the light emitting unit displays a second color different from the first color.
  • a multimedia device may include a processor controlling at least one of components included in the multimedia device; Including, a plurality of light emitting elements are arranged in two or more columns, and the processor controls only the light emitting elements arranged in at least one of the two or more columns to be in an on state.
  • a multimedia device may include a sensor for sensing a user input on a body; and a processor controlling at least one of components included in the multimedia device. Including, the processor, in response to the user input sensed by the sensor, provides a multimedia device that controls at least a portion of the plurality of light emitting elements to be turned on.
  • a multimedia device may include a sensor for sensing a sensor for sensing an illuminance of the multimedia device; and a processor controlling at least one of components included in the multimedia device. Including, the processor, in response to the illuminance sensed by the sensor, provides a multimedia device that controls at least a portion of the plurality of light emitting elements to be in an on state.
  • a light emitting unit formed on one surface of the body and including a plurality of light emitting elements; Including, the light emitting unit provides a multimedia device, wherein the number of light emitting elements turned on among the plurality of light emitting elements is proportional to the amount of power of the external device.
  • a processor for controlling at least one of the components included in the multimedia device; Further, the processor provides a multimedia device that allows an external device to execute a preset application through the communication unit when the amount of power supplied through the wireless power transceiver is equal to or greater than a preset amount of power.
  • a processor for controlling at least one of the components included in the multimedia device; and a speaker outputting sound data obtained through the communication unit and outputted from an external device. Further, the processor determines the user's voice of the external device from sound data acquired through one or more microphones, determines noise data excluding the user's voice from among the acquired sound data, generates noise reduction data corresponding to the noise data, and outputs the noise reduction data through a speaker.
  • a multimedia device may provide a method for producing content through a single device.
  • a multimedia device according to embodiments may be manufactured at low cost.
  • the multimedia device according to the embodiments is easy to install with respect to an external device.
  • a multimedia device is easy to carry.
  • FIG. 1 is a diagram illustrating a content production system for producing content.
  • FIG. 2 is a block diagram illustrating a multimedia device according to embodiments.
  • FIG. 3 is a diagram schematically illustrating a multimedia device according to embodiments.
  • FIG. 4 schematically illustrates a block diagram for explaining a multimedia device according to embodiments.
  • FIG. 5 is a diagram explaining installation of a multimedia device according to embodiments.
  • FIG. 6 is a diagram for explaining a camera of a multimedia device according to embodiments.
  • FIG. 7 is a diagram explaining a camera hole of a multimedia device according to embodiments.
  • FIG. 8 is a diagram describing a body of a multimedia device according to embodiments.
  • FIG. 9 is a diagram illustrating an example of image acquisition by a camera when a multimedia device according to embodiments is folded.
  • FIG. 10 is a diagram illustrating a control example of a multimedia device according to embodiments.
  • FIG. 11 is a diagram illustrating an example of light emission of a light emitting unit of a multimedia device according to embodiments.
  • FIG. 12 is another diagram illustrating an example of light emission of a light emitting unit of a multimedia device according to embodiments.
  • FIG. 13 is another diagram illustrating an example of light emission of a light emitting unit of a multimedia device according to embodiments.
  • FIG. 14 is a diagram illustrating an action performed by connecting a multimedia device and an external device according to embodiments.
  • An external device described through embodiments is a concept including all display devices that display information in unit pixels or a set of unit pixels. Therefore, it can be applied not only to finished products but also to parts.
  • a panel corresponding to one part of a digital TV independently corresponds to a display device in this specification.
  • the finished products may include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, slate PCs, tablet PCs, ultra books, digital TVs, and desktop computers.
  • PDAs personal digital assistants
  • PMPs portable multimedia players
  • navigation devices slate PCs, tablet PCs, ultra books, digital TVs, and desktop computers.
  • Contents described through the embodiments are various types of information or contents provided through the Internet or computer communication.
  • Contents are, for example, various types of information or contents that digitally produce, process, and distribute text, code, voice, sound, image, video, etc. for use in a wired or wireless electric communication network.
  • content produced through a video or image acquired through a multimedia device will be described as an example.
  • an image is used to include both a static image (eg, a photograph) and a dynamic image (eg, a video).
  • FIG. 1 is a diagram illustrating a content production system for producing content.
  • the content creation system 10 is equipment(s) for creators to create content.
  • a creator creates content using all or some of the equipment included in the content creation system 10 .
  • the content creation system 10 includes, for example, a camera 1, a microphone 2, a light 3, a mobile phone 4, a mobile phone holder 5, and a laptop computer 6.
  • the camera 1 is a device for acquiring images. Specifically, the camera 1 is a device that acquires and stores images using light. For example, the camera 1 acquires and stores a user's image.
  • the microphone 2 is a device for acquiring sound. Specifically, the microphone 2 is a device that acquires sound waves or ultrasonic waves and generates electrical signals according to the vibrations. For example, the microphone 2 acquires a user's sound and converts it into a sound signal.
  • Illumination 3 is a device that emits light through a light source. Specifically, the lighting 3 emits a predetermined light to a specific or unspecified target so that the specific or unspecified target receives light.
  • the light source included in the lighting 3 is a device that emits a wavelength (light), and emits, for example, visible light.
  • the light source includes, for example, an incandescent lamp, a discharge lamp, and an LED.
  • the lighting 3 emits visible light to the user so that the camera 1 can acquire a brighter or clearer image of the user.
  • the content creation system 10 may further include a reflector.
  • the reflector adjusts brightness by reflecting light emitted from the lighting 3 or other light sources (eg, indoor light, natural light). For example, the reflector adjusts brightness using an angle or reflection of light so that the light is reflected to at least a part of the user who is relatively dark because light does not reach the reflector.
  • the mobile phone 4 is a portable communication device, and is a device capable of communicating with other parties through a base station while on the move.
  • Cell phone 4 incorporates a module that acquires an image or emits a sound.
  • the mobile phone 4 may include a program for editing acquired and stored images or sounds. For example, the mobile phone 4 acquires the user's image or records and stores the user's sound.
  • the mobile phone holder 5 is a device for holding the mobile phone 4 .
  • the mobile phone holder 5 fixes and/or supports the mobile phone 4 so that the mobile phone 4 has an angle and a height suitable for capturing a user's image.
  • the notebook 6 is a portable computer.
  • the notebook 6 contains a module that acquires images or emits sounds.
  • the notebook 6 may include a program for editing images or sounds obtained and stored through the camera 1, the microphone 2, the light 3, the mobile phone 4, and the mobile phone holder 5. For example, the user's image is acquired or the user's sound is recorded and stored. Also, the notebook 6 edits and stores the user's image or sound, for example.
  • the content creation system 10 includes a plurality of devices.
  • the cost for the user to purchase all or part of the devices included in the content production system 10 is excessive.
  • connections between devices become complicated, and there is a problem in that inconvenience occurs in movement.
  • the mobile phone 4 may be substituted for at least one of the camera 1, the microphone 2, and the notebook 6, but there is a problem in that the quality is lowered compared to the case of using a single device.
  • the laptop 6 can be substituted for the camera 1 or the microphone 2, but there is a problem in that the quality is lowered compared to the case of using a single device.
  • FIG. 2 is a block diagram illustrating a multimedia device according to embodiments.
  • 100 represents a multimedia device.
  • the multimedia device 100 includes all or some of the functions of each device (eg, 1 to 5) described in FIG. 1, and performs the same or similar functions as the content creation system 10 described in FIG.
  • the multimedia device 100 is connected to an external device (eg, a laptop described in FIG. 1 ) and is used in a content creation process.
  • the multimedia device 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 130, an interface unit 140, an output unit 150, a memory 160, a control unit 170, and a power supply unit 180.
  • the components shown in FIG. 1 are not essential to implement a multimedia device, so a multimedia device described according to embodiments may have more or fewer components than the components listed above.
  • the wireless communication unit 110 includes one or more modules that enable wireless communication between the multimedia device 100 and an external device, between the multimedia device 100 and a wireless communication system, between the multimedia device 100 and another multimedia device, or between the multimedia device 100 and an external server that is not an external device. Also, the wireless communication unit 110 includes one or more modules that connect the multimedia device 100 to one or more networks.
  • the external device or other multimedia device includes, for example, a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, a slate PC, a tablet PC, an ultra book, a digital TV, a desktop computer, and the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • a navigation system a slate PC, a tablet PC, an ultra book, a digital TV, a desktop computer, and the like.
  • the wireless communication unit 110 can communicate with the multimedia device 100 according to the embodiments if it is a target capable of wireless communication even if it is a new product to be developed later.
  • the wireless communication unit 110 includes at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-distance communication module 114, and a location information module 115.
  • the broadcast reception module 111 receives a broadcast signal and/or broadcast-related information from an external broadcast management server through a broadcast channel.
  • the broadcast channels include satellite channels and terrestrial channels.
  • Two or more broadcast receiving modules are provided in the mobile terminal 100 to receive simultaneous broadcasting of at least two broadcast channels or to switch broadcast channels.
  • the mobile communication module 112 is a technology standard or communication method for mobile communication (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSUPA), High Speed Uplink (HSUPA)) Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.) to transmit and receive radio signals with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV-DO Enhanced Voice-Data Optimized or Enhanced Voice-Data Only
  • WCDMA Wideband CDMA
  • HSUPA High Speed Downlink Packet Access
  • HSUA High Speed Uplink
  • LTE-A Long Term Evolution-Adv
  • the wireless signal includes a voice signal, a video call signal, or various types of data according to text/multimedia message transmission and reception.
  • the wireless Internet module 113 refers to a module for wireless Internet access, and is built into or external to the multimedia device 100.
  • the wireless Internet module 113 is configured to transmit and receive radio signals in a communication network according to wireless Internet technologies.
  • Wireless Internet technologies include, for example, Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wireless Fidelity (Wi-Fi) Direct, Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), World Interoperability for Microwave Access (WiMAX), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution (LTE-A) -Advanced), etc.
  • WLAN Wireless LAN
  • Wi-Fi Wireless Fidelity
  • Wi-Fi Wireless Fidelity
  • Wi-Fi Wireless Fidelity
  • Direct Digital Living Network Alliance
  • DLNA Wireless Broadband
  • WiMAX World Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink Packet Access
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-A
  • the wireless Internet module 113 transmits and receives data according to at least one wireless Internet technology within a range including Internet technologies not listed above.
  • the wireless Internet module 113 that performs wireless Internet access through the mobile communication network may be understood as a kind of the mobile communication module 112.
  • the short-range communication module 114 is for short-range communication, using at least one of BluetoothTM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and Wireless Universal Serial Bus (USB) technologies. Li communication can be supported.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee Near Field Communication
  • NFC Near Field Communication
  • Wi-Fi Wireless-Fidelity
  • Wi-Fi Direct Wireless Universal Serial Bus
  • USB Wireless Universal Serial Bus
  • the local area communication module 114 may support wireless communication between the multimedia device 100 and a wireless communication system, between the multimedia device 100 and another multimedia device 100, or between the multimedia device 100 and a network where an external device is located through wireless area networks.
  • the local area wireless communication network may be a local area wireless personal area network (Wireless Personal Area Networks).
  • the location information module 115 is a module for obtaining the location (or current location) of a multimedia device, and representative examples thereof include a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module.
  • GPS Global Positioning System
  • WiFi Wireless Fidelity
  • the multimedia device 100 may obtain the location of the multimedia device 100 using a signal transmitted from a GPS satellite by using a GPS module.
  • the location of the multimedia device may be obtained based on information of the Wi-Fi module and a wireless access point (AP) that transmits or receives a wireless signal.
  • AP wireless access point
  • the location information module 115 may perform any function among other modules of the wireless communication unit 110 in order to obtain data on the location of the multimedia device in substitution or in addition.
  • the location information module 115 is a module used to obtain the location (or current location) of the multimedia device 100, and is not limited to a module that directly calculates or acquires the location of the multimedia device 100.
  • the input unit 120 includes an image input unit (not shown), a microphone 121 for inputting an audio signal, or an audio input unit (not shown), and a user input unit 122 (eg, a touch key, a mechanical key, etc.) for receiving information from a user.
  • Voice data or image data collected by the input unit 120 is analyzed and processed as a user's control command.
  • the microphone 121 processes an external sound signal into electrical voice data.
  • the processed voice data may be utilized in various ways according to the function (or application program being executed) being performed in the multimedia device 100 .
  • noise cancellation algorithms for removing noise generated in the process of receiving an external sound signal may be implemented in the microphone 121 .
  • the user input unit 122 is for receiving information from a user, and when information is input through the user input unit 122, the control unit 170 corresponds to the input information.
  • the operation of the multimedia device 100 can be controlled.
  • the user input unit 122 includes a mechanical input means and a touch input means.
  • the touch input unit may include a virtual key, a soft key, or a visual key displayed on the outside of the multimedia device through software processing.
  • the user input unit 123 may include a touch sensor that is sensed through a touch sensor provided on the exterior of the multimedia device 100 .
  • the virtual key or visual key can be displayed outside the multimedia device while having various forms, for example, it can be made up of graphics, text, icons, or a combination thereof.
  • the camera 123 is an optical device that acquires an image.
  • the camera 123 corresponds to the camera 1 described in FIG. 1 .
  • the camera 123 includes, for example, a 4K ultra high definition (4K UHD, 4K Ultra High Definition) image technology method.
  • the camera 123 is not limited thereto, and the camera 123 includes all means for obtaining an image, and includes all devices for outputting image acquisition methods or resolutions such as Full HD and 2K.
  • the sensing unit 130 includes one or more sensors for sensing at least one of information in a multimedia device, information on a surrounding environment surrounding the multimedia device, and user information.
  • the sensing unit 130 may include a proximity sensor 131, an illumination sensor 132, a touch sensor 133, an acceleration sensor, a magnetic sensor, a G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor, a fingerprint sensor, and an ultrasonic sensor. at least one of an onic sensor), a microphone (refer to 121), a battery gauge, an environmental sensor (eg, a barometer, a hygrometer, a thermometer, a radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • a proximity sensor 131 e.g, an illumination sensor 132, a touch sensor 133, an acceleration sensor, a magnetic sensor, a G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor, a fingerprint sensor, and an ultrasonic
  • the multimedia device 100 may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 150 is for generating an output related to sight, hearing, or touch, and includes at least one of an audio output module 151, a haptic module 152, and an optical output unit 153.
  • the display unit 151 is implemented outside the multimedia device 100 by forming a mutual layer structure or integrally with the touch sensor.
  • the exterior of the multimedia device 100 may function as a user input unit 123 providing an input interface between the multimedia device 100 and the user, and may provide an output interface between the multimedia device 100 and the user.
  • the display unit 151 may be formed outside the multimedia device 100 (eg, the body unit 1110 to be described later) and display, for example, an icon or text.
  • the audio output module 151 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output module 151 also outputs sound signals related to functions performed by the multimedia device 100 (eg, call signal reception sound, message reception sound, etc.).
  • the sound output module 151 may include a receiver, a speaker, a buzzer, and the like.
  • a haptic module 152 generates various tactile effects that a user can feel.
  • a representative example of the tactile effect generated by the haptic module 152 may be vibration.
  • the intensity and pattern of the vibration generated by the haptic module 152 are controlled by a user's selection or a setting of a controller.
  • the haptic module 152 may synthesize and output different vibrations or sequentially output them.
  • the light output unit 153 outputs a signal for notifying occurrence of an event using light from a light source of the multimedia device 100 .
  • Examples of events occurring in the multimedia device 100 may include message reception, call signal reception, missed calls, alarms, schedule notifications, e-mail reception, and information reception through applications.
  • the interface unit 140 serves as a passage for various types of external devices connected to the multimedia device 100 .
  • the interface unit 140 includes at least one of a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port connecting a device having an identification module, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port.
  • the multimedia device 100 may perform appropriate control related to the connected external device in response to an external device being connected to the interface unit 140 .
  • the memory 160 stores data supporting various functions of the multimedia device 100 .
  • the memory 160 stores a plurality of application programs (application programs or applications) running in the multimedia device 100, data for operating the multimedia device 100, and commands. At least some of these application programs are downloaded from an external server through wireless communication. In addition, at least some of these application programs exist on the multimedia device 100 from the time of shipment for basic functions (eg, sound output) of the multimedia device 100 .
  • application programs application programs or applications
  • the application program may be stored in the memory 160, installed on the multimedia device 100, and driven by the control unit 170 to perform an operation (or function) of the multimedia device.
  • the control unit 170 controls general operations of the multimedia device 100 in addition to operations related to the application program.
  • the controller 170 provides or processes appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components described above or by driving an application program stored in the memory 160.
  • controller 170 controls at least some of the components described with reference to FIGS. 2 to 13 in order to drive an application program stored in the memory 160 . Furthermore, the controller 170 may combine and operate at least two or more of the components included in the multimedia device 100 to drive the application program.
  • the power supply unit 180 Under the control of the controller 170, the power supply unit 180 according to embodiments receives external power and internal power and supplies power to each component included in the multimedia device 100.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other in order to implement the operation, control, or control method of a multimedia device according to various embodiments described below. Also, the operation, control, or control method of the multimedia device may be implemented on the multimedia device by driving at least one application program stored in the memory 160 .
  • FIG. 3 is a diagram schematically illustrating a multimedia device according to embodiments.
  • 1000 represents a content production system according to embodiments.
  • the content creation system 1000 includes, for example, all or some functions of components included in the content creation system 10 described in FIGS. 1 and 2 . Users produce and distribute content through the content creation system 1000 .
  • the content creation system 1000 includes a multimedia device 1100 and an external device 1200 .
  • the multimedia device 1100 is used to create content.
  • the multimedia device 1100 includes all or some of the functions of each device (eg, 1 to 5) described in FIG. 1 .
  • the multimedia device 1100 corresponds to the multimedia device 100 described in FIG. 2 .
  • the multimedia device 1100 acquires an image, acquires a sound, or emits light.
  • the multimedia device 1100 includes a plurality of functions within one device, thereby allowing a user to reduce costs required for purchasing a plurality of devices.
  • the multimedia device 1100 does not require a complicated connection between a plurality of devices, providing a user with ease of device installation and placement.
  • the multimedia device 1100 is easy to carry.
  • the external device 1200 is a target to which the multimedia device 1100 is coupled.
  • the external device 1200 receives, stores, edits, and distributes various data acquired by the multimedia device 1100 from the multimedia device 1100 .
  • the external device 1200 may include all or part of components that perform the same or similar functions as the components described in FIG. 2 .
  • the external device 1200 is, for example, a laptop computer.
  • the multimedia device 1100 performs, for example, the aforementioned role by being coupled with the external device 1200 .
  • Coupling is a state in which the multimedia device 1100 and the external device 1200 are fixed and/or supported while being in contact with each other.
  • the coupling includes a state before the multimedia device 1100 and the external device 1200 come into contact or when the shortest distance between the multimedia device 1100 and the external device 1200 is equal to or less than the preset distance d.
  • the multimedia device 1100 determines that it is coupled to the external device 1200. When determining that the multimedia device 1100 is coupled with the external device 1200, it receives power from the external device 1200.
  • the multimedia device 1100 may be attached to or detachable from the external device 1200 . Through this, the multimedia device 1100 is easily connected to the external device 1200 and can be easily separated from the external device 1200 .
  • the multimedia device 1100 which is a device that is easily coupled to the external device 1200 to create content, will be described in detail.
  • FIG. 4 schematically illustrates a block diagram for explaining a multimedia device according to embodiments.
  • FIG. 4 is a block diagram including all or part of the components described in FIG. 2, and is intended to explain the components included in the multimedia device 1100 in more detail.
  • the multimedia device 1100 includes a body 1101, a wireless power transceiver 1110, a communication unit 1120, a camera 1130, and a microphone 1140.
  • the multimedia device 1100 may further include at least one of a sensor 1170, a processor 1180, and a speaker (not shown).
  • the body 1101 forms the exterior of the multimedia device 1100 .
  • the body 1101 includes one or more components included in the multimedia device 1100 or protects it from external impact.
  • the body 1101 is a thin bar type and has a shape in which the horizontal length is longer than the vertical length and height.
  • the body 1101 has a spherical or elliptical shape.
  • the wireless power transmission/reception unit 1110 is located in the body 1101 and couples with the external device at a distance equal to or less than a preset distance (d, see FIG. 3).
  • the wireless power transceiver 1110 transmits and receives power from the external device 1200 (see FIG. 3).
  • the multimedia device 1100 for example, even when the multimedia device 1100 does not include a power supply unit 180 (see FIG. 2) such as a separate battery or a power supply port, can perform an operation by transmitting power from the external device 1200.
  • the communication unit 1120 is formed on the body 1101 and transmits and receives data to and from the external device 1200 .
  • the communication unit 1120 transmits data (eg, an image) obtained by the multimedia device 1100 to the external device 1200 .
  • the communication unit 1120 receives an alarm or command from the multimedia device 1100 .
  • the communication unit 1120 corresponds to, for example, the wireless communication unit 110 described in FIG. 2 .
  • the communication unit 1120 transmits and receives data with the external device 1200 within a preset distance using a communication method such as, for example, Wi-Fi Direct, Wi-Fi6(ax), or Wigig (Wireless Gigabit Alliance).
  • a communication method such as, for example, Wi-Fi Direct, Wi-Fi6(ax), or Wigig (Wireless Gigabit Alliance).
  • a camera 1130 is formed on one surface of the body 1101 and acquires an image.
  • the camera 1130 for example, performs the same or similar function as the camera 1 described in FIG. 1, and corresponds to the camera 123 described in FIG. 2.
  • a microphone 1140 is formed on the body 1101 and acquires sound.
  • the microphone 1140 for example, performs the same or similar function as the microphone 2 described in FIG. 1, and corresponds to the microphone 121 described in FIG.
  • the sensor 1170 detects information about the outer surface of the multimedia device 1100 or the surrounding environment of the multimedia device 1100 .
  • the sensor 1170 detects user's touch information on at least a part of the body 1101 .
  • the sensor 1170 corresponds to the sensing unit 130 described in FIG. 2 .
  • the processor 1180 controls all or some components included in the multimedia device 1100 .
  • the processor 1180 corresponds to, for example, the controller 170 described in FIG. 2 .
  • FIG. 5 is a diagram explaining installation of a multimedia device according to embodiments.
  • FIG. 5 shows a content production system 1000 according to embodiments, and shows that the multimedia device 1100 is installed (attached) to an external device 1200 located apart from the multimedia device 1100.
  • the multimedia device 1100 includes a wireless power transceiver 1110 .
  • the multimedia device 1100 is coupled to the external device 1200 through the wireless power transceiver 1110 .
  • the wireless power transceiver 1110 includes a material having magnetic force or a material having magnetic force.
  • the wireless power transmission/reception unit 1110 includes magnetism or a material having magnetic force, such as neodymium, or a material having magnetic force, such as a coil.
  • the multimedia device 1100 can be attached anywhere on the front or rear side of the external device 1200 .
  • the front side is a direction facing the user using the external device 1200
  • the rear side is a direction opposite to the user using the external device 1200.
  • the multimedia device 1100 when creating content that includes a user, the multimedia device 1100 is attached to the front of the external device 1200 to acquire the user's image.
  • the multimedia device 1100 when creating content that includes an object other than the user, the multimedia device 1100 is attached to the rear of the external device 1200 and obtains an image of the object.
  • the multimedia device 1100 can obtain an image in a desired direction even when there is no separate rear or front camera due to the feature of being easily detachable from the external device 1200 .
  • the wireless power transceiver 1110 receives power from the external device 1200 as it is coupled to the external device 1200 .
  • the multimedia device 1100 does not include a separate power supply (for example, the power supply described in FIG. 2) or a separate battery, the multimedia device 1100 can easily receive power from the external device 1200 and operate.
  • the wireless power transmission/reception unit 1110 may transmit power to the external device 1200.
  • the multimedia device 1100 can easily transfer power to the external device 1200 to operate the external device 1200.
  • the wireless power transceiver 1110 includes a plurality of coils 1111 for transmitting and receiving power.
  • the wireless power transceiver 1110 transmits and receives power from the external device 1200 through a plurality of coils 1111 .
  • the wireless power transceiver 1110 when receiving current from the multimedia device 1100, the wireless power transceiver 1110 generates a magnetic field and an induced magnetic field by the magnetic field through a plurality of coils 1111. The wireless power transceiver 1110 generates an induced current through an induced magnetic field through a plurality of coils 1111 and supplies power through the induced current.
  • the wireless power transmission/reception unit 1110 may include a plurality of coils 1000 having a diameter equal to or less than a preset size, for example, to increase the amount of wireless power. At this time, a plurality of coils are connected in parallel with each other.
  • the multimedia device 1100 couples to the external device 1200 through the wireless power transmission/reception unit 1110 and receives power from the external device 1200 when necessary.
  • FIG. 6 is a diagram for explaining a camera of a multimedia device according to embodiments.
  • the content creation system 1000 obtains depth information in addition to a camera (eg, 1130) that obtains a general image in order to calculate the depth or distance to an object (eg, user) included in the content.
  • a depth camera is further required.
  • the multimedia device 1100 when the multimedia device 1100 has two cameras, manufacturing costs of the multimedia device 1100 increase and operations are overloaded. Accordingly, a method of allowing the multimedia device 1100 to include one camera while being able to calculate the depth or distance to the object is proposed.
  • FIG. 6 shows a content production system 1000 according to embodiments, and shows a multimedia device 1100 using a camera 1250 included in an external device 1200 .
  • the multimedia device 1100 includes a camera 1130 and/or a camera hole 1150 .
  • the camera 1130 is formed on one surface of the body 1101 and acquires an image.
  • the camera hole 1150 allows the external device 1200 to acquire an image through the camera 1250 provided in the external device 1200 . That is, the camera hole 1150 prevents the multimedia device 1100 from interfering with the camera 1250 provided in the external device 1200 to obtain an image.
  • the multimedia device 1100 may be disposed on and attached to the external device 1200 such that positions of the camera hole 1150 and the camera 1250 provided in the external device 1200 correspond to each other.
  • the camera hole 1150 penetrates at least a portion of the body 1101 .
  • the camera hole 1150 is a hole formed through the body 1101 and does not include a separate camera lens.
  • the camera hole 1150 does not serve as an optical device that acquires an image by itself.
  • the multimedia device 1100 includes the camera hole 1150, so that the external device 1200 can calculate the distance while including one camera 1130.
  • the external device 1200 may perform, for example, an outfocus operation on an object other than an object (subject, eg, user) according to distance calculation.
  • the external device 1200 may, for example, apply a chroma-key to an out-of-focus object without a separate green screen.
  • the external device 1200 may focus on the user, defocus the background, or perform chroma key on the defocused background.
  • the external device 1200 may perform a 3D characterization operation by recognizing the user's face and at the same time perform a chroma key on a background other than the user.
  • the camera hole 1150 further includes a cover 1151 (see FIG. 7 ) at an entrance and/or an exit of the camera hole 1150 to protect the camera hole 1150 from the outside.
  • the cover 1151 is made of a transparent material, such as glass.
  • the camera hole 1150 includes a transparent cover 1151, so that the external device 1200 does not interfere with acquiring images through the camera 1250 built in the external device 1200, and dust is accumulated inside the camera hole 1150 or impact is prevented.
  • Embodiments of a cover of a camera hole will be described with reference to FIG. 7 below.
  • FIG. 7 is a diagram explaining a camera hole of a multimedia device according to embodiments.
  • the camera hole 1151 further includes a cover 1151 .
  • the cover 1151 is provided at an entrance and/or an exit of the camera hole 1150 to protect the camera hole 1150 from the outside.
  • the cover 1151 displays a first color when power less than a predetermined value is supplied to the multimedia device 1100 .
  • the cover 1151 displays a second color when power exceeding a predetermined value is supplied to the multimedia device 1100 .
  • the cover 1151 is, for example, an electrically responsive polarizing film, and has a property of changing a polarization direction when a voltage is applied, for example.
  • the first color and the second color are different.
  • color includes hue, brightness, saturation, and transparency as constituent elements. Accordingly, the first color and the second color differ in at least one of hue, brightness, chroma, and transparency.
  • FIG. 7 shows a case in which power less than or equal to a preset value is supplied to the multimedia device 1100 .
  • the cover 1151 displays a first color.
  • the first color is the same color as the color of the body 1101 .
  • the cover 1151 is the same color as the body 1101 to improve aesthetics.
  • FIG. 7 shows a case in which power exceeding a predetermined value is supplied to the multimedia device 1100 .
  • the cover 1151 displays a second color.
  • the second color is a color different from the first color.
  • the second color has the same color, brightness, and saturation as the body, but has different transparency and is transparent.
  • the multimedia device 1100 makes the cover 1151 transparent when the multimedia device 1100 is combined with the external device 1200 (see FIG. 3). Through this, the multimedia device 1100 acquires an image through a camera 1250 (see FIG. 6) built into the external device 1200 even when the external device 1200 is combined with the multimedia device 1100.
  • the cover 1151 may have a different color when all other second conditions are satisfied in addition to the first condition in which power is supplied.
  • the first condition and the second condition may be changed or set by the user through the external device 1200 coupled with the multimedia device 1100 .
  • the cover 1151 may change from a first color to a second color only when both a first condition in which power is supplied and a second condition in which a touch to the body 1151 is sensed for a predetermined period of time or more are satisfied.
  • FIG. 8 is a diagram describing a body of a multimedia device according to embodiments.
  • a multimedia device 1100 includes a body 1101 .
  • the body 1101 may include two or more bodies, and includes, for example, a first body 1101a, a second body 1101b, and a third body 1101c.
  • Two or more bodies eg, 1101a, 1101b, and 1101c may rotate, bend, or slide in different directions.
  • the body 1101 includes a first body 1101a, a second body 1101b, and a third body 1101c.
  • the body 1101 includes a first hinge portion 1161 connecting the first body 1101a and the second body 1101b and a second hinge portion 1162 connecting the second body 1101b and the third body 1101c.
  • (a) of FIG. 8 is just an example, and the body 1101 includes as many hinge parts as 1 minus the number of bodies.
  • the first hinge part 1161 allows the first body 1101a and the second body 1101b to rotate in different directions.
  • the first body 1101a is rotatable in a direction a or a reverse direction with respect to the second body 1101b by the first hinge part 1161 .
  • the second hinge part 1162 allows the second body 1101b and the third body 1101c to rotate in different directions.
  • the third body 1101c is rotatable in the b direction or the reverse direction b with respect to the second body 1101b by the second hinge part 1161 .
  • the multimedia device 1100 has a structure that is folded by hinge parts (eg, 1161 and 1162), so that it is easy to store and move. Also, with such a structure, the multimedia device 1100 can widen or narrow the range of an image obtainable view angle, as shown in (a) of FIG. 9, for example.
  • 8(b) shows an example in which two or more bodies are bent in different directions.
  • the body 1101 includes a first body 1101a and a second body 1101b. At this time, the first body 1101a and the second body 1101b are physically connected as one body, but are separately expressed for convenience of explanation.
  • the body 1101 has a flexible material that is bent over a predetermined angle.
  • the body 1101 can be bent, bent, twisted, folded, or rolled by an external force, for example. Meanwhile, the body 1101 may have a flexible material only for one or more portions of the body 1101, not the entire body.
  • the body 1101 When the body 1101 is in an unbent state (eg, a state having an infinite radius of curvature, hereinafter referred to as a first state), the first body 1101a and the second body 1101b are positioned on the same plane.
  • an unbent state eg, a state having an infinite radius of curvature, hereinafter referred to as a first state
  • the body 1101 When the body 1101 is bent by an external force in the first state (for example, a state having a finite radius of curvature, hereinafter referred to as a second state), the first body 1101a and the second body 1101b are bent in different directions.
  • the second body 1101b may be bent in the c or d direction with respect to the first body 1101a.
  • the multimedia device 1100 is easy to store and move by including a flexible structure or material.
  • the multimedia device 1100 can widen or narrow the range of an angle of view capable of obtaining an image, as shown in (c) of FIG. 9, for example.
  • the body 1101 includes a first body 1101a, a second body 1101b, and a third body 1101c.
  • the body 1101 includes a first joint 1163 connecting the first body 1101a and the second body 1101b and a second joint 1164 connecting the second body 1101b and the third body 1101c.
  • 8(c) is just an example, and the body 1101 includes the number of joints obtained by subtracting 1 from the number of bodies.
  • the first joint 1163 allows the first body 1101a to slide with respect to the second body 1101b.
  • the first body 1101a is slidable in the e direction or the reverse e direction with respect to the second body 1101b by the first joint 1163 .
  • the second joint 1164 allows the third body 1101c to slide with respect to the second body 1101b.
  • the third body 1101c is slidable in the f direction or the reverse f direction with respect to the second body 1101b by the second joint 1164 .
  • the sizes or lengths of the joints 1163 and 1164 shown in (c) of FIG. 8 are merely examples.
  • one side of the first body 1101a completely contacts one side of the second body 1101b
  • one side of the third body 1101c completely contacts the other side of the second body 1101b.
  • the multimedia device 1100 it is easy to store and move the connectors (eg, 1163 and 1164). Also, with this structure, the multimedia device 1100 can widen or narrow the range of view angles capable of acquiring images.
  • FIG. 8 are merely examples for the ease of movement, storage, or use of the multimedia device 1101, and, for example, the multimedia device 1101 may include all of the features shown in (a) to (c) of FIG. 8.
  • FIG. 9 is a diagram illustrating an example of image acquisition by a camera when a multimedia device according to embodiments is folded.
  • Figure 9 (a) is an example of applying the embodiment according to Figure 8 (a).
  • At least a portion of the multimedia device 1100 may be attached to the external device 1200 .
  • the multimedia device 1100 may couple only the first body 1101a (see FIG. 8 ) with the external device 1200 .
  • the user may adjust the multimedia apparatus 1100 according to a desired composition or a required angle of view.
  • the multimedia device 1100 can alleviate the restrictions on space utilization of the external device 1200 .
  • FIG. 9(b) is an enlarged view of the multimedia device according to FIG. 9(a) from the side.
  • l1, l2, and l3 represent light moving directions. At this time, the light includes information about an image of an object (eg, a user).
  • the multimedia device 1100 includes a camera hole 1150 and a hinge part 1160 . Also, the multimedia device 1100 includes a first reflector 1152 and a second reflector 1162 .
  • the multimedia device 1100 includes more reflectors to efficiently use the space within the body 1101.
  • the first reflector 1152 reflects an image of an object facing the camera hole 1150 . Specifically, the first reflector 1152 reflects (l2) the light l1 incident through the camera hole 1150 toward the second reflector 1162 .
  • the second reflector 1162 reflects the light l2 that is reflected by the first reflector 1152 and is incident toward the second reflector 1162 toward the external device 1200, and, for example, reflects toward the camera 1250 built in the external device 1200 (l3).
  • the multimedia device 1100 allows the external device 1200 to acquire an image even when the positions of the camera hole 1150 and the camera 1250 built in the external device 1200 do not correspond to each other.
  • Figure 9 (c) is an example of applying the embodiment according to Figure 8 (b).
  • the multimedia device 1100 when the multimedia device 1100 includes a flexible material, the user can bend at least a portion of the multimedia device 1100 or unfold at least a portion of the multimedia device 1100 to have a desired angle of view ⁇ . Accordingly, the multimedia device 1100 provides a view angle or usage example desired by the user.
  • FIG. 10 is a diagram illustrating a control example of a multimedia device according to embodiments.
  • h represents a user's hand.
  • h may be anything that a touch sensor can recognize.
  • the multimedia device 1100 includes a sensor 1170 (see FIG. 4 ) and a processor 1180 (see FIG. 4 ).
  • the sensor 1170 senses information about the multimedia device 1100 or an environment surrounding the multimedia device 1100 .
  • the sensor 1170 includes a touch sensor and senses a user's touch input to the body 1101 .
  • the processor 1180 controls at least one of the components included in the multimedia device 1100, and, for example, controls at least one of the components included in the multimedia device 1100 in response to an input through the sensor 1170.
  • the processor 1180 determines information about a preset touch input that matches the user's touch input sensed by the sensor 1170 .
  • the processor 1180 checks a preset operation corresponding to information on a matched preset touch input.
  • the processor 1180 controls at least one of the components included in the multimedia apparatus 1100 to perform the checked preset operation.
  • the sensor 1170 recognizes a user's touch input h.
  • the sensor 1170 may sense that the user's touch input h is swiping from the first point p1 on the body 1101 to the fourth point p4 on the body 1101.
  • the processor 1180 confirms or determines that the touch input that matches the touch input sensed by the sensor 1170 is the first touch A.
  • the processor 1180 may determine a touch input within a predetermined error range as the first touch A as the first touch A.
  • the processor 1180 controls at least one of components included in the multimedia apparatus 1100 to perform a preset operation corresponding to the first touch A.
  • the processor 1180 controls the light emitting unit 1190 (see FIG.
  • the processor 1180 controls the light emitting unit 1190 to be turned on in response to the first touch A.
  • the processor 1180 controls the light emitting unit 1190 to be turned off in response to the first touch A.
  • the processor 1180 may control a part of the light emitting unit 1190 to be in an on state and another part of the light emitting unit 1190 to be in an off state in response to a user's touch input (h).
  • the multimedia apparatus 1100 may provide brightness of a relatively strong intensity to a main object and brightness of a relatively weak intensity to a sub object. An example of this is described in FIG. 13 . Through this function, the user can conveniently control desired brightness without installing two or more lights or performing a separate arrangement of lights.
  • the sensor 1170 recognizes a user's touch input h.
  • the sensor 1170 may sense that the user's touch input h is swiping from the second point p2 on the body 1101 to the fourth point p4 on the body 1101.
  • the processor 1180 confirms or determines that the touch input that matches the touch input sensed by the sensor 1170 is the second touch B. In this case, the processor 1180 may determine a touch input within a predetermined error range as the second touch B.
  • the processor 1180 controls at least one of components included in the multimedia apparatus 1100 to perform a preset operation corresponding to the second touch B. For example, the processor 1180 controls the camera 1130 (see FIG.
  • the processor 1180 controls the camera 1130 to be in an on state in response to the first touch A.
  • the processor 1180 controls the camera 1130 to be in an off state in response to the first touch A.
  • the sensor 1170 recognizes a user's touch input h.
  • the sensor 1170 may sense that the user's touch input h is swiping from the third point p3 on the body 1101 to the fourth point p4 on the body 1101.
  • the processor 1180 confirms or determines that the touch input that matches the touch input sensed by the sensor 1170 is the third touch C.
  • the processor 1180 may determine a touch input within a predetermined error range as the third touch C.
  • the processor 1180 controls at least one of components included in the multimedia apparatus 1100 to perform a preset operation corresponding to the third touch C.
  • the processor 1180 controls the microphone 1140 (see FIG.
  • the processor 1180 controls the microphone 1140 to be in an on state in response to the third touch C.
  • the processor 1180 controls the microphone 1140 to be in an off state in response to the third touch C.
  • the processor 1180 controls components included in the multimedia device 1100, such as a sound output module 151 (see FIG. 2) such as a speaker, in response to a user's touch input. Also, according to the end point of the touch input sensed by the sensor 1170, the processor 1180 controls details of components included in the multimedia device 1100, for example. For example, the processor 1180 controls a sound output level of the sound output module 151 or a brightness level of the light emitting unit 1190 according to a user's touch input.
  • the user's touch input (h) includes a touch area as well as swiping. Furthermore, the user's input may be made through the user's gesture input instead of touch.
  • the multimedia apparatus 1100 provides control convenience to the user by visually and intuitively performing control for each module in response to the user's input.
  • the multimedia device 1100 provides a way to precisely control components included in the multimedia device 1100 while having a compact design.
  • FIG. 11 is a diagram illustrating an example of light emission of a light emitting unit of a multimedia device according to embodiments.
  • the multimedia device 1100 includes a light emitting unit 1190 .
  • the light emitting unit 1190 corresponds to the light output unit 153 described in FIG. 2 .
  • the light emitting unit 1190 may perform a role corresponding to the lighting 3 described in FIG. 1 .
  • the light emitting unit 1190 is formed on at least a part of the body 1101 to emit light.
  • the light emitting unit 1190 is at least one surface of the body 1101, and may be formed, for example, on only the upper surface or on all surfaces.
  • the light emitting unit 1190 includes one or more light sources.
  • the light source is, for example, a light emitting element that converts current into light, and includes a light emitting diode (LED), a micro LED, and the like.
  • LED light emitting diode
  • the light emitter 1190 displays a first color red, as shown in FIG. 11(a). For example, when a first notification occurs that the battery of the external device 1200 is less than or equal to a preset power, the light emitting unit 1190 displays a first color (red) corresponding to the first notification. Although not shown in FIG. 11 , the light emitting unit 1190 may always display a first color (red) regardless of the amount of remaining power of the battery of the external device 1200 . At this time, the light emitting unit 1190 may adjust the intensity of the first color (red) according to the remaining power amount of the battery and display the light.
  • the light emitting unit 1190 displays a second color (yellow) as shown in FIG. 11(b).
  • the light emitting unit 1190 displays a second color (yellow) corresponding to the second notification.
  • the second color (yellow) is different from the first color (red).
  • Information on the notification received by the multimedia device 1100 from the external device 1200 is not limited thereto.
  • the notification includes various information about the external device 1200, such as, for example, a communication network connection state such as BT/Wi-Fi, whether the external device 1200 is in a sleep mode, schedule confirmation, system update, whether or not it is connected to another external device (eg, whether it is in a paring mode), whether a user's voice command is being executed, and the like.
  • the multimedia device 1100 improves user convenience by intuitively delivering various events through color or motion to the user through the light emitting unit 1190 .
  • the light emitting unit 1190 performs a role of lighting (eg, lighting 3 described in FIG. 1 ) when not transmitting information about the external device 1200 .
  • a role of lighting eg, lighting 3 described in FIG. 1
  • the user can use appropriate brightness through the multimedia device 1100 without having to provide a separate light.
  • FIG. 12 is another diagram illustrating an example of light emission of a light emitting unit of a multimedia device according to embodiments.
  • the multimedia device 1100 includes a light emitting unit 1190 .
  • the light emitting unit 1190 includes a plurality of light emitting elements (eg, 1191 and 1192, see FIG. 13).
  • the number of light emitting elements turned on among a plurality of light emitting elements may be proportional to the amount of power of the external device 1200 .
  • FIG. 12 shows a state in which the battery of the external device 1200 is 100%.
  • the light emitting unit 1190 displays all light emitting devices to be turned on (1190on) in proportion to the amount of power of the external device 1200.
  • (b) of FIG. 12 shows a state in which the battery of the external device 1200 is 40%.
  • the light emitting unit 1190 displays 40% of the plurality of light emitting elements in an on state (1190on) and displays 60% of the plurality of light emitting elements in an off state (1190off) in proportion to the amount of power of the external device 1200.
  • the light emitting unit 1190 displays on/off so that light emitting elements in an on state 1190on are adjacent to each other and light emitting elements in an off state 1190off are adjacent to each other.
  • the length of the light emitting part 1190 is proportional to the amount of power of the external device 1200 .
  • the multimedia device 1100 improves user convenience by intuitively transferring information about the external device 1200 to the user.
  • FIG. 13 is another diagram illustrating an example of light emission of a light emitting unit of a multimedia device according to embodiments.
  • the multimedia device 1100 includes the light emitting unit 1190 .
  • the light emitting unit 1190 includes a plurality of light emitting devices (eg, 1191 and 1192).
  • a plurality of light emitting devices (eg, 1191 and 1192) are arranged in one or more rows.
  • 1191 denotes a light emitting element in an on state (e.g., corresponding to 1190on described in FIG. 12)
  • 1192 denotes a light emitting element in an off state (e.g., corresponding to 1190off described in FIG. 12).
  • At least some of the plurality of light emitting devices may be in an on state.
  • the plurality of light emitting elements eg, 1191 and 1192
  • a plurality of light emitting devices (eg, 1191 and 1192) are arranged in two columns 1r and 2r.
  • only a light emitting element (eg, 1191) disposed in one column (eg, 1r) among a plurality of light emitting elements (eg, 1191 and 1192) may be in an on state.
  • only the light emitting element (eg, 1192) disposed in another column (eg, 2r) may be in an off state.
  • a user may input a user touch input (h, see FIG. 10) such as a touch, gesture, or toggling with respect to the upper portion of the light emitting unit 1190 so that the light emitting element 1191 disposed in one column 1r disposed above the light emitting unit 1190 turns on.
  • a user touch input such as a touch, gesture, or toggling with respect to the upper portion of the light emitting unit 1190 so that the light emitting element 1191 disposed in one column 1r disposed above the light emitting unit 1190 turns on.
  • the multimedia device 1100 may allow the light emitting unit 1190 to emit light only toward a specific target.
  • the light emitting element (eg, 1191) disposed in one column (eg, 1r) and the light emitting element (eg, 1192) disposed in another column (eg, 2r) may be alternately turned on.
  • the user may input a user touch input (h) such as an up and down gesture, a preset touch, or toggling to the light emitting unit 1190 to control the amount of light of the light emitting unit 1190 .
  • a user touch input such as an up and down gesture, a preset touch, or toggling to the light emitting unit 1190 to control the amount of light of the light emitting unit 1190 .
  • the multimedia device 1100 may control the number of light emitting devices 1191 in an on state or control the arrangement of the light emitting devices 1191 in an on state to adjust the amount of light emitted from the light emitting unit 1190 .
  • the up and down gesture includes, for example, a gesture or a touch in which a user's finger or a user's touch moves in a direction from 2r to 1r.
  • the number of light emitting elements to be turned on increases.
  • the up and down gesture includes, for example, a gesture or touch in which a user's finger or a user's touch moves in a 1r to 2r direction. In this case, for example, the number of light emitting elements that are turned off increases.
  • the moving direction of the user's finger or touch may be perpendicular to the body or may have a certain angle to the vertical.
  • the multimedia device 1100 includes light emitting devices arranged in two or more columns, so that various controls on the amount of light emitted by the light emitting unit 1190 are possible.
  • the plurality of light emitting elements may be turned on or off with different regularities.
  • FIG. 13(c) and (d) show a state in which a plurality of light emitting elements are arranged in one column. Meanwhile, (c) of FIG. 13 corresponds to examples of (a) to (b) of FIG. 12 , for example.
  • a plurality of light emitting elements (eg, 1191 and 1192) are arranged in one column 1r.
  • a plurality of light emitting devices (e.g., 1191 and 1192), among the light emitting devices arranged in one column 1r, a light emitting device (e.g., 1191) arranged in a specific direction is turned on, and a light emitting device (e.g., 1192) arranged in another specific direction is turned off.
  • the user may input a user touch input (h) such as a touch or a predetermined gesture or toggling in one direction of the light emitting unit 1190 for a predetermined period of time or longer in order to turn on a light emitting element (e.g., 1191) located in one direction of the light emitting unit 1190.
  • a user touch input such as a touch or a predetermined gesture or toggling in one direction of the light emitting unit 1190 for a predetermined period of time or longer in order to turn on a light emitting element (e.g., 1191) located in one direction of the light emitting unit 1190.
  • a user touch input such as a touch or a predetermined gesture or toggling in one direction of the light emitting unit 1190 for a predetermined period of time or longer in order to turn on a light emitting element (e.g., 1191) located in one direction of the light emitting unit 1190.
  • the multimedia device 1100 provides a lighting function only for a direction required by the user.
  • a plurality of light emitting devices (eg, 1191 and 1192) alternately turn on and off states of the light emitting devices arranged in one column 1r.
  • the user may control the amount of light emitted from the light emitting unit 1190 through the user touch input h described in FIG. 10 .
  • the multimedia device 1100 provides a more compact size multimedia device by including the light emitting devices arranged in one column.
  • the multimedia device emits light brightly or dimly according to the use environment.
  • the use environment is, for example, a brightness difference between a main object and a sub object as described in FIG. 10 .
  • the multimedia device 1100 sets a light emitting element close to the main object (for example, the user's face) to be in an on state, and a light emitting element close to a sub object (for example, a desk on which an external device is installed) to be turned off.
  • the multimedia device 1100 distinguishes the main object or the sub object through a sensor (eg, 1170). At this time, the multimedia device 1100 distinguishes the main object or the sub object through data pre-stored in the memory 160 (see FIG. 2). Alternatively, the multimedia apparatus 1100 distinguishes a main object or a sub object through the user's touch input h described in FIG. 10 .
  • the use environment is, for example, illuminance.
  • the multimedia device 1100 reduces the number of light emitting elements that are turned on among a plurality of light emitting elements when the illumination is high (when the periphery of the multimedia device is bright).
  • the multimedia device 1100 increases the number of light emitting devices that are turned off among a plurality of light emitting devices when illumination is low (when the periphery of the multimedia device is dark).
  • the multimedia device 1100 determines ambient illumination of the multimedia device 1100 through a sensor (eg, an illuminance sensor at 1170). At this time, the multimedia device 1100 controls the light emitting elements according to the 'light emitting element control command corresponding to the sensed illuminance' stored in the memory 160 (see FIG. 2 ). Alternatively, the multimedia apparatus 1100 distinguishes the ambient illumination through the user's touch input h described in FIG. 10 .
  • the multimedia device 1100 increases the quality of produced content by providing illumination to the user.
  • the multimedia device 1100 improves user convenience by manually or automatically providing lighting of appropriate brightness.
  • FIG. 14 is a diagram illustrating an action performed by connecting a multimedia device and an external device according to embodiments.
  • the multimedia device 1100 includes a processor 1180 (see FIG. 4) that controls at least one of the elements included in the multimedia device 1100.
  • the processor 1180 causes the external device 1200 to execute a preset application 1201 through the communication unit 1120 (see FIG. 4).
  • the processor 1180 determines whether the multimedia device 1100 and the external device 1200 are coupled through the amount of power received by the multimedia device 1100 .
  • the processor 1180 determines that the multimedia device 1100 and the external device 1200 are coupled when the amount of power supplied from the external device 1200 through the wireless power transmitter 1110 (see FIG. 4) is greater than or equal to a preset amount of power.
  • the multimedia device 1100 executes frequently used applications to help the user's convenience.
  • the processor 1180 when the processor 1180 receives that the external device 1200 does not perform a task through the communication unit 1200 while the amount of power supplied from the external device 1200 through the wireless power transmitter 1110 is greater than or equal to a predetermined amount of power, the processor 1180 helps the user's convenience by, for example, executing a frequently used application when using the multimedia device 1100.
  • the multimedia device tracks the speaker's movement and controls and outputs an optimal volume.
  • the multimedia device includes a processor 1180 (see FIG. 4), a microphone 1140 (see FIG. 4), and a speaker (eg, the sound output module described in FIG. 2).
  • the processor controls at least one of components included in the multimedia device.
  • the speaker outputs sound data obtained through the communication unit 1120 (see FIG. 4) and output from an external device.
  • the processor determines the user's voice using the external device (1200, see FIG. 3) among the sound data acquired through the microphone. To this end, the processor checks the user's movement through a sensor 1170 (see FIG. 4) or a camera 1130 (see FIG. 4). The processor determines the user's voice based on the user's movements.
  • the processor determines noise data excluding the user's voice from among the acquired sound data.
  • the processor generates noise reduction data corresponding to the noise data.
  • the noise reduction data is data that cancels the noise data or has a similar function.
  • the processor outputs noise reduction data through the sound output module.
  • the multimedia device can perform a noise canceling operation and remove howling.
  • the multimedia device outputs sound with little or no noise through a speaker or transmits sound data with little or no noise to an external device through a communication unit.
  • the multimedia device enables contents to be created with only one device for an external device.
  • a multimedia device is easily attached to an external device to transmit and receive power or data.
  • the multimedia device improves efficiency with respect to price, load, and power consumption by using a built-in camera of an external device.
  • the multimedia device provides user convenience by providing an intuitive UX to the user.
  • the multimedia device allows the user's voice to be output or transmitted without noise.
  • the multimedia device provides light having an abundant amount of light.
  • multimedia device according to the embodiments of the present invention has been described as a specific embodiment, this is only an example and the present invention is not limited thereto, and should be interpreted as having the widest scope according to the basic ideas disclosed herein.
  • the embodiments have industrial applicability.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)

Abstract

실시예들에 따른 멀티미디어 장치는, 바디; 바디 내에 위치하고 외부 장치와의 거리가 기 설정된 거리 이하이면, 외부 장치와 결합하여 외부 장치로부터 전력을 수신하는 무선 전력 송수신부; 바디에 형성되고, 외부 장치와 데이터 송수신하는 통신부; 바디의 일면에 형성되고 이미지를 획득하는 카메라; 및 바디에 형성되고 소리를 획득하는 마이크로폰; 을 포함한다.

Description

멀티미디어 장치
본 발명은 멀티미디어 장치에 관한 것이다. 예를 들어, 본 발명의 실시예들은 외부 장치와 결합 가능한 멀티미디어 장치에 적용 가능하다.
최근 학생들의 인기 직업 순위에 '크리에이터(creator)'라는 직업이 등장하고 있다. 크리에이터란 문자 그대로의 의미로서 콘텐츠(contents)를 제작(창작)하며, 또한 제작한 콘텐츠를 디지털 네트워크를 통해 업로드하여 유통하는 일을 수행하는 직업이다. 일반적으로, 크리에이터는 동영상을 생산하고 업로드하는 창작자를 가리킨다.
크리에이터는, 제작되는 콘텐츠의 형식이나 내용, 또는 크리에이터에 대한 자격이 별도로 제한되지 않아 누구나 손쉽게 접근이 가능한 직업이다. 과거와 달리, 하드웨어의 성능 평준화 및 간편, 간소화 된 편집툴을 통해 누구나 쉽게 많은 힘을 들이지 않고 콘텐츠를 제작할 수 있게 되었기 때문이다.
또한, 이러한 접근성에 발맞추어 1인 크리에이터인 1인 방송 역시 증가하고 있다. 이에 따라, 전업 크리에이터뿐만 아니라, 별도의 본업을 갖고 있는 직장인들 역시 부업으로 크리에이터 활동을 하는 경우가 증가하는 추세이다.
한편, 크리에이터는 콘텐츠를 제작하거나 또는 업로드하기 위한 장비가 필요하다. 이때, 크리에이터는, 스마트폰과 같이 단일 장비를 이용하여 콘텐츠를 제작할 수 있다. 그러나 이 경우 예를 들어 사용자의 목소리를 정확하게 캐치하지 못하는 등의 음질이 떨어지거나, 또는 콘텐츠의 화질이 떨어지는 등의 문제가 있다.
이에 따라, 크리에이터들은 콘텐츠의 질을 향상시키기 위하여 단일 장비 보다는 다양하고 전문적인 장비를 이용하는 경우가 많다. 그러나, 다양한 장비의 구입은 투자 비용을 많이 발생시키게 되어 오히려 콘텐츠 제작에 대한 접근선을 떨어트리는 문제가 있다. 나아가, 다양하거나 또는 다수의 장비를 이용하는 경우, 장비 간 연결이 복잡해지고 이동에 제한이 발생하는 문제가 있다.
실시예들은 상술한 문제점을 해결하기 위한 멀티미디어 장치를 제공하는 것을 목적으로 한다.
실시예들은 단일의 멀티미디어 장치를 제공하는 것을 목적으로 한다.
또한, 실시예들은 저렴한 비용의 멀티미디어 장치를 제공하는 것을 목적으로 한다.
또한, 실시예들은 설치가 용이한 멀티미디어 장치를 제공하는 것을 목적으로 한다.
또한, 실시예들은 휴대가 간편한 멀티미디어 장치를 제공하는 것을 목적으로 한다.
실시예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 다양한 실시예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
실시예들은 상술한 문제점을 해결하는 멀티미디어 장치를 제공한다.
실시예들에 따르면, 바디(body); 바디 내에 위치하고 외부 장치와의 거리가 기 설정된 거리 이하이면, 외부 장치와 결합하여 외부 장치로부터 전력을 수신하는 무선 전력 송수신부; 바디에 형성되고, 외부 장치와 데이터 송수신하는 통신부; 바디의 일면에 형성된 카메라; 및 바디에 형성된 하나 또는 그 이상의 마이크로폰; 을 포함하는 멀티미디어 장치를 제공한다.
실시예들에 따르면, 바디의 적어도 일부를 관통하는 카메라 홀; 을 더 포함하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 카메라 홀을 덮고, 멀티미디어 장치 내에 기 설정된 값 이하의 전력이 공급되면 제 1 색을 표시하고, 멀티미디어 장치 내에 기 설정된 값 초과의 전력이 공급되면 제 2 색을 표시하는 커버(cover); 를 더 포함하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 바디는 제 1 바디 및 제 2 바디를 포함하고, 바디는, 제 1 바디 및 제 2 바디를 연결하면서, 제 1 바디와 제 2 바디가 서로 다른 방향으로 회전하도록 하는 힌지부; 를 포함하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 멀티미디어 장치는, 바디의 적어도 일부를 관통하는 카메라 홀; 을 더 포함하고, 카메라 홀은, 카메라 홀과 대향되는 대상(object)의 상(image)을 힌지부를 향해 반사하는 제 1 반사부를 포함하고, 힌지부는, 제 1 반사부로부터 입사된 상을 외부 장치를 향해 반사하는 제 2 반사부를 포함하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 바디는 제 1 바디 및 제 2 바디를 포함하고, 바디는, 제 1 바디 및 제 2 바디가 기 설정된 각도 이상 벤딩(bending) 되는 플렉서블 바디인, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 바디는 제 1 바디 및 제 2 바디를 포함하고, 제 2 바디는 제 1 바디에 대하여 슬라이딩(sliding) 이동하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 멀티미디어 장치는, 바디에 대한 사용자의 터치 입력을 센싱하는 센서(sensor); 및 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서(processor); 를 더 포함하고, 프로세서는, 센서가 센싱한 사용자의 터치 입력에 매칭되는 기 설정된 터치 입력에 대한 정보를 판단하고, 매칭되는 기 설정된 터치 입력에 대한 정보에 대응되는 기 설정된 동작을 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나가 수행하도록 제어하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 프로세서는, 사용자의 터치 입력으로서, 센서를 통해 바디 상의 제 1 지점으로부터 바디 상의 제 2 지점까지에 대하여 제 1 터치가 센싱되면, 카메라가 온(on) 또는 오프(off) 상태가 되도록 제어하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 프로세서는, 사용자의 터치 입력으로서, 센서를 통해 바디 상의 제 3 지점으로부터 바디 상의 제 4 지점까지에 대하여 제 2 터치가 센싱되면, 이크로폰이 온 또는 오프 상태가 되도록 제어하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 바디의 적어도 일부에 형성되어 발광하는 발광부; 를 포함하고, 발광부는, 하나 이상의 열(row)로 배열된 복수 개의 발광 소자를 포함하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 발광부는, 외부 장치에 대하여 제 1 노티(noti)가 발생하면, 발광부는 제 1 색상을 표시하고, 외부 장치에 대하여 제 2 노티가 발생하면, 발광부는 제 1 색상과 상이한 제 2 색상을 표시하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 멀티미디어 장치는, 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서; 를 포함하고, 복수 개의 발광 소자는 2 이상의 열로 배열되고, 프로세서는, 2 이상의 열 중 적어도 하나의 열에 배열되는 발광 소자만 온 상태가 되도록 제어하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 멀티미디어 장치는, 바디에 대한 사용자 입력을 센싱하는 센서; 및 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서; 를 포함하고, 프로세서는, 센서에 의해 센싱되는 사용자 입력에 대응하여, 복수 개의 발광 소자의 적어도 일부가 온 상태가 되도록 제어하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 멀티미디어 장치는, 멀티미디어 장치에 대한 조도를 센싱하는 센서를 센싱하는 센서; 및 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서; 를 포함하고, 프로세서는, 센서에 의해 센싱되는 조도에 대응하여, 복수 개의 발광 소자의 적어도 일부가 온 상태가 되도록 제어하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 바디의 일면에 형성되고, 복수 개의 발광 소자를 포함하는 발광부; 를 포함하고, 발광부는, 복수 개의 발광 소자 중 온 상태가 되는 발광 소자의 개수는 외부 장치의 전력량에 비례하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서; 를 더 포함하고, 프로세서는, 무선 전력 송수신부를 통해 공급된 전력량이 기 설정된 전력량 이상이면, 통신부를 통해 외부 장치가 기 설정된 어플리케이션(application)을 실행하도록 하는, 멀티미디어 장치를 제공한다.
실시예들에 따르면, 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서; 및 통신부를 통해 획득한, 외부 장치로부터 출력 된 음향 데이터를 출력하는 스피커; 를 더 포함하고, 프로세서는, 하나 또는 그 이상의 마이크로폰을 통해 획득한 소리 데이터 중 외부 장치의 사용자의 목소리를 판단하고, 획득한 소리 데이터 중 사용자의 목소리를 제외한 노이즈 데이터를 결정하고, 노이즈 데이터에 대응되는 노이즈 저감 데이터를 생성하고, 스피커를 통해 노이즈 저감 데이터를 출력하는, 멀티미디어 장치를 제공한다.
실시예들에 따른 멀티미디어 장치는, 단일 장비를 통하여 콘텐츠를 제작할 수 있는 방안을 제공할 수 있다.
실시예들에 따른 멀티미디어 장치는, 저렴한 비용으로 제작될 수 있다.
실시예들에 따른 멀티미디어 장치는, 외부 장치에 대해 설치가 용이하다.
실시예들에 따른 멀티미디어 장치는, 휴대가 간편하다.
실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.
실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 콘텐츠를 제작하는 콘텐츠 제작 시스템을 나타낸 도면이다.
도 2는 실시예들에 따른 멀티미디어 장치를 설명하는 블록도이다.
도 3은 실시예들에 따른 멀티미디어 장치를 개략적으로 설명하는 도면이다.
도 4는 실시예들에 따른 멀티미디어 장치를 설명하기 위한 블록도를 개략적으로 도시한 것이다.
도 5는 실시예들에 따른 멀티미디어 장치의 설치에 대하여 설명하는 도면이다.
도 6은 실시예들에 따른 멀티미디어 장치의 카메라에 대하여 설명하는 도면이다.
도 7은 실시예들에 따른 멀티미디어 장치의 카메라 홀에 대하여 설명하는 도면이다.
도 8은 실시예들에 따른 멀티미디어 장치의 바디에 대하여 설명하는 도면이다.
도 9는 실시예들에 따른 멀티미디어 장치가 폴딩된 경우에 있어서, 카메라의 영상 획득에 대한 예시를 설명하는 도면이다.
도 10은 실시예들에 따른 멀티미디어 장치의 제어 예시를 설명하는 도면이다.
도 11은 실시예들에 따른 멀티미디어 장치의 발광부의 발광 예시를 설명하는 도면이다.
도 12는 실시예들에 따른 멀티미디어 장치의 발광부의 발광 예시를 설명하는 다른 도면이다.
도 13은 실시예들에 따른 멀티미디어 장치의 발광부의 발광 예시를 설명하는 또 다른 도면이다.
도 14는 실시예들에 따른 멀티미디어 장치와 외부 장치의 연결에 의해 수행되는 액션에 대해 설명하는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 “유닛”, "모듈", “챔버” 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
실시예들을 통해 설명되는 외부 장치는 단위 화소 또는 단위 화소의 집합으로 정보를 표시하는 모든 디스플레이 장치를 포함하는 개념이다. 따라서 완성품에 한정하지 않고 부품에도 적용될 수 있다. 예를 들어 디지털 TV의 일 부품에 해당하는 패널도 독자적으로 본 명세서 상의 디스플레이 장치에 해당한다. 완성품으로는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 피씨(Slate PC), Tablet PC, Ultra Book, 디지털 TV, 데스크 탑 컴퓨터 등이 포함될 수 있다. 이하에서는, 설명의 편의를 위해, 노트북(노트북 컴퓨터)을 예시로 하여 외부 장치에 대해 설명한다.
실시예들을 통해 설명되는 콘텐츠(contents)는 인터넷이나 컴퓨터 통신 등을 통하여 제공되는 각종 정보나 그 내용물이다. 콘텐츠(contents)는 예를 들어, 유선 또는 무선 전기 통신망에서 사용하기 위하여 문자, 부호, 음성, 음향, 이미지, 영상 등을 디지털 방식으로 제작하여 처리 및 유통하는 각종 정보 또는 그 내용물이다. 이하에서는, 설명의 편의를 위하여, 컨텐츠를 멀티미디어 장치를 통하여 획득한 영상 또는 이미지를 통해 제작한 내용물을 예시로 설명한다.
또한, 본 명세서에서 이미지(image)는 정적 이미지(예를 들어, 사진) 및 동적 이미지(예를 들어, 영상)를 모두 포함하는 것으로 사용된다.
도 1은 콘텐츠를 제작하는 콘텐츠 제작 시스템을 나타낸 도면이다.
콘텐츠 제작 시스템(10)은 크리에이터가 콘텐츠를 제작하기 위한 장비(들)이다. 크리에이터는, 콘텐츠 제작 시스템(10)에 포함되는 전부 또는 일부의 장비를 이용하여 콘텐츠를 제작한다.
도 1에 도시한 바와 같이, 콘텐츠 제작 시스템(10)은, 예를 들어, 카메라(1), 마이크(2), 조명(3), 휴대폰(4), 휴대폰 거치대(5) 및 노트북(6)을 포함한다.
카메라(1)는 이미지를 획득하는 장치이다. 구체적으로, 카메라(1)는 빛을 이용하여 이미지를 획득하여 저장하는 장치이다. 예를 들어, 카메라(1)는 사용자의 이미지를 획득하여 저장한다.
마이크(2)는 소리를 획득하는 장치이다. 구체적으로, 마이크(2)는 음파 또는 초음파를 획득하여 그 진동에 따른 전기 신호를 발생하는 장치이다. 예를 들어, 마이크(2)는, 사용자의 소리를 획득하여 소리 신호로 변환한다.
조명(3)은 광원을 통해 발광하는 장치이다. 구체적으로, 조명(3)은 특정 또는 불특정 대상에 대해 소정의 광을 방출하여, 특정 또는 불특정 대상이 빛을 받도록 한다. 이때, 조명(3)에 포함되는 광원은, 파장(빛)을 방출하는 장치로서, 예를 들어 가시광을 방출한다. 광원은, 예를 들어 백열등, 방전등, LED를 포함한다. 예를 들어, 조명(3)은, 사용자에게 가시광을 방출하여 카메라(1)가 사용자의 이미지를 더 밝거나 또는 더 선명하게 획득할 수 있도록 한다.
도 1에 도시하지는 않았으나, 콘텐츠 제작 시스템(10)은 반사판을 더 포함할 수 있다. 반사판은 조명(3) 또는 그 외의 광원(예를 들어, 실내등, 자연광)으로부터 방출되는 광을 반사하여 밝기를 조절한다. 예를 들어, 반사판은 광이 닿지 않아 상대적으로 어두운 사용자의 적어도 일부에 대해 광이 반사되도록 광의 각도나 반사를 이용해 밝기를 조절한다.
휴대폰(4)은 휴대 가능한 통신 기기로서, 이동 중에도 기지국을 통해 다른 상대방과 통신 가능한 장치이다. 휴대폰(4)은 이미지를 획득하거나 또는 소리를 방출하는 모듈을 내장한다. 또한, 휴대폰(4)은 획득 및 저장한 이미지 또는 소리를 편집하는 프로그램을 포함할 수 있다. 예를 들어, 휴대폰(4)은 사용자의 이미지를 획득하거나 또는 사용자의 소리를 녹음하여 저장한다.
휴대폰 거치대(5)는 휴대폰(4)을 거치하는 장치이다. 예를 들어, 휴대폰 거치대(5)는 휴대폰(4)이 사용자의 이미지를 획득하기에 적합한 각도와 높이를 갖도록 휴대폰(4)을 고정 및/또는 지지한다.
노트북(6)은 휴대 가능한 컴퓨터이다. 노트북(6)은 이미지를 획득하거나 또는 소리를 방출하는 모듈을 내장한다. 또한, 노트북(6)은 카메라(1), 마이크(2), 조명(3), 휴대폰(4), 휴대폰 거치대(5)를 통해 획득 및 저장한 이미지 또는 소리를 편집하는 프로그램을 포함할 수 있다. 예를 들어, 사용자의 이미지를 획득하거나 또는 사용자의 소리를 녹음하여 저장한다. 또한, 노트북(6)은, 예를 들어 사용자의 이미지 또는 소리를 편집하여 저장한다.
상술한 바와 같이, 콘텐츠 제작 시스템(10)은 복수 개의 장치를 포함한다. 이 경우 사용자가 콘텐츠 제작 시스템(10)에 포함되는 장치의 전부 또는 일부를 구매하기 위한 비용이 과다하게 발생하는 문제가 있다. 또한, 콘텐츠 제작 시스템(10)에 포함되는 장치의 개수가 증가함에 따라, 각 장치 간 연결이 복잡해지고, 이동에 불편이 발생하는 문제가 있다.
한편, 휴대폰(4)은 카메라(1), 마이크(2) 및 노트북(6) 중 적어도 하나 이상에 대용될 수 있으나, 단일 장치 각각을 이용하는 경우에 비하여 질(quality)이 저하되는 문제가 있다. 또한, 노트북(6)은 노트북(6)은 카메라(1) 또는 마이크(2)에 대용될 수 있으나, 단일 장치 각각을 이용하는 경우에 비하여 질(quality)이 저하되는 문제가 있다.
따라서, 카메라(1), 마이크(2), 조명(3), 휴대폰(4), 휴대폰 거치대(5) 각각을 이용하는 경우의 질(quality)을 포함하면서 콘텐츠 제작 시스템(10)에 포함되는 장치의 수를 줄일 수 있는 방안이 요구된다. 이하에서는, 이러한 방안에 대하여 상술한다.
도 2는 실시예들에 따른 멀티미디어 장치를 설명하는 블록도이다.
도 2에서, 100은 멀티미디어 장치(multimedia device)를 나타낸다. 실시예들에 따른 멀티미디어 장치(100)은 도 1에서 설명한 각 장치(예를 들어, 1 내지 5)의 기능 중 전부 또는 일부를 포함하는 것으로, 도 1에서 설명한 콘텐츠 제작 시스템(10)과 동일 또는 유사한 기능을 수행한다. 멀티미디어 장치(100)는 외부 장치(예를 들어, 도 1에서 설명한 노트북)와 연결되어 콘텐츠 제작 과정에 이용된다.
멀티미디어 장치(100)는 무선 통신부(110), 입력부(120), 센싱부(130), 인터페이스부(140), 출력부(150), 메모리(160), 제어부(170) 및 전원 공급부(180) 등을 포함한다. 도 1에 도시된 구성요소들은 멀티미디어 장치를 구현하는데 있어서 필수적인 것은 아니어서, 실시예들에 따라 설명되는 멀티미디어 장치는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
실시예들에 따른 무선 통신부(110)는, 멀티미디어 장치(100)와 외부 장치 사이, 멀티미디어 장치(100)와 무선 통신 시스템 사이, 멀티미디어 장치(100)와 다른 멀티미디어 장치 사이, 또는 멀티미디어 장치(100)와 외부 장치가 아닌 외부 서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함한다. 또한, 무선 통신부(110)는, 멀티미디어 장치(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함한다.
이때, 외부 장치 또는 다른 멀티미디어 장치는, 예를 들어, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 피씨(Slate PC), Tablet PC, Ultra Book, 디지털 TV, 데스크 탑 컴퓨터 등을 포함한다.
그러나, 실시예들에 따른 무선 통신부(110)는, 추후 개발되는 새로운 제품 형태여도 무선 통신이 가능한 대상이라면 실시예들에 따른 멀티미디어 장치(100)와 통신 가능함을 본 기술 분야의 당업자라면 쉽게 알 수 있을 것이다.
무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함한다.
실시예들에 따른 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함한다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공된다.
실시예들에 따른 이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
상기 무선 신호는, 음성 신호, 화상 통화 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함한다.
실시예들에 따른 무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 멀티미디어 장치(100)에 내장되거나 외장 된다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술은, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있다.
무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.
실시예들에 따른 근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 멀티미디어 장치(100)와 무선 통신 시스템 사이, 멀티미디어 장치(100)와 다른 멀티미디어 장치(100) 사이, 또는 멀티미디어 장치(100)와 외부 장치가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
실시예들에 따른 위치정보 모듈(115)은 멀티미디어 장치의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.
예를 들어, 멀티미디어 장치(100)는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 멀티미디어 장치(100)의 위치를 획득할 수 있다. 다른 예로서, 멀티미디어 장치(100)는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 멀티미디어 장치의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 멀티미디어 장치의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다.
위치정보모듈(115)은 멀티미디어 장치(100)의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 멀티미디어 장치(100)의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
실시예들에 따른 입력부(120)는, 영상 입력부(도시하지 않음), 오디오 신호 입력을 위한 마이크로폰(microphone, 121), 또는 오디오 입력부(도시하지 않음), 사용자로부터 정보를 입력받기 위한 사용자 입력부(122, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함한다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리된다.
실시예들에 따른 마이크로폰(121)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 멀티미디어 장치(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다.
마이크로폰(121)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
실시예들에 따른 사용자 입력부(122)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(122)를 통해 정보가 입력되면, 제어부(170)는 입력된 정보에 대응되도록 멀티미디어 장치(100)의 동작을 제어할 수 있다.
사용자 입력부(122)는 기계식 (mechanical) 입력수단 및 터치식 입력수단을 포함한다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 멀티미디어 장치의 외부에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어질 수 있다. 예를 들어, 사용자 입력부(123)는 멀티미디어 장치(100)의 외관에 마련된 터치 센서를 통해 센싱되는 터치 센서를 포함할 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 멀티미디어 장치의 외부에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon) 또는 이들의 조합으로 이루어질 수 있다.
실시예들에 따른 카메라(123)는 이미지를 획득하는 광학 기기이다. 카메라(123)는 도 1에서 설명한 카메라(1)에 대응된다. 카메라(123)는 예를 들어 4K 초고선명(4K UHD, 4K Ultra High Definition) 영상 기술 방식을 포함한다. 그러나, 카메라(123)는 이에 한정되지 않으며, 카메라(123)는 이미지를 획득하는 모든 수단을 포함하는 것으로 Full HD, 2K 등의 영상 획득 방식 또는 해상도를 출력하는 모든 장치를 포함한다.
실시예들에 따른 센싱부(130)는 멀티미디어 장치 내 정보, 멀티미디어 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함한다.
예를 들어, 센싱부(130)는 근접센서(131, proximity sensor), 조도 센서(132, illumination sensor), 터치 센서(133, touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 마이크로폰(microphone, 121 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함한다.
한편, 실시예들에 따른 멀티미디어 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
실시예들에 따른 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 음향 출력 모듈(151), 햅팁모듈(152), 광 출력부(153) 중 적어도 하나를 포함한다.
실시예들에 따른 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 멀티미디어 장치(100)의 외부에 구현된다. 이러한 멀티미디어 장치(100)의 외부는 멀티미디어 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 멀티미디어 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 예를 들어, 디스플레이부(151)는 멀티미디어 장치(100)의 외부(예를 들어, 후술하는 본체부(1110))에 형성되어, 예를 들어, 아이콘, 텍스트 등을 디스플레이할 수 있다.
실시예들에 따른 음향 출력 모듈(151)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(151)는 멀티미디어 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(151)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
실시예들에 따른 햅틱모듈(haptic module)(152)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱모듈(152)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱모듈(152)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어된다. 예를 들어, 상기 햅틱모듈(152)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
실시예들에 따른 광 출력부(153)는 멀티미디어 장치(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 멀티미디어 장치(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
실시예들에 따른 인터페이스부(140)는 멀티미디어 장치(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(140)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함한다.
멀티미디어 장치(100)에서는, 상기 인터페이스부(140)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
실시예들에 따른 메모리(160)는 멀티미디어 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다.
메모리(160)는 멀티미디어 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 멀티미디어 장치(100)의 동작을 위한 데이터들, 명령어들을 저장한다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 된다. 또한 이러한 응용 프로그램 중 적어도 일부는, 멀티미디어 장치(100)의 기본적인 기능(예를 들어, 음향 출력)을 위하여 출고 당시부터 멀티미디어 장치(100) 상에 존재한다.
한편, 응용 프로그램은, 메모리(160)에 저장되고, 멀티미디어 장치(100) 상에 설치되어, 제어부(170)에 의하여 상기 멀티미디어 장치 의 동작(또는 기능)을 수행하도록 구동될 수 있다.
실시예들에 따른 제어부(170)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 멀티미디어 장치(100)의 전반적인 동작을 제어한다. 제어부(170)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(160)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리한다.
또한, 제어부(170)는 메모리(160)에 저장된 응용 프로그램을 구동하기 위하여, 도 2 내지 도 13을 통해 설명되는 구성요소들 중 적어도 일부를 제어한다. 나아가, 제어부(170)는 상기 응용 프로그램의 구동을 위하여, 멀티미디어 장치(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
실시예들에 따른 전원공급부(180)는 제어부(170)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 멀티미디어 장치(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시예들에 따른 멀티미디어 장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 멀티미디어 장치의 동작, 제어, 또는 제어방법은 상기 메모리(160)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 멀티미디어 장치 상에서 구현될 수 있다.
도 3은 실시예들에 따른 멀티미디어 장치를 개략적으로 설명하는 도면이다.
도 3에서 1000은 실시예들에 따른 콘텐츠 제작 시스템을 나타낸다. 콘텐츠 제작 시스템(1000)은, 예를 들어, 도 1 내지 도 2에서 설명한 콘텐츠 제작 시스템(10)에 포함되는 구성요소의 전부 또는 일부의 기능을 포함한다. 사용자는, 콘텐츠 제작 시스템(1000)을 통해 콘텐츠를 제작 및 유통한다.
도 3에 도시한 바와 같이, 콘텐츠 제작 시스템(1000)은 멀티미디어 장치(1100) 및 외부 장치(1200)를 포함한다.
실시예들에 따른 멀티미디어 장치(1100)는 콘텐츠를 제작하기 위하여 이용된다. 멀티미디어 장치(1100)는 도 1에서 설명한 각 장치(예를 들어, 1 내지 5)의 기능 중 전부 또는 일부를 포함한다. 또한, 멀티미디어 장치(1100)는 도 2에서 설명한 멀티미디어 장치(100)에 대응된다. 예를 들어, 멀티미디어 장치(1100)는 이미지를 획득하거나, 소리를 획득하거나 또는 광을 방출하는 등의 역할을 수행한다.
이와 같이, 멀티미디어 장치(1100)는 하나의 장치 이내에 복수 개의 기능을 포함함으로써, 사용자가 복수 개의 장치를 구매하는데 소요되는 비용을 절감하도록 한다. 또한, 멀티미디어 장치(1100)는 복수 개의 장비 간 복잡한 연결이 요구되지 않아 사용자에게 장치 설치 및 배치 용이성을 제공한다. 또한, 멀티미디어 장치(1100)는 휴대가 간편하다.
실시예들에 따른 외부 장치(1200)는 멀티미디어 장치(1100)가 결합되는 대상이다. 외부 장치(1200)는 멀티미디어 장치(1100)로부터 멀티미디어 장치(1100)가 획득한 각종 데이터를 수신하여 저장, 편집 및 유통한다. 이를 위해, 외부 장치(1200)는, 도 2에서 설명한 구성과 동일 또는 유사한 기능을 수행하는 구성을 전부 또는 일부 포함할 수 있다. 외부 장치(1200)는, 예를 들어, 노트북이다.
한편, 멀티미디어 장치(1100)는 외부 장치(1200)와 결합됨으로써 예를 들어 상술한 역할을 수행한다. 결합은 멀티미디어 장치(1100)와 외부 장치(1200)가 접한 채로 고정 및/또는 지지되는 상태이다. 이때, 결합은 멀티미디어 장치(1100)와 외부 장치(1200)가 접하기 전이나, 멀티미디어 장치(1100)와 외부 장치(1200) 사이의 최단 거리가 기 설정된 거리(d) 이하인 상태를 포함한다.
멀티미디어 장치(1100)는 외부 장치(1200)와의 최단 거리가 기 설정된 거리(d) 이하이면 외부 장치(1200)와 결합된 상태로 판단한다. 멀티미디어 장치(1100)는 외부 장치(1200)와 결합된 것으로 판단하면, 외부 장치(1200)로부터 전력을 수신한다.
한편, 멀티미디어 장치(1100)는 외부 장치(1200)에 부착되거나 또는 외부 장치(1200)로부터 탈착 가능하다. 이를 통해, 멀티미디어 장치(1100)는 외부 장치(1200)에 쉽게 연결되고, 외부 장치(1200)로부터 쉽게 분리 가능하다.
이하에서는, 이와 같이 단일 장치로서, 용이하게 외부 장치(1200)에 결합되어 콘텐츠를 제작하는 장치인 멀티미디어 장치(1100)에 대하여 상술한다.
도 4는 실시예들에 따른 멀티미디어 장치를 설명하기 위한 블록도를 개략적으로 도시한 것이다.
도 4는, 도 2에서 설명한 구성 요소의 전부 또는 일부를 포함하고 있는 블록도를 도시한 것으로, 멀티미디어 장치(1100)에 포함되는 구성 요소를 더 상세히 설명하기 위한 것이다.
실시예들에 따른 멀티미디어 장치(1100)는 바디(body)(1101), 무선 전력 송수신부(1110), 통신부(1120), 카메라(1130), 마이크로폰(1140)을 포함한다. 또한, 멀티미디어 장치(1100)는 센서(1170), 프로세서(1180) 및 스피커(도시하지 않음) 중 적어도 하나를 더 포함할 수 있다.
실시예들에 따른 바디(1101)는 멀티미디어 장치(1100)의 외관을 형성한다. 바디(1101)는 멀티미디어 장치(1100)에 포함되는 하나 또는 그 이상의 구성 요소들을 포함하거나 외부의 충격으로부터 보호한다.
예를 들어, 바디(1101)는 얇은 바(bar) 타입으로, 세로 길이 및 높이에 비해 가로 길이가 긴 형상을 갖는다. 또는, 예를 들어, 바디(1101)는 구형 또는 타원 구형의 형상을 갖는다.
실시예들에 따른 무선 전력 송수신부(1110)는 바디(1101) 내에 위치하고, 외부 장치와의 거리가 기 설정된 거리 이하(d, 도 3 참조)에서 외부 장치와 결합한다. 무선 전력 송수신부(1110)는 외부 장치(1200, 도 3 참조)로부터 전력을 송수신한다. 이를 통해, 멀티미디어 장치(1100)는, 예를 들어 멀티미디어 장치(1100)가 별도의 배터리(battery) 또는 전원 공급 포트와 같은 전원 공급부(180, 도 2 참조)를 포함하지 않는 경우에도 외부 장치(1200)로부터 전력을 송신하여 동작을 수행할 수 있다.
실시예들에 따른 통신부(1120)는 바디(1101)에 형성되고, 외부 장치(1200)와 데이터를 송수신한다. 예를 들어, 통신부(1120)는 멀티미디어 장치(1100)가 획득한 데이터(예를 들어, 이미지)를 외부 장치(1200)로 전송한다. 또한, 예를 들어, 통신부(1120)는 멀티미디어 장치(1100)로부터 알람 또는 명령을 수신한다. 통신부(1120)는, 예를 들어, 도 2에서 설명한 무선 통신부(110)에 대응된다.
통신부(1120)는, 예를 들어, Wi-Fi Direct, Wi-Fi6(ax), Wigig(Wireless Gigabit Alliance) 등의 통신 방법을 이용하여 기 설정된 거리 내의 외부 장치(1200)와 데이터를 송수신한다.
실시예들에 따른 카메라(1130)는 바디(1101)의 일면에 형성되고, 이미지를 획득한다. 카메라(1130)는, 예를 들어, 도 1에서 설명한 카메라(1)와 동일 또는 유사한 기능을 수행하고, 도 2에서 설명한 카메라(123)에 대응된다.
실시예들에 따른 마이크로폰(1140)은 바디(1101)에 형성되고, 소리를 획득한다. 마이크로폰(1140)은, 예를 들어, 도 1에서 설명한 마이크(2)와 동일 또는 유사한 기능을 수행하고, 도 2에서 설명한 마이크로폰(121)에 대응된다.
실시예들에 따른 센서(1170)는 멀티미디어 장치(1100)의 외면 또는 멀티미디어 장치(1100)의 주변 환경에 대한 정보를 감지한다. 예를 들어, 센서(1170)는 바디(1101)의 적어도 일부에 대한 사용자의 터치 정보를 감지한다. 센서(1170)는 도 2에서 설명한 센싱부(130)에 대응된다.
실시예들에 따른 프로세서(1180)는 멀티미디어 장치(1100)에 포함되는 전부 또는 일부의 구성 요소들을 제어한다. 프로세서(1180)는, 예를 들어, 도 2에서 설명한 제어부(170)에 대응된다.
이하에서는, 멀티미디어 장치(1100)에 포함되는 각 구성요소들을 통해 멀티미디어 장치(1100)의 다양한 실시예들에 대해 설명한다.
도 5는 실시예들에 따른 멀티미디어 장치의 설치에 대하여 설명하는 도면이다.
도 5는 실시예들에 따른 콘텐츠 제작 시스템(1000)을 나타낸 것으로, 멀티미디어 장치(1100)가 멀티미디어 장치(1100)와 이격되어 위치하는 외부 장치(1200)에 설치(부착)되는 것을 나타내었다.
도 5에 도시한 바와 같이, 멀티미디어 장치(1100)는 무선 전력 송수신부(1110)를 포함한다. 멀티미디어 장치(1100)는 무선 전력 송수신부(1110)를 통해 외부 장치(1200)와 결합한다. 이를 위해, 무선 전력 송수신부(1110)는, 자력을 갖는 물질 또는 자기력을 갖는 물질을 포함한다. 예를 들어, 무선 전력 송수신부(1110)는, 네오디뮴(neodymium)과 같은 자력 또는 자기력을 갖는 물질 또는 코일(coil)과 같은 자기력을 갖는 물질을 포함한다.
이와 같은 특징에 의해, 멀티미디어 장치(1100)는 외부 장치(1200)의 전면 또는 후면 어디에도 부착될 수 있다. 이때, 전면은 외부 장치(1200)를 이용하는 사용자와 마주하는 방향이고, 후면은 외부 장치(1200)를 이용하는 사용자와 반대되는 방향이다.
예를 들어, 사용자가 포함되는 콘텐츠를 제작하는 경우, 멀티미디어 장치(1100)는 외부 장치(1200)의 전면에 부착되어, 사용자의 이미지를 획득한다. 또는, 예를 들어, 사용자 이외의 대상이 포함되는 콘텐츠를 제작하는 경우, 멀티미디어 장치(1100)는 외부 장치(1200)의 후면에 부착되어, 해당 대상의 이미지를 획득한다.
이와 같이, 멀티미디어 장치(1100)는, 외부 장치(1200)에 대해 용이하게 탈부착할 수 있는 특징으로 인하여, 별도의 후면 또는 전면 카메라가 없는 경우에도 원하는 방향에 대해 이미지를 획득할 수 있다.
한편, 무선 전력 송수신부(1110)는 외부 장치(1200)와 결합함에 따라, 외부 장치(1200)로부터 전력을 수신한다. 이 경우, 예를 들어 멀티미디어 장치(1100)가 별도의 전원 공급부(예를 들어, 도 2에서 설명한 전원 공급부) 또는 별도의 배터리를 포함하지 않는 경우에도, 멀티미디어 장치(1100)는 외부 장치(1200)로부터 용이하게 전원을 공급받아 작동할 수 있다.
또는, 예를 들어 멀티미디어 장치(1100)가 배터리를 포함하고 외부 장치(1200)가 전력이 기 설정된 전력 미만인 경우, 무선 전력 송수신부(1110)는 외부 장치(1200)로 전력을 송신할 수도 있다. 이 경우, 예를 들어, 외부 장치(1200)의 전력이 부족하거나 외부 장치(1200)가 별도의 전원 공급부를 포함하지 않는 경우에도 멀티미디어 장치(1100)는 용이하게 외부 장치(1200)에 전력을 전달하여 외부 장치(1200)를 작동시킬 수 있다.
무선 전력 송수신부(1110)는 전력의 송수신을 위하여 복수 개의 코일(1111)을 포함한다. 무선 전력 송수신부(1110)는 복수 개의 코일(1111)을 통해 외부 장치(1200)로부터 전력을 송수신한다.
구체적으로, 무선 전력 송수신부(1110)는, 멀티미디어 장치(1100)로부터 전류를 수신하면, 복수 개의 코일(1111)을 통해 자기장 및 자기장에 의한 유도 자기장을 발생시킨다. 무선 전력 송수신부(1110)는 복수 개의 코일(1111)을 통해 유도 자기장을 통해 유도 전류를 생성하고, 유도 전류를 통해 전력을 공급한다.
이때, 무선 전력 송수신부(1110)는 무선 전력량을 상승시키기 위하여, 예를 들어, 기 설정된 크기 이하의 지름을 갖는 복수 개의 코일(1000)을 포함할 수 있다. 이때, 복수 개의 코일은 서로 병렬로 연결된다.
이와 같이, 멀티미디어 장치(1100)는 무선 전력 송수신부(1110)를 통해 외부 장치(1200)와 결합하고, 필요한 경우 외부 장치(1200)로부터 전력을 수신한다.
도 6은 실시예들에 따른 멀티미디어 장치의 카메라에 대하여 설명하는 도면이다.
콘텐츠 제작 시스템(1000)은 콘텐츠에 포함되는 대상(예를 들어, 사용자)에 대한 깊이 또는 거리를 산출하기 위하여, 일반적인 이미지를 획득하는 카메라(예를 들어, 1130) 이외에 깊이에 대한 정보를 획득하는 심도 카메라(depth camera)를 더 필요로 한다.
그러나 이 경우 멀티미디어 장치(1100)가 2 개의 카메라를 갖게 되면 멀티미디어 장치(1100)의 제작 비용이 증가하며, 작동 수행에 과부하가 걸리는 등의 문제가 있다. 따라서, 대상에 대한 깊이 또는 거리를 산출할 수 있으면서, 멀티미디어 장치(1100)가 하나의 카메라를 포함하도록 하는 방안을 제시한다.
도 6은 실시예들에 따른 콘텐츠 제작 시스템(1000)을 나타낸 것으로, 외부 장치(1200)에 포함되는 카메라(1250)를 이용하는 멀티미디어 장치(1100)를 나타내었다.
도 6에 도시한 바와 같이, 멀티미디어 장치(1100)는 카메라(1130) 및/또는 카메라 홀(1150)을 포함한다. 도 3에서 설명한 바와 같이, 카메라(1130)는 바디(1101)의 일면에 형성되고, 이미지를 획득한다.
카메라 홀(1150)은, 외부 장치(1200)에 마련된 카메라(1250)를 통해 외부 장치(1200)가 이미지를 획득하도록 한다. 즉, 카메라 홀(1150)은, 멀티미디어 장치(1100)가 외부 장치(1200)에 마련된 카메라(1250)가 이미지를 획득하는 것을 방해하지 않도록 한다. 멀티미디어 장치(1100)는, 카메라 홀(1150)과 외부 장치(1200)에 마련된 카메라(1250)의 위치가 서로 대응되도록, 외부 장치(1200) 상에 배치되어 부착될 수 있다.
카메라 홀(1150)은 바디(1101)의 적어도 일부를 관통한다. 카메라 홀(1150)은 바디(1101)를 관통하여 형성된 홀(hole)로서, 별도의 카메라 렌즈를 내장하지 않는다. 카메라 홀(1150)은 스스로 이미지를 획득하는 광학 기기의 역할을 수행하지 않는다. 멀티미디어 장치(1100)는, 카메라 홀(1150)을 포함함으로써, 하나의 카메라(1130)를 포함하면서도 외부 장치(1200)가 거리를 산출하도록 할 수 있다.
이에 따라, 외부 장치(1200)는, 예를 들어, 거리 산출에 따른 대상(object, 피사체, 예를 들어 사용자) 외의 대상에 대해 아웃포커스(outfocus) 작업을 수행할 수 있다. 또한, 외부 장치(1200)는, 예를 들어, 아웃포커스 된 대상에 대해 별도의 그린 스크린(green screen) 없이 크로마키(chroma-key)를 적용할 수 있다. 예를 들어, 외부 장치(1200)는 사용자에 포커스(focus)를 맞추고, 배경에 대해 아웃포커스를 수행하거나 또는 아웃포커스 된 배경에 대해 크로마키를 수행할 수 있다. 나아가, 예를 들어, 외부 장치(1200)는 사용자의 안면을 인식하여 3D 캐릭터화 작업을 수행함과 동시에 사용자 외의 배경에 대해 크로마키를 수행할 수 있다.
한편, 카메라 홀(1150)은, 카메라 홀(1150)을 외부로부터 보호하기 위하여, 카메라 홀(1150)의 입구 및/또는 출구에 커버(cover)(1151, 도 7 참조)를 더 포함한다. 커버(1151)는, 예를 들어, 글라스(glass)로서 투명한 재질이다. 카메라 홀(1150)은, 투명한 커버(1151)를 포함함으로써, 외부 장치(1200)가 외부 장치(1200)에 내장된 카메라(1250)를 통해 이미지를 획득하는 것을 방해하지 않으면서, 카메라 홀(1150) 내부에 먼지가 쌓이거나 충격이 가해지는 것을 방지한다.
이하의 도 7을 통해 카메라 홀의 커버의 실시예들에 대해 설명한다.
도 7은 실시예들에 따른 멀티미디어 장치의 카메라 홀에 대하여 설명하는 도면이다.
도 6에서 설명한 바와 같이, 카메라 홀(1151)은 커버(1151)를 더 포함한다. 커버(1151)는, 카메라 홀(1150)을 외부로부터 보호하기 위하여, 카메라 홀(1150)의 입구 및/또는 출구에 마련된다.
커버(1151)는, 멀티미디어 장치(1100) 내에 기 설정된 값 이하의 전력이 공급되면 제 1 색을 표시한다. 커버(1151)는, 멀티미디어 장치(1100) 내에 기 설정된 값 초과의 전력이 공급되면 제 2 색을 표시한다.
커버(1151)는, 예를 들어, 전기 반응형 편광 필름이고, 예를 들어, 전압이 인가되면 편광 방향이 변화하는 특성을 갖는다.
이때, 제 1 색과 제 2 색은 상이하다. 구체적으로, 색은 구성 요소로서 색상, 명도, 채도 및 투명도를 포함한다. 따라서, 제 1 색과 제 2 색은, 색상, 명도, 채도 및 투명도 중 적어도 하나가 상이하다.
도 7의 (a)는 멀티미디어 장치(1100) 내에 기 설정된 값 이하의 전력이 공급되는 경우를 도시하였다.
도 7의 (a)에 도시한 바와 같이, 멀티미디어 장치(1100) 내에 기 설정된 값 이하의 전력이 공급되면, 커버(1151)는 제 1 색을 표시한다. 이때, 예를 들어, 제 1 색은 바디(1101)의 색과 동일한 색이다.
예를 들어, 멀티미디어 장치(1100)는, 멀티미디어 장치(1100)가 외부 장치(1200, 도 3 참조)와 결합되지 않은 경우에는 커버(1151)가 바디(1101)와 동일한 색이 되도록 하여 외관의 심미성을 향상시킨다.
도 7의 (b)는 멀티미디어 장치(1100) 내에 기 설정된 값 초과의 전력이 공급되는 경우를 도시하였다.
도 7의 (b)에 도시한 바와 같이, 멀티미디어 장치(1100) 내에 기 설정된 값 초과의 전력이 공급되면, 커버(1151)는 제 2 색을 표시한다. 이때, 제 2 색은 제 1 색과 상이한 색이다. 예를 들어, 제 2 색은 바디와 색상, 명도, 채도가 동일하나, 투명도가 상이한 색으로 투명하다.
예를 들어, 멀티미디어 장치(1100)는, 멀티미디어 장치(1100)가 외부 장치(1200, 도 3 참조)와 결합되는 경우에는 커버(1151)가 투명하게 되도록 한다. 이를 통해 멀티미디어 장치(1100)는, 외부 장치(1200)가 멀티미디어 장치(1100)와 결합된 경우에도 외부 장치(1200)에 내장된 카메라(1250, 도 6 참조)를 통해 이미지를 획득하도록 한다.
그러나, 도 7에서 설명한 것과 달리, 커버(1151)는 전력이 공급되는 제 1 조건 외에 별도의 제 2 조건까지 모두 만족한 경우에 색을 달리할 수도 있다. 제 1 조건 및 제 2 조건은, 멀티미디어 장치(1100)와 결합된 외부 장치(1200)를 통해 사용자가 변경 또는 설정할 수 있다. 예를 들어, 커버(1151)는, 전력이 공급되는 제 1 조건과 바디(1151)에 대한 기 설정된 시간 이상의 터치가 센싱되는 제 2 조건을 모두 만족하는 경우에만, 제 1 색에서 제 2 색으로 바뀔 수도 있다.
도 8은 실시예들에 따른 멀티미디어 장치의 바디에 대하여 설명하는 도면이다.
도 8에 도시한 바와 같이, 실시예들에 따른 멀티미디어 장치(1100)는, 바디(1101)를 포함한다. 바디(1101)는 2 이상의 바디를 포함할 수 있고, 예를 들어, 제 1 바디(1101a), 제 2 바디(1101b) 및 제 3 바디(1101c)를 포함한다. 2 이상의 바디(예를 들어, 1101a, 1101b, 1101c)는 서로 다른 방향으로 회전(rotation), 밴딩(bending) 또는 슬라이딩(sliding)할 수 있다.
도 8의 (a)는 2 이상의 바디가 서로 다른 방향으로 회전하는 예시를 나타내었다.
도 8의 (a)에 도시한 바와 같이, 바디(1101)는 제 1 바디(1101a), 제 2 바디(1101b), 제 3 바디(1101c)를 포함한다. 또한, 바디(1101)는 제 1 바디(1101a)와 제 2 바디(1101b)를 연결하는 제 1 힌지부(1161) 및 제 2 바디(1101b)와 제 3 바디(1101c)를 연결하는 제 2 힌지부(1162)를 포함한다. 도 8의 (a)는 예시에 불과한 것으로, 바디(1101)는 바디의 개수에서 1을 뺀 만큼의 힌지부를 포함한다.
제 1 힌지부(1161)는 제 1 바디(1101a)와 제 2 바디(1101b)가 서로 다른 방향으로 회전하도록 한다. 예를 들어, 제 1 바디(1101a)는, 제 1 힌지부(1161)에 의해, 제 2 바디(1101b)에 대하여 a 방향 또는 a 역방향으로 회전 가능하다.
제 2 힌지부(1162)는 제 2 바디(1101b)와 제 3 바디(1101c)가 서로 다른 방향으로 회전하도록 한다. 예를 들어, 제 3 바디(1101c)는, 제 2 힌지부(1161)에 의해, 제 2 바디(1101b)에 대하여 b 방향 또는 b 역방향으로 회전 가능하다.
이와 같이, 멀티미디어 장치(1100)는, 힌지부(예를 들어, 1161, 1162)에 의해 접히는 구조를 가짐으로써, 보관 및 이동이 용이하다. 또한, 이와 같은 구조에 의해 멀티미디어 장치(1100)는, 예를 들어, 도 9의 (a)에 도시한 바와 같이, 이미지 획득 가능한 화각의 범위를 넓히거나 좁힐 수 있다.
도 8의 (b)는 2 이상의 바디가 서로 다른 방향으로 벤딩하는 예시를 나타내었다.
도 8의 (b)에 도시한 바와 같이, 바디(1101)는 제 1 바디(1101a), 제 2 바디(1101b)를 포함한다. 이때, 제 1 바디(1101a) 및 제 2 바디(1101b)는 물리적으로 연결되어 있는 하나의 바디이나, 설명의 편의를 위해 별도로 표현한다.
바디(1101)는 기 설정된 각도 이상 벤딩되는 플렉서블(flexible) 재질을 갖는다. 바디(1101)는, 예를 들어, 외력에 의하여 휘어질 수 있는, 또는 구부러질 수 있는, 또는 비틀어질 수 있는, 또는 접힐 수 있는, 또는 말려질 수 있다. 한편, 바디(1101)는 전체가 아닌 하나 또는 그 이상의 일부에 대하여만 플렉서블 재질을 가질 수 있다.
바디(1101)가 휘어지지 않은 상태(예를 들어, 무한대의 곡률반경을 가지는 상태, 이하 제 1 상태라 한다)인 경우, 제 1 바디(1101a)와 제 2 바디(1101b)는 동일 평면 상에 위치한다.
바디(1101)가 제 1 상태에서 외력에 의하여 휘어진 상태(예를 들어, 유한의 곡률 반경을 가지는 상태, 이하, 제 2 상태라 한다)인 경우, 제 1 바디(1101a) 와 제 2 바디(1101b)는 서로 다른 방향으로 벤딩된다. 예를 들어, 제 2 바디(1101b)는 제 1 바디(1101a)에 대해, c 또는 d 방향으로 벤딩될 수 있다.
이와 같이, 멀티미디어 장치(1100)는, 플렉서블 구조 또는 재질을 포함함으로써, 보관 및 이동이 용이하다. 또한, 이와 같은 구조 또는 재질에 의해 멀티미디어 장치(1100)는, 예를 들어, 도 9의 (c)에 도시한 바와 같이, 이미지 획득 가능한 화각의 범위를 넓히거나 좁힐 수 있다.
도 8의 (c)는 2 이상의 바디가 서로 다른 방향으로 슬라이딩하는 예시를 나타내었다.
도 8의 (c)에 도시한 바와 같이, 바디(1101)는 제 1 바디(1101a), 제 2 바디(1101b), 제 3 바디(1101c)를 포함한다. 또한, 바디(1101)는 제 1 바디(1101a)와 제 2 바디(1101b)를 연결하는 제 1 이음부(1163) 및 제 2 바디(1101b)와 제 3 바디(1101c)를 연결하는 제 2 이음부(1164)를 포함한다. 도 8의 (c)는 예시에 불과한 것으로, 바디(1101)는 바디의 개수에서 1을 뺀 만큼의 이음부를 포함한다.
제 1 이음부(1163)는 제 2 바디(1101b)에 대해 제 1 바디(1101a)가 슬라이딩 되도록 한다. 제 1 바디(1101a)는, 제 1 이음부(1163)에 의하여, 제 2 바디(1101b)에 대해 e 방향 또는 역 e 방향으로 슬라이딩 가능하다.
제 2 이음부(1164)는 제 2 바디(1101b)에 대해 제 3 바디(1101c)가 슬라이딩 되도록 한다. 제 3 바디(1101c)는, 제 2 이음부(1164)에 의하여, 제 2 바디(1101b)에 대해 f 방향 또는 역 f 방향으로 슬라이딩 가능하다.
도 8의 (c)에 도시한 이음부(1163, 1164)의 크기 또는 길이는 예시에 불과하며, 예를 들어, 제 2 바디(1101b)의 일면에 제 1 바디(1101a)의 일면이 완전히 접하고, 제 2 바디(1101b)의 다른 일면에 제 3 바디(1101c)의 일면이 완전히 접하도록 설계될 수도 있다.
이와 같이, 멀티미디어 장치(1100)는, 이음부(예를 들어, 1163, 1164) 보관 및 이동이 용이하다. 또한, 이와 같은 구조에 의해 멀티미디어 장치(1100)는, 이미지 획득 가능한 화각의 범위를 넓히거나 좁힐 수 있다.
도 8의 (a) 내지 (c)는 멀티미디어 장치(1101)의 이동, 보관 또는 사용의 용이함을 위한 예시를 나타낸 것에 불과하며, 예를 들어, 멀티미디어 장치(1101)는 도 8의 (a) 내지 (c)에 도시된 모든 특징을 포함할 수도 있다.
도 9는 실시예들에 따른 멀티미디어 장치가 폴딩된 경우에 있어서, 카메라의 영상 획득에 대한 예시를 설명하는 도면이다.
도 9의 (a)는 도 8의 (a)에 따른 실시예를 적용한 예시이다.
멀티미디어 장치(1100)는 외부 장치(1200)에 대해 적어도 일부만 부착될 수 있다. 예를 들어, 멀티미디어 장치(1100)는, 도 9의 (a)에 도시한 바와 같이, 제 1 바디(1101a, 도 8 참조)만 외부 장치(1200)와 결합할 수 있다.
사용자는 예를 들어 원하는 구도, 또는 필요한 화각에 따라 멀티미디어 장치(1100)를 조절할 수 있다. 이와 같이, 멀티미디어 장치(1100)는 외부 장치(1200)가 갖는 공간 활용의 제약을 완화할 수 있다.
도 9의 (b)는 도 9의 (a)에 따른 멀티미디어 장치를 측면에서 확대하여 나타낸 것이다.
도 9의 (b)에서, l1, l2 및 l3은 빛의 이동 방향을 나타낸다. 이때, 빛은 대상(예를 들어, 사용자)의 상(image)에 대한 정보를 포함한다. 도 9의 (b)에 도시한 바와 같이, 멀티미디어 장치(1100)는 카메라 홀(1150) 및 힌지부(1160)를 포함한다. 또한, 멀티미디어 장치(1100)는 제 1 반사부(1152) 및 제 2 반사부(1162)를 포함한다.
도 9의 (b)에서는, 설명의 편의를 위해, 제 1 반사부(1152)와 제 2 반사부(1162)만을 포함하나, 멀티미디어 장치(1100)는 더 많은 반사부를 포함하여 바디(1101) 내 공간을 효율적으로 이용할 수도 있다.
제 1 반사부(1152)는, 카메라 홀(1150)과 대향되는 대상의 상을 반사한다. 구체적으로, 제 1 반사부(1152)는, 카메라 홀(1150)을 통해 입사한 빛(l1)을 제 2 반사부(1162)를 향해 반사(l2)한다.
제 2 반사부(1162)는, 제 1 반사부(1152)에 의해 반사되어 제 2 반사부(1162)를 향해 입사하는 빛(l2)을 외부 장치(1200)를 향해 반사하고, 예를 들어, 외부 장치(1200)에 내장된 카메라(1250)를 향해 반사한다(l3).
이와 같은 구조를 통해, 멀티미디어 장치(1100)는, 카메라 홀(1150)과 외부 장치(1200)에 내장된 카메라(1250)의 위치가 서로 대응되지 않는 경우에도, 외부 장치(1200)가 이미지를 획득하도록 할 수 있다.
도 9의 (c)는 도 8의 (b)에 따른 실시예를 적용한 예시이다.
도 9의 (c)에 도시한 바와 같이, 멀티미디어 장치(1100)가 플렉서블 소재를 포함하는 경우, 사용자는 원하는 화각(θ)을 갖도록 멀티미디어 장치(1100)의 적어도 일부를 구부리거나 또는 적어도 일부를 펼 수 있다. 이에 따라, 멀티미디어 장치(1100)는, 사용자가 원하는 화각 또는 사용예를 제공한다.
도 10은 실시예들에 따른 멀티미디어 장치의 제어 예시를 설명하는 도면이다.
도 10에서 h는 사용자의 손을 나타낸다. 그러나, 이는 예시이며, h는 터치 센서가 인식할 수 있는 어떤 것이어도 된다.
도 2 및 도 4에서 설명한 바와 같이, 멀티미디어 장치(1100)는 센서(1170, 도 4 참조) 및 프로세서(1180, 도 4 참조)를 포함한다.
센서(1170)는 멀티미디어 장치(1100) 또는 멀티미디어 장치(1100) 주변 환경에 대한 정보를 센싱한다. 예를 들어, 센서(1170)는 터치 센서를 포함하고, 바디(1101)에 대한 사용자의 터치 입력을 센싱한다.
프로세서(1180)는 멀티미디어 장치(1100)에 포함되는 구성요소들 중 적어도 하나를 제어하고, 예를 들어, 센서(1170)를 통한 입력에 대응하여 멀티미디어 장치(1100)에 포함되는 구성요소들 중 적어도 하나를 제어한다.
구체적으로, 프로세서(1180)는 센서(1170)가 센싱한 사용자의 터치 입력에 매칭되는 기 설정된 터치 입력에 대한 정보를 판단한다. 프로세서(1180)는 매칭되는 기 설정된 터치 입력에 대한 정보에 대응되는 기 설정된 동작을 확인한다. 프로세서(1180)는 확인된 기 설정된 동작을 멀티미디어 장치(1100)에 포함되는 구성요소들 중 적어도 하나가 수행하도록 제어한다.
예를 들어, 도 10에 도시한 바와 같이, 센서(1170)는 사용자의 터치 입력(h)을 인식한다. 예를 들어, 센서(1170)는 사용자의 터치 입력(h)이 바디(1101) 상의 제 1 지점(p1)으로부터 바디(1101) 상의 제 4 지점(p4)까지 스와이핑(swiping)인 것을 센싱할 수 있다. 프로세서(1180)는 센서(1170)가 센싱한 터치 입력과 매칭되는 터치 입력이 제 1 터치(A)임을 확인 또는 판단한다. 이때, 프로세서(1180)는, 제 1 터치(A)와 기 설정된 오차 이내의 터치 입력에 대하여는 제 1 터치(A)로 판단할 수 있다. 프로세서(1180)는, 제 1 터치(A)에 대응하는 기 설정된 동작을 멀티미디어 장치(1100)에 포함되는 구성요소들 중 적어도 하나가 수행하도록 제어한다. 예를 들어, 프로세서(1180)는, 제 1 터치(A)에 대응하여, 발광부(1190, 도 11 참조)가 온(on) 또는 오프(off) 되도록 제어한다. 예를 들어, 프로세서(1180)는 발광부(1190)가 오프 상태인 경우, 제 1 터치(A)에 대응하여 발광부(1190)가 온 상태가 되도록 제어한다. 또는, 예를 들어, 프로세서(1180)는 발광부(1190)가 온 상태인 경우, 제 1 터치(A)에 대응하여 발광부(1190)가 오프 상태가 되도록 제어한다.
도 10에 도시하지는 않았으나, 예를 들어, 프로세서(1180)는, 사용자의 터치 입력(h)에 대응하여 발광부(1190)의 일부는 온 상태가 되도록 하고, 발광부(1190)의 다른 일부는 오프 상태가 되도록 제어할 수도 있다. 예를 들어, 멀티미디어 장치(1100)는 메인 대상(main object)에 대해 상대적으로 강한 세기의 밝기를 제공하고, 서브 대상(sub object)에 대해 상대적으로 약한 세기의 밝기를 제공할 수 있다. 이에 대한 예시는, 도 13에서 설명한다. 이와 같은 기능을 통해, 사용자는 2 이상의 조명을 설치하거나 별도의 조명 배치를 수행하지 않아도 원하는 밝기를 편하게 제어할 수 있다.
예를 들어, 도 10에 도시한 바와 같이, 센서(1170)는 사용자의 터치 입력(h)을 인식한다. 예를 들어, 센서(1170)는 사용자의 터치 입력(h)이 바디(1101) 상의 제 2 지점(p2)으로부터 바디(1101) 상의 제 4 지점(p4)까지 스와이핑(swiping)인 것을 센싱할 수 있다. 프로세서(1180)는 센서(1170)가 센싱한 터치 입력과 매칭되는 터치 입력이 제 2 터치(B)임을 확인 또는 판단한다. 이때, 프로세서(1180)는, 제 2 터치(B)와 기 설정된 오차 이내의 터치 입력에 대하여는 제 2 터치(B)로 판단할 수 있다. 프로세서(1180)는, 제 2 터치(B)에 대응하는 기 설정된 동작을 멀티미디어 장치(1100)에 포함되는 구성요소들 중 적어도 하나가 수행하도록 제어한다. 예를 들어, 프로세서(1180)는, 제 2 터치(B)에 대응하여, 카메라(1130, 도 4 참조)가 온(on) 또는 오프(off) 되도록 제어한다. 예를 들어, 프로세서(1180)는 카메라(1130)가 오프 상태인 경우, 제 1 터치(A)에 대응하여 카메라(1130)가 온 상태가 되도록 제어한다. 또는, 예를 들어, 프로세서(1180)는 카메라(1130)가 온 상태인 경우, 제 1 터치(A)에 대응하여 카메라(1130)가 오프 상태가 되도록 제어한다.
예를 들어, 도 10에 도시한 바와 같이, 센서(1170)는 사용자의 터치 입력(h)을 인식한다. 예를 들어, 센서(1170)는 사용자의 터치 입력(h)이 바디(1101) 상의 제 3 지점(p3)으로부터 바디(1101) 상의 제 4 지점(p4)까지 스와이핑(swiping)인 것을 센싱할 수 있다. 프로세서(1180)는 센서(1170)가 센싱한 터치 입력과 매칭되는 터치 입력이 제 3 터치(C)임을 확인 또는 판단한다. 이때, 프로세서(1180)는, 제 3 터치(C)와 기 설정된 오차 이내의 터치 입력에 대하여는 제 3 터치(C)로 판단할 수 있다. 프로세서(1180)는, 제 3 터치(C)에 대응하는 기 설정된 동작을 멀티미디어 장치(1100)에 포함되는 구성요소들 중 적어도 하나가 수행하도록 제어한다. 예를 들어, 프로세서(1180)는, 제 3 터치(C)에 대응하여, 마이크로폰(1140, 도 4 참조)이 온(on) 또는 오프(off) 상태가 되도록 제어한다. 예를 들어, 프로세서(1180)는 마이크로폰(1140)가 오프 상태인 경우, 제 3 터치(C)에 대응하여 마이크로폰(1140)가 온 상태가 되도록 제어한다. 또는, 예를 들어, 프로세서(1180)는 마이크로폰(1140)가 온 상태인 경우, 제 3 터치(C)에 대응하여 마이크로폰(1140)가 오프 상태가 되도록 제어한다.
도시하지는 않았으나, 프로세서(1180)는 사용자의 터치 입력에 대응하여, 예를 들어, 스피커와 같은 음향 출력 모듈(151, 도 2 참조) 등 멀티미디어 장치(1100)에 포함되는 구성요소들을 제어한다. 또한, 센서(1170)가 센싱하는 터치 입력의 종료 지점에 따라, 프로세서(1180)는, 예를 들어 멀티미디어 장치(1100)에 포함되는 구성요소들의 세부 사항을 제어한다. 예를 들어, 프로세서(1180)는, 사용자의 터치 입력에 따라, 음향 출력 모듈(151)의 음향 출력 크기를 제어하거나 또는 발광부(1190)의 밝기의 세기 정도를 제어한다.
도 10에 도시한 것과 달리, 사용자의 터치 입력(h)은 스와이핑뿐만 아니라 터치 영역을 포함한다. 나아가, 사용자의 입력은 터치가 아닌 사용자의 제스처 입력을 통하여도 이루어질 수 있다.
이와 같이, 멀티미디어 장치(1100)는 사용자의 입력에 대응하여 시각적으로 모듈별 제어를 직관적으로 수행하여 사용자에게 제어 편의를 제공한다. 또한, 멀티미디어 장치(1100)는 컴팩트(compact)한 디자인을 가지면서도 멀티미디어 장치(1100)에 포함되는 구성요소들을 세밀하게 제어하는 방안을 제공한다.
도 11은 실시예들에 따른 멀티미디어 장치의 발광부의 발광 예시를 설명하는 도면이다.
도 11에 도시한 바와 같이, 멀티미디어 장치(1100)는 발광부(1190)를 포함한다. 발광부(1190)는 도 2에서 설명한 광 출력부(153)에 대응된다. 또한, 발광부(1190)는 도 1에서 설명한 조명(3)에 대응되는 역할을 수행할 수 있다.
발광부(1190)는 바디(1101)의 적어도 일부에 형성되어 발광한다. 발광부(1190)는 바디(1101)의 적어도 일면으로서, 예를 들어, 상면에만 형성될 수 있고, 또는 모든 면에 형성될 수도 있다.
발광부(1190)는 하나 또는 그 이상의 광원을 포함한다. 광원은, 예를 들어, 전류를 빛으로 변환시키는 발광 소자로서, LED(Light Emitting Diode), 마이크로 LED 등을 포함한다.
발광부(1190)는 외부 장치(1200)에 대하여 제 1 노티(noti)가 발생하면, 도 11의 (a)에 도시한 바와 같이, 제 1 색상(red)을 표시한다. 예를 들어, 외부 장치(1200)의 배터리가 기 설정된 전력 이하인 제 1 노티가 발생한 경우, 발광부(1190)는 제 1 노티에 대응되는 제 1 색상(red)을 표시한다. 도 11에 도시하지는 않았으나, 발광부(1190)는 외부 장치(1200)의 배터리의 잔여 전력량과 관계없이 항상 제 1 색상(red)을 표시할 수도 있다. 이때, 발광부(1190)는 배터리의 잔여 전력량에 따라 제 1 색상(red)의 세기를 조절하여 표시할 수 있다.
또한, 발광부(1190)는 외부 장치(1200)에 대하여 제 2 노티가 발생하면, 도 11의 (b)에 도시한 바와 같이, 제 2 색상(yellow)을 표시한다. 예를 들어, 외부 장치(1200)에 SNS 알람이 울리는 제 2 노티가 발생한 경우, 발광부(1190)는 제 2 노티에 대응되는 제 2 색상(yellow)을 표시한다. 이때, 제 2 색상(yellow)은 제 1 색상(red)과 상이하다.
실시예들에 따른 멀티미디어 장치(1100)가 외부 장치(1200)로부터 수신하는 노티에 대한 정보는 이에 한정되지 않는다. 노티는, 예를 들어, BT/Wi-Fi와 같은 통신망 연결 상태, 외부 장치(1200)의 수면 상태(sleep mode) 여부, 일정 확인, 시스템 업데이트, 다른 외부 장치와의 연결 여부(예를 들어, paring mode 인지), 사용자의 음성 명령이 실행되고 있는지 여부 등의 외부 장치(1200)에 대한 다양한 정보를 포함한다.
상술한 바와 같이, 멀티미디어 장치(1100)는 발광부(1190)를 통해 색 또는 모션을 통한 다양한 이벤트를 사용자에게 직관적으로 전달함으로써, 사용자의 편의를 제고한다.
한편, 발광부(1190)는 외부 장치(1200)에 대한 정보를 전달하지 않는 경우, 조명(예를 들어, 도 1에서 설명한 조명(3))의 역할을 수행한다. 이를 통해, 사용자는 별도의 조명을 구비하지 않아도, 멀티미디어 장치(1100)를 통해 적절한 밝기를 이용할 수 있다.
도 12는 실시예들에 따른 멀티미디어 장치의 발광부의 발광 예시를 설명하는 다른 도면이다.
도 11에서 설명한 바와 같이, 멀티미디어 장치(1100)는 발광부(1190)를 포함한다.
발광부(1190)는 복수 개의 발광 소자(예를 들어, 1191, 1192, 도 13 참조)를 포함한다. 발광부(1190)는 복수 개의 발광 소자(예를 들어, 1191, 1192) 중 온(on) 상태가 되는 발광 소자의 개수가 외부 장치(1200)의 전력량에 비례할 수 있다.
예를 들어, 도 12의 (a)는 외부 장치(1200)의 배터리가 100%인 상태를 나타낸 것이다. 발광부(1190)는 외부 장치(1200)의 전력량에 비례하여 모든 발광 소자가 온 상태(1190on)가 되도록 표시한다.
예를 들어, 도 12의 (b)는 외부 장치(1200)의 배터리가 40%인 상태를 나타낸 것이다. 발광부(1190)는 외부 장치(1200)의 전력량에 비례하여 복수 개의 발광 소자 중 40%를 온 상태(1190on)로 표시하고, 복수 개의 발광 소자 중 60%를 오프 상태(1190off)로 표시한다. 이때, 발광부(1190)는, 온 상태(1190on)의 발광 소자들끼리 인접하고, 오프 상태(1190off)의 발광 소자들끼리 인접하도록 온/오프를 표시한다. 이에 따라, 도 12의 (b)에 도시한 것처럼, 발광부(1190)는 외부 장치(1200)의 전력량에 비례하는 발광부(1190)의 길이를 표현한다.
이와 같이, 멀티미디어 장치(1100)는 직관적으로 외부 장치(1200)에 대한 정보를 사용자에게 전달함으로써, 사용자의 편의를 제고한다.
도 13은 실시예들에 따른 멀티미디어 장치의 발광부의 발광 예시를 설명하는 또 다른 도면이다.
상술한 바와 같이, 멀티미디어 장치(1100)는 발광부(1190)를 포함한다. 발광부(1190)는 복수 개의 발광 소자(예를 들어, 1191, 1192)를 포함한다. 복수 개의 발광 소자(예를 들어, 1191, 1192)는 하나 또는 그 이상의 열(row)로 배열된다. 도 13에서, 1191은 발광 소자로서 온 상태인 발광 소자(예를 들어, 도 12에서 설명한 1190on에 대응됨)를 나타내고, 1192는 발광 소자로서 오프 상태인 발광 소자(예를 들어, 도 12에서 설명한 1190off에 대응됨)를 나타낸다.
발광부(1190)가 온 상태인 경우, 복수 개의 발광 소자(예를 들어, 1191, 1192) 중 적어도 일부는 온 상태일 수 있다. 이하에서, 복수 개의 발광 소자(예를 들어, 1191, 1192)의 적어도 일부가 온 상태인 경우에 대해 예시를 통해 설명한다.
도 13의 (a) 및 (b)는 복수 개의 발광 소자가 2 개의 열로 배열된 상태를 도시하였다.
복수 개의 발광 소자(예를 들어, 1191, 1192)는 2 개의 열(1r, 2r)로 배열된다.
도 13의 (a)에 도시한 바와 같이, 복수 개의 발광 소자(예를 들어, 1191, 1192) 중 하나의 열(예를 들어, 1r)에 배치된 발광 소자(예를 들어, 1191)만이 온 상태일 수 있다. 또한, 복수 개의 발광 소자(예를 들어, 1191, 1192) 중 다른 하나의 열(예를 들어, 2r)에 배치된 발광 소자(예를 들어, 1192)만이 오프 상태일 수 있다.
예를 들어, 사용자는 발광부(1190)의 상부에 배치되는 하나의 열(1r)에 배치되는 발광 소자(1191)가 온 상태가 되도록 하기 위하여, 발광부(1190)의 상부에 대하여 터치, 제스처 또는 토글링 등의 사용자 터치 입력(h, 도 10 참조)를 입력할 수 있다. 이를 통해, 멀티미디어 장치(1100)는 발광부(1190)가 특정 대상을 향하여만 광을 방출하도록 할 수 있다.
또는, 도 13의 (b)에 도시한 바와 같이, 복수 개의 발광 소자(예를 들어, 1191, 1192)는 하나의 열(예를 들어, 1r)에 배치된 발광 소자(예를 들어, 1191)와 다른 하나의 열(예를 들어, 2r)에 배치된 발광 소자(예를 들어, 1192)가 번갈아 온 상태일 수 있다.
예를 들어, 사용자는 발광부(1190)의 광량을 제어하기 위하여, 발광부(1190)에 대하여 상하 제스처, 기 설정된 터치 또는 토글링 등의 사용자 터치 입력(h)을 입력할 수 있다. 이를 통해, 멀티미디어 장치(1100)는 온 상태인 발광 소자(1191)의 개수를 제어하거나 또는 온 상태인 발광 소자(1191)의 배치를 제어하여, 발광부(1190)의 광량을 조절할 수 있다.
이때, 상하 제스쳐는, 예를 들어, 2r에서 1r 방향으로 사용자의 손가락 또는 사용자의 터치가 이동하는 제스쳐 또는 터치를 포함한다. 이 경우, 예를 들어, 온 상태로 되는 발광 소자의 개수가 증가한다. 또는, 상하 제스쳐는, 예를 들어, 1r에서 2r 방향으로 사용자의 손가락 또는 사용자의 터치가 이동하는 제스쳐 또는 터치를 포함한다. 이 경우, 예를 들어, 오프 상태로 되는 발광 소자의 개수가 증가한다.
이때, 사용자의 손가락 또는 터치의 이동 방향은, 바디에 대해 수직하거나 또는 수직에 대해 일정 각도를 가질 수 있다.
이와 같이, 멀티미디어 장치(1100)는 2 이상의 열로 배열된 발광 소자를 포함함으로써, 발광부(1190)가 발광하는 광량에 대한 다양한 제어가 가능하다.
또한, 도 13의 (a) 내지 (b)에 도시하지는 않았으나, 복수 개의 발광 소자(예를 들어, 1191, 1192)는 다른 규칙성을 가지고 온 상태 또는 오프 상태로 될 수 있다.
도 13의 (c) 및 (d)는 복수 개의 발광 소자가 1 개의 열로 배열된 상태를 도시하였다. 한편, 도 13의 (c)는, 예를 들어, 도 12의 (a) 내지 (b)의 예시에 대응된다.
복수 개의 발광 소자(예를 들어, 1191, 1192)는 1 개의 열(1r)로 배열된다.
도 13의 (c)에 도시한 바와 같이, 복수 개의 발광 소자(예를 들어, 1191, 1192)는 하나의 열(1r)에 배치된 발광 소자 중 특정 방향에 배치된 발광 소자(예를 들어, 1191)가 온 상태가 되고, 다른 특정 방향에 배치된 발광 소자(예를 들어, 1192)는 오프 상태가 되도록 한다.
예를 들어, 사용자는 발광부(1190)의 일 방향에 위치하는 발광 소자(예를 들어, 1191)가 온 상태가 되도록 하기 위하여, 발광부(1190)의 일 방향에 대해 기 설정된 시간 이상의 터치 또는 기 설정된 제스처나 토글링과 같은 사용자 터치 입력(h)을 입력할 수 있다. 이를 통해, 멀티미디어 장치(1100)는 사용자가 필요로 하는 방향에 대하여만 조명 기능을 제공한다.
또는, 도 13의 (d)에 도시한 바와 같이, 복수 개의 발광 소자(예를 들어, 1191, 1192)는 하나의 열(1r)에 배치된 발광 소자에 대하여, 온 상태와 오프 상태가 번갈아 되도록 한다.
예를 들어, 사용자는 도 10에서 설명한 사용자 터치 입력(h)을 통해 발광부(1190)의 광량을 제어할 수 있다.
이와 같이, 멀티미디어 장치(1100)는, 하나의 열로 배열된 발광 소자를 포함함으로써, 더 컴팩트한 사이즈의 멀티미디어 장치를 제공한다.
상술한 바와 같이, 실시예들에 따른 멀티미디어 장치는, 사용 환경에 따라 밝게 또는 어둡게 발광한다.
사용 환경은, 예를 들어, 도 10에서 설명한 바와 같이 메인 대상과 서브 대상의 밝기 차이이다. 이 경우, 멀티미디어 장치(1100)는, 메인 대상(예를 들어 사용자의 얼굴)에 가까운 발광 소자를 온(on) 상태가 되도록 하고, 서브 대상(예를 들어 외부 장치가 설치된 책상)에 가까운 발광 소자는 오프(off) 상태가 되도록 한다.
이때, 멀티미디어 장치(1100)는, 메인 대상 또는 서브 대상을 센서(예를 들어, 1170)를 통해 구별한다. 이때, 멀티미디어 장치(1100)는, 메인 대상 또는 서브 대상을 메모리(160, 도 2 참조)에 기 저장된 데이터를 통해 구별한다. 또는, 멀티미디어 장치(1100)는, 메인 대상 또는 서브 대상을, 예를 들어 도 10에서 설명한 사용자의 터치 입력(h)을 통해 구별한다.
또는, 사용 환경은, 예를 들어, 조도이다. 이 경우, 멀티미디어 장치(1100)는, 조도가 높은 경우(멀티미디어 장치의 주변이 밝은 경우), 복수 개의 발광 소자 중 온 상태로 되는 발광 소자의 개수가 감소하도록 한다. 또는, 멀티미디어 장치(1100)는, 조도가 낮은 경우(멀티미디어 장치의 주변이 어두운 경우), 복수 개의 발광 소자 중 오프 상태로 되는 발광 소자의 개수가 증가하도록 한다.
이때, 멀티미디어 장치(1100)는, 센서(예를 들어, 1170으로 조도 센서)를 통해 멀티미디어 장치(1100)의 주변 조도를 판단한다. 이때, 멀티미디어 장치(1100)는, 메모리(160, 도 2 참조)에 저장된 '센싱한 조도에 대응되는 발광 소자 제어 명령'에 따라, 발광 소자들을 제어한다. 또는, 멀티미디어 장치(1100)는, 주변 조도를, 예를 들어 도 10에서 설명한 사용자의 터치 입력(h)을 통해 구별한다.
이와 같이, 멀티미디어 장치(1100)는, 사용자에 대해 조명을 제공하여 제작되는 콘텐츠의 퀄리티를 증가시킨다. 또한, 멀티미디어 장치(1100)는, 수동 또는 자동으로 적절한 밝기의 조명을 제공함으로써, 사용자의 편의를 향상시킨다.
도 14는 실시예들에 따른 멀티미디어 장치와 외부 장치의 연결에 의해 수행되는 액션에 대해 설명하는 도면이다.
상술한 바와 같이, 멀티미디어 장치(1100)는 멀티미디어 장치(1100)에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서(1180, 도 4 참조)를 포함한다.
프로세서(1180)는, 멀티미디어 장치(1100)가 외부 장치(1200)와 결합하면, 통신부(1120, 도 4 참조)를 통해 외부 장치(1200)가 기 설정된 어플리케이션(application)(1201)을 수행하도록 한다.
이때, 프로세서(1180)는 멀티미디어 장치(1100)가 수신한 전력량을 통해 멀티미디어 장치(1100)와 외부 장치(1200)의 결합 여부를 판단한다.
예를 들어, 프로세서(1180)는, 무선 전력 송신부(1110, 도 4 참조)를 통해 외부 장치(1200)로부터 공급된 전력량이 기 설정된 전력량 이상이면, 멀티미디어 장치(1100)와 외부 장치(1200)가 결합되었다고 판단한다. 이를 통해, 멀티미디어 장치(1100)는 멀티미디어 장치(1100)가 임의의 작업을 수행할 수 있게 되면, 예를 들어, 멀티미디어 장치(1100) 이용 시 자주 사용하는 어플리케이션을 실행시켜 사용자의 편의를 돕는다.
또는, 예를 들어, 프로세서(1180)는, 무선 전력 송신부(1110)를 통해 외부 장치(1200)로부터 공급된 전력량이 기 설정된 전력량 이상이면서, 통신부(1200)를 통해 외부 장치(1200)가 수행하는 작업이 없음을 수신한 경우, 예를 들어, 멀티미디어 장치(1100) 이용 시 자주 사용하는 어플리케이션을 실행시켜 사용자의 편의를 돕는다.
도시하지는 않았으나, 멀티미디어 장치는 발화자의 움직임을 추적하여, 최적의 음량을 제어 및 출력한다.
상술한 바와 같이, 멀티미디어 장치는, 프로세서(1180, 도 4 참조), 마이크로폰(1140, 도 4 참조) 및 스피커(예를 들어, 도 2에서 설명한 음향 출력 모듈)를 포함한다.
프로세서는 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어한다. 스피커는 통신부(1120, 도 4 참조)를 통해 획득한, 외부 장치로부터 출력 된 음향 데이터를 출력한다.
프로세서는, 마이크로폰을 통해 획득한 소리 데이터 중 외부 장치(1200, 도 3 참조)를 사용하는 사용자의 목소리를 판단한다. 이를 위해, 프로세서는, 센서(1170, 도 4 참조) 또는 카메라(1130, 도 4 참조)를 통해 사용자의 움직임을 확인한다. 프로세서는, 사용자의 움직임에 기초하여, 사용자의 목소리를 판단한다.
프로세서는, 획득한 소리 데이터 중 사용자의 목소리를 제외한 노이즈 데이터를 결정한다.
프로세서는, 노이즈 데이터에 대응되는 노이즈 저감 데이터를 생성한다. 이때, 노이즈 저감 데이터는, 노이즈 데이터를 상쇄시키거나 또는 유사한 기능을 갖는 데이터이다. 프로세서는, 음향 출력 모듈을 통해 노이즈 저감 데이터를 출력한다.
이를 통해, 멀티미디어 장치는 노이즈 캔슬링 작업을 수행하고, 하울링을 제거할 수 있다. 멀티미디어 장치는, 노이즈가 없거나 거의 없는 음향을 스피커를 통해 출력하거나, 또는 통신부를 통해 노이즈가 거의 없는 소리 데이터를 외부 장치로 전송한다.
상술한 바와 같이, 실시예들에 따른 멀티미디어 장치는, 외부 장치에 대하여 하나의 장비만으로 콘텐츠를 제작할 수 있도록 한다. 멀티미디어 장치는, 외부 장치에 쉽게 부착하여 전력 또는 데이터를 송수신한다. 또한, 멀티미디어 장치는, 외부 장치의 내장 카메라를 이용하여, 가격, 부하 및 전력 소비량에 대한 효율을 향상시킨다. 또한, 멀티미디어 장치는, 직관적인 UX를 사용자에게 제공하여, 사용자의 편의를 제공한다. 또한, 멀티미디어 장치는, 사용자의 음성이 노이즈 없이 출력되거나 또는 전송되도록 한다. 또한, 멀티미디어 장치는, 풍부한 광량을 갖는 라이트(light)를 제공한다.
이상 본 발명의 실시예들에 따른 멀티미디어 장치를 구체적인 실시 형태로서 설명하였으나, 이는 예시에 불과한 것으로서 본 발명은 이에 한정되지 않는 것이며, 본 명세서에 개시된 기초 사상에 따르는 최광의 범위를 갖는 것으로 해석되어야 한다.
당업자는 개시된 실시 형태들을 조합, 치환하여 적시되지 않은 실시 형태를 실시할 수 있으나, 이 역시 본 발명의 권리범위를 벗어나지 않는 것이다. 이외에도 당업자는 본 명세서에 기초하여 개시된 실시형태를 용이하게 변경 또는 변형할 수 있으며, 이러한 변경 또는 변형도 본 발명의 권리범위에 속함은 명백하다.
실시예들은 산업상 이용 가능성이 있다.

Claims (18)

  1. 외부 장치와 결합 가능한 멀티미디어 장치에 있어서,
    바디(body);
    상기 바디 내에 위치하고, 상기 외부 장치와의 거리가 기 설정된 거리 이하이면, 상기 외부 장치와 결합하여 상기 외부 장치로부터 전력을 송수신하는 무선 전력 송수신부;
    상기 바디에 형성되고, 상기 외부 장치와 데이터 송수신하는 통신부;
    상기 바디의 일면에 형성되고, 이미지를 획득하는, 카메라; 및
    상기 바디에 형성되고, 소리를 획득하는, 마이크로폰;
    을 포함하는,
    멀티미디어 장치.
  2. 제 1 항에 있어서,
    상기 바디의 적어도 일부를 관통하는 카메라 홀;
    을 더 포함하는,
    멀티미디어 장치.
  3. 제 2 항에 있어서,
    상기 카메라 홀을 덮고, 상기 멀티미디어 장치 내에 기 설정된 값 이하의 전력이 공급되면 제 1 색을 표시하고, 상기 멀티미디어 장치 내에 기 설정된 값 초과의 전력이 공급되면 제 2 색을 표시하는 커버(cover);
    를 더 포함하는,
    멀티미디어 장치.
  4. 제 1 항에 있어서,
    상기 바디는 제 1 바디 및 제 2 바디를 포함하고,
    상기 바디는,
    상기 제 1 바디 및 상기 제 2 바디를 연결하면서, 상기 제 1 바디와 상기 제 2 바디가 서로 다른 방향으로 회전하도록 하는 힌지부; 를 포함하는,
    멀티미디어 장치.
  5. 제 4 항에 있어서,
    상기 멀티미디어 장치는,
    상기 바디의 적어도 일부를 관통하는 카메라 홀; 을 더 포함하고,
    상기 카메라 홀은,
    상기 카메라 홀과 대향되는 대상(object)의 상(image)을 반사하는 제 1 반사부를 포함하고,
    상기 힌지부는,
    상기 제 1 반사부로부터 입사된 상을 상기 외부 장치를 향해 반사하는 제 2 반사부를 포함하는,
    멀티미디어 장치.
  6. 제 1 항에 있어서,
    상기 바디는 제 1 바디 및 제 2 바디를 포함하고,
    상기 바디는,
    상기 제 1 바디 및 상기 제 2 바디가 기 설정된 각도 이상 벤딩(bending) 되는 플렉서블 바디인,
    멀티미디어 장치.
  7. 제 1 항에 있어서,
    상기 바디는 제 1 바디 및 제 2 바디를 포함하고,
    상기 제 2 바디는 상기 제 1 바디에 대하여 슬라이딩(sliding) 이동하는,
    멀티미디어 장치.
  8. 제 1 항에 있어서,
    상기 멀티미디어 장치는,
    상기 바디에 대한 사용자의 터치 입력을 센싱하는 센서(sensor); 및
    상기 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서(processor);
    를 더 포함하고,
    상기 프로세서는,
    상기 센서가 센싱한 상기 사용자의 터치 입력에 매칭되는 기 설정된 터치 입력에 대한 정보를 판단하고, 상기 매칭되는 기 설정된 터치 입력에 대한 정보에 대응되는 기 설정된 동작을 상기 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나가 수행하도록 제어하는,
    멀티미디어 장치.
  9. 제 8 항에 있어서,
    상기 프로세서는,
    상기 사용자의 터치 입력으로서, 상기 센서를 통해 상기 바디 상의 제 1 지점으로부터 상기 바디 상의 제 2 지점까지에 대하여 제 1 터치가 센싱되면, 상기 카메라가 온(on) 또는 오프(off) 상태가 되도록 제어하는,
    멀티미디어 장치.
  10. 제 8 항에 있어서,
    상기 프로세서는,
    상기 사용자의 터치 입력으로서, 상기 센서를 통해 상기 바디 상의 제 3 지점으로부터 상기 바디 상의 제 4 지점까지에 대하여 제 2 터치가 센싱되면, 상기 마이크로폰이 온 또는 오프 상태가 되도록 제어하는,
    멀티미디어 장치.
  11. 제 1 항에 있어서,
    상기 바디의 적어도 일부에 형성되어 발광하는 발광부;
    를 포함하고,
    상기 발광부는,
    하나 이상의 열(row)로 배열된 복수 개의 발광 소자를 포함하는,
    멀티미디어 장치.
  12. 제 11 항에 있어서,
    상기 발광부는,
    상기 외부 장치에 대하여 제 1 노티(noti)가 발생하면, 상기 발광부는 제 1 색상을 표시하고,
    상기 외부 장치에 대하여 제 2 노티가 발생하면, 상기 발광부는 상기 제 1 색상과 상이한 제 2 색상을 표시하는,
    멀티미디어 장치.
  13. 제 11 항에 있어서,
    상기 멀티미디어 장치는,
    상기 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서;
    를 포함하고,
    상기 복수 개의 발광 소자는 2 이상의 열로 배열되고,
    상기 프로세서는,
    상기 2 이상의 열 중 적어도 하나의 열에 배열되는 발광 소자만 온 상태가 되도록 제어하는,
    멀티미디어 장치.
  14. 제 11 항에 있어서,
    상기 멀티미디어 장치는,
    상기 바디에 대한 사용자 입력을 센싱하는 센서; 및
    상기 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서;
    를 포함하고,
    상기 프로세서는,
    상기 센서에 의해 센싱되는 사용자 입력에 대응하여, 상기 복수 개의 발광 소자의 적어도 일부가 온 상태가 되도록 제어하는,
    멀티미디어 장치.
  15. 제 11 항에 있어서,
    상기 멀티미디어 장치는,
    상기 멀티미디어 장치에 대한 조도를 센싱하는 센서; 및
    상기 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서;
    를 포함하고,
    상기 프로세서는,
    상기 센서에 의해 센싱되는 조도에 대응하여, 상기 복수 개의 발광 소자의 적어도 일부가 온 상태가 되도록 제어하는,
    멀티미디어 장치.
  16. 제 1 항에 있어서,
    상기 바디의 일면에 형성되고, 복수 개의 발광 소자를 포함하는 발광부;
    를 포함하고,
    상기 발광부는,
    상기 복수 개의 발광 소자 중 온 상태가 되는 발광 소자의 개수는 상기 외부 장치의 전력량에 비례하는,
    멀티미디어 장치.
  17. 제 1 항에 있어서,
    상기 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서;
    를 더 포함하고,
    상기 프로세서는,
    상기 무선 전력 송수신부를 통해 공급된 전력량이 기 설정된 전력량 이상이면, 상기 통신부를 통해 상기 외부 장치가 기 설정된 어플리케이션(application)을 실행하도록 하는,
    멀티미디어 장치.
  18. 제 1 항에 있어서,
    상기 멀티미디어 장치에 포함되는 구성요소들 중 적어도 하나를 제어하는 프로세서; 및
    상기 통신부를 통해 획득한, 상기 외부 장치로부터 출력 된 음향 데이터를 출력하는 스피커;
    를 더 포함하고,
    상기 프로세서는,
    상기 하나 또는 그 이상의 마이크로폰을 통해 획득한 소리 데이터 중 상기 외부 장치의 사용자의 목소리를 판단하고, 상기 획득한 소리 데이터 중 상기 사용자의 목소리를 제외한 노이즈 데이터를 결정하고, 상기 노이즈 데이터에 대응되는 노이즈 저감 데이터를 생성하고, 상기 스피커를 통해 상기 노이즈 저감 데이터를 출력하는,
    멀티미디어 장치.
PCT/KR2022/000969 2022-01-19 2022-01-19 멀티미디어 장치 WO2023140394A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/000969 WO2023140394A1 (ko) 2022-01-19 2022-01-19 멀티미디어 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/000969 WO2023140394A1 (ko) 2022-01-19 2022-01-19 멀티미디어 장치

Publications (1)

Publication Number Publication Date
WO2023140394A1 true WO2023140394A1 (ko) 2023-07-27

Family

ID=87348364

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000969 WO2023140394A1 (ko) 2022-01-19 2022-01-19 멀티미디어 장치

Country Status (1)

Country Link
WO (1) WO2023140394A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140285326A1 (en) * 2013-03-15 2014-09-25 Aliphcom Combination speaker and light source responsive to state(s) of an organism based on sensor data
KR20160122530A (ko) * 2015-04-14 2016-10-24 김주희 이동단말기용 이동식 멀티미디어장치 및 그 제어방법
KR101789540B1 (ko) * 2011-03-21 2017-11-20 엘지전자 주식회사 무선 충전 방법, 무선 충전기, 무선 충전되는 전자 기기
KR102149200B1 (ko) * 2013-09-03 2020-08-28 엘지전자 주식회사 입력 모듈 및 이를 구비한 영상표시기기
KR102174752B1 (ko) * 2014-08-26 2020-11-05 삼성전자주식회사 회전장치 및 이를 포함하는 전자장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789540B1 (ko) * 2011-03-21 2017-11-20 엘지전자 주식회사 무선 충전 방법, 무선 충전기, 무선 충전되는 전자 기기
US20140285326A1 (en) * 2013-03-15 2014-09-25 Aliphcom Combination speaker and light source responsive to state(s) of an organism based on sensor data
KR102149200B1 (ko) * 2013-09-03 2020-08-28 엘지전자 주식회사 입력 모듈 및 이를 구비한 영상표시기기
KR102174752B1 (ko) * 2014-08-26 2020-11-05 삼성전자주식회사 회전장치 및 이를 포함하는 전자장치
KR20160122530A (ko) * 2015-04-14 2016-10-24 김주희 이동단말기용 이동식 멀티미디어장치 및 그 제어방법

Similar Documents

Publication Publication Date Title
WO2018110749A1 (ko) 이동 단말기
WO2018159864A1 (ko) 이동 단말기 및 그 이동 단말기의 제어 방법
WO2016035921A1 (ko) 이동 단말기 및 그것의 제어방법
WO2017082508A1 (ko) 와치형 단말기 및 그 제어방법
WO2017052015A1 (ko) 이동 단말기
WO2017188492A1 (ko) 이동단말기 및 그 제어방법
WO2016052814A1 (en) Mobile terminal and method of controlling the same
WO2020171290A1 (ko) 이동 단말기 및 이동 단말기를 구비한 전자장치
WO2017052043A1 (en) Mobile terminal and method for controlling the same
WO2017018603A1 (ko) 이동 단말기 및 이의 제어방법
WO2016175424A1 (ko) 이동 단말기 및 그 제어 방법
WO2017142139A1 (ko) 이동 단말기 및 이를 포함하는 이동 단말기 음향신호 처리시스템
WO2016167406A1 (ko) 디스플레이 장치, 웨어러블 장치를 포함하는 동기화 시스템 및 제어 방법
WO2022045408A1 (ko) 알림 ui(user interface)를 표시하는 이동 단말기 및 그 제어 방법
WO2018169102A1 (ko) 이동 단말기
WO2016052889A1 (en) Mobile terminal and method of controlling the same
WO2017090920A1 (en) Mobile terminal and method for controlling the same
WO2018038288A1 (ko) 이동 단말기
WO2016013768A1 (ko) 이동단말기 및 그 제어방법
WO2020171251A1 (ko) 이동 단말기 및 이동 단말기를 구비한 전자장치
WO2020059925A1 (ko) 이동 단말기
WO2018052159A1 (ko) 이동 단말기 및 그 제어방법
WO2017018680A1 (ko) 이동 단말기 및 그 제어 방법
WO2016088973A1 (en) Mobile terminal and method for controlling the same
WO2023140394A1 (ko) 멀티미디어 장치