WO2015102148A1 - Neck band-type terminal - Google Patents

Neck band-type terminal Download PDF

Info

Publication number
WO2015102148A1
WO2015102148A1 PCT/KR2014/001068 KR2014001068W WO2015102148A1 WO 2015102148 A1 WO2015102148 A1 WO 2015102148A1 KR 2014001068 W KR2014001068 W KR 2014001068W WO 2015102148 A1 WO2015102148 A1 WO 2015102148A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
output
terminal
bone conduction
unit
Prior art date
Application number
PCT/KR2014/001068
Other languages
French (fr)
Korean (ko)
Inventor
이건우
김진
최시은
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2015102148A1 publication Critical patent/WO2015102148A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/06Hearing aids
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C3/00Special supporting arrangements for lens assemblies or monocles
    • G02C3/006Arrangements for fitting and securing to the head or neck not in the position of use
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C5/00Constructions of non-optical parts
    • G02C5/14Side-members
    • G02C5/146Side-members having special front end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Definitions

  • the present invention provides a neckband terminal fixed to the user's body.
  • Terminals may be divided into mobile / portable terminals and stationary terminals according to their mobility.
  • the mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.
  • the terminal is implemented in the form of a multimedia player having complex functions such as taking a picture or video, playing a music or video file, playing a game or receiving a broadcast. have. Further, in order to support and increase the function of the terminal, it may be considered to improve the structural part and the software part of the terminal.
  • mobile terminals have recently evolved into various forms of designs, and mobile terminals that can be fixed to a user's body have been developed. Accordingly, the user can be provided with information without using both hands through the terminal mounted on the body. Furthermore, using the body-mounted terminal, there is an increasing demand of the user to perform a plurality of tasks together while being provided with information through the body-mounted terminal.
  • an object of the present invention is to provide a neckband type terminal having a fracture degree output unit capable of transmitting sound to a user without blocking external sounds.
  • a neckband terminal is formed on the inner body of the first body portion, the first body portion of the open loop shape that spans the user's neck,
  • the neck is formed in an open loop shape so as to penetrate the second body part and the second body part having a bone conduction output part disposed at an end thereof so as to defect the first and second body parts so as to be rotatable with respect to the first body part.
  • It further comprises a hinge, wherein the bone conduction output unit, the second body portion is rotated in a first state spanning the first body portion and the neck to a second state in which both ends of the second body portion in contact with the user's body When switched, auditory data is output.
  • the apparatus may further include a microphone configured to receive a voice of the counterpart and a controller configured to determine whether the voice of the counterpart is configured in a second language different from a preset first language.
  • the bone conduction output unit may be controlled to output a first translation voice translated into the first language.
  • the neckband terminal is formed in the first body part, and when the auditory data is output in the first state, the auditory data is outputted when the auditory data is switched to the second state.
  • the speaker may further include.
  • the controller may limit driving of the speaker when the voice of the user received by the microphone corresponds to the second language.
  • the neckband terminal is formed in the first body part, and when the other party's voice of the second language is sensed by the microphone in the first state, guides to switch to the second state.
  • the apparatus may further include a speaker configured to output voice.
  • the neckband terminal is in the second state where the bone conduction output unit detects whether the user's body is in contact and the bone conduction output unit is disposed to contact the user's body.
  • the apparatus may further include a controller configured to control the bone conduction output unit to output the auditory data.
  • the controller when the auditory data is output in the first state, the controller may control the speaker to output the auditory data when the auditory data is switched to the second state.
  • the neckband terminal further includes a microphone activated to receive external noise when the auditory data is output to the speaker in the second state, and based on the external noise,
  • the bone conduction output unit may be activated to limit driving of the speaker and output the auditory data.
  • the external noise may have a volume greater than or equal to a preset reference volume or may correspond to a sound signal corresponding to a preset external environment.
  • the controller may control the microphone to receive a voice command for controlling the bone conduction earphone and the speaker in the second state.
  • the neckband terminal further includes a wireless communication unit configured to transmit or receive a wireless signal with an external terminal, and a controller for controlling the bone conduction output unit to output auditory data output from the external terminal. can do.
  • the controller may control the bone conduction output unit to output a notification sound informing of the call signal.
  • the neckband terminal may further include the speaker to output the other party's voice when the call is connected, and control the bone conduction speaker to output the auditory data.
  • the neckband terminal may further include a speaker for outputting the auditory data, and the speaker and the bone conduction output unit may output the auditory data together.
  • the first body part may include a touch sensing part formed on an outer surface of the first body part and receiving a touch input of a user controlling the neckband terminal.
  • the neckband terminal further includes a third body portion detachably coupled to both ends of the first body portion, wherein the third body portion is configured to image an external environment and a display unit for outputting an image. It may include a camera formed.
  • the third body portion is formed to be mountable on the face of the user by the second body portion, and the second body portion further includes a touch sensing unit for detecting whether the second body portion is mounted on the user's body. can do.
  • the display apparatus may further include a controller configured to control the display unit and the camera, wherein the controller may control the display unit to output an image when the third body unit is mounted on the face of the user. .
  • the controller may control the camera to continuously photograph the external environment when the third body part is separated from the face of the user.
  • the third body may further include a coupling unit for coupling the first and third bodies to be rotatable with respect to the first body.
  • the user on the basis of the state change of the second body portion having the bone conduction speaker, the user can be provided with the desired auditory data along with the external sound as needed.
  • the image is provided by a third body portion detachably formed on the first body, and the external environment can be easily photographed, so that the image acquisition and data can be easily controlled while the user's hand is free. can do.
  • FIG. 1 is a block diagram illustrating a neckband terminal according to one embodiment disclosed herein.
  • Figure 2a is a perspective view of a neckband terminal of the first state according to an embodiment of the present invention.
  • Figure 2b is a perspective view of a neckband terminal of the second state according to an embodiment of the present invention.
  • FIG. 3 is a conceptual view of the neckband terminal in a first state viewed from another angle
  • FIG. 4 is a conceptual diagram illustrating a neckband terminal of a second state worn by a user.
  • FIG. 5 is a flowchart illustrating a control method for providing a translation voice according to the present invention.
  • 6A and 6B are conceptual views illustrating the control method of FIG. 5 according to different embodiments.
  • 7A to 7D are conceptual views illustrating a control method of outputting auditory data using a bone conduction output unit and a speaker.
  • FIGS. 8A to 8C are conceptual views illustrating a control method according to embodiments of a neckband terminal wirelessly communicating with an external device.
  • FIGS. 9A to 9C are perspective views illustrating a structure of a neck band to which a third body unit including a display unit may be mounted, according to embodiments.
  • FIG. 10 is a conceptual view for explaining a third body portion rotatably coupled.
  • FIG. 11 is a flowchart illustrating a control method of a neckband terminal including a third body unit according to an embodiment.
  • 12A to 12D are conceptual views illustrating a control method of a neckband terminal according to various embodiments.
  • the neckband terminal according to the present invention includes a first body part 100, a second body part 200, and a third body part 400.
  • the first body part 100 includes a touch sensing unit 110, a speaker 120, a microphone 130, and a controller 180
  • the second body part 200 includes a bone conduction output unit 210
  • the third body part 400 includes a display 410 and a camera 420.
  • a mobile terminal having more components or fewer components may be implemented.
  • the memory 170 may store a program for the operation of the controller 180 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.).
  • the memory 170 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.
  • the memory 170 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic It may include a storage medium of at least one type of a disk and an optical disk.
  • a flash memory type for example, SD or XD memory
  • RAM random access memory
  • SRAM static random access memory
  • ROM read-only memory
  • EEPROM electrically erasable programmable read-only memory
  • PROM programmable read-only memory
  • magnetic memory magnetic It may include a storage medium of at least one type of a disk and an optical disk.
  • the wireless communication unit 190 may include one or more modules that enable wireless communication between the terminal and the wireless communication system or between the terminal and the network in which the terminal is located.
  • the wireless communication unit 190 may include at least one of a broadcast receiving module, a mobile communication module, a wireless internet module, a short range communication module, and a location information module.
  • the broadcast reception module receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.
  • the broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).
  • EPG Electronic Program Guide
  • DMB Digital Multimedia Broadcasting
  • ESG Electronic Service Guide
  • DVB-H Digital Video Broadcast-Handheld
  • the broadcast receiving module may include, for example, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), and Digital Video Broadcast-Handheld (DVB-H).
  • the digital broadcast signal may be received using a digital broadcasting system such as ISDB-T (Integrated Services Digital Broadcast-Terrestrial).
  • the broadcast receiving module 111 may be configured to be suitable for not only the above-described digital broadcasting system but also other broadcasting systems.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in a memory.
  • the mobile communication module transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the mobile communication module is configured to implement a video call mode and a voice call mode.
  • the video call mode refers to a state of making a call while viewing the other party's video
  • the voice call mode refers to a state of making a call without viewing the other party's image.
  • the mobile communication module 112 is configured to transmit and receive at least one of audio and video.
  • the wireless internet module refers to a module for wireless internet access and may be embedded or external to the terminal.
  • Wireless Internet technologies include Wireless LAN (WLAN), Wireless Fidelity (WiFi) Direct, Digital Living Network Alliance (DLNA), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and more. This can be used.
  • the short range communication module refers to a module for short range communication.
  • Short range communication technologies include Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). Can be.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the location information module is a module for acquiring a location of a mobile terminal, and a representative example thereof is a global position system (GPS) module or a wireless fidelity (WiFi) module.
  • GPS global position system
  • WiFi wireless fidelity
  • the microphone 130 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data.
  • the processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output in the call mode.
  • the microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
  • the display unit 410 displays (outputs) information processed in the terminal. For example, when the mobile terminal is in a call mode, the mobile terminal displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the terminal is in a video call mode or a photographing mode, the display unit 420 displays a photographed and / or received image, a UI, or a GUI.
  • UI user interface
  • GUI graphic user interface
  • the display unit 420 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). display, a 3D display, or an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • display a 3D display, or an e-ink display.
  • Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display.
  • a representative example of the transparent display is TOLED (Transparant OLED).
  • the rear structure of the display unit 420 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 420 of the terminal body.
  • a plurality of display units may be spaced apart or integrally disposed on one surface of the terminal, or may be disposed on different surfaces, respectively.
  • the display unit 420 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
  • the touch sensing unit 110 may be configured to convert a change in pressure applied to a specific site or capacitance generated at a specific site into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area where the touch object is touched on the touch sensor but also the pressure at the touch.
  • the corresponding signal (s) is sent to the touch controller.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 180.
  • the controller 180 typically controls the overall operation of the terminal. For example, control and processing related to voice calls, data communications, video calls, and the like are performed.
  • the controller 180 may include a multimedia module 181 for playing multimedia.
  • the multimedia module may be implemented in the controller 180 or may be implemented separately from the controller 180.
  • controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.
  • the controller 180 may execute a lock state for limiting input of a user's control command to applications.
  • the controller 180 may control the lock screen displayed in the locked state based on the touch input sensed by the display unit 420 in the locked state.
  • the terminal according to the present invention may further include a power supply unit (not shown), wherein the power supply unit receives external power and internal power by the control of the controller 180 to supply power required for the operation of each component. Supply.
  • FIG. 2A is a perspective view of a neckband terminal in a first state according to an embodiment of the present invention
  • FIG. 2B is a perspective view of a neckband terminal in a second state according to an embodiment of the present invention.
  • 3 is a conceptual view of a neckband terminal in a first state viewed from another angle
  • FIG. 4 is a conceptual view for explaining a neckband terminal in a second state worn by a user.
  • the first body part 100 has a curved shape, and both ends thereof are spaced apart to form an open curve including an opening area of one region.
  • the neckband terminal 1000 of the present invention includes a first body portion 100, a second body portion 300, and a hinge portion 300 that couples the first and second body portions to be movable relative to each other.
  • the first state refers to a state in which the first body portion and the second body portion are arranged in parallel
  • the second state refers to a state in which the first body portion and the second body portion are coupled by the hinge portion 300. It means a state arranged to achieve a specific angle.
  • the neck of the user penetrates through the opening area, and the curved first body part 100 is formed to have a structure that can be caught by the neck of the user. It is preferable that the circumference of the inner region formed by the first body part 100 is wider than the neck circumference of the user.
  • One area of the first body portion 100 that is caught by the user's neck is preferably formed in a curved shape, but is not limited thereto.
  • one region of the first body portion 100 may be formed in a straight shape.
  • the first body part 100 includes a touch sensing part 110 formed in one area of the outer circumferential surface of the first body part 100.
  • the touch sensing unit 110 is preferably formed at a position where the user's hand can easily reach the neckband terminal 1000 when the neckband terminal 1000 is mounted on the user's neck.
  • the touch sensing unit 110 may be formed at a position adjacent to the opening area.
  • the touch sensing unit 110 may be formed in plural. Alternatively, the touch sensing unit 110 may be controlled to be activated according to the user's convenience. For example, when the user is left-handed, the touch sensing unit 110 is formed to be adjacent to a left end portion of the first body portion closer to the left side of the user among both ends of the first body portion 100, or both Only one touch sensing unit of the plurality of touch sensing units 110 disposed adjacent to the end may be activated.
  • the first body part 100 may further include a speaker 120 and a microphone 130 formed adjacent to at least one of the both ends.
  • the microphone 130 is preferably formed in an area close to the mouth of the user.
  • the speaker 120 may be formed of an air conduction speaker.
  • One region of the outer circumferential surface of the second body portion 200 is coupled to contact one region of the inner circumferential surface of the first body portion 100.
  • the second body part 200 is mounted to the first body part 100 to enable rotational movement with respect to the first body part 100.
  • the second body part 200 may have an open loop shape in which both ends thereof are spaced apart to form an opening area. Both ends of the second body part 200 may be formed to be bent in a direction approaching each other. For example, both ends of the second body portion 200 may be formed in a curved shape to be bent into the inner region.
  • the second body part 200 may be made of an elastic material. That is, both ends of the second body part 200 may be formed to be returned to its original shape by elasticity after being opened by an external force. Referring to FIG. 4, the first body part 100 covers the neck and the shoulder of the user, and the second body part 200 is formed to closely contact the face (neck) of the user. That is, both ends of the second body part 200 may be maintained in close contact with the user's face by the elasticity of the second body part 200.
  • the internal space formed by the second body 200 is preferably formed wide enough to pass the user's neck.
  • one region of the second body portion 200 is in contact with an inner circumferential surface of the first body portion 100 in the first state.
  • both ends of the second body part 200 may be formed to be spaced apart from the inner circumferential surface of the first body part 100.
  • the second body part 200 includes a bone conduction output part 210 formed in one region of the second body part 200.
  • the bone conduction output unit 210 is distinguished from the speaker of the air conduction method (Air conduction).
  • the bone conduction output unit 210 is implemented by vibrating sound waves on the bone of the user in the second state.
  • the bone conduction output unit 210 converts an input electrical signal into a vibration signal, and transfers the changed vibration signal directly to the cochlea through a skull or jawbone of the user and to the brain along the auditory nerve. Use the Bone Conduction method.
  • the bone conduction output unit 210 is implemented to be in contact with the ear side (side head) of the user in the second state.
  • the second body part 200 is formed of an elastic material so that the bone conduction output unit 210 is in close contact with the user's body even when the user moves.
  • the first and second body parts 100 and 200 are coupled by the hinge part 300.
  • the hinge part 300 is preferably formed at the center of the first and second body parts 100 and 200.
  • the hinge part 300 may have a hinge hole formed in the first body part 200 and a hinge core formed in the second body part 200.
  • the second body part 200 has a substantially central portion fixed to the first body part 100, and the first body part 100 in an inner space formed by the first body part 100. It is formed to be rotatable based on.
  • both ends of the second body part 200 (bone conduction output part 210) by rotating the second body part 200. )) Can be mounted in contact with the user's body.
  • the second body part 200 may further include a touch sensing unit (not shown) for detecting whether both ends of the first body part contact the user's body.
  • the controller 180 may control the driving of the bone conduction output unit 210 by the contact sensing unit.
  • the user is easily changed and driven to the first state or the second state not only before being mounted but also in the mounted state by the shape and material of the second body part 200 and the structure of the hinge part 300. You can.
  • the neckband terminal 1000 when the user wants to receive auditory data through the bone conduction output unit, the user switches the neckband terminal 1000 to a second state, and when it is unnecessary to provide auditory data through the bone conduction output unit, the neckband terminal ( 1000 can be carried in the first state.
  • the auditory data When the auditory data is received through the bone conduction output unit 210, the auditory data may be provided without blocking the user's ear. That is, the user receives auditory data through the bone conduction output unit 210 while listening to an external sound signal. Therefore, the user can be provided with various information at the same time if desired.
  • FIG. 5 is a flowchart illustrating a control method for providing a translation voice according to the present invention
  • FIGS. 6A and 6B are conceptual views illustrating the control method of FIG. 5 according to different embodiments.
  • the microphone 130 receives a voice of a user configured in the first language (S10). Referring to FIG. 6A, assuming that the first language is Korean, the voice of the user becomes Hello L1.
  • the controller may receive the voice of the user through the microphone 130 and analyze the language of the voice of the user.
  • the microphone receives the other party's voice L2 configured in the second language.
  • the second language may correspond to English.
  • the controller may analyze a language of the received voice L2 of the other party and compare the language of the voice L1 of the user.
  • the controller controls the bone conduction output unit 210 to output the first translation voice T1 translated into the first language (W30). That is, the user may hear the other party's voice L2 formed in the second language through the ear and at the same time, may receive the first translation voice T1 of the other party's voice output through the bone conduction output unit 210.
  • the controller may provide a second translation voice T2 obtained by translating the user's voice L1 into the second language. That is, when the language of the voice of the user and the counterpart is analyzed, the controller receives the voice of the user through the microphone 130 and receives a second translation voice T2 in which the voice of the user is translated into the second language.
  • the speaker 120 may be controlled to output.
  • the controller checks whether the bone conduction output unit 210 is in contact with the user's body (S40).
  • the controller controls the bone conduction output unit 210 to output the first translation voice T1 when it is sensed that the bone conduction output unit 210 is in contact with the user's body by the contact detecting unit. (S51).
  • the control unit controls the speaker 120 to output the first translation voice (T2) (S52).
  • the user when the user speaks with the other party in a different language, the user may be provided with the translated voice at the same time, and the user may also recognize the voice of the other party while receiving the translated voice, thereby enabling a more natural conversation.
  • the controller detects that the bone conduction speaker 210 is not in contact with the body, the controller controls the bone conduction speaker 210 to limit the output of the translation voice of the other party's voice.
  • the controller does not provide a translation voice for the user voice when the voice of the user input through the microphone 130 corresponds to a second language.
  • the controller does not output the first translation voice of the other party's voice, and analyzes that the user's voice is composed of a language substantially the same as the language of the other party's voice. If so, the second translation voice of the user voice is blocked.
  • the controller may be configured when the bone conduction speaker contacts the user's body.
  • the bone conduction speaker may be controlled to output the auditory data.
  • the auditory data herein includes all kinds of data consisting of sound signals. For example, it may correspond to the music to be played, the sound signal included in the played video, the voice of the other party received through the wireless communication unit when the call is connected.
  • the controller controls the speaker to output the auditory data when it is detected that the bone conduction output unit 210 is not in contact with the user's body. That is, when the user wants to receive auditory data through a speaker, the user may switch the second body from the second state to the first state.
  • the controller is configured to control the bone conduction output unit 210 and the user's body while the auditory data is output through the bone conduction output unit 210 based on a user's setting.
  • the neckband terminal 1000 may be controlled to limit the output of the auditory data.
  • the controller limits the output of the auditory data of the speaker.
  • the controller may control the bone conduction output unit 210 to continuously output the auditory data.
  • the user may receive the auditory data by switching the state of the second body.
  • a control method of outputting auditory data based on external noise applied through a microphone will be described with reference to FIG. 7B.
  • the microphone 120 may remain activated without a separate control command.
  • the controller may control the microphone 120 to be activated at a preset cycle.
  • the speaker 120 outputs auditory data
  • the microphone 120 receives external noise while the auditory data is output.
  • the bone conduction output unit 210 is in a second state in contact with the user's body.
  • the controller controls the bone conduction output unit 210 to output the auditory data.
  • the controller may control the speaker 120 to limit the output of the auditory data, but is not limited thereto.
  • the controller may simultaneously output the auditory data through the speaker 120 and the bone conduction output unit 210.
  • the control unit may output the bone conduction output unit 210 to output auditory data converted to cancel the external noise through the bone conduction output unit 210 based on the external noise received through the microphone 130. ) Can be controlled.
  • the user may be provided with the auditory data without being disturbed by external noise using the bone conduction output unit.
  • the controller may detect a current state of a user based on external noise received through the microphone.
  • the current state may correspond to a user's surroundings, a user's location, a counterpart who communicates with the user, and the like.
  • control unit may analyze the position of the user in the subway in the current state of the user.
  • the controller controls the auditory data output from the speaker to be output from the bone conduction output unit 210.
  • the controller controls the speaker 120 to limit the output of the auditory data.
  • the control of the speaker 120 and the bone conduction output unit 210 is performed at the same time.
  • the user is in a public place.
  • the user may limit the output of the auditory data without any separate control.
  • the user can continue to receive auditory data.
  • the microphone may control the neckband terminal 1000 while at least one of the bone conduction output unit 210 and the speaker 120 is activated.
  • the controller controls the bone conduction output unit 210 to output the auditory data based on a voice command of a user applied through the microphone 130. Can be controlled.
  • the speaker 120 may be controlled to output the auditory data.
  • control unit may activate the Michael even when the bone conduction output unit 210 and the speaker 120 are deactivated. Accordingly, the controller may control the neckband terminal based on a voice command of a user applied through the microphone.
  • the user may control the neckband terminal through a microphone that maintains the activation state without switching the second body to the first and second states or without detecting the user's touch input to the touch sensing unit.
  • the microphone 130 receives a voice of the other party.
  • the controller analyzes a language constituting the other party's voice. If it is determined that the language of the other party's voice is different from the preset language, the controller controls the speaker 120 to output the guide voice.
  • the guide voice may correspond to a voice recommending the mounting of the bone conduction output unit 210. That is, when the translation voice is translated into a preset language, the controller may control the speaker 120 to output the guide voice.
  • the controller may control the bone conduction output unit 210 to output the translation voice when it is detected that the second body has been switched from the first state to the second state.
  • the controller notifies the user when data expected to be desired is generated, and the user can be easily provided with desired information.
  • FIGS. 8A to 8C are conceptual views illustrating a control method according to embodiments of a neckband terminal wirelessly communicating with an external device.
  • the controller may control the wireless communication unit 190 to transmit or receive a wireless signal with the external terminal.
  • the controller may control the wireless communication unit 190 to wirelessly communicate with an external device 900 in a call mode.
  • the controller may control the bone conduction speaker 210 to output the voice of the received counterpart.
  • the controller controls the wireless communication unit 190 to transmit the user's voice received through the microphone 130 to the external device 900.
  • the user may perform a telephone call with the other party through the microphone 130 and the bone conduction output unit 210. Since the other party's voice is output through the bone conduction output unit 210, a problem of being exposed to others or disturbed by external noise can be prevented.
  • the user can perform a telephone call without supporting the external device by hand, thereby freeing the action. Also, even when the external device is far from the user, the external device can be easily controlled.
  • the speaker 120 outputs auditory data, and the external device receives a call.
  • the controller controls the bone conduction output unit 210 to output a call reception notification sound while the external device receives a call.
  • the controller may control the speaker 120 to limit the output of the auditory data, but is not limited thereto. That is, the user may be provided with the call reception notification sound along with the auditory data.
  • the controller may connect the call based on a touch input applied to the touch sensing unit 110. That is, the controller may control the wireless communication unit to transmit a control signal for connecting the call to the external device 900 based on the touch input applied to the touch sensing unit 110.
  • the method of generating a control signal for the call connection is not limited to the touch input.
  • the microphone 120 may receive a voice command for receiving the call.
  • the controller controls the auditory data to be output by the bone conduction output unit 210 when the call is connected.
  • the controller controls the speaker 120 to output the voice of the other party received from the external device 900. That is, the user may receive audio data and the voice of the other party through the independent sound output unit.
  • the microphone 130 receives a voice of a user, and the controller controls the wireless communication unit 190 to transmit the voice of the user to the external device 900. That is, auditory data provided to the user by the bone conduction output unit 210 is not transmitted to the counterpart, but only the voice of the user input through the microphone 120 is transmitted to the external device 900.
  • the user may receive the call received by the external device 900 through the neckband terminal, and connect the call through the neckband terminal. Therefore, even when the external device is far away or does not detect the notification information output from the external device, it can be recognized through the neckband terminal.
  • the user since the user may continuously receive auditory data separately from the call with the other party, the user may perform a call when receiving the desired information.
  • the controller controls the wireless communication unit 190 to receive audio data reproduced from the wirelessly connected external device 900.
  • the controller controls the bone conduction output unit 210 to output the received auditory data.
  • the controller may control the bone conduction output unit 210 and the speaker 120 to simultaneously output the auditory data based on a user's control command. For example, when another person is located close to the user wearing the neckband terminal 1000, the user and the other party are provided with substantially the same auditory data.
  • the auditory data output from the neckband terminal 1000 is also included. Can be provided.
  • the controller may be configured to output the auditory data when the second body is switched from the second state to the first state while the auditory data is output to the bone conduction output unit 210.
  • the speaker 120 may be controlled.
  • the user can receive auditory data through the bone conduction output unit without being influenced by the external environment, and share the auditory data with others through the speaker.
  • FIGS. 9A to 9C are perspective views illustrating a structure of a neckband to which a third body unit including a display unit may be mounted, according to embodiments.
  • 10 is a conceptual view illustrating a third body part rotatably coupled.
  • the third body part 400 is coupled to both ends of the first body part 100.
  • the combined first and third body parts 100 and 400 are formed in a closed loop shape.
  • the third body part 400 includes a display unit 410 for outputting an image and a camera 420 for imaging an external environment.
  • the display unit 410 according to the present exemplary embodiment may be formed to cover both eyes of the user, and the camera 420 may be positioned at the center of the third body part 400.
  • the controller may control the display unit 410 and the camera based on a state of the first to third body units 100, 200, and 400, a user's control command (voice command, touch input), and an interworking relationship with an external device. 420 may be controlled.
  • the third body part 300 is formed to be detachable from the first body part 100.
  • a user may attach the first body part 100 to the neck and then combine the third body part 300.
  • the control unit may detect when the third body unit 300 is coupled and control the third body unit 300.
  • the second coupling part 500 may further include a coupling detecting part (not shown) that detects whether the coupling protrusion 520 is inserted into the coupling groove 510.
  • the coupling detecting unit (not shown) may be formed of a switch that is deformed by a home sensor, a magnet, and a pressure sensing magnetic change.
  • the neckband terminal 1000 includes a second coupling part 500 for coupling the first and third body parts 100 and 300.
  • the second coupling part 500 may include a coupling groove 510 and a coupling protrusion 520.
  • coupling holes 510 for coupling the third body part 300 are formed at both ends of the first body part 100, and coupling at both ends of the third body part 300.
  • a coupling protrusion 520 corresponding to the shape of the coupling groove 510 may be formed.
  • the second coupling part 500 may further include a magnet to facilitate coupling of the first and third body parts 100 and 300.
  • the third body part 400 may be formed to be relatively rotatable with respect to the first body part 100. That is, the third body part 400 may further include a rotation structure 530 formed in an area adjacent to the coupling protrusion 520. That is, the third body 400 may be rotated within a preset angle (for example, 90 degrees) in the state of being mounted on the first body part 100.
  • a preset angle for example, 90 degrees
  • the user may use the neck band composed of the first and second body parts 100 and 200 and mount the third body part 300 when the display unit 410 or the camera 420 is required.
  • the third body part 300 may be rotated in a state where the third body part 300 is mounted to improve a user's wearing comfort.
  • FIG. 9C is a conceptual diagram illustrating a neckband terminal 1000 on which a third body part 400 ′ is mounted, according to another exemplary embodiment.
  • the third body part 400 ′ includes a display 510 ′ and a camera 420 ′.
  • the display unit 510 ' is formed so as not to cover both eyes of the user. That is, the image is formed in a predetermined size in one region of the third body part 400, and the image output from the display unit 410 ′ may be confirmed by the movement of the user's eyes.
  • the display unit 410 ′ may be formed to be biased toward the left or right side of the user's face.
  • the camera 420 ' may be formed adjacent to the display unit 410', but is not limited thereto.
  • the third body parts 400 and 400 ′ may further include a cladding part to cover the face of the user.
  • the second body part 200 is fixed to the head of the user by the shape and material of the second body part 200, and thus the third body part 400 is located on the face of the user. To be fixed.
  • the third body portion 400 also covers the neck of the user by the first body portion 100. Meanwhile, the second body part 200 may be moved (the second state) such that both ends of the second body part 200 are in contact with the user's body (the back of the neck) by the user.
  • FIG. 11 is a flowchart illustrating a control method of a neckband terminal including a third body unit, according to an exemplary embodiment.
  • 12A to 12B are conceptual views illustrating a control method of a neckband terminal according to various embodiments.
  • the controller determines whether the display unit 410 is mounted on the first body unit 100 through the coupling detecting unit (S60).
  • control unit may detect whether the third body unit 400 is located on the face by the contact detecting unit 140 (S70).
  • the controller may activate the display unit 410 and the camera 410 when it is detected that the display unit is mounted on the face by the wing contact detecting unit 140 (S81). However, when it is detected that the display unit 410 is not located on the face, the controller may switch the display unit 410 to an inactive state and may switch the camera 420 to an inactive state.
  • a state in which the third body part 400 is located on the face of the user by the second body part 200 is defined as a third state.
  • the bone conduction output unit 210 may output auditory data, and the camera 420 may be activated.
  • the display unit 410 When the display unit 410 is in an activated state, when the display state is switched from the third state to the first state, the display unit 410 may be in an inactive state. In addition, the controller keeps the camera 420 continuously activated.
  • the controller may limit the output of the auditory data of the bone conduction output unit.
  • the controller may control the bone conduction output unit 210 to output the auditory data again when the first state is changed from the first state to the second state.
  • the controller captures an external environment of the user through the camera 420 in the first state.
  • the controller may control to output an image captured by the camera 420 through the display unit 410 when the first state is changed to the third state.
  • the user can record the external environment through a camera mounted on the user's body without a separate control command, and can receive the photographed image by mounting the display unit on the face. Therefore, the user may later be provided with a situation that the user does not sense.
  • the controller may activate the microphone 130.
  • the controller may activate the camera 420 through the voice command C2 received through the microphone 130.
  • the controller may activate the camera 420 based on a touch input applied to the touch sensing unit 110.
  • the user can control the camera 420 using a simple control command without changing the state of the neckband terminal 1000, so that the external environment can be quickly imaged if necessary.
  • neckband terminal is not limited to the configuration and method of the embodiments described above, the embodiments are configured by selectively combining all or some of the embodiments so that various modifications can be made May be
  • Embodiments of the present invention can be applied to a variety of industries including an eyeglass terminal having a speaker for delivering sound in a bone conduction manner.

Abstract

The present invention provides a neck band terminal comprising: a first body part formed in an open loop shape and hung around the neck of a user; and a second body part formed at the inner peripheral surface of the first body part, formed in an open loop shape such that the neck passes therethrough, and having a bone conduction output part arranged at the end portion thereof, and further comprising a hinge part for coupling the first and second body parts such that the second body part can rotate with respect to the first body part, wherein the bone conduction output part outputs auditory data when the second body part rotates in a first state in which the second body part is hung around the first body part and the neck and converts into a second state in which both ends of the second body part come into contact with the body of the user.

Description

넥밴드형 단말기Neckband type terminal
본 발명은 사용자의 신체에 고정되는 넥밴드형 단말기를 제공한다. The present invention provides a neckband terminal fixed to the user's body.
단말기(terminal)는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.Terminals may be divided into mobile / portable terminals and stationary terminals according to their mobility. The mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.
이와 같은 단말기는 기능이 다양화됨에 따라, 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.As the functions are diversified, for example, the terminal is implemented in the form of a multimedia player having complex functions such as taking a picture or video, playing a music or video file, playing a game or receiving a broadcast. have. Further, in order to support and increase the function of the terminal, it may be considered to improve the structural part and the software part of the terminal.
이러한 개량에 힘입어 최근 이동 단말기는 다양한 형태의 디자인으로 진화하고 있으며, 사용자의 신체에 고정될 수 있는 이동 단말기가 개발되고 있다. 이에 따라 사용자는 신체에 장착된 단말기를 통하여 양 손을 사용하지 않고도 정보를 제공받을 수 있다. 나아가 신체 장착형 단말기를 이용하여, 신체 장착형 단말기를 통하여 정보를 제공받으면서 복수의 업무를 함께 수행하려고 하는 사용자의 요구가 증가하고 있다. Thanks to these improvements, mobile terminals have recently evolved into various forms of designs, and mobile terminals that can be fixed to a user's body have been developed. Accordingly, the user can be provided with information without using both hands through the terminal mounted on the body. Furthermore, using the body-mounted terminal, there is an increasing demand of the user to perform a plurality of tasks together while being provided with information through the body-mounted terminal.
이에 본 발명의 과제는 외부의 소리를 차단하지 아니하고 사용자에게소리를 전달가능한 골절도 출력부를 구비하는 넥밴드형 단말기를 제공하는 것에 있다. Accordingly, an object of the present invention is to provide a neckband type terminal having a fracture degree output unit capable of transmitting sound to a user without blocking external sounds.
이와 같은 본 발명의 과제를 달성하기 위하여, 본 발명의 일 실시예에 따른 넥밴드형 단말기는 사용자의 목에 걸쳐지는 개루프 형상으로 이루어지는 제1 바디부, 상기 제1 바디부의 내주면에 형성되고, 상기 목이 관통하도록 개루프형상으로 이루어지며, 단부에 골전도 출력부가 배치되는 제2 바디부 및 상기 제2 바디부가 상기 제1 바디부를 기준으로 회전운동 가능하도록 상기 제1 및 제2 바디부를 결함시키는 힌지부를 더 포함하고, 상기 골전도 출력부는, 상기 제2 바디부가 상기 제1 바디부와 목에 걸쳐지는 제1 상태에서 회전되어 상기 제2 바디부의 양단이 사용자의 신체와 접촉하는 제2 상태로 전환되면, 청각 데이터가 출력된다. In order to achieve the object of the present invention, a neckband terminal according to an embodiment of the present invention is formed on the inner body of the first body portion, the first body portion of the open loop shape that spans the user's neck, The neck is formed in an open loop shape so as to penetrate the second body part and the second body part having a bone conduction output part disposed at an end thereof so as to defect the first and second body parts so as to be rotatable with respect to the first body part. It further comprises a hinge, wherein the bone conduction output unit, the second body portion is rotated in a first state spanning the first body portion and the neck to a second state in which both ends of the second body portion in contact with the user's body When switched, auditory data is output.
본 발명과 관련된 일 예로서, 상대방의 음성을 수신하는 마이크 및 상기 상대방의 음성이 기 설정된 제1 언어와 다른 제2 언어로 구성되었는지 여부를 판단하는 제어부를 더 포함하고, 상기 제어부는 상대방의 음성을 상기 제1 언어로 번역한 제1 번역음성을 출력하도록 상기 골전도 출력부를 제어할 수 있다. As an example related to the present invention, the apparatus may further include a microphone configured to receive a voice of the counterpart and a controller configured to determine whether the voice of the counterpart is configured in a second language different from a preset first language. The bone conduction output unit may be controlled to output a first translation voice translated into the first language.
본 발명과 관련된 일 예로서, 상기 넥밴드형 단말기는 상기 제1 바디부에 형성되고, 상기 제1 상태에서 상기 청각 데이터가 출력되고 있는 경우, 상기 제2 상태로 전환되면 상기 청각 데이터를 출력하도록 형성되는 상기 스피커를 더 포함할 수 있다. As an example related to the present invention, the neckband terminal is formed in the first body part, and when the auditory data is output in the first state, the auditory data is outputted when the auditory data is switched to the second state. The speaker may further include.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 마이크로 수신된 사용자의 음성이 상기 제2 언어에 해당되는 경우, 상기 스피커의 구동을 제한할 수 있다. As an example related to the present disclosure, the controller may limit driving of the speaker when the voice of the user received by the microphone corresponds to the second language.
본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 상기 제1 바디부에 형성되고, 상기 제1 상태에서 상기 마이크에 의하여 상기 제2 언어의 상대방 음성이 감지되면, 상기 제2 상태로 전환하라는 안내음성을 출력하도록 형성되는 스피커를 더 포함할 수 있다. As an example related to the present invention, the neckband terminal is formed in the first body part, and when the other party's voice of the second language is sensed by the microphone in the first state, guides to switch to the second state. The apparatus may further include a speaker configured to output voice.
본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 상기 골전도 출력부가 사용자의 신체의 접촉여부를 감지하는 접촉감지부 및 상기 골전도 출력부가 사용자의 신체에 접하도록 배치되는 상기 제2 상태인 경우, 상기 청각 데이터를 출력하도록 상기 골전도 출력부를 제어하는 제어부를 더 포함할 수 있다. As an example related to the present invention, the neckband terminal is in the second state where the bone conduction output unit detects whether the user's body is in contact and the bone conduction output unit is disposed to contact the user's body. The apparatus may further include a controller configured to control the bone conduction output unit to output the auditory data.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 제1 상태에서 상기 청각 데이터가 출력되고 있는 경우, 상기 제2 상태로 전환되면 상기 청각 데이터를 출력하도록 상기 스피커를 제어할 수 있다. As an example related to the present invention, when the auditory data is output in the first state, the controller may control the speaker to output the auditory data when the auditory data is switched to the second state.
본 발명과 관련된 일 예로서, 상기 넥밴드형 단말기는 상기 제2 상태에서 상기 스피커로 상기 청각 데이터가 출력되는 경우, 외부소음을 수신하도록 활성화되는 마이크를 더 포함하고, 상기 외부소음에 근거하여, 상기 스피커의 구동을 제한하고 상기 청각 데이터를 출력하도록 상기 골전도 출력부를 활성화시킬 수 있다. As an example related to the present invention, the neckband terminal further includes a microphone activated to receive external noise when the auditory data is output to the speaker in the second state, and based on the external noise, The bone conduction output unit may be activated to limit driving of the speaker and output the auditory data.
본 발명과 관련된 일 예로서, 상기 외부소음은 기 설정된 기준음량 이상의 음량을 갖거나, 기 설정된 외부환경에 대응되는 소리신호에 해당될 수 있다. As an example related to the present invention, the external noise may have a volume greater than or equal to a preset reference volume or may correspond to a sound signal corresponding to a preset external environment.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 제2 상태에서 상기 골전도 이어폰 및 상기 스피커를 제어하는 음성명령을 수신하도록 상기 마이크를 제어할 수 있다. As an example related to the present invention, the controller may control the microphone to receive a voice command for controlling the bone conduction earphone and the speaker in the second state.
본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 외부 단말기와 무선신호를 송신하거나 수신하도록 형성되는 무선통신부 및 상기 외부 단말기로부터 출력되는 청각 데이터를 출력하도록 상기 골전도 출력부를 제어하는 제어부를 더 포함할 수 있다. As an example related to the present invention, the neckband terminal further includes a wireless communication unit configured to transmit or receive a wireless signal with an external terminal, and a controller for controlling the bone conduction output unit to output auditory data output from the external terminal. can do.
본 발명과 관련된 일 예로서, 상기 외부 단말기에 콜 신호가 수신되면, 상기 제어부는 상기 콜 신호를 알리는 알림음을 출력하도록 상기 골전도 출력부를 제어할 수 있다. As an example related to the present invention, when a call signal is received by the external terminal, the controller may control the bone conduction output unit to output a notification sound informing of the call signal.
본 발명과 관련된 일 예로서, 상기 넥밴드형 단말기는 상기 제어부는 상기 콜이 연결되면 상대방의 음성을 출력하도록 상기 스피커를 더 포함하고, 상기 청각 데이터를 출력하도록 상기 골전도 스피커를 제어할 수 있다. As an example related to the present invention, the neckband terminal may further include the speaker to output the other party's voice when the call is connected, and control the bone conduction speaker to output the auditory data. .
본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 상기 청각 데이터를 출력하는 스피커를 더 포함하고, 상기 스피커와 상기 골전도 출력부는 함께 상기 청각 데이터를 출력할 수 있다. As an example related to the present invention, the neckband terminal may further include a speaker for outputting the auditory data, and the speaker and the bone conduction output unit may output the auditory data together.
본 발명과 관련된 일 예로서, 상기 제1 바디부는 상기 제1 바디부의 외면에 형성되고 상기 넥밴드 단말기를 제어하는 사용자의 터치입력을 수신하는 터치감지부를 포함할 수 있다. As an example related to the present invention, the first body part may include a touch sensing part formed on an outer surface of the first body part and receiving a touch input of a user controlling the neckband terminal.
본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 상기 제1 바디부의 양단에 탈착가능하게 결합되는 제3 바디부를 더 포함하고, 상기 제3 바디부는 이미지를 출력하는 디스플레이부 및 외부환경을 이미지화하도록 형성되는 카메라를 포함할 수 있다. As an example related to the present invention, the neckband terminal further includes a third body portion detachably coupled to both ends of the first body portion, wherein the third body portion is configured to image an external environment and a display unit for outputting an image. It may include a camera formed.
본 발명과 관련된 일 예로서, 상기 제2 바디부에 의하여 상기 제3 바디부는 사용자의 얼굴에 장착가능하도록 형성되고, 상기 제2 바디부는 사용자의 신체에 장착되었는지 여부를 감지하는 접촉감지부를 더 포함할 수 있다. As an example related to the present invention, the third body portion is formed to be mountable on the face of the user by the second body portion, and the second body portion further includes a touch sensing unit for detecting whether the second body portion is mounted on the user's body. can do.
본 발명과 관련된 일 예로서, 상기 디스플레이부 및 상기 카메라를 제어하는 제어부를 더 포함하고, 상기 제어부는 상기 제3 바디부가 사용자의 얼굴에 장착된 경우, 이미지를 출력하도록 상기 디스플레이부를 제어할 수 있다. As an example related to the present disclosure, the display apparatus may further include a controller configured to control the display unit and the camera, wherein the controller may control the display unit to output an image when the third body unit is mounted on the face of the user. .
본 발명과 관련된 일 예로서, 상기 제어부는 상기 제3 바디부가 상기 사용자의 얼굴에서 분리된 경우 계속적으로 외부환경을 촬영하도록 상기 카메라를 제어할 수 있다. As an example related to the present disclosure, the controller may control the camera to continuously photograph the external environment when the third body part is separated from the face of the user.
본 발명과 관련된 일 예로서, 상기 제3 바디가 상기 제1 바디를 기준으로 회전가능도록 상기 제1 및 제3 바디를 결합하는 결합부를 더 포함할 수 있다. As an example related to the present invention, the third body may further include a coupling unit for coupling the first and third bodies to be rotatable with respect to the first body.
본 발명에 따르면, 골전도 스피커를 구비하는 제2 바디부의 상태전환에 근거하여 사용자의 필요에 따라 외부소리와 함께 원하는 청각 데이터를 제공받을 수 있다. According to the present invention, on the basis of the state change of the second body portion having the bone conduction speaker, the user can be provided with the desired auditory data along with the external sound as needed.
또한, 제1 바디에 탈착가능하게 형성되는 제3 바디부에 의하여 이미지를 제공하고, 보다 간편하게 외부 환경을 촬영할 수 있는바, 사용자의 손이 자유로운 상태에서 이미지획득, 데이터를 제공을 보다 용이하게 제어할 수 있다. In addition, the image is provided by a third body portion detachably formed on the first body, and the external environment can be easily photographed, so that the image acquisition and data can be easily controlled while the user's hand is free. can do.
도 1은 본 명세서에 개시된 일 실시 예에 따른 넥밴드 단말기를 나타내는 블록도.1 is a block diagram illustrating a neckband terminal according to one embodiment disclosed herein.
도 2a는 본 발명의 일 실시예에 따른 제1 상태의 넥밴드형 단말기의 사시도.Figure 2a is a perspective view of a neckband terminal of the first state according to an embodiment of the present invention.
도 2b는 본 발명의 일 실시예에 따른 제2 상태의 넥밴드형 단말기의 사시도.Figure 2b is a perspective view of a neckband terminal of the second state according to an embodiment of the present invention.
도 3은 제1 상태의 넥밴드형 단말기를 다른 각도에서 바라본 개념도.3 is a conceptual view of the neckband terminal in a first state viewed from another angle;
도 4는 사용자에게 착용된 제2 상태의 넥밴드형 단말기를 설명하기 위한 개념도.4 is a conceptual diagram illustrating a neckband terminal of a second state worn by a user.
도 5는 본 발명에 따른 번역음성을 제공하는 제어방법을 설명하기 위한 흐름도.5 is a flowchart illustrating a control method for providing a translation voice according to the present invention.
도 6a 및 도 6b는 서로 다른 실시예에 따른 도 5의 제어방법을 설명하기 위한 개념도.6A and 6B are conceptual views illustrating the control method of FIG. 5 according to different embodiments.
도 7a 내지 도 7d는 골전도 출력부 및 스피커를 이용하여 청각 데이터를 출력하는 제어방법을 설명하기 위한 개념도.7A to 7D are conceptual views illustrating a control method of outputting auditory data using a bone conduction output unit and a speaker.
도 8a 내지 도 8c는 외부장치와 무선통신하는 넥밴드 단말기의 실시예들에 따른 제어방법을 설명하기 위한 개념도.8A to 8C are conceptual views illustrating a control method according to embodiments of a neckband terminal wirelessly communicating with an external device.
도 9a 내지 도 9c는 실시예들에 따라 디스플레이부를 포함하는 제3 바디부가 장착 가능한 넥밴드의 구조를 설명하기 위한 사시도.9A to 9C are perspective views illustrating a structure of a neck band to which a third body unit including a display unit may be mounted, according to embodiments.
도 10은 회전가능하도록 결합된 제3 바디부를 설명하기 위한 개념도.10 is a conceptual view for explaining a third body portion rotatably coupled.
도 11은 일 실시예에 따라 제3 바디부를 포함하는 넥밴드 단말기의 제어방법을 설명하기 위한 흐름도.11 is a flowchart illustrating a control method of a neckband terminal including a third body unit according to an embodiment.
도 12a 내지 도 12d는 다양한 실시예에 따른 넥밴드 단말기의 제어방법을 설명하기 위한 개념도.12A to 12D are conceptual views illustrating a control method of a neckband terminal according to various embodiments.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, and the same or similar components are denoted by the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used in consideration of ease of specification, and do not have distinct meanings or roles from each other. In addition, in describing the embodiments disclosed herein, when it is determined that the detailed description of the related known technology may obscure the gist of the embodiments disclosed herein, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the embodiments disclosed in the present specification and are not to be construed as limiting the technical spirit disclosed in the present specification by the accompanying drawings.
도 1은 본 명세서에 개시된 일 실시 예에 따른 넥밴드 단말기를 나타내는 블록도이다. 본 발명에 따른 넥밴드 단말기는 제1 바디부(100), 제2 바디부(200) 및 제3 바디부(400)를 포함한다. 1 is a block diagram illustrating a neckband terminal according to an exemplary embodiment disclosed herein. The neckband terminal according to the present invention includes a first body part 100, a second body part 200, and a third body part 400.
상기 제1 바디부(100)는 터치감지부(110), 스피커(120), 마이크(130), 제어부(180)를 포함하고, 제2 바디부(200)는 골전도 출력부(210)를 포함하며, 제3 바디부(400)는 디스플레이부(410) 및 카메라(420)를 구비한다. 다만, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The first body part 100 includes a touch sensing unit 110, a speaker 120, a microphone 130, and a controller 180, and the second body part 200 includes a bone conduction output unit 210. The third body part 400 includes a display 410 and a camera 420. However, since the components shown in FIG. 1 are not essential, a mobile terminal having more components or fewer components may be implemented.
메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 170 may store a program for the operation of the controller 180 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.). The memory 170 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.
메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 170 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic It may include a storage medium of at least one type of a disk and an optical disk.
무선 통신부(190)는 단말기와 무선 통신 시스템 사이 또는 단말기와 단말기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(190)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치정보 모듈중 적어도 하나를 포함할 수 있다.The wireless communication unit 190 may include one or more modules that enable wireless communication between the terminal and the wireless communication system or between the terminal and the network in which the terminal is located. For example, the wireless communication unit 190 may include at least one of a broadcast receiving module, a mobile communication module, a wireless internet module, a short range communication module, and a location information module.
방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast reception module receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다. The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).
상기 방송 수신 모듈은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module may include, for example, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), and Digital Video Broadcast-Handheld (DVB-H). The digital broadcast signal may be received using a digital broadcasting system such as ISDB-T (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module 111 may be configured to be suitable for not only the above-described digital broadcasting system but also other broadcasting systems.
방송 수신 모듈을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in a memory.
이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
상기 이동통신 모듈은 화상통화모드 및 음성통화모드를 구현하도록 이루어진다. 화상통화모드는 상대방의 영상을 보면서 통화하는 상태를 지칭하고, 음성통화모드는 상대방의 영상을 보지 않으면서 통화를 하는 상태를 지칭한다. 화상통화모드 및 음성통화모드를 구현하기 위하여 이동통신 모듈(112)은 음성 및 영상 중 적어도 하나를 송수신하도록 형성된다.The mobile communication module is configured to implement a video call mode and a voice call mode. The video call mode refers to a state of making a call while viewing the other party's video, and the voice call mode refers to a state of making a call without viewing the other party's image. In order to implement the video call mode and the voice call mode, the mobile communication module 112 is configured to transmit and receive at least one of audio and video.
무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 단말기에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless internet module refers to a module for wireless internet access and may be embedded or external to the terminal. Wireless Internet technologies include Wireless LAN (WLAN), Wireless Fidelity (WiFi) Direct, Digital Living Network Alliance (DLNA), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and more. This can be used.
근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등이 이용될 수 있다.The short range communication module refers to a module for short range communication. Short range communication technologies include Bluetooth ™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). Can be.
위치정보 모듈은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.The location information module is a module for acquiring a location of a mobile terminal, and a representative example thereof is a global position system (GPS) module or a wireless fidelity (WiFi) module.
마이크(130)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 130 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output in the call mode. The microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
디스플레이부(410)는 단말기에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 단말기가 화상 통화 모드 또는 촬영 모드인 경우에 디스플레이부(420)는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 410 displays (outputs) information processed in the terminal. For example, when the mobile terminal is in a call mode, the mobile terminal displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the terminal is in a video call mode or a photographing mode, the display unit 420 displays a photographed and / or received image, a UI, or a GUI.
디스플레이부(420)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 420 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). display, a 3D display, or an e-ink display.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(420)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(420)가 차지하는 영역을 통해 단말기 바디(body)의 후방에 위치한 사물을 볼 수 있다.Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display. A representative example of the transparent display is TOLED (Transparant OLED). The rear structure of the display unit 420 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 420 of the terminal body.
단말기의 구현 형태에 따라 디스플레이부(420)가 2개 이상 존재할 수 있다. 예를 들어, 단말기에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.There may be two or more display units 420 according to the implementation form of the terminal. For example, a plurality of display units may be spaced apart or integrally disposed on one surface of the terminal, or may be disposed on different surfaces, respectively.
또한, 상기 디스플레이부(420)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.In addition, the display unit 420 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
터치 감지부(110)는 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 대상체가 터치 센서 상에 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensing unit 110 may be configured to convert a change in pressure applied to a specific site or capacitance generated at a specific site into an electrical input signal. The touch sensor may be configured to detect not only the position and area where the touch object is touched on the touch sensor but also the pressure at the touch.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 180.
제어부(controller, 180)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the terminal. For example, control and processing related to voice calls, data communications, video calls, and the like are performed. The controller 180 may include a multimedia module 181 for playing multimedia. The multimedia module may be implemented in the controller 180 or may be implemented separately from the controller 180.
또한, 상기 제어부(180)는 상기 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. In addition, the controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.
또한, 상기 제어부(180)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행할 수 있다. 또한, 상기 제어부(180)는 상기 잠금 상태에서 상기 디스플레이부(420)를 통해 감지되는 터치 입력에 근거하여 상기 잠금 상태에서 표시되는 잠금화면을 제어할 수 있다.In addition, when the state of the mobile terminal satisfies a set condition, the controller 180 may execute a lock state for limiting input of a user's control command to applications. In addition, the controller 180 may control the lock screen displayed in the locked state based on the touch input sensed by the display unit 420 in the locked state.
본 발명에 따른 단말기는 전원공급부(미도시)를 더 포함할 수 있으며, 상기 전원공급부는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The terminal according to the present invention may further include a power supply unit (not shown), wherein the power supply unit receives external power and internal power by the control of the controller 180 to supply power required for the operation of each component. Supply.
도 2a는 본 발명의 일 실시예에 따른 제1 상태의 넥밴드형 단말기의 사시도이고, 도 2b는 본 발명의 일 실시예에 따른 제2 상태의 넥밴드형 단말기의 사시도이다. 도 3은 제1 상태의 넥밴드형 단말기를 다른 각도에서 바라본 개념도이고, 도 4는 사용자에게 착용된 제2 상태의 넥밴드형 단말기를 설명하기 위한 개념도이다. 2A is a perspective view of a neckband terminal in a first state according to an embodiment of the present invention, and FIG. 2B is a perspective view of a neckband terminal in a second state according to an embodiment of the present invention. 3 is a conceptual view of a neckband terminal in a first state viewed from another angle, and FIG. 4 is a conceptual view for explaining a neckband terminal in a second state worn by a user.
상기 제1 바디부(100)는 곡선형으로 이루어지며, 양단이 이격되어 일 영역의 개구영역을 포함하는 개곡선 형태로 이루어 진다.The first body part 100 has a curved shape, and both ends thereof are spaced apart to form an open curve including an opening area of one region.
본 발명의 넥밴드형 단말기(1000)는 제1 바디부(100), 제2 바디부(300) 및 제1 및 제2 바디부를 상대이동 가능하도록 결합하는 힌지부(300)를 포함한다. 여기에서 상기 제1 상태는 상기 제1 바디부와 상기 제2 바디부가 평행하게 배치된 상태를 의미하고, 제2 상태는 제1 바디부와 제2 바디부가 힌지부(300)에 의하여 결합된 상태로 특정 각도를 이루도록 배치된 상태를 의미한다.  The neckband terminal 1000 of the present invention includes a first body portion 100, a second body portion 300, and a hinge portion 300 that couples the first and second body portions to be movable relative to each other. Here, the first state refers to a state in which the first body portion and the second body portion are arranged in parallel, and the second state refers to a state in which the first body portion and the second body portion are coupled by the hinge portion 300. It means a state arranged to achieve a specific angle.
상기 개구영역에 사용자의 목이 관통하게 되고, 상기 곡선형의 제1 바디부(100)는 사용자의 목에 걸릴 수 있는 구조로 형성된다. 상기 제1 바디부(100)가 이루는 내부영역의 둘레는 사용자의 목둘레보다 넓게 형성되는 것이 바람직하다. The neck of the user penetrates through the opening area, and the curved first body part 100 is formed to have a structure that can be caught by the neck of the user. It is preferable that the circumference of the inner region formed by the first body part 100 is wider than the neck circumference of the user.
상기 사용자의 목에 걸리는 제1 바디부(100)의 일 영역을 곡선형으로 이루어지는 것이 바람직하나 이에 한정되는 것은 아니다. 또한, 상기 제1 바디부(100)의 일 영역을 직선형태로 이루어져도 무방하다.One area of the first body portion 100 that is caught by the user's neck is preferably formed in a curved shape, but is not limited thereto. In addition, one region of the first body portion 100 may be formed in a straight shape.
상기 제1 바디부(100)는 상기 제1 바디부(100)의 외주면의 일 영역에 형성되는 터치감지부(110)를 포함한다. 상기 터치감지부(110)는 상기 넥밴드형 단말기(1000)가 사용자의 목에 장착된 경우, 사용자의 손이 닿기 용이한 위치에 형성되는 것이 바람직하다. 예를 들어, 상기 터치감지부(110)는 상기 개구영역과 인접한 위치에 형성될 수 있다.The first body part 100 includes a touch sensing part 110 formed in one area of the outer circumferential surface of the first body part 100. The touch sensing unit 110 is preferably formed at a position where the user's hand can easily reach the neckband terminal 1000 when the neckband terminal 1000 is mounted on the user's neck. For example, the touch sensing unit 110 may be formed at a position adjacent to the opening area.
도면에 구체적으로 도시되지 아니하였으나, 상기 터치감지부(110)는 복수개로 형성될 수 있다. 또는 상기 터치감지부(110)는 사용자의 편의에 따라 활성화되도록 제어될 수 있다. 예를 들어, 사용자가 왼손잡이인 경우, 상기 제1 바디부(100)의 양 단부 중 상기 사용자의 왼쪽에 가까운 상기 제1 바디부의 왼쪽단부에 인접하도록 상기 터치감지부(110)가 형성되거나, 양 단부에 인접하게 배치된 복수의 터치감지부(110) 중 하나의 터치감지부만 활성화될 수 있다. Although not illustrated in detail, the touch sensing unit 110 may be formed in plural. Alternatively, the touch sensing unit 110 may be controlled to be activated according to the user's convenience. For example, when the user is left-handed, the touch sensing unit 110 is formed to be adjacent to a left end portion of the first body portion closer to the left side of the user among both ends of the first body portion 100, or both Only one touch sensing unit of the plurality of touch sensing units 110 disposed adjacent to the end may be activated.
상기 제1 바디부(100)는 상기 양 단부 중 적어도 하나에 인접하게 형성되는 스피커(120) 및 마이크(130)를 더 포함할 수 있다. 상기 마이크(130)는 사용자의 입과 가까운 영역에 형성되는 것이 바람직하다. 상기 스피커(120)는 공기전도방식(Air conduction)의 스피커로 이루어질 수 있다. The first body part 100 may further include a speaker 120 and a microphone 130 formed adjacent to at least one of the both ends. The microphone 130 is preferably formed in an area close to the mouth of the user. The speaker 120 may be formed of an air conduction speaker.
상기 제2 바디부(200)의 외주면의 일 영역이, 상기 제1 바디부(100)의 내주면의 일 영역에 접하도록 결합된다. 또한, 상기 제2 바디부(200)는 상기 제1 바디부(100)를 기준으로 회전운동 가능하도록 상기 제1 바디부(100)에 장착된다. One region of the outer circumferential surface of the second body portion 200 is coupled to contact one region of the inner circumferential surface of the first body portion 100. In addition, the second body part 200 is mounted to the first body part 100 to enable rotational movement with respect to the first body part 100.
상기 제2 바디부(200)는 양 단부가 이격되어 개구영역을 형성하는 개루프형상으로 이루어질 수 있다. 상기 제2 바디부(200)의 양 단부는 서로 가까워지는 방향으로 구부러지도록 형성되는 것이 바람직하다. 예를 들어, 상기 제2 바디부(200)의 양단부는 내부영역으로 구부러지는 곡선형으로 이루어질 수 있다. The second body part 200 may have an open loop shape in which both ends thereof are spaced apart to form an opening area. Both ends of the second body part 200 may be formed to be bent in a direction approaching each other. For example, both ends of the second body portion 200 may be formed in a curved shape to be bent into the inner region.
상기 제2 바디부(200)는 탄성재질로 이루어질 수 있다. 즉, 상기 제2 바디부(200)의 양단부는 외력에 의하여 벌여졌다가 탄성에 의하여 원상복귀되도록 형성될 수 있다. 도 4를 참조하면, 상기 제1 바디부(100)는 사용자의 목과 어깨에 걸쳐지고, 상기 제2 바디부(200)는 사용자의 얼굴(목)과 밀착하도록 형성된다. 즉, 상기 제2 바디부(200)의 탄성에 의하여 상기 제2 바디부(200)의 양단은 사용자의 얼굴에 밀착한 상태로 유지될 수 있다. The second body part 200 may be made of an elastic material. That is, both ends of the second body part 200 may be formed to be returned to its original shape by elasticity after being opened by an external force. Referring to FIG. 4, the first body part 100 covers the neck and the shoulder of the user, and the second body part 200 is formed to closely contact the face (neck) of the user. That is, both ends of the second body part 200 may be maintained in close contact with the user's face by the elasticity of the second body part 200.
다만, 상기 제2 바디부(200)가 이루는 내부공간은 사용자의 목이 통과될 정도로 넓게 형성되는 것이 바람직하다. However, the internal space formed by the second body 200 is preferably formed wide enough to pass the user's neck.
도 3을 참조하면, 상기 제1 상태에서 상기 제2 바디부(200)의 일 영역은 상기 제1 바디부(100)의 내주면과 접하도록 배치된다. 다만, 상기 제2 바디부(200)의 양단부는 상기 제1 바디부(100)의 내주면과 이격되도록 형성되는 것이 바람직하다. Referring to FIG. 3, one region of the second body portion 200 is in contact with an inner circumferential surface of the first body portion 100 in the first state. However, both ends of the second body part 200 may be formed to be spaced apart from the inner circumferential surface of the first body part 100.
상기 제2 바디부(200)는 상기 제2 바디부의(200)의 일 영역에 형성되는 골전도 출력부(210)를 포함한다. 여기에서 골전도 출력부(210)는 공기전도 방식(Air conduction)의 스피커와 구별된다. 상기 골전도 출력부(210)는 제2 상태에서 사용자의 골(Bone)에 음파를 진동시키는 방식으로 구현된다. 상기 골전도 출력부(210)는 입력되는 전기적인 신호를 진동신호로 변환하고, 변화된 진동신호를 사용자의 두개골(Cranialbone)이나, 턱골을 통해 직접 달팽이관으로 전달하고 청각신경을 따라 뇌로 전달되는 골전도(Bone conduction)방식을 이용한다. The second body part 200 includes a bone conduction output part 210 formed in one region of the second body part 200. Here, the bone conduction output unit 210 is distinguished from the speaker of the air conduction method (Air conduction). The bone conduction output unit 210 is implemented by vibrating sound waves on the bone of the user in the second state. The bone conduction output unit 210 converts an input electrical signal into a vibration signal, and transfers the changed vibration signal directly to the cochlea through a skull or jawbone of the user and to the brain along the auditory nerve. Use the Bone Conduction method.
상기 골전도 출력부(210)는 상기 제2 상태에서 사용자의 귀측면부(측두부)에 접하도록 구현된다. 또한, 상기 제2 바디부(200)는 탄성재질로 이루어져 사용자의 움직임에도 상기 골전도 출력부(210)가 사용자의 신체에 밀착되도록 형성된다. The bone conduction output unit 210 is implemented to be in contact with the ear side (side head) of the user in the second state. In addition, the second body part 200 is formed of an elastic material so that the bone conduction output unit 210 is in close contact with the user's body even when the user moves.
상기 제1 및 제2 바디부(100, 200)는 힌지부(300)에 의하여 결합된다. 상기 힌지부(300)는 상기 제1 및 제2 바디부(100, 200)의 중심부에 형성되는 것이 바람직하다. 도면에 구체적으로 도시되지 아니하였으나, 상기 힌지부(300)는 상기 제1 바디부(200)에 힌지홀이, 상기 제2 바디부(200)에 힌지심이 형성되어 결합된 형태로 이루어질 수 있다.The first and second body parts 100 and 200 are coupled by the hinge part 300. The hinge part 300 is preferably formed at the center of the first and second body parts 100 and 200. Although not illustrated in detail, the hinge part 300 may have a hinge hole formed in the first body part 200 and a hinge core formed in the second body part 200.
상기 제2 바디부(200)는 상기 실질적으로 중심부가 상기 제1 바디부(100)에 고정된 형태로, 상기 제1 바디부(100)가 이루는 내부공간 내에서 상기 제1 바디부(100)를 기준으로 회전가능하도록 형성된다. The second body part 200 has a substantially central portion fixed to the first body part 100, and the first body part 100 in an inner space formed by the first body part 100. It is formed to be rotatable based on.
따라서, 사용자는 상기 제1 상태로 상기 넥밴드 단말기(1000)를 착용한 뒤, 상기 제2 바디부(200)를 회전시켜 상기 제2 바디부(200)의 양단부(골전도 출력부(210)))가 사용자의 신체에 접하도록 장착할 수 있다. Therefore, after the user wears the neckband terminal 1000 in the first state, both ends of the second body part 200 (bone conduction output part 210) by rotating the second body part 200. )) Can be mounted in contact with the user's body.
또한, 도면에 구체적으로 도시되지 아니하였으나, 상기 제2 바디부(200)는 상기 제1 바디부의 양단이 사용자의 신체와 접하는 지 여부를 감지하는 접촉감지부(미도시)를 더 포함할 수 있다. 상기 제어부(180)는 상기 접촉감지부에 의하여 상기 골전도 출력부(210)의 구동을 제어할 수 있다. In addition, although not specifically illustrated in the drawings, the second body part 200 may further include a touch sensing unit (not shown) for detecting whether both ends of the first body part contact the user's body. . The controller 180 may control the driving of the bone conduction output unit 210 by the contact sensing unit.
즉, 사용자는 상기 제2 바디부(200)의 형상 및 재질과 상기 힌지부(300)의 구조에 의하여 장착되기 전 뿐만 아니라 장착된 상태에서 상기 제1 상태 또는 제2 상태로 용이하게 변경 및 구동시킬 수 있다. That is, the user is easily changed and driven to the first state or the second state not only before being mounted but also in the mounted state by the shape and material of the second body part 200 and the structure of the hinge part 300. You can.
즉, 사용자는 골전도 출력부를 통하여 청각데이터를 제공받고자 하는 경우, 상기 넥밴드 단말기(1000)를 제2 상태로 전환하고, 골전도 출력부를 통한 청각데이터의 제공이 불필요한 경우, 상기 넥밴드 단말기(1000)를 제1 상태로 휴대할 수 있다. That is, when the user wants to receive auditory data through the bone conduction output unit, the user switches the neckband terminal 1000 to a second state, and when it is unnecessary to provide auditory data through the bone conduction output unit, the neckband terminal ( 1000 can be carried in the first state.
상기 골전도 출력부(210)를 통하여 청각 데이터를 제공받는 경우, 사용자의 귀를 막지 않고 청각 데이터를 제공할 수 있다. 즉, 사용자는 외부의 소리신호를 들으면서 골전도 출력부(210)를 통한 청각 데이터를 제공받는다. 따라서, 사용자는 원하는 경우 다양한 정보들을 동시에 제공받을 수 있다. When the auditory data is received through the bone conduction output unit 210, the auditory data may be provided without blocking the user's ear. That is, the user receives auditory data through the bone conduction output unit 210 while listening to an external sound signal. Therefore, the user can be provided with various information at the same time if desired.
이하, 골전도 출력부(210)를 통하여 청각 데이터를 제공하는 제어방법을 구체적으로 설명한다.Hereinafter, a control method of providing auditory data through the bone conduction output unit 210 will be described in detail.
도 5는 본 발명에 따른 번역음성을 제공하는 제어방법을 설명하기 위한 흐름도이고, 도 6a 및 도 6b는 서로 다른 실시예에 따른 도 5의 제어방법을 설명하기 위한 개념도들이다.FIG. 5 is a flowchart illustrating a control method for providing a translation voice according to the present invention, and FIGS. 6A and 6B are conceptual views illustrating the control method of FIG. 5 according to different embodiments.
도 5 및 도 6a를 참조하여, 서로 다른 언어로 구성되는 음성의 번역음성을 제공하는 제어방법을 설명한다. 상기 마이크(130)는 상기 제1 언어로 구성되는 사용자의 음성을 수신한다(S10). 도 6a를 참조하여, 상기 제1 언어는 한국어라고 가정하면, 사용자의 음성은 여보세요(L1)가 된다. 상기 제어부는 상기 사용자의 음성을 상기 마이크(130)을 통하여 수신하고, 상기 사용자의 음성의 언어를 분석할 수 있다. 5 and 6A, a control method for providing a translation voice of a voice composed of different languages will be described. The microphone 130 receives a voice of a user configured in the first language (S10). Referring to FIG. 6A, assuming that the first language is Korean, the voice of the user becomes Hello L1. The controller may receive the voice of the user through the microphone 130 and analyze the language of the voice of the user.
상기 마이크는 제2 언어로 구성되는 상대방 음성(L2)를 수신한다. 예를 들어, 제2 언어는 영어에 해당될 수 있다. 상기 제어부는 상기 수신된 상대방의 음성(L2)의 언어를 분석하고, 상기 사용자의 음성(L1)의 언어와 비교할 수 있다.The microphone receives the other party's voice L2 configured in the second language. For example, the second language may correspond to English. The controller may analyze a language of the received voice L2 of the other party and compare the language of the voice L1 of the user.
상기 제어부는 상기 제1 및 제2 언어가 다를 경우, 상기 제1 언어로 번역된 제1 번역음성(T1)을 출력하도록 상기 골전도 출력부(210)를 제어한다(W30). 즉, 사용자는 귀를 통하여 상기 제2 언어로 이루어지는 상대방의 음성(L2)을 듣고 동시에 상기 골전도 출력부(210)를 통하여 출력되는 상대방 음서의 제1 번역음성(T1)을 제공받을 수 있다. If the first and second languages are different, the controller controls the bone conduction output unit 210 to output the first translation voice T1 translated into the first language (W30). That is, the user may hear the other party's voice L2 formed in the second language through the ear and at the same time, may receive the first translation voice T1 of the other party's voice output through the bone conduction output unit 210.
또한, 상기 제어부는 상기 사용자의 음성(L1)을 상기 제2 언어로 번역한 제2 번역음성(T2)를 상대방에게 제공할 수 있다. 즉, 상기 제어부는 사용자 및 상대방의 음성에 대한 언어가 분석되면, 사용자의 음성을 상기 마이크(130)를 통하여 수신하고, 상기 사용자의 음성을 제2 언어로 번역한 제2 번역음석(T2)를 출력하도록 상기 스피커(120)를 제어할 수 있다. The controller may provide a second translation voice T2 obtained by translating the user's voice L1 into the second language. That is, when the language of the voice of the user and the counterpart is analyzed, the controller receives the voice of the user through the microphone 130 and receives a second translation voice T2 in which the voice of the user is translated into the second language. The speaker 120 may be controlled to output.
한편, 상기 제어부는 골전도 출력부(210)의 사용자 신체에 접촉여부를 확인 한다(S40). 상기 제어부는 상기 접촉감지부에 의하여 상기 골전도 출력부(210)가 사용자의 신체에 접촉되어 있음이 감지되면, 상기 제1 번역음성(T1)을 출력하도록 상기 골전도 출력부(210)를 제어한다(S51). On the other hand, the controller checks whether the bone conduction output unit 210 is in contact with the user's body (S40). The controller controls the bone conduction output unit 210 to output the first translation voice T1 when it is sensed that the bone conduction output unit 210 is in contact with the user's body by the contact detecting unit. (S51).
다만, 상기 골전도 출력부(210)가 사용자의 신체와 접촉되어 있지 아니하면, 상기 제어부는 상기 제1 번역음성(T2)를 출력하도록 상기 스피커(120)를 제어한다(S52). However, if the bone conduction output unit 210 is not in contact with the user's body, the control unit controls the speaker 120 to output the first translation voice (T2) (S52).
이에 따라 사용자는 상대방과 다른 언어로 대화하는 경우, 번역된 음성을 동시에 제공받을 수 있고, 상기 번역된 음성을 제공받음과 동시에 상대방의 음성 또한 인식할 수 있으므로 보다 자연스러운 대화를 수행할 수 있다. Accordingly, when the user speaks with the other party in a different language, the user may be provided with the translated voice at the same time, and the user may also recognize the voice of the other party while receiving the translated voice, thereby enabling a more natural conversation.
도 6b를 참조하여, 다른 실시예에 따라, 골전도 스피커가 신체에 접촉하지 아니하는 경우 번역음성의 출력방법을 설명한다. 상기 제어부는 상기 골전도 스피커(210)가 신체에 접촉되어있지 아니함이 감지되면, 상대방음성의 번역음성의 출력을 제한하도록 상기 골전도 스피커(210)를 제어한다.Referring to FIG. 6B, a method of outputting translated speech when a bone conduction speaker is not in contact with a body will be described. When the controller detects that the bone conduction speaker 210 is not in contact with the body, the controller controls the bone conduction speaker 210 to limit the output of the translation voice of the other party's voice.
또한, 상기 제어부는 상기 마이크(130)로 입력되는 사용자의 음성이 제2 언어에 해당되는 경우, 상기 사용자 음성에 대한 번역음성을 제공하지 아니한다. In addition, the controller does not provide a translation voice for the user voice when the voice of the user input through the microphone 130 corresponds to a second language.
즉, 상기 골전도 출력부(210)가 사용자의 신체에서 떨어지면, 상기 제어부는 상대방 음성의 제1 번역음성을 출력하지 아니하고, 사용자의 음성이 상대방 음성의 언어와 실질적으로 동일한 언어로 구성되는 것으로 분석되면, 사용자 음성의 제2 번역음성의 제공을 차단한다. That is, when the bone conduction output unit 210 is separated from the user's body, the controller does not output the first translation voice of the other party's voice, and analyzes that the user's voice is composed of a language substantially the same as the language of the other party's voice. If so, the second translation voice of the user voice is blocked.
도 7a 내지 도 7d를 참조하여, 골전도 출력부 및 스피커를 이용하여 청각 데이터를 출력하는 제어방법을 설명한다.7A to 7D, a control method of outputting auditory data using a bone conduction output unit and a speaker will be described.
도 7a를 참조하여 골전도 출력부 및 스피커 중 어느 하나로부터 청각 데이터를 제공하는 제어방법을 설명한다. 상기 제어부는 상기 골전도 스피커가 사용자의 신체에 접하는 경우. 상기 청각 데이터를 출력하도록 상기 골전도 스피커를 제어할 수 있다. A control method of providing auditory data from one of the bone conduction output unit and the speaker will be described with reference to FIG. 7A. The controller may be configured when the bone conduction speaker contacts the user's body. The bone conduction speaker may be controlled to output the auditory data.
여기에서 청각 데이터는 소리신호로 이루어지는 모든 종류의 데이터를 포함한다. 예를 들어, 재생되는 음악, 재생되는 동영상에 포함되는 소리신호, 콜이 연결된 경우 무선통신부를 통하여 수신되는 상대방의 음성 등에 해당될 수 있다. The auditory data herein includes all kinds of data consisting of sound signals. For example, it may correspond to the music to be played, the sound signal included in the played video, the voice of the other party received through the wireless communication unit when the call is connected.
상기 제어부는 상기 골전도 출력부(210)가 상기 사용자의 신체와 접촉되지 아니함이 감지되면, 상기 청각 데이터를 출력하도록 상기 스피커를 제어한다. 즉, 사용자는 스피커를 통하여 청각 데이터를 제공받고 싶은 경우, 상기 제2 바디를 상기 제2 상태에서 제1 상태로 전환할 수 있다.The controller controls the speaker to output the auditory data when it is detected that the bone conduction output unit 210 is not in contact with the user's body. That is, when the user wants to receive auditory data through a speaker, the user may switch the second body from the second state to the first state.
다른 실시예로서, 도면에 도시되지 아니하였으나, 사용자의 설정에 근거하여 상기 제어부는 상기 청각 데이터가 상기 골전도 출력부(210)를 통하여 출력되는 동안, 상기 골전도 출력부(210)와 사용자 신체 접촉이 제한되는 경우 상기 청각 데이터의 출력을 제한하도록 상기 넥밴드 단말기(1000)를 제어할 수 있다.As another embodiment, although not shown in the drawing, the controller is configured to control the bone conduction output unit 210 and the user's body while the auditory data is output through the bone conduction output unit 210 based on a user's setting. When the contact is limited, the neckband terminal 1000 may be controlled to limit the output of the auditory data.
또한, 상기 스피커(120)에 의하여 상기 청각 데이터가 출력되는 중에 상기 제2 바디가 상기 제1 상태에서 상기 제2 상태로 전환되는 경우, 상기 제어부는 상기 스피커의 상기 청각 데이터의 출력을 제한한다. 또한, 상기 제어부는 상기 청각 데이터를 연속적으로 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다. In addition, when the second body is switched from the first state to the second state while the auditory data is output by the speaker 120, the controller limits the output of the auditory data of the speaker. In addition, the controller may control the bone conduction output unit 210 to continuously output the auditory data.
이에 따라, 사용자는 상기 제2 바디의 상태를 전환하여 청각 데이터를 제공받을 수 있다. Accordingly, the user may receive the auditory data by switching the state of the second body.
도 7b를 참조하여 마이크를 통하여 인가되는 외부소음에 근거하여 청각 데이터를 출력하는 제어방법을 설명한다. 상기 마이크(120)는 별도의 제어명령 없이 활성화상태를 유지할 수 있다. 또는 상기 제어부는 기 설정된 주기에 따라 상기 마이크(120)가 활성화되도록 제어할 수 있다.A control method of outputting auditory data based on external noise applied through a microphone will be described with reference to FIG. 7B. The microphone 120 may remain activated without a separate control command. Alternatively, the controller may control the microphone 120 to be activated at a preset cycle.
도 7b의 (a) 및 (b)를 참조하면, 상기 스피커(120)는 청각 데이터를 출력하고, 상기 마이크(120)는 상기 청각 데이터가 출력되는 동안, 외부 소음을 수신한다. 또한, 상기 골전도 출력부(210)가 사용자의 신체에 접촉된 제2 상태임을 가정한다. Referring to FIGS. 7B and 7B, the speaker 120 outputs auditory data, and the microphone 120 receives external noise while the auditory data is output. In addition, it is assumed that the bone conduction output unit 210 is in a second state in contact with the user's body.
상기 마이크에 의하여 상기 외부 소음이 기 설정된 음량(dB)이상으로 수신되는 경우, 상기 제어부는 상기 청각 데이터를 출력하도록 상기 골전도 출력부(210)를 제어한다. 상기 제어부는 상기 청각 데이터의 출력을 제한하도록 상기 스피커(120)를 제어할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 상기 제어부는 상기 청각 데이터를 상기 스피커(120) 및 상기 골전도 출력부(210)를 통하여 동시에 출력할 수 있다.When the external noise is received by the microphone at a preset volume level (dB) or more, the controller controls the bone conduction output unit 210 to output the auditory data. The controller may control the speaker 120 to limit the output of the auditory data, but is not limited thereto. For example, the controller may simultaneously output the auditory data through the speaker 120 and the bone conduction output unit 210.
또한, 상기 제어부는 상기 마이크(130)를 통하여 수신된 외부소음을 근거로, 상기 골전도 출력부(210)를 통하여 상기 외부소음이 상쇄도록 변환된 청각 데이터를 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다.The control unit may output the bone conduction output unit 210 to output auditory data converted to cancel the external noise through the bone conduction output unit 210 based on the external noise received through the microphone 130. ) Can be controlled.
이에 따라, 사용자는 외부소음에 의하여 청각 데이터의 제공이 방해되는 경우, 골전도 출력부를 이용하여 외부소음에 방해받지 않고 청각 데이터를 제공받을 수 있다.Accordingly, when the provision of auditory data is disturbed by external noise, the user may be provided with the auditory data without being disturbed by external noise using the bone conduction output unit.
도 7b의 (a) 및 (c)를 참조하면, 상기 마이크를 통하여 수신된 외부소음에 근거하여 상기 제어부는 사용자의 현재 상태를 감지할 수 있다. 여기에서 상기 현재 상태는 사용자의 주변환경, 사용자의 위치, 사용자와 대화하는 상대방 등에 해당될 수 있다.Referring to (a) and (c) of FIG. 7B, the controller may detect a current state of a user based on external noise received through the microphone. Here, the current state may correspond to a user's surroundings, a user's location, a counterpart who communicates with the user, and the like.
예를 들어, 상기 마이크(130)를 통하여 정류소의 안내 음성, 지하철이 지나가는 소음 등이 입력되는 경우, 상기 제어부는 사용자의 현재 상태로 지하철에 위치함으로 분석할 수 있다.For example, when the guide voice of the stop, the noise of passing subway, etc. are input through the microphone 130, the control unit may analyze the position of the user in the subway in the current state of the user.
이 경우, 상기 제어부는 상기 스피커로 출력되던 상기 청각 데이터를 상기 골전도 출력부(210)로부터 출력되도록 제어한다. 또한, 상기 제어부는 상기 청각 데이터의 출력을 제한하도록 상기 스피커(120)를 제어한다. 상기 스피커(120) 및 상기 골전도 출력부(210)의 제어는 실질적으로 동시에 실행되는 것이 바람직하다. In this case, the controller controls the auditory data output from the speaker to be output from the bone conduction output unit 210. In addition, the controller controls the speaker 120 to limit the output of the auditory data. Preferably, the control of the speaker 120 and the bone conduction output unit 210 is performed at the same time.
즉, 사용자가 공공장소에 위치하거나. 상대방과의 대화 중 스피커에서 출력되는 청각 데이터가 방해되는 경우, 사용자가 별도의 제어를 하지 않고도 청각 데이터의 출력을 제한할 수 있다. 또한, 즉각적으로 골전도 스피커를 통하여 사용자에게 청각 데이터를 제공함으로 인하여 사용자는 계속적으로 청각 데이터를 제공받을 수 있다. That is, the user is in a public place. When the auditory data output from the speaker is disturbed during the conversation with the counterpart, the user may limit the output of the auditory data without any separate control. In addition, by providing auditory data to the user through the bone conduction speaker immediately, the user can continue to receive auditory data.
도 7c를 참조하여, 사용자의 음성명령을 감지하는 마이크의 제어방법을 설명한다. 상기 마이크는 상기 골전도 출력부(210) 및 상기 스피커(120) 중 적어도 하나가 활성화된 상태에서 상기 넥밴드 단말기(1000)를 제어할 수 있다. 예를 들어, 상기 스피커(120)로부터 청각 데이터가 출력되는 경우 상기 제어부는 상기 마이크(130)를 통해 인가되는 사용자의 음성명령에 근거하여 상기 청각 데이터를 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다. A control method of a microphone for detecting a voice command of a user will be described with reference to FIG. 7C. The microphone may control the neckband terminal 1000 while at least one of the bone conduction output unit 210 and the speaker 120 is activated. For example, when auditory data is output from the speaker 120, the controller controls the bone conduction output unit 210 to output the auditory data based on a voice command of a user applied through the microphone 130. Can be controlled.
반대로, 상기 골전도 출력부(210)를 통하여 청각 데이터가 출력되는 중 상기 마이크를 통하여 사용자의 음성명려이 인가되는 경우, 상기 청각 데이터를 출력하도록 상기 스피커(120)를 제어할 수 있다.On the contrary, when audio data of the user is applied through the microphone while auditory data is output through the bone conduction output unit 210, the speaker 120 may be controlled to output the auditory data.
다만, 상기 제어부는 상기 상기 골전도 출력부(210) 및 상기 스피커(120)가 비활성화된 상태에서도 상기 마이클 활성화시킬 수 있다. 따라서, 상기 제어부는 상기 마이크를 통하여 인가되는 사용자의 음성명령에 근거하여 상기 넥밴드 단말기를 제어할 수 있다. However, the control unit may activate the Michael even when the bone conduction output unit 210 and the speaker 120 are deactivated. Accordingly, the controller may control the neckband terminal based on a voice command of a user applied through the microphone.
즉, 사용자는 상기 제2 바디를 제1 및 제2 상태로 전환하거나, 터칭감지부에 사용자의 터치입력을 감지하지 아니하고도, 활성화상태를 유지하는 마이크를 통하여 넥밴드 단말기를 제어할 수 있다.That is, the user may control the neckband terminal through a microphone that maintains the activation state without switching the second body to the first and second states or without detecting the user's touch input to the touch sensing unit.
도 7d를 참조하여, 알림음성을 출력하는 스피커의 제어방법을 설명한다. 제1 상태에서 상기 마이크(130)는 상대방의 음성을 수신한다. 상기 제어부는 상기 상대방 음성을 구성하는 언어를 분석한다. 상기 제어부는 상기 상대방 음성의 언어가 기 설정된 언어와 다른 것으로 판단되면, 상기 안내음성을 출력하도록 상기 스피커(120)를 제어한다. Referring to FIG. 7D, a control method of a speaker for outputting a notification voice will be described. In the first state, the microphone 130 receives a voice of the other party. The controller analyzes a language constituting the other party's voice. If it is determined that the language of the other party's voice is different from the preset language, the controller controls the speaker 120 to output the guide voice.
예를 들어, 여기에서 상기 안내음성은 상기 골전도 출력부(210)의 장착을 권유하는 음성에 해당될 수 있다. 즉, 상기 제어부는 상대방의 음성이 기 설정된 언어로 번역된 번역음성이 생성되는 경우, 상기 제어부는 상기 안내음성을 출력하도록 상기 스피커(120)를 제어할 수 있다. For example, the guide voice may correspond to a voice recommending the mounting of the bone conduction output unit 210. That is, when the translation voice is translated into a preset language, the controller may control the speaker 120 to output the guide voice.
상기 제어부는 상기 제2 바디가 상기 제1 상태에서 상기 제2 상태로 전환되었음이 감지되면 상기 번역음성을 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다.The controller may control the bone conduction output unit 210 to output the translation voice when it is detected that the second body has been switched from the first state to the second state.
이에 따라 제어부는 사용자가 원할 것으로 예상되는 데이터가 생성되는 경우 사용자에게 이를 알리며, 사용자는 보다 용이하게 원하는 정보를 제공받을 수 있다.Accordingly, the controller notifies the user when data expected to be desired is generated, and the user can be easily provided with desired information.
도 8a 내지 도 8c는 외부장치와 무선통신하는 넥밴드 단말기의 실시예들에 따른 제어방법을 설명하기 위한 개념도이다. 상기 제어부는 상기 외부 단말기와 무선 신호를 송신하거나 수신하도록 상기 무선 통신부(190)를 제어할 수 있다. 8A to 8C are conceptual views illustrating a control method according to embodiments of a neckband terminal wirelessly communicating with an external device. The controller may control the wireless communication unit 190 to transmit or receive a wireless signal with the external terminal.
도 8a를 참조하면, 상기 제어부는 통화모드의 외부장치(900)와 무선통신하도록 상기 무선 통신부(190)를 제어할 수 있다. 상기 제어부는 수신된 상대방의 음성을 출력하도록 상기 골전도 스피커(210)를 제어할 수 있다. 또한, 상기 제어부는 상기 마이크(130)를 통하여 수신된 사용자의 음성을 상기 외부장치(900)로 송신하도록 상기 무선 통신부(190)를 제어한다.Referring to FIG. 8A, the controller may control the wireless communication unit 190 to wirelessly communicate with an external device 900 in a call mode. The controller may control the bone conduction speaker 210 to output the voice of the received counterpart. In addition, the controller controls the wireless communication unit 190 to transmit the user's voice received through the microphone 130 to the external device 900.
즉, 사용자는 상기 마이크(130) 및 상기 골전도 출력부(210)를 통하여 상대방과 전화통화를 수행할 수 있다. 상대방의 음성은 골전도 출력부(210)를 통하여 출력되므로, 타인에게 노출되거나 외부소음에 의하여 방해되는 문제점이 방지될 수 있다.That is, the user may perform a telephone call with the other party through the microphone 130 and the bone conduction output unit 210. Since the other party's voice is output through the bone conduction output unit 210, a problem of being exposed to others or disturbed by external noise can be prevented.
또한, 사용자는 외부장치를 손으로 지지하지 않고도 전화통화를 수행할 수 있으므로 행동이 자유로워진다. 또한, 외부장치가 사용자로부터 멀리떨어져 있는 경우에도 보다 용이하게 외부장치를 제어할 수 있다.In addition, the user can perform a telephone call without supporting the external device by hand, thereby freeing the action. Also, even when the external device is far from the user, the external device can be easily controlled.
도 8b를 참조하면, 상기 스피커(120)는 청각 데이터를 출력하고, 상기 외부장치는 콜을 수신한다. 상기 제어부는 상기 외부장치가 콜을 수신하는 동안 콜 수신 알림음을 출력하도록 상기 골전도 출력부(210)를 제어한다. 이 경우, 상기 제어부는 상기 청각 데이터의 출력을 제한하도록 상기 스피커(120)를 제어할 수 있으나, 이에 한정되는 것은 아니다. 즉, 사용자는 콜 수신 알림음을 청각 데이터와 함께 제공받을 수 있다.Referring to FIG. 8B, the speaker 120 outputs auditory data, and the external device receives a call. The controller controls the bone conduction output unit 210 to output a call reception notification sound while the external device receives a call. In this case, the controller may control the speaker 120 to limit the output of the auditory data, but is not limited thereto. That is, the user may be provided with the call reception notification sound along with the auditory data.
상기 제어부는 상기 터치 감지부(110)에 인가되는 터치입력에 근거하여 상기 콜을 연결할 수 있다. 즉, 상기 제어부는 상기 터치감지부(110)에 인가되는 터치입력에 근거하여 상기 콜을 연결하는 제어신호를 상기 외부장치(900)에 송신하도록 상기 무선통신부를 제어할 수 있다. The controller may connect the call based on a touch input applied to the touch sensing unit 110. That is, the controller may control the wireless communication unit to transmit a control signal for connecting the call to the external device 900 based on the touch input applied to the touch sensing unit 110.
다만, 상기 콜연결에 대한 제어신호를 생성하는 방법은 상기 터치입력에 한정되는 것은 아니다. 예를 들어, 상기 마이크(120)는 상기 콜을 수신하는 음성명령을 수신할 수 있다. However, the method of generating a control signal for the call connection is not limited to the touch input. For example, the microphone 120 may receive a voice command for receiving the call.
상기 제어부는 콜이 연결되면, 상기 청각 데이터가 골전도 출력부(210)에 의하여 출력되도록 제어한다. 또한, 상기 제어부는 상기 외부장치(900)로부터 수신되는 상대방의 음성을 출력하도록 상기 스피커(120)를 제어한다. 즉, 사용자는 독립적인 음향출력부를 통하여 청각 데이터 및 상대방의 음성을 제공받을 수 있다. The controller controls the auditory data to be output by the bone conduction output unit 210 when the call is connected. In addition, the controller controls the speaker 120 to output the voice of the other party received from the external device 900. That is, the user may receive audio data and the voice of the other party through the independent sound output unit.
또한, 상기 마이크(130)는 사용자의 음성을 수신하고, 상기 제어부는 상기 사용자의 음성을 상기 외부장치(900)로 송신하도록 상기 무선 통신부(190)를 제어한다. 즉, 상기 골전도 출력부(210)에 의하여 사용자에게 제공되는 청각 데이터는 상대방에게 전달되지 아니하고, 마이크(120)로 입력되는 사용자의 음성만이 외부장치(900)로 전달된다. In addition, the microphone 130 receives a voice of a user, and the controller controls the wireless communication unit 190 to transmit the voice of the user to the external device 900. That is, auditory data provided to the user by the bone conduction output unit 210 is not transmitted to the counterpart, but only the voice of the user input through the microphone 120 is transmitted to the external device 900.
이에 따라, 사용자는 외부장치(900)에 수신된 콜을 넥밴드 단말기를 통하여 전달받고, 상기 넥밴드 단말기를 통하여 콜을 연결할 수 있다. 따라서 외부장치가 멀리있거나 외부장치가 출력하는 알림정보를 감지하지 못하는 경우에도, 넥밴드 단말기를 통하여 인식할 수 있다. Accordingly, the user may receive the call received by the external device 900 through the neckband terminal, and connect the call through the neckband terminal. Therefore, even when the external device is far away or does not detect the notification information output from the external device, it can be recognized through the neckband terminal.
또한, 사용자는 상대방과의 통화와는 별도도 청각 데이터를 계속적으로 제공받을 수 있으므로, 원하는 정보를 수신하면 통화를 수행할 수 있다. In addition, since the user may continuously receive auditory data separately from the call with the other party, the user may perform a call when receiving the desired information.
도 8c를 참조하여, 외부장치로부터 재생되는 청각 데이터의 출력방법을 설명한다. 상기 제어부는 무선연결된 외부장치(900)로부터 재생되는 청각 데이터를 수신하도록 상기 무선 통신부(190)를 제어한다. 상기 제어부는 상기 수신된 청각 데이터를 출력하도록 상기 골전도 출력부(210)를 제어한다. Referring to FIG. 8C, a method of outputting auditory data reproduced from an external device will be described. The controller controls the wireless communication unit 190 to receive audio data reproduced from the wirelessly connected external device 900. The controller controls the bone conduction output unit 210 to output the received auditory data.
상기 제어부는 사용자의 제어명령에 근거하여 상기 청각 데이터를 상기 골전도 출력부(210)와 상기 스피커(120)가 동시에 출력하도록 제어할 수 있다. 예를 들어, 상기 넥밴드 단말기(1000)를 착용하는 사용자와 근접하게 타인이 위치하는 경우, 사용자와 상대방은 실질적으로 동일한 청각 데이터를 제공받게 된다. The controller may control the bone conduction output unit 210 and the speaker 120 to simultaneously output the auditory data based on a user's control command. For example, when another person is located close to the user wearing the neckband terminal 1000, the user and the other party are provided with substantially the same auditory data.
예를 들어, 복수의 사람이 외부장치(900)로부터 출력되는 동영상을 감상하는 경우, 외부장치(900)의 디스플레이부로 출력되는 이미지를 함께 보면서, 넥밴드 단말기(1000)로부터 출력되는 청각 데이터도 함께 제공받을 수 있다. For example, when a plurality of people are watching a video output from the external device 900, while watching the image output to the display unit of the external device 900, the auditory data output from the neckband terminal 1000 is also included. Can be provided.
한편, 상기 제어부는 상기 청각 데이터가 상기 골전도 출력부(210)에 출력되는 동안, 상기 제2 바디가 상기 제2 상태에서 상기 제1 상태로 전환되는 경우, 상기 제어부는 상기 청각 데이터를 출력하도록 상기 스피커(120)를 제어할 수 있다. The controller may be configured to output the auditory data when the second body is switched from the second state to the first state while the auditory data is output to the bone conduction output unit 210. The speaker 120 may be controlled.
이에 따라 사용자는 외부환경에 영향을 받지 않고 골전도 출력부를 통하여 청각 데이터를 제공받고, 스피커를 통하여 청각 데이터를 타인과 공유할 수 있다.Accordingly, the user can receive auditory data through the bone conduction output unit without being influenced by the external environment, and share the auditory data with others through the speaker.
도 9a 내지 도 9c는 실시예들에 따라 디스플레이부를 포함하는 제3 바디부가 장착가능한 넥밴드의 구조를 설명하기 위한 사시도이다. 도 10은 회전가능하도록 결합된 제3 바디부를 설명하기 위한 개념도이다. 9A to 9C are perspective views illustrating a structure of a neckband to which a third body unit including a display unit may be mounted, according to embodiments. 10 is a conceptual view illustrating a third body part rotatably coupled.
도 9a 및 도 9b를 참조하면, 상기 제3 바디부(400)는 상기 제1 바디부(100)의 양 단부에 결합되다. 결합된 제1 및 제3 바디부(100, 400)는 폐루프 형상으로 형성된다. 9A and 9B, the third body part 400 is coupled to both ends of the first body part 100. The combined first and third body parts 100 and 400 are formed in a closed loop shape.
상기 제3 바디부(400)는 이미지를 출력하는 디스플레이부(410) 및 외부환경을 이미지화하는 카메라(420)를 포함한다. 본 실시예에 따른 디스플레이부(410)는 사용자의 양안을 모두 가리도록 형성되고, 카메라(420)는 상기 제3 바디부(400)의 중앙부에 위치할 수 있다. 상기 제어부는 상기 제1 내지 제3 바디부(100, 200, 400)의 상태, 사용자의 제어명령(음성명령, 터치입력) 및 외부장치와의 연동관계 등에 의하여 상기 디스플레이부(410) 및 상기 카메라(420)를 제어할 수 있다. The third body part 400 includes a display unit 410 for outputting an image and a camera 420 for imaging an external environment. The display unit 410 according to the present exemplary embodiment may be formed to cover both eyes of the user, and the camera 420 may be positioned at the center of the third body part 400. The controller may control the display unit 410 and the camera based on a state of the first to third body units 100, 200, and 400, a user's control command (voice command, touch input), and an interworking relationship with an external device. 420 may be controlled.
도 9b를 참조하면, 상기 제3 바디부(300)는 상기 제1 바디부(100)와 분리가능하도록 형성된다. 사용자는 상기 제1 바디부(100)를 목에 장착한 뒤 상기 제3 바디부(300)를 결합할 수 있다. 상기 제어부는 상기 제3 바디부(300)가 결합되면 이를 감지하고 상기 제3 바디부(300)를 제어할 수 있다. 상기 제2 결합부(500)는 상기 결합홈(510)에 상기 결합돌기(520)가 삽입되었는지 여부를 감지하는 결합감지부(미도시)를 더 포함할 수 있다. 예를 들어, 상기 결합감지부(미도시)는 자성변화를 감지하는 홈센서와 자석, 가압에 의하여 변형되는 스위치로 형성될 수 있다.Referring to FIG. 9B, the third body part 300 is formed to be detachable from the first body part 100. A user may attach the first body part 100 to the neck and then combine the third body part 300. The control unit may detect when the third body unit 300 is coupled and control the third body unit 300. The second coupling part 500 may further include a coupling detecting part (not shown) that detects whether the coupling protrusion 520 is inserted into the coupling groove 510. For example, the coupling detecting unit (not shown) may be formed of a switch that is deformed by a home sensor, a magnet, and a pressure sensing magnetic change.
상기 넥밴드 단말기(1000)는 상기 제1 및 제3 바디부(100, 300)를 결합하기 위한 제2 결합부(500)를 포함한다. 상기 제2 결합부(500)는 결합홈(510) 및 결합돌기(520)로 이루어질 수 있다. The neckband terminal 1000 includes a second coupling part 500 for coupling the first and third body parts 100 and 300. The second coupling part 500 may include a coupling groove 510 and a coupling protrusion 520.
예를 들어, 상기 제1 바디부(100)의 양단에는 상기 제3 바디부(300)가 결합하기 위한 상기 결합홈(510)이 형성되고, 상기 제3 바디부(300)의 양단에는 상기 결합홈(510)에 끼워지기 위하여, 상기 결합홈(510)의 형상에 대응되는 결합돌기(520)가 형성될 수 있다. For example, coupling holes 510 for coupling the third body part 300 are formed at both ends of the first body part 100, and coupling at both ends of the third body part 300. In order to fit in the groove 510, a coupling protrusion 520 corresponding to the shape of the coupling groove 510 may be formed.
도면에 도시되지 아니하였으나, 상기 제2 결합부(500)는 상기 제1 및 제3 바디부(100, 300)의 결합을 용이하게 하는 자석을 더 포함할 수 있다. Although not shown in the drawing, the second coupling part 500 may further include a magnet to facilitate coupling of the first and third body parts 100 and 300.
도 10을 참조하면, 상기 제3 바디부(400)는 상기 제1 바디부(100)를 기준으로 상대적으로 회전가능하도록 형성될 수 있다. 즉, 상기 제3 바디부(400)는 상기 결합돌기(520)와 인접한 영역에 형성되는 회전구조(530)를 더 포함할 수 있다. 즉, 상기 제3 바디(400)는 상기 제1 바디부(100)에 장착된 상태에서 기 설정된 각도(예를 들어, 90도)내에서 회전될 수 있다.Referring to FIG. 10, the third body part 400 may be formed to be relatively rotatable with respect to the first body part 100. That is, the third body part 400 may further include a rotation structure 530 formed in an area adjacent to the coupling protrusion 520. That is, the third body 400 may be rotated within a preset angle (for example, 90 degrees) in the state of being mounted on the first body part 100.
이에 따라, 사용자는 상기 제1 및 제2 바디부(100, 200)로 이루어진 넥밴드를 사용하다가, 디스플레이부(410) 또는 카메라(420)가 필요한 경우 상기 제3 바디부(300)를 장착할 수 있다. 또한 상기 제3 바디부(300)가 장착된 상태에서 상기 제3 바디부(300)를 회전시켜 사용자의 착용감을 향상시킬 수 있다. Accordingly, the user may use the neck band composed of the first and second body parts 100 and 200 and mount the third body part 300 when the display unit 410 or the camera 420 is required. Can be. In addition, the third body part 300 may be rotated in a state where the third body part 300 is mounted to improve a user's wearing comfort.
도 9c는 다른 실시예에 따른 제3 바디부(400')가 장착된 넥밴드 단말기(1000)를 도시한 개념도이다. 도 9c를 참조하면, 상기 제3 바디부(400')는 디스플레이부(510')와 카메라(420')를 포함한다.9C is a conceptual diagram illustrating a neckband terminal 1000 on which a third body part 400 ′ is mounted, according to another exemplary embodiment. Referring to FIG. 9C, the third body part 400 ′ includes a display 510 ′ and a camera 420 ′.
상기 디스플레이부(510')는 사용자의 양안을 가리지 않도록 형성된다. 즉, 상기 제3 바디부(400)의 일 영역에 기 설전된 크기로 형성되며, 사용자의 시선의 이동에 의하여 상기 디스플레이부(410')로부터 출력되는 이미지를 확인할 수 있다. 상기 디스플레이부(410')는 사용자 얼굴의 왼쪽 또는 오른쪽에 치우치도록 형성될 수 있다. The display unit 510 'is formed so as not to cover both eyes of the user. That is, the image is formed in a predetermined size in one region of the third body part 400, and the image output from the display unit 410 ′ may be confirmed by the movement of the user's eyes. The display unit 410 ′ may be formed to be biased toward the left or right side of the user's face.
또한, 상기 카메라(420')는 상기 디스플레이부(410')와 인접하게 형성될 수 있으나, 이에 한정되는 것은 아니다. In addition, the camera 420 'may be formed adjacent to the display unit 410', but is not limited thereto.
상기에서 설명한 서로 다른 실시예에 따른 제3 바디부(400, 400')는 사용자의 얼굴에 걸쳐지도록 걸침부를 더 포함할 수 있다. The third body parts 400 and 400 ′ according to the different embodiments described above may further include a cladding part to cover the face of the user.
또한, 상기 제2 바디부(200)의 형상 및 재질에 의하여 상기 제2 바디부(200)가 사용자의 두부에 고정되고, 이에 따라 상기 제3 바디부(400)는 상기 사용자의 얼굴 상에 위치하도록 고정된다. In addition, the second body part 200 is fixed to the head of the user by the shape and material of the second body part 200, and thus the third body part 400 is located on the face of the user. To be fixed.
또한, 상기 제2 바디부(200)가 사용자의 목에 걸쳐지면, 상기 제3 바디부(400)도 상기 제1 바디부(100)에 의하여 상기 사용자의 목에 걸쳐진다. 한편, 상기 제2 바디부(200)는 상기 제2 바디부(200)의 양단부가 사용자에 의하여 사용자의 신체(목뒤)에 접하도록 이동(상기 제2 상태)될 수 있다. In addition, when the second body portion 200 covers the neck of the user, the third body portion 400 also covers the neck of the user by the first body portion 100. Meanwhile, the second body part 200 may be moved (the second state) such that both ends of the second body part 200 are in contact with the user's body (the back of the neck) by the user.
즉, 상기 디스플레이부 및 상기 카메라가 구비된 제3 바디(400)가 상기 제1 바디부(100)에 장착된 상태에서도, 상기에서 설명한 제어방법이 실질적으로 동일하게 적용된다. That is, even when the third body 400 including the display unit and the camera is mounted on the first body unit 100, the control method described above is substantially the same.
도 11은 일 실시예에 따라 제3 바디부를 포함하는 넥밴드 단말기의 제어방법을 설명하기 위한 흐름도이다. 도 12a 내지 도 12b는 다양한 실시예에 따른 넥밴드 단말기의 제어방법을 설명하기 위한 개념도들이다.11 is a flowchart illustrating a control method of a neckband terminal including a third body unit, according to an exemplary embodiment. 12A to 12B are conceptual views illustrating a control method of a neckband terminal according to various embodiments.
도 11 및 도 12a를 참조하면, 상기 제어부는 상기 결합감지부를 통하여 상기 디스플레이부(410)가 제1 바디부(100)에 장착되었는지 확인한다(S60). 11 and 12A, the controller determines whether the display unit 410 is mounted on the first body unit 100 through the coupling detecting unit (S60).
또한, 상기 제어부는 상기 접촉감지부(140)에 의하여 상기 제3 바디부(400)가 얼굴 상에 위치하는지 여부를 감지할 수 있다(S70). 상기 제어부는 사익 접촉감지부(140)에 의하여 상기 디스플레이부가 얼굴에 장착된 것으로 감지되는 경우, 상기 디스플레이부(410) 및 상기 카메라(410)를 활성화시킬 수 있다(S81). 다만, 상기 디스플레이부(410)가 얼굴 상에 위치하지 아니하는 것으로 감지되면, 상기 제어부는 상기 디스플레이부(410)를 비활성상태로 전환하고, 상기 카메라(420)를 비활성 상태로 전환할 수 있다. In addition, the control unit may detect whether the third body unit 400 is located on the face by the contact detecting unit 140 (S70). The controller may activate the display unit 410 and the camera 410 when it is detected that the display unit is mounted on the face by the wing contact detecting unit 140 (S81). However, when it is detected that the display unit 410 is not located on the face, the controller may switch the display unit 410 to an inactive state and may switch the camera 420 to an inactive state.
다만, 이에 한정되는 것은 아니며 사용자의 설정에 따라 다르게 제어될 수 있다. 이하 설명의 편의를 위하여 상기 제2 바디부(200)에 의하여 상기 제3 바디부(400)가 사용자의 얼굴 상에 위치하는 상태를 제3 상태로 정의한다. However, the present invention is not limited thereto and may be controlled differently according to a user's setting. For convenience of explanation, a state in which the third body part 400 is located on the face of the user by the second body part 200 is defined as a third state.
도 12a를 참조하면, 상기 제3 상태에서 상기 골전도 출력부(210)는 청각 데이터를 출력하고, 상기 카메라(420)가 활성화될 수 있다. 상기 제3 상태에서 상기 제1 상태로 전환된 경우, 상기 디스플레이부(410)가 활성화된 상태였다면 상기 디스플레이부(410)를 비활성상태로 전환할 수 있다. 또한, 상기 제어부는 카메라(420)를 계속적으로 활성화된 상태로 유지한다. Referring to FIG. 12A, in the third state, the bone conduction output unit 210 may output auditory data, and the camera 420 may be activated. When the display unit 410 is in an activated state, when the display state is switched from the third state to the first state, the display unit 410 may be in an inactive state. In addition, the controller keeps the camera 420 continuously activated.
즉, 사용자가 상기 디스플레이부(410)를 사용하지 아니하는 경우에도 상기 카메라(420)는 사용자의 전방을 촬영할 수 있다. 한편, 상기 제1 상태로 전환되면 상기 제어부는 상기 골전도 출력부의 상기 청각 데이터의 출력을 제한할 수 있다. That is, even when the user does not use the display unit 410, the camera 420 may photograph the front of the user. On the other hand, when switched to the first state, the controller may limit the output of the auditory data of the bone conduction output unit.
한편, 상기 제어부는 상기 제1 상태에서 상기 제2 상태로 전환되면, 상기 청각 데이터를 다시 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다. The controller may control the bone conduction output unit 210 to output the auditory data again when the first state is changed from the first state to the second state.
도 12b를 참조하면, 상기 제어부는 상기 제1 상태에서 상기 카메라 (420)를 통하여 사용자의 외부환경을 촬영한다. 또한, 상기 제어부는 상기 제1 상태에서 상기 제3 상태로 전환되면, 상기 카메라(420)를 통하여 촬영된 이미지를 상기 디스플레이부(410)를 통하여 출력하도록 제어할 수 있다.Referring to FIG. 12B, the controller captures an external environment of the user through the camera 420 in the first state. In addition, the controller may control to output an image captured by the camera 420 through the display unit 410 when the first state is changed to the third state.
이에 따라 사용자는, 별도의 제어명령 없이 사용자의 신체에 장착된 카메라를 통하여 외부환경을 녹화할 수 있고, 디스플레이부를 얼굴에 장착하면 촬영된 이미지를 제공받을 수 있다. 따라서, 사용자가 감지하고 있지 못한 상황을 차후에 제공받을 수 있다. Accordingly, the user can record the external environment through a camera mounted on the user's body without a separate control command, and can receive the photographed image by mounting the display unit on the face. Therefore, the user may later be provided with a situation that the user does not sense.
도 12c 및 도 12d를 참조하여, 제1 상태에서 상기 카메라(420)를 제어하는 제어방법을 설명한다. 상기 제3 바디(400)가 장착된 상기 넥밴드 단말기(1000)가 제1 상태인 경우, 상기 제어부는 상기 마이크(130)를 활성화시킬 수 있다. 12C and 12D, a control method of controlling the camera 420 in a first state will be described. When the neckband terminal 1000 on which the third body 400 is mounted is in the first state, the controller may activate the microphone 130.
도 12a를 참조하면, 상기 제1 상태에서 상기 제어부는 상기 마이크(130)를 통하여 수신된 음성명령(C2)를 통하여 상기 카메라(420)를 활성화시킬 수 있다. 12A, in the first state, the controller may activate the camera 420 through the voice command C2 received through the microphone 130.
도 12b를 참조하면, 상기 제1 상태에서 상기 제어부는 상기 터치감지부(110)에 인가되는 터치입력에 근거하여 상기 카메라(420)를 활성화시킬 수 있다. Referring to FIG. 12B, in the first state, the controller may activate the camera 420 based on a touch input applied to the touch sensing unit 110.
즉, 사용자는 상기 넥밴드 단말기(1000)의 상태를 변경시키기 아니하고도 간단한 제어명령을 이용하여 상기 카메라(420)를 제어할 수 있는바, 필요한 경우 신속하게 외부환경을 이미지화 할 수 있다. That is, the user can control the camera 420 using a simple control command without changing the state of the neckband terminal 1000, so that the external environment can be quickly imaged if necessary.
상기와 같이 설명된 넥밴드 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described neckband terminal is not limited to the configuration and method of the embodiments described above, the embodiments are configured by selectively combining all or some of the embodiments so that various modifications can be made May be
본 발명의 실시예들은 골전도 방식으로 소리를 전달하는 스피커를 구비하는 안경형 단말기를 포함하는 다양한 산업분야에 적용될 수 있다. Embodiments of the present invention can be applied to a variety of industries including an eyeglass terminal having a speaker for delivering sound in a bone conduction manner.

Claims (20)

  1. 사용자의 목에 걸쳐지는 개루프 형상으로 이루어지는 제1 바디부;A first body portion formed in an open loop shape that spans the user's neck;
    상기 제1 바디부의 내주면에 형성되고, 상기 목이 관통하도록 개루프형상으로 이루어지며, 단부에 골전도 출력부가 배치되는 제2 바디부;A second body part formed on an inner circumferential surface of the first body part and formed in an open loop shape so that the neck penetrates and a bone conduction output part is disposed at an end thereof;
    상기 제2 바디부가 상기 제1 바디부를 기준으로 회전운동 가능하도록 상기 제1 및 제2 바디부를 결함시키는 힌지부를 더 포함하고, The second body portion further comprises a hinge for deforming the first and second body portion to enable the rotational movement relative to the first body portion,
    상기 골전도 출력부는, 상기 제2 바디부가 상기 제1 바디부와 목에 걸쳐지는 제1 상태에서 회전되어 상기 제2 바디부의 양단이 사용자의 신체와 접촉하는 제2 상태로 전환되면, 청각 데이터가 출력하도록 형성되는 것을 특징으로 하는 넥밴드 단말기. The bone conduction output unit is rotated in a first state in which the second body portion spans the first body portion and the neck, and when the both ends of the second body portion are switched to the second state in contact with the user's body, the auditory data is Neckband terminal, characterized in that formed to output.
  2. 제1항에 있어서,The method of claim 1,
    상대방의 음성을 수신하는 마이크; 및A microphone for receiving a voice of the other party; And
    상기 상대방의 음성이 기 설정된 제1 언어와 다른 제2 언어로 구성되었는지 여부를 판단하는 제어부를 더 포함하고, And a controller configured to determine whether the voice of the counterpart is configured with a second language different from a preset first language.
    상기 제어부는 상대방의 음성을 상기 제1 언어로 번역한 제1 번역음성을 출력하도록 상기 골전도 출력부를 제어하는 것을 특징으로 하는 넥밴드 단말기.The control unit is a neckband terminal, characterized in that for controlling the bone conduction output unit to output the first translation voice translated from the first language.
  3. 제2항에 있어서,The method of claim 2,
    상기 마이크로부터 수신된 사용자의 음성이 상기 제1 언어인 경우, 상기 사용자의 음성을 번역한 제2 번역음성을 출력하는 스피커를 더 포함하고,If the voice of the user received from the microphone is the first language, further comprising a speaker for outputting a second translation voice translated the user's voice,
    상기 스피커는 상기 제1 바디의 일 영역에 형성되는 것을 특징으로 하는 넥밴드 단말기. The speaker of claim 1, wherein the speaker is formed in one region of the first body.
  4. 제3항에 있어서,The method of claim 3,
    상기 제어부는 상기 마이크로 수신된 사용자의 음성이 상기 제2 언어에 해당되는 경우, 상기 스피커의 구동을 제한하는 것을 특징으로 하는 넥밴드 단말기. The controller may limit driving of the speaker when the voice received by the microphone corresponds to the second language.
  5. 제2항에 있어서,The method of claim 2,
    상기 제1 바디부에 형성되고, 상기 제1 상태에서 상기 마이크에 의하여 상기 제2 언어의 상대방 음성이 감지되면, 상기 제2 상태로 전환하라는 안내음성을 출력하도록 형성되는 스피커를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.And a speaker formed in the first body and configured to output a guide voice to switch to the second state when the voice of the second language is detected by the microphone in the first state. Neckband terminal.
  6. 제1항에 있어서, The method of claim 1,
    상기 골전도 출력부가 사용자의 신체의 접촉여부를 감지하는 접촉감지부; 및A contact detecting unit for detecting whether the bone conduction output unit is in contact with a user's body; And
    상기 골전도 출력부가 사용자의 신체에 접하도록 배치되는 상기 제2 상태인 경우, 상기 청각 데이터를 출력하도록 상기 골전도 출력부를 제어하는 제어부를 더 포함하는 것을 특징으로 하는 넥밴드 단말기. And a control unit for controlling the bone conduction output unit to output the auditory data when the bone conduction output unit is in the second state arranged to contact the user's body.
  7. 제6항에 있어서,The method of claim 6,
    상기 제1 바디부에 형성되고, 상기 제1 상태에서 상기 청각 데이터가 출력되고 있는 경우, 상기 제2 상태로 전환되면 상기 청각 데이터를 출력하도록 형성되는 스피커를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.And a speaker formed on the first body and configured to output the auditory data when the auditory data is output in the first state when the auditory data is output to the second state. .
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 제2 상태에서 상기 스피커로 상기 청각 데이터가 출력되는 경우, 외부소음을 수신하도록 활성화되는 마이크를 더 포함하고, The microphone further includes a microphone that is activated to receive external noise when the auditory data is output to the speaker in the second state.
    상기 외부소음에 근거하여, 상기 스피커의 구동을 제한하고 상기 청각 데이터를 출력하도록 상기 골전도 출력부를 활성화시키는 것을 특징으로 하는 넥밴드 단말기. Based on the external noise, the neckband terminal, characterized in that for activating the bone conduction output unit to limit the driving of the speaker and output the auditory data.
  9. 제8항에 있어서,The method of claim 8,
    상기 외부소음은 기 설정된 기준음량 이상의 음량을 갖거나, 기 설정된 외부환경에 대응되는 소리신호에 해당되는 것을 특징으로 하는 넥밴드 단말기. The external noise is a neckband terminal, characterized in that it has a volume of a predetermined reference volume or more, or corresponds to a sound signal corresponding to a preset external environment.
  10. 제8항에 있어서,The method of claim 8,
    상기 제어부는 상기 제2 상태에서 상기 골전도 이어폰 및 상기 스피커를 제어하는 음성명령을 수신하도록 상기 마이크를 제어하는 것을 특징으로 하는 넥밴드 단말기. The control unit is a neckband terminal, characterized in that for controlling the microphone to receive a voice command to control the bone conduction earphone and the speaker in the second state.
  11. 제1항에 있어서,The method of claim 1,
    외부 단말기와 무선신호를 송신하거나 수신하도록 형성되는 무선통신부; 및A wireless communication unit configured to transmit or receive a wireless signal with an external terminal; And
    상기 외부 단말기로부터 출력되는 청각 데이터를 출력하도록 상기 골전도 출력부를 제어하는 제어부를 더 포함하는 넥밴드 단말기. And a controller configured to control the bone conduction output unit to output auditory data output from the external terminal.
  12. 제11항에 있어서,The method of claim 11,
    상기 외부 단말기에 콜 신호가 수신되면, 상기 제어부는 상기 콜 신호를 알리는 알림음을 출력하도록 상기 골전도 출력부를 제어하는 것을 특징으로 하는 넥밴드 단말기.When the call signal is received by the external terminal, the control unit is a neckband terminal, characterized in that for controlling the bone conduction output unit to output a notification sound informing the call signal.
  13. 제12항에 있어서,The method of claim 12,
    상기 콜이 연결되면 상대방의 음성을 출력하는 스피커를 더 포함하고,When the call is connected to further comprises a speaker for outputting the voice of the other party,
    상기 청각 데이터를 출력하도록 상기 골전도 스피커를 제어하는 것을 특징으로 하는 넥밴드 단말기. And the bone conduction speaker to output the auditory data.
  14. 제1항에 있어서, The method of claim 1,
    상기 청각 데이터를 출력하는 스피커를 더 포함하고, Further comprising a speaker for outputting the auditory data,
    상기 스피커와 상기 골전도 출력부는 함께 상기 청각 데이터를 출력하는 것을 특징으로 하는 넥밴드 단말기. And the speaker and the bone conduction output unit together output the auditory data.
  15. 제1항에 있어서,The method of claim 1,
    상기 제1 바디부는 상기 제1 바디부의 외면에 형성되고 상기 넥밴드 단말기를 제어하는 사용자의 터치입력을 수신하는 터치감지부를 포함하는 것을 특징으로 하는 넥밴드 단말기. The first body portion neckband terminal, characterized in that formed on the outer surface of the first body portion includes a touch sensing unit for receiving a user's touch input to control the neckband terminal.
  16. 제1항에 있어서,The method of claim 1,
    상기 제1 바디부의 양단에 탈착가능하게 결합되는 제3 바디부를 더 포함하고, 상기 제3 바디부는,Further comprising a third body portion detachably coupled to both ends of the first body portion, wherein the third body portion,
    이미지를 출력하는 디스플레이부;A display unit for outputting an image;
    외부환경을 이미지화하도록 형성되는 카메라를 포함하고,It includes a camera formed to image the external environment,
    상기 제1 바디부는 상기 디스플레이부 및 상기 카메라의 기능을 제어하는 제어부를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.The first body unit further comprises a control unit for controlling the functions of the display unit and the camera.
  17. 제16항에 있어서,The method of claim 16,
    상기 제2 바디부에 의하여 상기 제3 바디부는 사용자의 얼굴에 장착가능하도록 형성되고,The third body portion is formed to be mountable on the face of the user by the second body portion,
    상기 제2 바디부는 사용자의 신체에 장착되었는지 여부를 감지하는 접촉감지부를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.The second body portion neckband terminal further comprises a touch sensing unit for detecting whether or not mounted on the user's body.
  18. 제17항에 있어서,The method of claim 17,
    상기 디스플레이부 및 상기 카메라를 제어하는 제어부를 더 포함하고, Further comprising a control unit for controlling the display unit and the camera,
    상기 제어부는 상기 제3 바디부가 사용자의 얼굴에 장착된 경우, 이미지를 출력하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 넥밴드 단말기. And the control unit controls the display unit to output an image when the third body unit is mounted on the face of the user.
  19. 제17항에 있어서,The method of claim 17,
    상기 제어부는 상기 제3 바디부가 상기 사용자의 얼굴에서 분리된 경우 계속적으로 외부환경을 촬영하도록 상기 카메라를 제어하는 것을 특징으로 하는 넥밴드 단말기.And the controller controls the camera to continuously photograph the external environment when the third body part is separated from the face of the user.
  20. 제16항에 있어서,The method of claim 16,
    상기 제3 바디가 상기 제1 바디를 기준으로 회전가능도록 상기 제1 및 제3 바디를 결합하는 결합부를 더 포함하는 것을 특징으로 하는 넥밴드 단말기. And a coupling part for coupling the first and third bodies so that the third body is rotatable with respect to the first body.
PCT/KR2014/001068 2014-01-03 2014-02-07 Neck band-type terminal WO2015102148A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140000850A KR20150081157A (en) 2014-01-03 2014-01-03 Neck badn type terminal mobile
KR10-2014-0000850 2014-01-03

Publications (1)

Publication Number Publication Date
WO2015102148A1 true WO2015102148A1 (en) 2015-07-09

Family

ID=53493485

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/001068 WO2015102148A1 (en) 2014-01-03 2014-02-07 Neck band-type terminal

Country Status (2)

Country Link
KR (1) KR20150081157A (en)
WO (1) WO2015102148A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114041293A (en) * 2019-07-24 2022-02-11 Jvc建伍株式会社 Neck belt type loudspeaker
CN114041293B (en) * 2019-07-24 2024-04-12 Jvc建伍株式会社 Neck belt type loudspeaker

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10284973B2 (en) * 2017-04-03 2019-05-07 Cochlear Limited Wearable band for facilitating hearing
KR102515339B1 (en) * 2018-12-27 2023-03-29 엘지디스플레이 주식회사 Neck band type flexible display device
KR102087827B1 (en) * 2019-03-25 2020-03-10 윤정순 Multi-headset Apparatus for Combined with the Function of Simultaneous Translation and Interpretation
WO2021080362A1 (en) * 2019-10-25 2021-04-29 주식회사 이엠텍 Language processing system using earset
KR102285877B1 (en) * 2019-10-25 2021-08-05 주식회사 이엠텍 Translation system using ear set
KR102223626B1 (en) * 2019-11-05 2021-03-05 태경전자주식회사 Earmike
US11425487B2 (en) 2019-11-29 2022-08-23 Em-Tech Co., Ltd. Translation system using sound vibration microphone
KR102350787B1 (en) * 2019-11-29 2022-01-14 주식회사 이엠텍 Translation system using sound vibration sensor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080009602A (en) * 2006-07-24 2008-01-29 엘지전자 주식회사 Bone conduction audio transmitting-receiving apparatus and method thereof
US20100041447A1 (en) * 2008-08-13 2010-02-18 Will Wang Graylin Wearable headset with self-contained vocal feedback and vocal command
KR20100102480A (en) * 2009-03-11 2010-09-24 삼성전자주식회사 Simultaneous interpretation system
KR20130071419A (en) * 2010-03-10 2013-06-28 토마스 엠. 리카드 Communication eyewear assembly
JP2013239767A (en) * 2012-05-11 2013-11-28 Nikon Corp Head-mounted type information input/output device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080009602A (en) * 2006-07-24 2008-01-29 엘지전자 주식회사 Bone conduction audio transmitting-receiving apparatus and method thereof
US20100041447A1 (en) * 2008-08-13 2010-02-18 Will Wang Graylin Wearable headset with self-contained vocal feedback and vocal command
KR20100102480A (en) * 2009-03-11 2010-09-24 삼성전자주식회사 Simultaneous interpretation system
KR20130071419A (en) * 2010-03-10 2013-06-28 토마스 엠. 리카드 Communication eyewear assembly
JP2013239767A (en) * 2012-05-11 2013-11-28 Nikon Corp Head-mounted type information input/output device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114041293A (en) * 2019-07-24 2022-02-11 Jvc建伍株式会社 Neck belt type loudspeaker
CN114041293B (en) * 2019-07-24 2024-04-12 Jvc建伍株式会社 Neck belt type loudspeaker

Also Published As

Publication number Publication date
KR20150081157A (en) 2015-07-13

Similar Documents

Publication Publication Date Title
WO2015102148A1 (en) Neck band-type terminal
WO2019240325A1 (en) Mobile terminal
WO2016208797A1 (en) Headset and method for controlling same
WO2016035927A1 (en) Headset
WO2018038311A1 (en) Mobile terminal
WO2012091185A1 (en) Display device and method of providing feedback for gestures thereof
WO2015030294A1 (en) Mobile terminal
WO2012111873A1 (en) Method and device for wireless charging
WO2015053449A1 (en) Glass-type image display device and method for controlling same
WO2016010262A1 (en) Mobile terminal and controlling method thereof
WO2016153101A1 (en) Mobile terminal
WO2015119346A1 (en) Mobile terminal and method of controlling the same
WO2020004685A1 (en) Mobile terminal
WO2015057013A1 (en) Method by which portable device displays information through wearable device, and device therefor
WO2015199279A1 (en) Mobile terminal and control method thereof
WO2019216467A1 (en) Mobile terminal
WO2021045276A1 (en) Mobile terminal and control method therefor
WO2015174611A1 (en) Mobile terminal and control method therefor
WO2017094972A1 (en) Charging assembly of electronic frame and charging method of electronic frame
WO2021045272A1 (en) Mobile terminal and auxiliary device coupled thereto
WO2018124589A1 (en) Ear unit and portable sound device
WO2015108287A1 (en) Mobile terminal
WO2019198862A1 (en) Mobile terminal
WO2022080612A1 (en) Portable audio device
WO2017026632A1 (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14875918

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14875918

Country of ref document: EP

Kind code of ref document: A1