WO2024071694A1 - 위험을 감지하는 전자 장치, 그의 동작 방법 및 프로그램을 저장하는 저장 매체 - Google Patents
위험을 감지하는 전자 장치, 그의 동작 방법 및 프로그램을 저장하는 저장 매체 Download PDFInfo
- Publication number
- WO2024071694A1 WO2024071694A1 PCT/KR2023/012704 KR2023012704W WO2024071694A1 WO 2024071694 A1 WO2024071694 A1 WO 2024071694A1 KR 2023012704 W KR2023012704 W KR 2023012704W WO 2024071694 A1 WO2024071694 A1 WO 2024071694A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- event
- electronic device
- designated
- user
- detecting
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 41
- 230000033001 locomotion Effects 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 46
- 230000006870 function Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000000638 stimulation Effects 0.000 description 5
- 230000002087 whitening effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004043 responsiveness Effects 0.000 description 3
- 229910052710 silicon Inorganic materials 0.000 description 3
- 239000010703 silicon Substances 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B7/00—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
- G08B7/06—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
Definitions
- This disclosure relates to an electronic device that detects danger based on surrounding sounds, images, or images, an operation method thereof, and a storage medium that stores a program.
- HMDs head-mounted devices
- AR augmented reality
- An electronic device may include at least one microphone, at least one camera, at least one output module that provides a notification to a user, and at least one processor.
- the at least one processor may be set to detect a designated first event based on ambient sound obtained from the at least one microphone.
- the at least one processor may be set to acquire a surrounding image or video from the at least one camera when detecting the first event.
- the at least one processor may be set to detect a designated second event based on the acquired image or video.
- the at least one processor is set to output a notification command corresponding to at least one of the detected first event or the detected second event to the at least one output module. It can be.
- a method of operating an electronic device may include detecting a designated first event based on ambient sound obtained from at least one microphone.
- a method of operating an electronic device according to an embodiment may include acquiring a surrounding image or video from at least one camera when detecting the designated first event.
- a method of operating an electronic device according to an embodiment may include detecting a designated second event based on the acquired image or video.
- a method of operating an electronic device includes, when detecting the specified second event, sending a notification command corresponding to at least one of the detected first event or the detected second event to at least one output module. It may include the operation of outputting .
- a non-transitory computer-readable storage medium storing one or more programs according to an embodiment of the present disclosure detects a specified first event based on execution of an application and based on ambient sound obtained from at least one microphone. It may include actions such as:
- the storage medium according to one embodiment may include an operation of acquiring a surrounding image or video from at least one camera when detecting the specified first event based on execution of an application.
- the storage medium according to one embodiment may include an operation of detecting a designated second event based on the acquired image or video based on execution of an application.
- the storage medium sends at least one notification command corresponding to at least one of the detected first event or the detected second event. It may include the operation of outputting to the output module.
- FIG. 1 is a block diagram of an electronic device in a network environment, according to embodiments of the present disclosure.
- Figure 2 is a block diagram of an electronic device according to an embodiment of the present disclosure.
- Figure 3 is a perspective view of an electronic device according to an embodiment of the present disclosure.
- FIG. 4 illustrates a state in which sound is input from a physical object and/or a virtual object, according to an embodiment of the present disclosure.
- Figure 5 illustrates a state in which sound is input according to the occurrence of an event, according to an embodiment of the present disclosure.
- FIG. 6A is a signal flowchart for detecting a first event based on an acoustic model of an electronic device, according to an embodiment of the present disclosure.
- FIG. 6B is a signal flow diagram for estimating time delay according to an embodiment of the present disclosure.
- FIG. 6C is an ideal cross-correlation graph according to an embodiment of the present disclosure.
- FIG. 7A illustrates movement of a specific block according to time changes according to an embodiment of the present disclosure.
- Figure 7b shows the displacement difference between matching blocks in consecutive frames according to an embodiment of the present disclosure.
- Figure 8 is a flowchart of a method of operating an electronic device according to the first embodiment of the present disclosure.
- Figure 9 is a flowchart of a method of operating an electronic device according to a second embodiment of the present disclosure.
- Figure 10 is a flowchart of a method of operating an electronic device according to a third embodiment of the present disclosure.
- Figure 11 is a flowchart of a method of operating an electronic device according to a fourth embodiment of the present disclosure.
- FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to embodiments of the present disclosure.
- the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
- a first network 198 e.g., a short-range wireless communication network
- a second network 199 e.g., a long-distance wireless communication network.
- the electronic device 101 may communicate with the electronic device 104 through the server 108.
- the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
- at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
- some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
- the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
- software e.g., program 140
- the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
- the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
- the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
- a main processor 121 e.g., a central processing unit or an application processor
- auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
- the electronic device 101 includes a main processor 121 and a secondary processor 123
- the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
- the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
- the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
- co-processor 123 e.g., image signal processor or communication processor
- may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
- the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
- Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
- Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
- An artificial intelligence model may include multiple artificial neural network layers.
- Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
- artificial intelligence models may additionally or alternatively include software structures.
- the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
- Memory 130 may include volatile memory 132 or non-volatile memory 134.
- the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
- the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
- the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
- the sound output module 155 may output sound signals to the outside of the electronic device 101.
- the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
- the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
- the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
- the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
- the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
- the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
- the electronic device 102 e.g., speaker or headphone
- the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
- the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
- the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
- the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
- HDMI high definition multimedia interface
- USB universal serial bus
- SD card interface Secure Digital Card interface
- audio interface audio interface
- connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
- the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
- the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
- the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
- the camera module 180 can capture still images and moving images.
- the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
- the power management module 188 can manage power supplied to the electronic device 101.
- the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
- PMIC power management integrated circuit
- the battery 189 may supply power to at least one component of the electronic device 101.
- the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
- Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
- processor 120 e.g., an application processor
- the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
- a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
- GNSS global navigation satellite system
- wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
- the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
- the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
- subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
- IMSI International Mobile Subscriber Identifier
- the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
- NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
- the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
- the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
- the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
- the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
- Peak data rate e.g., 20 Gbps or more
- loss coverage e.g., 164 dB or less
- U-plane latency e.g., 164 dB or less
- the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
- the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
- the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
- other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
- RFIC radio frequency integrated circuit
- the antenna module 197 may form a mmWave antenna module.
- a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
- a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side)
- peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
- signal e.g. commands or data
- commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
- Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
- all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
- the electronic device 101 may perform the function or service instead of executing the function or service on its own.
- one or more external electronic devices may be requested to perform at least part of the function or service.
- One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
- the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
- cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
- the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
- the external electronic device 104 may include an Internet of Things (IoT) device.
- Server 108 may be an intelligent server using machine learning and/or neural networks.
- the external electronic device 104 or server 108 may be included in the second network 199.
- the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
- Electronic devices may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, electronic devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
- FIG. 2 is a block diagram of an electronic device 101 according to an embodiment of the present disclosure.
- FIG. 3 is a perspective view of an electronic device 101 according to an embodiment of the present disclosure.
- the electronic device 101 includes a transparent or translucent lens 210 located in front of the user's field of view, and a circuit board 220 on which a processor 120 is disposed.
- a display 230 e.g., display module 160 in FIG. 1 that displays a screen in the field of view of a user wearing the electronic device 101
- a microphone 250 e.g., input module 150 in FIG. 1).
- a camera 260 e.g., the camera module 180 in FIG. 1
- a speaker 270 e.g., the sound output module 155 in FIG. 1
- a haptic module 280 e.g., the haptic module in FIG. 1 (e.g., 179)
- a battery 290 e.g., battery 189 of FIG. 1).
- the electronic device 101 may be an AR device (e.g., AR Glass, video see-through (VST), optical see-through (OST)) that displays an augmented reality (AR) screen to the user wearing it.
- AR device e.g., AR Glass, video see-through (VST), optical see-through (OST)
- the electronic device 101 may be a head mounted display (HMD) worn on the user's head, for example, displaying virtual graphics in 2D or 3D in the user's field of view, such as glasses, a headset, or goggles.
- HMD head mounted display
- AR Glass AR Glass
- the user while the user is wearing an electronic device 101 such as smart glasses or HMD, it is difficult to detect a dangerous situation in the real environment due to the output provided from the electronic device 101 in response to the virtual environment.
- notifications e.g., visual, auditory, or tactile notifications
- the user may not perceive sounds or images in real time corresponding to a dangerous situation occurring in the surroundings. It may not be possible.
- the electronic device 101 displays an image or image through an LCD, OLED, or ⁇ LED in front of the user's viewing range so that the user can recognize it through the screen display unit 211 of the lens 210, or A user-recognizable VST (video see-through) method can be used through OLEDoS (OLED on silicon), which is capable of ultra-high resolution integration.
- LCD liquid crystal display
- OLED organic light-emitting diode
- the electronic device 101 uses a liquid crystal on silicon (LCoS) or LED on silicon (LEDoS) display 230 to display an optical display (OST) that enhances the image on a transparent lens 210 like glasses.
- LCD liquid crystal on silicon
- LEDoS LED on silicon
- OST optical display
- the image transmitted through a waveguide (not shown) can be combined through a combiner (not shown) and displayed on the screen display unit 211 by the display 230.
- the lens 210 according to one embodiment is located in front of the user's field of view and may be transparent or translucent to allow light irradiated or reflected from the surroundings to pass through. The user can recognize surrounding images through the lens 210.
- the circuit board 220 may be placed on the support 221 of the electronic device 101 that extends to surround the user's head.
- the circuit board 220 may include a processor 120 and a memory 130.
- the processor 240 may include a software module (e.g., beam-former 125, image processor 127, and/or warning detector 129) including at least one instruction to be executed. And this operation can be understood as the operation of the processor 240.
- the software module is not limited to the configuration of the modules shown in the electronic device 101 of FIG. 2, and at least one module may be merged, deleted, or a new module may be added.
- the beam-former 125 may perform sound processing based on the microphone signal received from the microphone 250. In one embodiment, the beam-former 125 may generate a beamforming signal by removing and/or combining microphone signals received from a plurality of microphones 251, 252, and 253 arranged at various positions.
- the image processor 127 may perform image processing based on the image signal received from the camera 260. In one embodiment, the image processor 127 may generate an image signal through data processing on image data input through one or more cameras 261 and 262.
- the warning detector 129 may receive a beamforming signal from the beam-former 125 or an image signal from the image processor 127. In one embodiment, the warning detector 129 may determine whether a specified first condition is satisfied based on an inputted beamforming signal, or may determine whether a specified second condition is satisfied based on an inputted image signal. .
- the display 230 may display a screen to the user based on display data received from the processor 120.
- the display 230 may be located in the user's field of view and display a screen directly to the user, or may be a screen display unit formed on part or all of the transparent or translucent lens 210 located in the user's field of view.
- the screen can be displayed in augmented reality (AR) (211).
- AR augmented reality
- the microphone 250 may be an input device that acquires voices or sounds input from the user's surroundings or voices generated from the user.
- a plurality of microphones 250 may be provided, and when the electronic device 101 is worn by the user, they may be arranged to be spaced apart from each other in the user's left-right direction, front-back direction, or up-down direction.
- the microphone 250 includes the electronic device 101 or a first microphone 251 located on the left side of the user when wearing the electronic device 101, a second microphone located on the right side, and/or a second microphone 251 located on the right side of the user. 3 May include a microphone 253.
- the first microphone 251, the second microphone, and/or the third microphone 253 are arranged to be spaced apart from each other in the left and right directions, and can receive sound input from each.
- the camera 260 may be an input device that acquires images or images of the user's field of view, or images or images of the user's surroundings.
- One or more cameras 260 may be provided, and may be placed in the electronic device 101 toward the user's viewing range.
- the camera 260 is a wide-angle camera corresponding to the user's eyeball, and the first camera 261 is located on the left and/or right side of the electronic device 101 or the user wearing the electronic device 101. Each designated area can be photographed, including the second camera 262 located in .
- the camera 260 may include a third camera 263, which is a stereo camera capable of shooting in all directions.
- the speaker 270 is disposed adjacent to the user's ear on a support 2710 in the form of a temple of glasses that is seated on the upper part of the user's ear in the glasses-shaped electronic device 101, or through the user's bone. It can be placed in close contact with the skin to transmit vibration.
- the speaker 270 may be an air conduction type output device or a bone conduction type output device.
- the speaker 270 includes the electronic device 101 or a first speaker 271 located on the left side of the user wearing the electronic device 101 and/or a second speaker 272 located on the right side. It can be included.
- the haptic module 280 may be arranged to be in close contact with the user's skin on the support 271 in the form of a glasses leg that is placed on the upper part of the user's ear in the glasses-shaped electronic device 101.
- the haptic module 280 includes a first haptic module 281 located on the left side of the electronic device 101 or a user wearing the electronic device 101, and/or a second haptic module located on the right side ( 282) may be included.
- the battery 290 may provide charged power to each component or element included in the electronic device 101.
- the battery 290 may be placed at the end of the support 271 in the form of a temple for glasses.
- FIG. 4 illustrates a state in which sound is input from a physical object (R) and/or a virtual object (V) according to an embodiment of the present disclosure.
- FIG. 5 illustrates a state in which sound according to the occurrence of an event (eg, warning event and/or normal event) is input to the microphones 251 and 252, according to an embodiment of the present disclosure.
- an event eg, warning event and/or normal event
- a user (H) may receive sound input from a physical object (R) and/or a virtual object (V) while wearing the electronic device 101.
- the user (H) directly receives sound generated from a physical object (R) existing in reality, or the electronic device 101 uses microphones 251 and 252, for example, microphone 250 in FIG. 2.
- the sound generated by the speakers 271 and 272 can be received based on the sound obtained from the physical object R.
- the user (H) may receive sound from the virtual object (V) provided by the electronic device 101 through the speakers 271 and 272.
- the electronic device 101 displays an image of the virtual object (V) on a display (e.g., the display 230 in FIG. 2) and simultaneously outputs the sound of the virtual object (V) to the speakers 271 and 272. You can.
- the electronic device 101 according to one embodiment includes a display 230 and a speaker 271, such that an image of a virtual object (V) exists at a designated location and a sound of the virtual object (V) occurs at a designated location. 272) can be controlled.
- the user H may receive sound provided by the electronic device 101.
- the electronic device 101 may output sound stored in the electronic device 101 (eg, memory 130 of FIG. 1) or sound received from the outside.
- the electronic device 101 receives a sound signal through the first microphone 251 and/or the second microphone 252, or the first camera 261 and/or the second camera. Through (262), an image signal can be input.
- the electronic device 101 transmits a sound signal and/or from sound source 1 through the first microphone 251, the second microphone 252, the first camera 261, and/or the second camera 262.
- an image signal may be received, and the received sound signal and/or image signal may be determined as a normal event.
- the electronic device 101 may detect the location (x1, y1) of sound source 1 based on the received sound signal and/or image signal.
- the electronic device 101 receives sound signals and/or images through the first microphone 251, the second microphone 252, the first camera 261, and/or the second camera 262. Based on the signal, a warning event can be detected.
- a warning event is related to a dangerous situation that may occur to the user H (e.g., a siren or a horn), and may be an event that satisfies a designated first condition and/or a designated second condition.
- the electronic device 101 may detect a designated first event based on the surrounding sound obtained from the first microphone 251 or the second microphone 252.
- the electronic device 101 determines that the surrounding sound obtained from the first microphone 251 or the second microphone 252 has a specified size (e.g., greater than a specified decibel) or a specified frequency (e.g., a specified sound range). In this case, it can be detected that the specified first event is satisfied.
- a specified size e.g., greater than a specified decibel
- a specified frequency e.g., a specified sound range
- the electronic device 101 detects whether the sound source of a specific sound acquired from the first microphone 251 or the second microphone 252 moves in a direction adjacent to the electronic device 101, and detects whether the sound source of the specific sound is moving in a direction adjacent to the electronic device 101. When the electronic device 101 moves in an adjacent direction, it can be detected that the specified first event has been satisfied.
- the electronic device 101 identifies the sound as a specific sound if the acquired ambient sound is of a specified size (e.g., greater than a specified decibel) or a specified frequency (e.g., a specified sound range), and the loudness of the specific sound is When it gradually becomes louder, or when the frequency of a specific sound increases due to the Doppler effect, the sound source of a specific sound can be detected as moving in an adjacent direction by the electronic device 101.
- a specified size e.g., greater than a specified decibel
- a specified frequency e.g., a specified sound range
- the electronic device 101 when the electronic device 101 detects a warning event, it may provide a notification to the user through the speakers 271 and 272 and/or the haptic modules 281 and 282. In one embodiment, the electronic device 101 may provide a notification to the user through the first speaker 271 and/or the first haptic module 281 located in a direction toward the location of a dangerous situation (warning event). there is.
- the electronic device 101 when the electronic device 101 detects a designated first event, the electronic device 101 captures a surrounding image or video from at least one camera (e.g., the first camera 261 and/or the second camera 262). may be acquired, and a designated second event may be detected based on the acquired image or video, as described later.
- a camera e.g., the first camera 261 and/or the second camera 262.
- FIG. 6A is a signal flow diagram 600 for detecting a first event based on an acoustic model of an electronic device, according to an embodiment of the present disclosure.
- an electronic device e.g., the electronic device 101 of FIG. 2 and/or the processor 120 of FIG. 2 converts the acquired ambient sound into a machine in relation to a specified first event.
- the designated first event can be detected by inputting it into a learned acoustic model.
- the electronic device includes a machine-learned acoustic model in relation to a specified first event, and converts sound acquired through at least one microphone (e.g., microphone 250 of FIG. 2) into acoustic Based on the results input to the model (acoustic model), the designated first event can be detected.
- a machine-learned acoustic model in relation to a specified first event, and converts sound acquired through at least one microphone (e.g., microphone 250 of FIG. 2) into acoustic Based on the results input to the model (acoustic model), the designated first event can be detected.
- the electronic device receives a sound (e.g., a siren or horn) corresponding to the first event designated as occurring in a dangerous situation, and creates an acoustic model (acoustic model).
- a sound e.g., a siren or horn
- acoustic model e.g., acoustic model
- the acoustic model may be machine learned based on a feature matrix obtained by applying a feature extraction process from the sound corresponding to the specified first event.
- the acoustic model may be a model in which a target output encoding an annotation including temporal information is machine-learned simultaneously with a feature matrix.
- the electronic device inputs a feature matrix obtained by applying a feature extraction process from the acquired sound to an acoustic model in a test stage (620). According to the classification result, the designated first event can be detected.
- the electronic device may obtain a direction related to the detected first event based on data related to the energy of the sound obtained from at least one microphone.
- the electronic device uses a method of using the difference in intensity of sound input to a first microphone and a second microphone disposed spaced apart from each other, and GCC-PHAT (GCC-PHAT) that estimates the relative delay from cross-correlation between different signals and signal whitening.
- the direction related to the detected first event can be estimated using a TDOA (time difference of arrival) method, including generalized cross correlation-phase transform, and/or a beam-forming method.
- TDOA time difference of arrival
- the direction related to the detected first event may be a direction toward the location of the sound source of the sound corresponding to the first event based on the electronic device.
- the electronic device estimates the distances from the positions of the microphones spaced apart from each other according to the time delay of the signal obtained from at least one microphone, and determines the location of the sound source of the sound corresponding to the first event accordingly. It can be estimated.
- the electronic device may obtain a direction related to the detected first event using numerical modeling of a time delay signal. Signals received from each of the two receiving channels Then, the numerical model of the signal can be as follows.
- the original signal is the attenuation coefficient when reaching the ith channel, is the propagation time until the original signal reaches the ith channel, is the noise added to the ith channel.
- the noise added to the ith channel is the noise added to the ith channel.
- this model is a Gaussian signal with zero mean, no correlation, and statistical properties that do not change over time. The relative time delay between the two channels is am.
- FIG. 6B is a signal flow diagram for estimating time delay according to an embodiment of the present disclosure.
- FIG. 6C is an ideal cross-correlation graph according to an embodiment of the present disclosure.
- the electronic device uses a whitening weight to estimate the relative time delay from signal whitening.
- GCC-PHAT obtains the cross-correlation of signals from two sensors in the frequency domain and adds a process of multiplying this by a whitening weight to exclude the influence of the signal's spectrum.
- the cross-correlation between signals received from two microphones can be obtained by the following equation.
- Is It is a frequency-converted signal. also, is a weighting function obtained from the frequency axis, It may correspond to the reciprocal of .
- the weighting function may be a PHAT (phases transform) weighting function.
- the PHAT weighting function is a function with weights applied depending on the frequency that determines the relative importance of each frequency when estimating time delay, and can be expressed as the following equation.
- the ideal cross-correlation according to delay time can be estimated.
- horizontal represents the delay time
- the vertical axis is is the delay time It can represent a value.
- the delay time between the two microphones is The value may be the value on the horizontal axis indicating the maximum.
- FIG. 7A illustrates movement of a specific block according to time changes according to an embodiment of the present disclosure.
- Figure 7b shows the displacement difference between matching blocks in consecutive frames according to an embodiment of the present disclosure.
- the electronic device e.g., the electronic device 101 of FIG. 2 and/or the processor 120 of FIG. 2 detects a designated first event
- at least one camera e.g., the camera of FIG. 2) (260) or obtain a surrounding image or video from the first camera 261, second camera 262, and/or third camera 263 of FIG. 2 Events can be detected.
- the image or video may be a snapshot of continuous time or a short clip video.
- the electronic device may drive at least one camera to acquire a surrounding image or video based on detection of a designated first event. Accordingly, the operating time of at least one camera can be reduced and power consumption can be minimized. In one embodiment, the electronic device may detect the direction of the specified first event and drive at least one camera so that the capturing area of the at least one camera faces the detected direction.
- the electronic device may drive at least one camera to obtain an image or video corresponding to a direction related to the first event obtained from surrounding sound. In one embodiment, the electronic device may control at least one camera so that the capturing area of the at least one camera faces a direction related to the first event.
- the electronic device primarily detects a dangerous situation around the user based on surrounding sounds obtained from a microphone, and secondarily filters the detected dangerous situation based on an image or video obtained from a camera. can do.
- the electronic device may detect a designated second event based on a specific object included in the acquired image or video.
- the electronic device recognizes a specific object that is a sound source of a sound corresponding to a first specified condition in an acquired image or video, and responds to the type of the recognized specific object (e.g., a dangerous object such as a car or a motorcycle). Based on this, risk situations can be filtered.
- the electronic device may detect a designated second event based on the movement of a specific object included in the acquired image or video. In one embodiment, the electronic device may detect the moving direction or moving speed of a specific object based on a plurality of acquired images or videos, and filter dangerous situations based on the detected moving direction or moving speed. For example, the electronic device may detect a designated second event when a specific object moves in a direction adjacent to the user and/or when the moving speed of the specific object is greater than or equal to a designated speed.
- the electronic device may extract a boundary or edge of a specific object (edge detection) and match blocks of each of a plurality of frames corresponding to the extracted boundary or edge (block matching).
- the electronic device can estimate the movement of a specific object (motion estimation) based on the displacement difference between matching blocks.
- the electronic device may acquire at least one frame from a plurality of acquired images or videos and divide each frame into blocks of a designated size. For example, the electronic device may divide each frame into blocks of the same size and extract a specific block (eg, a car wheel) with a characteristic from the plurality of blocks.
- a specific block eg, a car wheel
- the electronic device may extract a motion vector based on the movement of a specific block from at least one frame. For example, the electronic device uses at least one block corresponding to a specific object in the current frame and at least one block with characteristics most similar to the characteristics of at least one block in the previous frame to determine the displacement of the specific block. Motion vectors can be extracted based on displacement. The electronic device may estimate the moving speed of a specific object based on the size of the motion vector corresponding to the displacement difference and the time difference (time, ⁇ t) between successive frames.
- the electronic device When detecting a specified second event, the electronic device according to one embodiment may output a notification command corresponding to at least one of the detected first event or the detected second event to at least one output module.
- the electronic device When detecting a designated second event, the electronic device according to one embodiment may generate a notification command so that a notification is provided to the user in a direction related to the detected first event or the detected second event.
- the electronic device may acquire a direction in which a specified first event is detected to have occurred based on an acquired sound, or obtain a direction in which a specified second event is detected to have occurred based on an acquired image or video. and notifications can be rendered based on the obtained direction.
- At least one output module may be arranged to be spaced apart from each other in the user's left-right direction, front-back direction, or up-down direction while the electronic device is worn by the user.
- at least one output module may include a haptic module that provides a tactile notification to the user and a speaker module that provides an auditory notification to the user.
- at least one output module may include a first haptic module and a first speaker located on the left, and a second haptic module and a second speaker located on the right.
- the electronic device may obtain the direction in which the specified first event and/or the specified second event are sensed to have occurred, and may render a notification provided to the user based on the obtained direction. . In one embodiment, the electronic device may provide a notification to the user in the direction in which it is detected that a designated first event and/or a designated second event has occurred.
- the electronic device provides information through a first haptic module and a second haptic module arranged to be spaced apart in the left-right, front-back, or up-down direction of the user, based on the direction of the designated first event or the designated second event.
- the intensity of the tactile notification can be set differently, or the characteristics of the tactile notification can be set differently.
- the electronic device provides a tactile notification including a stimulus of stronger intensity to a relatively adjacent first haptic module, based on the direction of the specified first event or the specified second event, and to a relatively spaced apart first haptic module. 2
- a tactile notification including a stimulus of weaker intensity can be provided to the haptic module.
- the electronic device may provide a tactile notification including a shorter period of stimulation to a first haptic module that is relatively adjacent, based on the direction of the specified first event or the specified second event, and relatively spaced apart.
- a tactile notification including stimulation of a longer period can be provided to the second haptic module.
- the electronic device provides auditory information through a first speaker and a second speaker arranged to be spaced apart in the user's left and right direction, forward and backward direction, or up and down direction, based on the direction of the designated first event or the designated second event.
- the intensity of the enemy notification can be set differently, or the characteristics of the auditory notification can be set differently.
- the electronic device may provide an auditory notification with a louder loudness to a relatively adjacent first speaker and a louder loudness to a relatively spaced-apart second speaker, based on the direction of the specified first event or the specified second event. Smaller auditory notifications can be provided.
- the electronic device For example, based on the direction of a specified first event or a specified second event, the electronic device provides an auditory notification in a high frequency band with a higher frequency to a relatively adjacent first speaker and a relatively spaced apart second speaker. It is possible to provide an auditory notification in a low frequency band with a lower frequency.
- the user may be able to recognize the direction of the event generated by the notification before confirming the event corresponding to the dangerous situation.
- the electronic device may provide a visual notification through a display (eg, the display 230 of FIG. 3) based on the direction corresponding to the designated first event or the designated second event.
- a display eg, the display 230 of FIG. 3
- FIG. 8 is a flowchart 800 of a method of operating the electronic device 101 according to the first embodiment of the present disclosure.
- an electronic device sequentially processes a designated first event and a designated second event according to the first embodiment. It can be detected. In one embodiment, when the electronic device 101 detects a designated first event, it can detect a second event, thereby reducing the data processing load and power consumption for detecting the second event. .
- the electronic device 101 uses at least one microphone (e.g., the microphone 250 of FIG. 2, or the first microphone 251 of FIG. 3, a second microphone, and/or a third microphone). You can obtain surrounding sounds from (253)).
- the at least one microphone 250 is disposed at positions spaced apart from each other in the front-to-back direction, left-right direction, and/or up-and-down direction while the user is wearing the electronic device 101, and are thus positioned at spaced apart positions. You can acquire surrounding sounds.
- the electronic device 101 may detect a designated first event based on the acquired surrounding sound. In one embodiment, the electronic device 101 may detect a dangerous situation around the user as a designated first event.
- the electronic device 101 may detect a dangerous situation based on the size and/or frequency of the acquired surrounding sound. In one embodiment, in operation 820, the electronic device 101 may detect the designated first event by inputting the acquired ambient sound into a machine-learned acoustic model related to the designated first event.
- the electronic device 101 may determine whether a first event has been detected in operation 830. If the first event is not detected, the electronic device 101 may continuously acquire surrounding sounds (operation 810).
- the electronic device 101 uses at least one camera (e.g., the camera module 180 in FIG. 1, the camera module 180 in FIG. 2) to acquire an image or video of the surrounding area.
- the camera 260, or the first camera 261 and/or the second camera 262 in FIG. 3, may be driven, and thus a surrounding image or video may be acquired from at least one camera 260.
- the electronic device 101 may detect a designated second event based on a surrounding image or video obtained from at least one camera 260. In one embodiment, the electronic device 101 may filter the dangerous situation detected as the first event based on the acquired image or video.
- the electronic device 101 may determine whether a second event is detected in operation 860. In one embodiment, when the first event is detected but the second event is not detected, the electronic device 101 may determine that the acquired sound is not a dangerous situation and acquire the surrounding sound again (operation 810). .
- the electronic device 101 may calculate a direction related to the first event or the second event based on the acquired surrounding sound in operation 870.
- operation 870 is indicated as a case where it is determined that the second event has been detected, but the present invention is not limited to this, and the electronic device 101 may perform operation 870 before detecting the second event.
- the electronic device 101 may perform operation 870 before detecting the second event.
- at least one camera 260 may be driven based on the direction related to the first event.
- the electronic device 101 may calculate a direction related to the second event based on a surrounding image or video acquired through at least one camera 260.
- the electronic device in operation 875, the electronic device generates a notification command so that a notification is provided in a direction related to the first event or the second event, and in operation 880, sends the generated notification command to at least one output module (e.g., With the haptic module 280 or speaker module 270 of FIG. 2, or the first haptic module 281, second haptic module 282, first speaker 271, or second speaker 272 of FIG. 3) Can be printed.
- the electronic device 101 may render a notification according to the direction related to the first event or the second event so that the user can recognize the direction.
- the electronic device 101 may detect the end of the first event or the second event in operation 890. In one embodiment, the electronic device 101 may continuously acquire surrounding sounds through at least one microphone 250 and continuously acquire surrounding images or videos through at least one camera 260. The end of the first event or the second event can be detected based on the acquired surrounding sound or surrounding image or video. In one embodiment, when the electronic device 101 detects that the first event or the second event has ended, it may end operation control of the electronic device or acquire surrounding sound again.
- the electronic device 101 when it detects that the first event or the second event has not ended, it may provide a visual notification to the user in operation 891.
- an electronic device may provide a user with a visual notification in response to a dangerous situation through a display.
- operation 891 may be executed together with operation 875.
- the electronic device may output a notification to at least one output module 270 or 280 and display information about danger (eg, direction or type of danger) to the user through the display.
- FIG. 9 is a flowchart 900 of a method of operating the electronic device 101 according to the second embodiment of the present disclosure.
- an electronic device e.g., the electronic device 101 of FIG. 2 and/or the processor 120 of FIG. 2 simultaneously detects a designated first event and a designated second event according to the second embodiment. This can shorten the time to detect a dangerous situation and improve responsiveness.
- the electronic device 101 uses at least one microphone (e.g., the microphone 250 of FIG. 2, or the first microphone 251 of FIG. 3, a second microphone, and/or a third microphone). You can obtain surrounding sounds from (253)).
- at least one microphone e.g., the microphone 250 of FIG. 2, or the first microphone 251 of FIG. 3, a second microphone, and/or a third microphone. You can obtain surrounding sounds from (253)).
- the electronic device 101 may detect a designated first event based on the acquired surrounding sound.
- the electronic device 101 uses at least one camera (e.g., the camera module 180 of FIG. 1, the camera 260 of FIG. 2, or the first camera 261 of FIG. 3, and /Or a surrounding image or video may be obtained from the second camera 262).
- at least one camera e.g., the camera module 180 of FIG. 1, the camera 260 of FIG. 2, or the first camera 261 of FIG. 3, and /Or a surrounding image or video may be obtained from the second camera 262).
- the electronic device 101 may detect a designated second event based on the acquired surrounding image or video.
- operations 910 and 920 and operations 930 and 940 are shown to operate simultaneously, but this is not limited to this, and this means that each operation operates independently, so it may be possible to operate them with some time difference.
- the electronic device 101 may determine whether the first event and the second event are detected in operation 950. In one embodiment, when at least one of the first event or the second event is not detected, the electronic device 101 acquires the surrounding sound again from at least one microphone 250 or uses at least one camera ( 260), surrounding images or videos can be obtained.
- the electronic device 101 may calculate a direction related to the first event or the second event based on the acquired surrounding sound in operation 960. there is.
- the electronic device 101 may calculate the direction related to the second event based on the acquired image or video.
- the electronic device 101 may generate a notification command so that a notification is provided in a direction related to the first event or the second event.
- the electronic device 101 transmits the generated notification command to at least one output module (e.g., the haptic module 280 or speaker module 270 of FIG. 2, or the first haptic module of FIG. 3). It can be output to the module 281, the second haptic module 282, the first speaker 271, or the second speaker 272).
- the output module e.g., the haptic module 280 or speaker module 270 of FIG. 2, or the first haptic module of FIG. 3. It can be output to the module 281, the second haptic module 282, the first speaker 271, or the second speaker 272).
- the electronic device 101 may detect the end of the first event or the second event in operation 990. In one embodiment, when the electronic device 101 detects that the first event or the second event has not ended, it may provide a visual notification to the user in operation 991.
- FIG. 10 is a flowchart 1000 of a method of operating an electronic device 101 according to a third embodiment of the present disclosure.
- an electronic device e.g., the electronic device 101 of FIG. 2 and/or the processor 120 of FIG. 2 detects a designated first event based on sound according to the third embodiment, Accordingly, notifications can be provided to the user. As a result, the time to detect a dangerous situation can be shortened and responsiveness can be improved.
- the electronic device 101 uses at least one microphone (e.g., the microphone 250 of FIG. 2, or the first microphone 251 of FIG. 3, a second microphone, and/or a third microphone). You can obtain surrounding sounds from (253)).
- the microphone 250 of FIG. 2, or the first microphone 251 of FIG. 3, a second microphone, and/or a third microphone You can obtain surrounding sounds from (253)).
- the electronic device 101 may detect a designated first event based on the acquired surrounding sound.
- the electronic device 101 may determine whether a first event is detected in operation 1030. In one embodiment, when the first event is not detected, the electronic device 101 may acquire surrounding sound from at least one microphone 250 again.
- the electronic device 101 may calculate a direction related to the first event based on the acquired surrounding sound in operation 1040.
- the electronic device 101 may generate a notification command so that a notification is provided in a direction related to the first event.
- the notification command generated in operation 1060 is sent to at least one output module (e.g., the haptic module 280 or speaker module 270 of FIG. 2, or the first haptic module 281 of FIG. 3, the second It can be output to the haptic module 282, the first speaker 271, or the second speaker 272).
- the output module e.g., the haptic module 280 or speaker module 270 of FIG. 2, or the first haptic module 281 of FIG. 3, the second It can be output to the haptic module 282, the first speaker 271, or the second speaker 272).
- the electronic device 101 may detect the end of the first event in operation 1070. In one embodiment, when the electronic device 101 detects that the first event has not ended, it may provide a visual notification to the user in operation 1080.
- FIG. 11 is a flowchart 1100 of a method of operating the electronic device 101 according to the fourth embodiment of the present disclosure.
- an electronic device e.g., the electronic device 101 of FIG. 2 and/or the processor 120 of FIG. 2 detects a second event designated based on an image or video according to the fourth embodiment. And notifications can be provided to the user accordingly. As a result, the time to detect a dangerous situation can be shortened and responsiveness can be improved.
- the electronic device 101 may acquire a surrounding image or video from at least one camera in operation 1110.
- the electronic device uses at least one camera (e.g., the camera module 180 of FIG. 1, the camera 260 of FIG. 2, or the first camera 261 and/or the second camera 262 of FIG. 3). )) can be operated constantly or at regular intervals to continuously acquire images or videos around the user.
- the electronic device 101 may detect a designated second event based on an acquired surrounding image or video.
- the electronic device 101 may determine whether a second event is detected in operation 1130. In one embodiment, when the second event is not detected, the electronic device 101 may again acquire a surrounding image or video from at least one camera 260.
- the electronic device 101 may calculate a direction related to the second event based on an acquired surrounding image or video in operation 1140.
- the electronic device 101 may generate a notification command so that a notification is provided in a direction related to the second event.
- the electronic device 101 transmits the generated notification command to at least one output module (e.g., the haptic module 280 or speaker module 270 of FIG. 2, or the first haptic module of FIG. 3). It can be output to the module 281, the second haptic module 282, the first speaker 271, or the second speaker 272).
- the output module e.g., the haptic module 280 or speaker module 270 of FIG. 2, or the first haptic module of FIG. 3. It can be output to the module 281, the second haptic module 282, the first speaker 271, or the second speaker 272).
- the electronic device 101 may detect the end of the second event in operation 1170. In one embodiment, when the electronic device 101 detects that the second event has not ended, it may provide a visual notification to the user in operation 1180.
- the electronic device 101 includes at least one microphone 250; 251, 252, at least one camera 260; 261, 262, and at least one device that provides a notification to the user H. It may include output modules 270; 271, 272; 280; 281, 282, and at least one processor 120.
- the at least one processor 120 may be set to detect a designated first event based on the surrounding sound obtained from the at least one microphone 250 (251, 252).
- the at least one processor 120 may be set to acquire a surrounding image or video from the at least one camera 260 (261, 262) when detecting the first event.
- the at least one processor 120 may be set to detect a designated second event based on the acquired image or video.
- the at least one processor 120 sends a notification command corresponding to at least one of the detected first event or the detected second event to the at least one output module ( 270; 271, 272; 280; 281, 282).
- the at least one microphone 250; 251, 252 is configured to listen to the user H while the electronic device 101 is worn by the user H. They may be arranged to be spaced apart from each other in the left-right direction, front-back direction, or up-down direction.
- the at least one processor 120 performs the detection based on data related to the energy of the sound respectively obtained from the at least one microphone 250 (251, 252). It may be set to obtain a direction related to a first event.
- the at least one processor 120 transmits the acquired ambient sound in relation to the designated first event. It can be set to detect the specified first event by inputting it into a machine-learned acoustic model.
- the at least one processor 120 receives the image from the at least one camera 260 (261, 262). It may be set to acquire an image or video corresponding to a direction related to the detected first event.
- the at least one processor 120 detects the user H. Can detect dangerous situations around you.
- the at least one processor 120 determines the detected dangerous situation based on the acquired image or video. Can be set to filter.
- the at least one processor 120 as at least part of the operation of detecting the specified second event, based on the movement of a specific object included in the acquired image or video.
- the at least one processor 120 can be set to filter the detected dangerous situation.
- the at least one output module includes a haptic module (280) that provides a tactile notification to the user (H). 281, 282) and a speaker module 270 (271, 272) that provides an auditory notification to the user (H).
- the at least one output module 270; 271, 272; 280; 281, 282 is configured to output the electronic device 101 while the electronic device 101 is worn by the user H. , may be arranged to be spaced apart from each other in the left and right, front and rear, or up and down directions of the user (H).
- the at least one processor 120 when the at least one processor 120 detects the designated second event, the detected first event or the detected second event is sent to the user H. It may be set to generate the notification command so that the notification is provided in a direction related to an event.
- a method of operating the electronic device 101 according to an embodiment of the present disclosure includes an operation 820 of detecting a designated first event based on ambient sound obtained from at least one microphone 250; 251, 252; 920; 1020).
- a method of operating the electronic device 101 according to an embodiment includes the operations (840; 930) of acquiring a surrounding image or video from at least one camera (260; 261, 262) when detecting the specified first event. ; 1110).
- a method of operating the electronic device 101 according to an embodiment may include an operation (850; 940; 1120) of detecting a designated second event based on the acquired image or video.
- a method of operating the electronic device 101 includes, when detecting the specified second event, sending at least one notification command corresponding to at least one of the detected first event or the detected second event. It may include operations (880; 980; 1060; 1160) of outputting to the output modules (270; 271, 272; 280; 281, 282).
- the at least one microphone 250; 251, 252 is used to communicate with the user (H) while the electronic device 101 is worn by the user (H).
- H) may be arranged to be spaced apart from each other in the left-right direction, front-back direction, or up-down direction.
- a method of operating the electronic device 101 according to an embodiment includes, based on data related to the energy of the sound respectively obtained from the at least one microphone 250; 251, 252, a direction related to the detected first event. It may further include operations 870; 960; 1040 to obtain.
- the operation (820; 920; 1020) of detecting the designated first event involves machine learning the acquired ambient sound in relation to the designated first event.
- the specified first event can be detected by inputting it into the acoustic model.
- the operation (840; 930; 1110) of acquiring the surrounding image or video includes the detected image from the at least one camera (260; 261, 262). An image or video corresponding to the direction related to the first event may be obtained.
- the operation (820; 920; 1020) of detecting the specified first event is performed by detecting the surroundings of the user (H) based on the acquired ambient sound. can detect dangerous situations.
- the operation (850; 940; 1120) of detecting the specified second event includes filtering the detected dangerous situation based on the acquired image or video. You can.
- the operation (850; 940; 1120) of detecting the specified second event is based on the movement of a specific object included in the acquired image or video,
- the detected dangerous situation can be filtered.
- the operation (880; 980; 1060; 1160) of outputting the notification command to at least one output module (270; 271, 272; 280; 281, 282) Can output the notification command to provide the user (H) with a tactile notification through the haptic module (280; 281, 282) and an auditory notification through the speaker module (270; 271, 272).
- the at least one output module (270; 271, 272; 280; 281, 282) is worn by the user (H). In this state, they may be arranged to be spaced apart from each other in the left and right, front and rear, or up and down directions of the user (H).
- a method of operating the electronic device 101 according to an embodiment includes, when detecting the specified second event, notifying the user (H) in a direction related to the detected first event or the detected second event. It may further include an operation (875; 960; 1050; 1150) of generating the notification command to provide.
- a non-transitory computer-readable storage medium 130 that stores one or more programs according to an embodiment of the present disclosure, based on the execution of an application, ambient sound acquired from at least one microphone 250; 251, 252. Based on this, it may include an operation (820; 920; 1020) of detecting a specified first event.
- the storage medium 130 detects the designated first event based on the execution of the application, the storage medium 130 performs an operation of acquiring a surrounding image or video from at least one camera 260 (261, 262). 840; 930; 1110).
- the storage medium 130 according to an embodiment may include an operation 850, 940, 1120 of detecting a designated second event based on the acquired image or video based on execution of an application.
- a notification command corresponding to at least one of the detected first event or the detected second event It may include an operation (880; 980; 1060; 1160) of outputting to at least one output module (270; 271, 272; 280; 281, 282).
- the at least one output module (270; 271, 272; 280; 281, 282) is configured to operate the electronic device (101) When worn by the user (H), they may be arranged to be spaced apart from each other in the left-right, front-back, or up-and-down directions of the user (H).
- the storage medium 130 detects the designated second event based on execution of the application, the user H is provided with the detected first event or the detected second event and An operation (875; 960; 1050; 1150) of generating the notification command so that the notification is provided in a related direction may be further included.
- first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
- One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
- any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
- module used in embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
- ASIC application-specific integrated circuit
- One embodiment of the present document is one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
- a processor e.g., processor 120
- the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
- a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
- 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
- the method according to the embodiments disclosed in this document may be provided and included in a computer program product.
- Computer program products are commodities and can be traded between sellers and buyers.
- the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
- a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
- each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
- one or more of the above-described corresponding components or operations may be omitted, or one or more other components or operations may be added.
- multiple components eg, modules or programs
- the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
- operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Optics & Photonics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 개시의 일 실시예에 따른 전자 장치는, 적어도 하나의 마이크로폰, 적어도 하나의 카메라, 사용자에게 알림을 제공하는 적어도 하나의 출력 모듈, 및 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 마이크로폰으로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지하고, 상기 제1 이벤트를 감지하는 경우, 상기 적어도 하나의 카메라로부터 주변의 이미지 또는 영상을 획득하고, 상기 획득한 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지하고, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 상기 적어도 하나의 출력 모듈로 출력하도록 설정될 수 있다.
Description
본 개시는, 주변의 사운드, 이미지 또는 영상에 기반하여, 위험을 감지하는 전자 장치, 그의 동작 방법 및 프로그램을 저장하는 저장 매체에 관한 기술이다.
최근, 증강 현실(AR: augmented reality)를 구현하는 스마트 글래스 또는 HMD(head-mounted device)와 같은 전자 장치가 개발되면서, 이러한 전자 장치를 이용하여 외부 전자 장치를 인식하고 동작을 제어하는 기술이 개발되고 있다. 사용자는 스마트 글래스(예: AR 글래스) 또는 HMD를 착용한 상태에서, 시각적, 청각적 또는 촉각적 출력을 제공받을 수 있다.
본 개시의 일 실시예에 따른 전자 장치는, 적어도 하나의 마이크로폰, 적어도 하나의 카메라, 사용자에게 알림을 제공하는 적어도 하나의 출력 모듈, 및 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 마이크로폰으로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 제1 이벤트를 감지하는 경우, 상기 적어도 하나의 카메라로부터 주변의 이미지 또는 영상을 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 획득한 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 상기 적어도 하나의 출력 모듈로 출력하도록 설정될 수 있다.
본 개시의 일 실시예에 따른 전자 장치의 동작 방법은, 적어도 하나의 마이크로폰으로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지하는 동작을 포함할 수 있다. 일 실시예에 따른 전자 장치의 동작 방법은, 상기 지정된 제1 이벤트를 감지하는 경우, 적어도 하나의 카메라로부터 주변의 이미지 또는 영상을 획득하는 동작을 포함할 수 있다. 일 실시예에 따른 전자 장치의 동작 방법은, 상기 획득한 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지하는 동작을 포함할 수 있다. 일 실시예에 따른 전자 장치의 동작 방법은, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 적어도 하나의 출력 모듈로 출력하는 동작을 포함할 수 있다.
본 개시의 일 실시예에 따른 하나 이상의 프로그램을 저장하는 비일시적 컴퓨터 판독 가능 저장 매체는, 어플리케이션의 실행에 기반하여, 적어도 하나의 마이크로폰으로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지하는 동작을 포함할 수 있다. 일 실시예에 따른 저장 매체는 어플리케이션의 실행에 기반하여, 상기 지정된 제1 이벤트를 감지하는 경우, 적어도 하나의 카메라로부터 주변의 이미지 또는 영상을 획득하는 동작을 포함할 수 있다. 일 실시예에 따른 저장 매체는 어플리케이션의 실행에 기반하여, 상기 획득한 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지하는 동작을 포함할 수 있다. 일 실시예에 따른 저장 매체는 어플리케이션의 실행에 기반하여, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 적어도 하나의 출력 모듈로 출력하는 동작을 포함할 수 있다.
도 1은, 본 개시의 일 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는, 본 개시의 일 실시예에 따른, 전자 장치의 블록도이다.
도 3은, 본 개시의 일 실시예에 따른 전자 장치의 사시도이다.
도 4는, 본 개시의 일 실시예에 따른, 물리 객체 및/또는 가상 객체로부터 사운드가 입력되는 상태를 도시한 것이다.
도 5는, 본 개시의 일 실시예에 따른, 이벤트 발생에 따른 사운드가 입력되는 상태를 상태를 도시한 것이다.
도 6a는, 본 개시의 일 실시예에 따른, 전자 장치의 음향 모델에 기반하여 제1 이벤트를 감지하는 신호 흐름도이다.
도 6b는, 본 개시의 일 실시예에 따른 시간 지연을 추정하는 신호 흐름도이다.
도 6c는, 본 개시의 일 실시예에 따른 이상적인 상호 상관 그래프이다.
도 7a는, 본 개시의 일 실시예에 따른 시간 변화에 따른 특정 블록의 이동을 도시한 것이다.
도 7b는, 본 개시의 일 실시예에 따른 연속된 프레임에서 매칭되는 블록들 사이의 변위 차이를 도시한 것이다.
도 8은, 본 개시의 제1 실시예에 따른 전자 장치의 동작 방법의 흐름도이다.
도 9는, 본 개시의 제2 실시예에 따른 전자 장치의 동작 방법의 흐름도이다.
도 10은, 본 개시의 제3 실시예에 따른 전자 장치의 동작 방법의 흐름도이다.
도 11은, 본 개시의 제4 실시예에 따른 전자 장치의 동작 방법의 흐름도이다.
도 1은, 본 개시의 일 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
일 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
본 문서에 개시된 일 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 전자 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
도 2는, 본 개시의 일 실시예에 따른, 전자 장치(101)의 블록도이다. 도 3은, 본 개시의 일 실시예에 따른 전자 장치(101)의 사시도이다.
도 2 내지 도 3을 참조하면, 일 실시예에 따른 전자 장치(101)는, 사용자의 시야의 전방에 위치된 투명하거나 반투명한 렌즈(210), 프로세서(120)가 배치되는 회로기판(220), 전자 장치(101)를 착용한 사용자의 시야에 화면을 표시하는 디스플레이(230)(예: 도 1의 디스플레이 모듈(160)), 마이크로폰(250)(예: 도 1의 입력 모듈(150)), 카메라(260)(예: 도 1의 카메라 모듈(180)), 스피커(270)(예: 도 1의 음향 출력 모듈(155)), 햅틱 모듈(280)(예: 도 1의 햅틱 모듈(179)), 및/또는 배터리(290)(예: 도 1의 배터리(189))를 포함할 수 있다.
일 실시예에 따른 전자 장치(101)는, 착용한 사용자에게 AR(augmented reality) 화면을 표시하는 AR 장치(예: AR Glass, VST(video see-through) OST(optical see-through))일 수 있다. 전자 장치(101)는, 사용자의 머리에 착용되는 헤드 마운트 장치(HMD(head mounted display))일 수 있고, 예시로 안경, 헤드셋, 또는 고글과 같이 사용자의 시야 범위에 2D 또는 3D로 가상의 그래픽 객체를 표시할 수 있는 AR 장치(AR Glass)일 수 있다.
일 실시예로, 사용자가 스마트 글래스 또는 HMD와 같은 전자 장치(101)를 착용한 상태에서, 전자 장치(101)로부터 가상 환경에 대응하여 제공 받는 출력에 의해, 실제 환경의 위험 상황을 감지하기 어려울 수 있다. 예를 들어, 사용자는 전자 장치(101)에서 제공되는 알림(예: 시각적, 청각적 또는 촉각적 알림)에 집중하는 상태에서, 주변에서 발생하는 위험 상황에 대응하는 사운드 또는 이미지를 실시간으로 인지하지 못할 수 있다.
일 실시예로, 전자 장치(101)는 사용자의 시야 범위의 전방에서 LCD, OLED, μLED를 통해 영상 또는 이미지를 표시하여 렌즈(210)의 화면 표시부(211)를 통해 사용자가 인식 가능하거나, 또는 초고해상도 집적이 가능한 OLEDoS(OLED on silicon)를 통해 사용자가 인식 가능한 VST(video see-through) 방식을 이용할 수 있다.
일 실시예로, 전자 장치(101)는 LCoS(liquid crystal on silicon), LEDoS(LED on silicon) 방식의 디스플레이(230)를 사용하여 안경처럼 투명한 렌즈(210) 상에 영상을 증강시키는 OST(optical see-through) 방식을 이용할 수 있다. 여기서, 영상은 Waveguide(미도시)를 통해 전달된 영상을 combiner(미도시)를 통해 결합되어 디스플레이(230)에 의해 화면 표시부(211)에 표시될 수 있다. 일 실시예에 따른 렌즈(210)는, 사용자의 시야의 전방에 위치되고, 주위로부터 조사되거나 반사된 광이 투과되도록 투명하거나 반투명할 수 있다. 사용자는, 렌즈(210)를 통해 주위의 영상을 인식할 수 있다.
일 실시예에 따른 회로기판(220)은, 사용자의 머리를 감싸도록 연장된 전자 장치(101)의 지지대(221)에 배치될 수 있다. 일 실시예로, 회로기판(220)에는 프로세서(120) 및 메모리(130)가 포함될 수 있다.
일 실시예로, 프로세서(240)에는, 실행되는 적어도 하나의 명령어를 포함하는 소프트웨어 모듈(예: beam-former(125), image processor(127), 및/또는 warning detector(129))이 포함될 수 있고, 이러한 동작은 프로세서(240)의 동작으로 이해될 수 있다. 소프트웨어 모듈은 도 2의 전자 장치(101)에 도시된 모듈의 구성으로 제한되지 않으며, 적어도 하나의 모듈이 병합되거나, 삭제되거나 또는 새로운 모듈이 더 추가될 수 있다.
일 실시예로, beam-former(125)는, 마이크로폰(250)으로부터 수신한 마이크 신호를 기반으로 사운드 처리를 수행할 수 있다. 일 실시예로, beam-former(125)는 다양한 위치에 배치된 복수의 마이크로폰(251, 252, 253)으로부터 수신한 마이크 신호를 잡음 제거 및/또는 합성을 거쳐 빔포밍 신호를 생성할 수 있다.
일 실시예로, image processor(127)는, 카메라(260)로부터 수신한 이미지 신호를 기반으로 이미지 처리를 수행할 수 있다. 일 실시예로, image processor(127)는 하나 이상의 카메라(261, 262)를 통해 입력된 화상 데이터에 대한 데이터 처리를 통하여, 이미지 신호를 생성할 수 있다.
일 실시예로, warning detector(129)는, beam-former(125)로부터 빔포밍 신호를 입력 받거나, 또는 image processor(127)로부터 이미지 신호를 입력 받을 수 있다. 일 실시예로, warning detector(129)는 입력 받은 빔포밍 신호에 기반하여 지정된 제1 조건의 만족 여부를 판단하거나, 또는 입력 받은 이미지 신호에 기반하여 지정된 제2 조건의 만족 여부를 판단할 수 있다.
일 실시예에 따른 디스플레이(230)는, 프로세서(120)로부터 수신한 표시 데이터에 기반하여, 사용자에게 화면을 표시할 수 있다. 일 실시예로, 디스플레이(230)는 사용자의 시야 범위에 위치하면서 사용자에게 직접 화면을 표시할 수도 있고, 또는 사용자의 시야 범위에 위치된 투명 또는 반투명 렌즈(210)의 일부 또는 전체에 형성된 화면 표시부(211)에 증강 현실(AR: augmented reality) 방식으로 화면을 표시할 수 있다.
일 실시예에 따른 마이크로폰(250)은, 사용자의 주위의 입력되는 음성, 음향 또는 사용자로부터 발생되는 음성을 획득하는 입력 장치일 수 있다. 일 실시예로 마이크로폰(250)은 복수 개로 구비될 수 있고, 전자 장치(101)가 사용자에 착용된 상태에서, 사용자의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치될 수 있다.
일 실시예에 따른 마이크로폰(250)은, 전자 장치(101) 또는 전자 장치(101)를 착용할 경우 사용자의 좌측에 위치된 제1 마이크로폰(251), 우측에 위치된 제2 마이크로폰 및/또는 제3 마이크로폰(253)을 포함할 수 있다. 제1 마이크로폰(251), 제2 마이크로폰 및/또는 제3 마이크로폰(253)은 좌우 방향으로 서로 이격되게 배치되고, 각각에서 사운드를 입력 받을 수 있다.
일 실시예에 따른 카메라(260)는 사용자의 시야 범위에 대한 이미지 또는 영상을 획득하거나, 또는 사용자의 주위에 대한 이미지 또는 영상을 획득하는 입력 장치일 수 있다. 일 실시예에 따른 카메라(260)는 하나 이상으로 구비될 수 있고, 전자 장치(101)에서 사용자의 시야 범위로 향하도록 배치될 수 있다. 일 실시예로, 카메라(260)는 사용자의 안구에 대응하는 광각 카메라로, 전자 장치(101) 또는 전자 장치(101)를 착용하는 사용자의 좌측에 위치된 제1 카메라(261) 및/또는 우측에 위치된 제2 카메라(262)를 포함하여 지정된 영역을 각각 촬영할 수 있다. 일 실시예에 따른 카메라(260)는, 전 방향으로 촬영 가능한 스테레오 카메라인 제3 카메라(263)를 포함할 수 있다.
일 실시예에 따른 스피커(270)는, 안경 형태의 전자 장치(101)에서 사용자의 귀의 상부에 안착되는 안경 다리 형태의 지지대(2710)에서 사용자의 귀에 인접하게 배치되거나, 또는 사용자의 뼈를 통하여 진동이 전달되도록 피부에 밀착되도록 배치될 수 있다. 일 실시예로, 스피커(270)는 공기 전도 방식이거나, 또는 골전도 방식의 출력 장치일 수 있다.
일 실시예에 따른 스피커(270)는 전자 장치(101) 또는 전자 장치(101)를 착용하는 사용자의 좌측에 위치된 제1 스피커(271) 및/또는 우측에 위치된 제2 스피커(272)를 포함할 수 있다.
일 실시예에 따른 햅틱 모듈(280)은, 안경 형태의 전자 장치(101)에서 사용자의 귀의 상부에 안착되는 안경 다리 형태의 지지대(271)에서 사용자의 피부에 밀착되도록 배치될 수 있다.
일 실시예에 따른 햅틱 모듈(280)은 전자 장치(101) 또는 전자 장치(101)를 착용하는 사용자의 좌측에 위치된 제1 햅틱 모듈(281) 및/또는 우측에 위치된 제2 햅틱 모듈(282)을 포함할 수 있다.
일 실시예에 따른 배터리(290)는, 충전된 전력을 전자 장치(101)에 포함된 구성 또는 요소에 각각 제공할 수 있다. 일 실시예로, 배터리(290)는 안경 다리 형태의 지지대(271)의 단부에 배치될 수 있다.
도 4는, 본 개시의 일 실시예에 따른, 물리 객체(R) 및/또는 가상 객체(V)로부터 사운드가 입력되는 상태를 도시한 것이다. 도 5는, 본 개시의 일 실시예에 따른, 이벤트(예: warning event 및/또는 normal event) 발생에 따른 사운드가 마이크로폰(251, 252)으로 입력되는 상태를 상태를 도시한 것이다.
도 4 내지 도 5를 참조하면, 일 실시예에 따른 사용자(H)는 전자 장치(101)를 착용한 상태에서, 물리 객체(R) 및/또는 가상 객체(V)로부터 사운드를 입력 받을 수 있다. 일 실시예로, 사용자(H)는 현실에 존재하는 물리 객체(R)로부터 발생된 사운드를 직접 수신하거나, 또는 전자 장치(101)가 마이크로폰(251, 252, 예: 도 2의 마이크로폰(250))을 통해 물리 객체(R)로부터 획득한 사운드에 기반하여 스피커(271, 272, 예: 도 2의 스피커(270))에서 발생시킨 사운드를 수신할 수 있다.
일 실시예에 따른 사용자(H)는 스피커(271, 272)를 통해 전자 장치(101)에서 제공하는 가상 객체(V)로부터 사운드를 수신할 수 있다. 전자 장치(101)는 가상 객체(V)에 대한 이미지를 디스플레이(예: 도 2의 디스플레이(230))에 표시함과 동시에, 가상 객체(V)의 사운드를 스피커(271, 272)에 출력할 수 있다. 일 실시예에 따른 전자 장치(101)는 가상 객체(V)의 이미지가 지정된 위치에 존재하고, 가상 객체(V)의 사운드가 지정된 위치에서 발생하는 것과 같이, 디스플레이(230) 및 스피커(271, 272)를 제어할 수 있다.
일 실시예에서, 사용자(H)는 전자 장치(101)에서 제공하는 사운드를 수신할 수 있다. 예를 들어, 전자 장치(101)는 전자 장치(101, 예: 도 1의 메모리(130))에 저장된 사운드 또는 외부로부터 수신된 사운드를 출력할 수 있다.
도 5에 도시한 것과 같이, 전자 장치(101)는 제1 마이크로폰(251) 및/또는 제2 마이크로폰(252)를 통하여 사운드 신호를 입력 받거나, 또는 제1 카메라(261) 및/또는 제2 카메라(262)를 통하여, 이미지 신호를 입력 받을 수 있다.
일 실시예로, 전자 장치(101)는 sound source 1으로부터 제1 마이크로폰(251), 제2 마이크로폰(252), 제1 카메라(261) 및/또는 제2 카메라(262)를 통하여 사운드 신호 및/또는 이미지 신호를 수신할 수 있고, 수신한 사운드 신호 및/또는 이미지 신호를 normal event로 판단할 수 있다. 일 실시예로, 전자 장치(101)는 수신한 사운드 신호 및/또는 이미지 신호에 기반하여, sound source 1의 위치(x1, y1)를 감지할 수 있다.
일 실시예로, 전자 장치(101)는 제1 마이크로폰(251), 제2 마이크로폰(252), 제1 카메라(261) 및/또는 제2 카메라(262)를 통하여 수신하는 사운드 신호 및/또는 이미지 신호에 기반하여, 위험 상황(warning event)을 감지할 수 있다. 여기서, 위험 상황(warning event)은 사용자(H)에게 발생 가능한 위험한 상황과 관련된 것(예: 사이렌, 또는 경적)으로, 지정된 제1 조건 및/또는 지정된 제2 조건을 만족하는 이벤트일 수 있다.
일 실시예로, 전자 장치(101)는 제1 마이크로폰(251) 또는 제2 마이크로폰(252)로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지할 수 있다.
일 실시예로, 전자 장치(101)는 제1 마이크로폰(251) 또는 제2 마이크로폰(252)로부터 획득한 주변의 사운드가 지정된 크기(예: 지정된 데시벨 이상) 또는 지정된 주파수(예: 지정된 음역대)인 경우, 지정된 제1 이벤트를 만족한 것으로 감지할 수 있다.
일 실시예로, 전자 장치(101)는 제1 마이크로폰(251) 또는 제2 마이크로폰(252)로부터 획득한 특정 사운드의 음원이 전자 장치(101)로 인접한 방향으로 이동하는지 감지하고, 특정 사운드의 음원이 전자 장치(101)로 인접한 방향으로 이동하는 경우 지정된 제1 이벤트를 만족한 것으로 감지할 수 있다. 예를 들어, 전자 장치(101)는 획득한 주변의 사운드가 지정된 크기(예: 지정된 데시벨 이상) 또는 지정된 주파수(예: 지정된 음역대)인 경우 해당 사운드를 특정 사운드로 식별하고, 특정 사운드의 크기가 점차적으로 커지는 경우, 또는 특정 사운드의 주파수가 도플러 효과에 의해 증가되는 경우에 특정 사운드의 음원이 전자 장치(101)로 인접한 방향으로 이동하는 것으로 감지할 수 있다.
일 실시예로, 전자 장치(101)는, 위험 상황(warning event)을 감지한 경우, 스피커(271, 272) 및/또는 햅틱 모듈(281, 282)를 통해 사용자에게 알림을 제공할 수 있다. 일 실시예로, 전자 장치(101)는, 위험 상황(warning event)의 위치를 향하는 방향에 위치한 제1 스피커(271) 및/또는 제1 햅틱 모듈(281)을 통해 사용자에게 알림을 제공할 수 있다.
일 실시예로, 전자 장치(101)는 지정된 제1 이벤트를 감지한 경우, 적어도 하나의 카메라(예: 제1 카메라(261) 및/또는 제2 카메라(262))로부터 주변의 이미지 또는 영상을 획득할 수 있고, 후술하는 것과 같이 획득한 이미지 또는 영상에 기반하여 지정된 제2 이벤트를 감지할 수 있다.
도 6a은, 본 개시의 일 실시예에 따른, 전자 장치의 음향 모델에 기반하여 제1 이벤트를 감지하는 신호 흐름도(600)이다.
도 6a를 참조하면, 일 실시예에 따른 전자 장치(예: 도 2의 전자 장치(101) 및/또는 도 2의 프로세서(120))는 획득한 주변의 사운드를 지정된 제1 이벤트와 관련하여 기계 학습된 음향 모델(acoustic model)에 입력하여 지정된 제1 이벤트를 감지할 수 있다.
일 실시예로, 전자 장치는 지정된 제1 이벤트와 관련하여 기계 학습된 음향 모델(acoustic model)을 포함하고, 적어도 하나의 마이크로폰(예: 도 2의 마이크로폰(250))을 통하여 획득한 사운드를 음향 모델(acoustic model)에 입력한 결과에 기반하여, 지정된 제1 이벤트를 감지할 수 있다.
일 실시예로, 전자 장치는 학습 단계(610, learning stage)에서, 위험 상황에서 발생하는 것으로 지정된 제1 이벤트에 대응하는 사운드(예: 사이렌, 또는 경적)을 입력 받아, 음향 모델(acoustic model)을 기계 학습할 수 있다. 일 실시예로, 음향 모델은 지정된 제1 이벤트에 대응하는 사운드로부터 특징 추출 과정(feature extraction)을 적용함에 따라 획득한 특징 매트릭스(feature matrix)에 기반하여, 기계 학습될 수 있다. 일 실시예로, 음향 모델은 시간 정보(temporal information)을 포함하는 어노테이션(annotation)을 인코딩한 타겟 출력(target output)을 특징 매트릭스(feature matrix)와 동시에 기계 학습된 모델일 수 있다.
일 실시예로, 전자 장치는 시험 단계(620, test stage)에서, 획득한 사운드로부터 특징 추출 과정(feature extraction)을 적용함에 따라 획득한 특징 매트릭스(feature matrix)를 음향 모델(acoustic model)에 입력하여 분류(classification)한 결과에 따라, 지정된 제1 이벤트를 감지할 수 있다.
일 실시예로, 전자 장치는 적어도 하나의 마이크로폰으로부터 획득한 사운드의 에너지와 관련한 데이터에 기반하여, 감지한 제1 이벤트와 관련한 방향을 획득할 수 있다. 예를 들어, 전자 장치는 서로 이격되어 배치된 제1 마이크로폰 및 제2 마이크로폰에 입력되는 사운드의 강도 차이를 이용하는 방법, 서로 다른 신호간의 상호 상관과 신호 백색화로부터 상대적인 지연을 추정하는 GCC-PHAT(generalized cross correlation-phase transform)를 비롯한 TDOA(time difference of arrival) 방법, 및/또는 빔포밍(beam-forming) 방법을 이용하여 감지한 제1 이벤트와 관련한 방향을 추정할 수 있다.
일 실시예로, 감지한 제1 이벤트와 관련한 방향은, 전자 장치를 기준으로 제1 이벤트에 대응하는 사운드의 음원 위치를 향하는 방향일 수 있다. 일 실시예로, 전자 장치는 적어도 하나의 마이크로폰으로부터 획득되는 신호의 시간 지연에 따라, 서로 이격된 마이크로폰의 위치로부터 각각 이격된 거리를 추정하고, 이에 따른 제1 이벤트에 대응하는 사운드의 음원 위치를 추정할 수 있다.
일 실시예로, 전자 장치는 시간 지연 신호의 수치 모델링을 이용하여, 감지한 제1 이벤트와 관련한 방향을 획득할 수 있다. 두 수신 채널에서 각각 수신된 신호를 라고 하면, 그 신호의 수치 모델은 다음과 같을 수 있다.
여기서, 는 원 신호이고, 는 i번째 채널에 도달할 때의 감쇠 계수이고, 는 원 신호가 i번째 채널에 도달할 때까지 전파 시간이고, 는 i번째 채널에 부가된 잡음이다. 이 모델에서, 및 는 영 평균이고, 상호 상관이 없고, 시간에 따라 통계적 성질이 변하지 않는 가우시안 신호이다. 두 채널 간의 상대적인 시간 지연은 이다.
도 6b는, 본 개시의 일 실시예에 따른 시간 지연을 추정하는 신호 흐름도이다. 도 6c는, 본 개시의 일 실시예에 따른 이상적인 상호 상관 그래프이다.
도 6b 및 도 6c를 더 참조하면, 전자 장치(예: 도 2의 전자 장치(101) 및/또는 도 2의 프로세서(120))는 신호 백색화로부터 상대적인 시간 지연을 추정하는 백색화 가중치를 사용하는 상호 상관 방법인 GCC-PHAT를 이용할 수 있다. GCC-PHAT는 주파수 영역에서 두 센서의 신호들의 상호 상관을 구하고, 이에 백색화 가중치를 곱하는 과정을 더하여, 신호의 스펙트럼의 영향을 배제할 수 있다.
일 실시예로, 두 개의 마이크로폰(예: 도 3의 제1 마이크로폰(251) 및 제2 마이크로폰(252))에서 받은 신호 사이의 상호 상관도는 하기의 수학식에 의해 획득될 수 있다.
여기서, 는 를 주파수 변환한 신호이다. 또한, 는 주파수 축에서 구한 가중 함수로써, 의 역수에 해당할 수 있다. 상기 가중 함수가 PHAT(phases transform) 가중 함수일 수 있다. PHAT 가중 함수는 시간 지연을 추정함에 있어서, 각 주파수의 상대적인 중요성을 결정하는 주파수에 종속되어 가중치가 적용된 함수이고, 하기의 수학식과 같이 표현될 수 있다.
상기와 같은 가중치를 곱한 이후에는 신호의 지연 정보가 포함된 위상만 남고, 크기는 언제나 1로 일정하게 유지될 수 있다(백색화). 따라서, 시간 지연 정보 추정이 가능할 수 있다. 상기 [수학식 2]를 통해 구한 를 통하여, 두 개의 마이크로폰 사이의 최종적인 시간 지연은 하기의 수학식으로 구할 수 있다.
도 6c에 도시한 것과 같이, 지연 시간에 따른 이상적인 상호 상관을 추정할 수 있다. 가로축의 는 지연 시간을 나타내고, 세로축은 는 지연 시간에서의 값을 나타낼 수 있다. 두 개의 마이크로폰 사이의 지연 시간은 값이 최대를 나타내는 가로축의 값일 수 있다.
도 7a는, 본 개시의 일 실시예에 따른 시간 변화에 따른 특정 블록의 이동을 도시한 것이다. 도 7b는, 본 개시의 일 실시예에 따른 연속된 프레임에서 매칭되는 블록들 사이의 변위 차이를 도시한 것이다.
일 실시예로, 전자 장치(예: 도 2의 전자 장치(101) 및/또는 도 2의 프로세서(120))는 지정된 제1 이벤트를 감지한 경우, 적어도 하나의 카메라(예: 도 2의 카메라(260) 또는 도 3의 제1 카메라(261), 제2 카메라(262) 및/또는 제3 카메라(263))로부터 주변의 이미지 또는 영상을 획득하고, 획득한 이미지 또는 영상에 기반하여 지정된 제2 이벤트를 감지할 수 있다. 일 실시예로, 이미지 또는 영상은, 연속된 시간의 스냅 샷 또는 짧은 클립 영상일 수 있다.
일 실시예로, 전자 장치는 지정된 제1 이벤트의 감지에 기반하여, 주변의 이미지 또는 영상을 획득하도록 적어도 하나의 카메라를 구동할 수 있다. 이에 따라, 적어도 하나의 카메라의 구동 시간을 감소시킬 수 있고, 전력 소모를 최소화할 수 있다. 일 실시예로, 전자 장치는 지정된 제1 이벤트의 방향을 감지하고, 적어도 하나의 카메라의 촬영 영역이 감지한 방향을 향하도록 적어도 하나의 카메라를 구동할 수 있다.
일 실시예로, 전자 장치는 주변의 사운드로부터 획득한 제1 이벤트와 관련한 방향에 대응하는 이미지 또는 영상을 획득하도록 적어도 하나의 카메라를 구동할 수 있다. 일 실시예로, 전자 장치는 적어도 하나의 카메라의 촬영 영역이 제1 이벤트와 관련한 방향을 향하도록 적어도 하나의 카메라를 제어할 수 있다.
일 실시예로, 전자 장치는 1차적으로 마이크로폰으로부터 획득한 주변의 사운드에 기반하여 사용자의 주변의 위험 상황을 감지하고, 2차적으로 카메라로부터 획득한 이미지 또는 영상에 기반하여 감지한 위험 상황을 필터링할 수 있다.
일 실시예로, 전자 장치는 획득한 이미지 또는 영상에 포함된 특정 오브젝트에 기반하여, 지정된 제2 이벤트를 감지할 수 있다. 일 실시예로, 전자 장치는 획득한 이미지 또는 영상에서 제1 지정된 조건에 대응하는 사운드의 음원인 특정 오브젝트를 인식하고, 인식한 특정 오브젝트의 종류(예: 자동차, 또는 오토바이와 같은 위험 대상)에 기반하여, 위험 상황을 필터링할 수 있다.
일 실시예로, 전자 장치는 획득한 이미지 또는 영상에 포함된 특정 오브젝트의 이동에 기반하여, 지정된 제2 이벤트를 감지할 수 있다. 일 실시예로, 전자 장치는 획득한 복수의 이미지 또는 영상에 기반하여, 특정 오브젝트의 이동 방향 또는 이동 속도를 감지하고, 감지한 이동 방향 또는 이동 속도에 기반하여 위험 상황을 필터링할 수 있다. 예를 들어, 전자 장치는 특정 오브젝트가 사용자에게 인접한 방향으로 이동하는 경우, 및/또는 특정 오브젝트의 이동 속도가 지정된 속도 이상인 경우에 지정된 제2 이벤트로 감지할 수 있다.
일 실시예로, 전자 장치는 특정 오브젝트의 바운더리 또는 경계를 추출할 수 있고(edge detection), 추출한 바운더리 또는 경계에 대응하는 복수의 프레임 각각의 블록들을 매칭(block matching)할 수 있다. 전자 장치는 매칭되는 블록들 사이의 변위 차이(displacement)에 기반하여, 특정 오브젝트의 이동을 추정(motion estimation)할 수 있다.
일 실시예로, 전자 장치는 획득한 복수의 이미지 또는 영상으로부터 적어도 하나 이상의 프레임을 획득하고, 각각의 프레임을 지정된 크기의 블록들로 분할할 수 있다. 예를 들어, 전자 장치는 각각의 프레임을 동일한 크기의 블록으로 분할하고, 복수 개의 블록 중에서 특징을 갖는 특정 블록(예: 자동차의 바퀴)을 추출할 수 있다.
일 실시예로, 전자 장치는 적어도 하나 이상의 프레임으로부터 특정 블록의 이동에 기반하여, 모션 벡터(motion vector)를 추출할 수 있다. 예를 들어, 전자 장치는 현재 프레임의 특정 오브젝트에 대응하는 적어도 하나의 블록 및 이전 프레임에서 적어도 하나의 블록의 특징과 가장 유사하게 대응하는 특징을 갖는 적어도 하나의 블록을 이용하여, 특정 블록의 변위 차이(displacement)에 기반하여 모션 벡터를 추출할 수 있다. 전자 장치는, 변위 차이에 대응하는 모션 벡터의 크기 및 연속한 프레임 사이의 시간 차(time, Δt)에 기반하여, 특정 오브젝트의 이동 속도를 추정할 수 있다.
일 실시예에 따른 전자 장치는, 지정된 제2 이벤트를 감지하는 경우, 감지한 제1 이벤트 또는 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 적어도 하나의 출력 모듈로 출력할 수 있다.
일 실시예에 따른 전자 장치는, 지정된 제2 이벤트를 감지하는 경우, 사용자에게 감지한 제1 이벤트 또는 감지한 제2 이벤트와 관련한 방향으로 알림이 제공되도록 알림 명령을 생성할 수 있다.
일 실시예로, 전자 장치는 획득한 사운드에 기반하여 지정된 제1 이벤트가 발생한 것으로 감지되는 방향을 획득하거나, 또는 획득한 이미지 또는 영상에 기반하여 지정된 제2 이벤트가 발생한 것으로 감지되는 방향을 획득할 수 있고, 획득한 방향에 기반하여 알림을 렌더링(rendering)할 수 있다.
일 실시예로, 적어도 하나의 출력 모듈은, 전자 장치가 사용자에 착용된 상태에서, 사용자의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치될 수 있다. 일 실시예로, 적어도 하나의 출력 모듈은, 사용자에게 촉각적 알림을 제공하는 햅틱 모듈 및 사용자에게 청각적 알림을 제공하는 스피커 모듈을 포함할 수 있다. 예를 들어, 적어도 하나의 출력 모듈은, 좌측에 위치된 제1 햅틱 모듈 및 제1 스피커와, 우측에 위치된 제2 햅틱 모듈 및 제2 스피커를 포함할 수 있다.
일 실시예로, 전자 장치는 지정된 제1 이벤트 및/또는 지정된 제2 이벤트가 발생한 것으로 감지되는 방향을 획득할 수 있고, 획득한 방향에 기반하여 사용자에게 제공하는 알림을 렌더링(rendering)할 수 있다. 일 실시예로, 전자 장치는 사용자에게 제공하는 알림을 지정된 제1 이벤트 및/또는 지정된 제2 이벤트가 발생한 것으로 감지되는 방향으로 제공할 수 있다.
일 실시예로, 전자 장치는 지정된 제1 이벤트 또는 지정된 제2 이벤트의 방향에 기반하여, 사용자의 좌우 방향, 전후 방향 또는 상하 방향으로 이격되어 배치된 제1 햅틱 모듈과 제2 햅틱 모듈을 통해 제공하는 촉각적 알림의 세기를 상이하게 설정하거나, 또는 촉각적 알림의 특징을 상이하게 설정할 수 있다. 예를 들어, 전자 장치는 지정된 제1 이벤트 또는 지정된 제2 이벤트의 방향을 기준으로, 상대적으로 인접한 제1 햅틱 모듈에 더 강한 세기의 자극을 포함하는 촉각적 알림을 제공하고, 상대적으로 이격된 제2 햅틱 모듈에 더 약한 세기의 자극을 포함하는 촉각적 알림을 제공할 수 있다. 예를 들어, 전자 장치는 지정된 제1 이벤트 또는 지정된 제2 이벤트의 방향을 기준으로, 상대적으로 인접한 제1 햅틱 모듈에 더 짧은 주기의 자극을 포함하는 촉각적 알림을 제공할 수 있고, 상대적으로 이격된 제2 햅틱 모듈에 더 긴 주기의 자극을 포함하는 촉각적 알림을 제공할 수 있다.
일 실시예로, 전자 장치는 지정된 제1 이벤트 또는 지정된 제2 이벤트의 방향에 기반하여, 사용자의 좌우 방향, 전후 방향 또는 상하 방향으로 이격되어 배치된 제1 스피커와 제2 스피커를 통해 제공하는 청각적 알림의 세기를 상이하게 설정하거나, 청각적 알림의 특징을 상이하게 설정할 수 있다. 예를 들어, 전자 장치는 지정된 제1 이벤트 또는 지정된 제2 이벤트의 방향을 기준으로, 상대적으로 인접한 제1 스피커에 크기가 더 큰 청각적 알림을 제공하고, 상대적으로 이격된 제2 스피커에 크기가 더 작은 청각적 알림을 제공할 수 있다. 예를 들어, 전자 장치는 지정된 제1 이벤트 또는 지정된 제2 이벤트의 방향을 기준으로, 상대적으로 인접한 제1 스피커에 주파수가 더 높은 고주파 대역의 청각적 알림을 제공하고, 상대적으로 이격된 제2 스피커에 주파수가 더 낮은 저주파 대역의 청각적 알림을 제공할 수 있다.
이에 따라, 사용자는 위험 상황에 대응하는 이벤트를 확인하기 이전에, 알림에 의해 발생한 이벤트의 방향을 인식 가능할 수 있다.
일 실시예로, 전자 장치는 지정된 제1 이벤트 또는 지정된 제2 이벤트에 대응하는 방향에 기반하여, 디스플레이(예: 도 3의 디스플레이(230))를 통한 시각적 알림을 제공할 수 있다.
도 8은, 본 개시의 제1 실시예에 따른 전자 장치(101)의 동작 방법의 흐름도(800)이다.
도 8을 참조하면, 전자 장치(예: 도 2의 전자 장치(101) 및/또는 도 2의 프로세서(120))는, 제1 실시예에 따라 지정된 제1 이벤트 및 지정된 제2 이벤트를 순차적으로 감지할 수 있다. 일 실시예로, 전자 장치(101)는 지정된 제1 이벤트를 감지한 경우에, 제2 이벤트를 감지할 수 있고, 이에 따라 제2 이벤트의 감지를 위한 데이터 처리 부하 및 전력 소모를 저감할 수 있다.
일 실시예로, 전자 장치(101)는 동작 810에서, 적어도 하나의 마이크로폰(예: 도 2의 마이크로폰(250), 또는 도 3의 제1 마이크로폰(251), 제2 마이크로폰 및/또는 제3 마이크로폰(253))으로부터 주변의 사운드를 획득할 수 있다. 일 실시예로, 적어도 하나의 마이크로폰(250)은 사용자가 전자 장치(101)를 착용한 상태에서 전후 방향, 좌우 방향 및/또는 상하 방향으로 이격된 위치에 배치되고, 이에 따라 서로 이격된 위치에서 주변의 사운드를 획득할 수 있다.
일 실시예로, 전자 장치(101)는 동작 820에서, 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지할 수 있다. 일 실시예로, 전자 장치(101)는 사용자의 주변의 위험 상황을 지정된 제1 이벤트로 감지할 수 있다.
일 실시예로, 전자 장치(101)는 동작 820에서, 획득한 주변의 사운드의 크기 및/또는 주파수에 기반하여 위험 상황을 감지할 수 있다. 일 실시예로, 전자 장치(101)는 동작 820에서, 획득한 주변의 사운드를 지정된 제1 이벤트와 관련하여 기계 학습된 음향 모델에 입력하여 지정된 제1 이벤트를 감지할 수 있다.
일 실시예로, 전자 장치(101)는 동작 830에서, 제1 이벤트가 감지되었는지 판단할 수 있다. 전자 장치(101)는 제1 이벤트가 감지되지 않은 경우에는 지속적으로 주변의 사운드를 획득할 수 있다(동작 810).
일 실시예로, 전자 장치(101)는 제1 이벤트가 감지된 경우, 동작 840에서, 주변의 이미지 또는 영상을 획득하도록 적어도 하나의 카메라(예: 도 1의 카메라 모듈(180), 도 2의 카메라(260), 또는 도 3의 제1 카메라(261) 및/또는 제2 카메라(262))를 구동하고, 이에 따라 적어도 하나의 카메라(260)로부터 주변의 이미지 또는 영상을 획득할 수 있다.
일 실시예로, 전자 장치(101)는 동작 850에서, 적어도 하나의 카메라(260)로부터 획득한 주변의 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지할 수 있다. 일 실시예로, 전자 장치(101)는 제1 이벤트로 감지한 위험 상황을 획득한 이미지 또는 영상에 기반하여 필터링할 수 있다.
일 실시예로, 전자 장치(101)는 동작 860에서 제2 이벤트가 감지되었는지 판단할 수 있다. 일 실시예로, 제1 이벤트는 감지되었으나 제2 이벤트가 감지되지 않은 경우, 전자 장치(101)는 획득한 사운드가 위험 상황이 아닌 것으로 판단하여 다시 주변의 사운드를 획득할 수 있다(동작 810).
일 실시예로, 전자 장치(101)는 제2 이벤트가 감지된 경우, 동작 870에서, 획득한 주변의 사운드에 기반하여 제1 이벤트 또는 제2 이벤트와 관련한 방향을 계산할 수 있다.
여기서, 동작 870은 제2 이벤트가 감지된 것으로 판단한 경우로 표시하였지만 이에 한정되지 않고, 전자 장치(101)는 제2 이벤트를 감지하기 이전에 동작 870을 수행할 수 있다. 일 실시예로, 전자 장치(101)가 제2 이벤트를 감지하기 이전에 동작 870을 수행하는 경우, 제1 이벤트와 관련한 방향에 기반하여 적어도 하나의 카메라(260)를 구동할 수 있다.
일 실시예로, 전자 장치(101)는 적어도 하나의 카메라(260)를 통해 획득한 주변의 이미지 또는 영상에 기반하여, 제2 이벤트와 관련한 방향을 계산할 수 있다.
일 실시예로, 전자 장치는 동작 875에서, 제1 이벤트 또는 제2 이벤트와 관련한 방향으로 알림이 제공되도록 알림 명령을 생성하고, 동작 880에서, 생성한 알림 명령을 적어도 하나의 출력 모듈(예: 도 2의 햅틱 모듈(280) 또는 스피커 모듈(270), 또는 도 3의 제1 햅틱 모듈(281), 제2 햅틱 모듈(282), 제1 스피커(271) 또는 제2 스피커(272))로 출력할 수 있다. 예를 들어, 전자 장치(101)는 제1 이벤트 또는 제2 이벤트와 관련한 방향을 사용자가 인식 가능하도록, 해당 방향에 따라 알림을 렌더링할 수 있다.
일 실시예로, 전자 장치(101)는 동작 890에서, 제1 이벤트 또는 제2 이벤트의 종료를 감지할 수 있다. 일 실시예로, 전자 장치(101)는 적어도 하나의 마이크로폰(250)을 통해 주변의 사운드를 지속적으로 획득할 수 있고, 적어도 하나의 카메라(260)를 통해 주변의 이미지 또는 영상을 지속적으로 획득할 수 있으며, 획득한 주변의 사운드 또는 주변의 이미지 또는 영상에 기반하여 제1 이벤트 또는 제2 이벤트의 종료를 감지할 수 있다. 일 실시예로, 전자 장치(101)는 제1 이벤트 또는 제2 이벤트가 종료된 것으로 감지하면, 전자 장치의 동작 제어를 종료하거나, 다시 주변의 사운드를 획득할 수 있다.
일 실시예로, 전자 장치(101)는 제1 이벤트 또는 제2 이벤트가 종료되지 않은 것으로 감지한 경우, 동작 891에서 사용자에게 시각적 알림을 제공할 수 있다. 예를 들어, 전자 장치는 디스플레이를 통하여 사용자에게 위험 상황에 대응하는 시각적 알림을 제공할 수 있다. 일 실시예로, 동작 891은 동작 875와 같이 실행될 수도 있다. 예컨대, 전자 장치는 적어도 하나의 출력 모듈(270 또는 280)로 알림을 출력하면서, 디스플레이를 통하여 사용자에게 위험에 관한 정보(예: 방향, 또는 위험의 종류)를 표시할 수 있다.
도 9는, 본 개시의 제2 실시예에 따른 전자 장치(101)의 동작 방법의 흐름도(900)이다.
도 9를 참조하면, 전자 장치(예: 도 2의 전자 장치(101) 및/또는 도 2의 프로세서(120))는, 제2 실시예에 따라 지정된 제1 이벤트 및 지정된 제2 이벤트를 동시에 감지할 수 있고, 이에 따라 위험 상황을 감지하는 시간이 단축되어 반응성이 향상될 수 있다.
일 실시예로, 전자 장치(101)는 동작 910에서, 적어도 하나의 마이크로폰(예: 도 2의 마이크로폰(250), 또는 도 3의 제1 마이크로폰(251), 제2 마이크로폰 및/또는 제3 마이크로폰(253))으로부터 주변의 사운드를 획득할 수 있다.
일 실시예로, 전자 장치(101)는 동작 920에서, 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지할 수 있다.
일 실시예로, 전자 장치(101)는 동작 930에서, 적어도 하나의 카메라(예: 도 1의 카메라 모듈(180), 도 2의 카메라(260), 또는 도 3의 제1 카메라(261) 및/또는 제2 카메라(262))로부터 주변의 이미지 또는 영상을 획득할 수 있다.
일 실시예로, 전자 장치(101)는 동작 940에서, 획득한 주변의 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지할 수 있다.
여기서, 동작 910 및 동작 920과 동작 930 및 동작 940이 동시에 동작하는 것으로 도시하였지만 이에 한정되지 않고, 각 동작이 독립적으로 동작함을 의미하는 것이므로, 일부 시간 차이를 갖도록 동작하는 것도 가능할 수 있다.
일 실시예로, 전자 장치(101)는 동작 950에서, 제1 이벤트 및 제2 이벤트가 감지되는지 판단할 수 있다. 일 실시예로, 전자 장치(101)는 제1 이벤트 또는 제2 이벤트 중 적어도 하나 이상이 감지되지 않는 경우에는, 다시 적어도 하나의 마이크로폰(250)으로부터 주변의 사운드를 획득하거나, 적어도 하나의 카메라(260)로부터 주변의 이미지 또는 영상을 획득할 수 있다.
일 실시예로, 전자 장치(101)는 제1 이벤트 및 제2 이벤트가 모두 감지되는 경우, 동작 960에서, 획득한 주변의 사운드에 기반하여, 제1 이벤트 또는 제2 이벤트와 관련한 방향을 계산할 수 있다.
일 실시예로, 전자 장치(101)는 획득한 이미지 또는 영상에 기반하여, 제2 이벤트와 관련한 방향을 계산할 수 있다.
일 실시예로, 전자 장치(101)는 동작 970에서, 제1 이벤트 또는 제2 이벤트와 관련한 방향으로 알림이 제공되도록 알림 명령을 생성할 수 있다.
일 실시예로, 동작 980에서, 전자 장치(101)는 생성한 알림 명령을 적어도 하나의 출력 모듈(예: 도 2의 햅틱 모듈(280) 또는 스피커 모듈(270), 또는 도 3의 제1 햅틱 모듈(281), 제2 햅틱 모듈(282), 제1 스피커(271) 또는 제2 스피커(272))로 출력할 수 있다.
일 실시예로, 전자 장치(101)는 동작 990에서, 제1 이벤트 또는 제2 이벤트의 종료를 감지할 수 있다. 일 실시예로, 전자 장치(101)는 제1 이벤트 또는 제2 이벤트가 종료되지 않은 것으로 감지한 경우, 동작 991에서 사용자에게 시각적 알림을 제공할 수 있다.
도 10은, 본 개시의 제3 실시예에 따른 전자 장치(101)의 동작 방법의 흐름도(1000)이다.
도 10을 참조하면, 전자 장치(예: 도 2의 전자 장치(101) 및/또는 도 2의 프로세서(120))는, 제3 실시예에 따라 사운드에 기반하여 지정된 제1 이벤트를 감지하고, 이에 따라 사용자에게 알림을 제공할 수 있다. 이에 따라 위험 상황을 감지하는 시간이 단축되어 반응성이 향상될 수 있다.
일 실시예로, 전자 장치(101)는 동작 1010에서, 적어도 하나의 마이크로폰(예: 도 2의 마이크로폰(250), 또는 도 3의 제1 마이크로폰(251), 제2 마이크로폰 및/또는 제3 마이크로폰(253))으로부터 주변의 사운드를 획득할 수 있다.
일 실시예로, 전자 장치(101)는 동작 1020에서, 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지할 수 있다.
일 실시예로, 전자 장치(101)는 동작 1030에서, 제1 이벤트가 감지되는지 판단할 수 있다. 일 실시예로, 전자 장치(101)는 제1 이벤트가 감지되지 않는 경우에는, 다시 적어도 하나의 마이크로폰(250)으로부터 주변의 사운드를 획득할 수 있다.
일 실시예로, 전자 장치(101)는 제1 이벤트가 감지되는 경우, 동작 1040에서, 획득한 주변의 사운드에 기반하여, 제1 이벤트와 관련한 방향을 계산할 수 있다.
일 실시예로, 전자 장치(101)는 동작 1050에서, 제1 이벤트와 관련한 방향으로 알림이 제공되도록 알림 명령을 생성할 수 있다.
일 실시예로, 동작 1060에서 생성한 알림 명령을 적어도 하나의 출력 모듈(예: 도 2의 햅틱 모듈(280) 또는 스피커 모듈(270), 또는 도 3의 제1 햅틱 모듈(281), 제2 햅틱 모듈(282), 제1 스피커(271) 또는 제2 스피커(272))로 출력할 수 있다.
일 실시예로, 전자 장치(101)는 동작 1070에서, 제1 이벤트의 종료를 감지할 수 있다. 일 실시예로, 전자 장치(101)는 제1 이벤트가 종료되지 않은 것으로 감지한 경우, 동작 1080에서 사용자에게 시각적 알림을 제공할 수 있다.
도 11은, 본 개시의 제4 실시예에 따른 전자 장치(101)의 동작 방법의 흐름도(1100)이다.
도 11을 참조하면, 전자 장치(예: 도 2의 전자 장치(101) 및/또는 도 2의 프로세서(120))는, 제4 실시예에 따라 이미지 또는 영상에 기반하여 지정된 제2 이벤트를 감지하고, 이에 따라 사용자에게 알림을 제공할 수 있다. 이에 따라 위험 상황을 감지하는 시간이 단축되어 반응성이 향상될 수 있다.
일 실시예로, 전자 장치(101)는 동작 1110에서, 적어도 하나의 카메라로부터 주변의 이미지 또는 영상을 획득할 수 있다. 일 실시예로, 전자 장치는 적어도 하나의 카메라(예: 도 1의 카메라 모듈(180), 도 2의 카메라(260), 또는 도 3의 제1 카메라(261) 및/또는 제2 카메라(262))를 상시 구동하거나 일정한 주기로 구동하여, 사용자 주위의 이미지 또는 영상을 지속적으로 획득할 수 있다.
일 실시예로, 전자 장치(101)는 동작 1120에서, 획득한 주변의 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지할 수 있다.
일 실시예로, 전자 장치(101)는 동작 1130에서, 제2 이벤트가 감지되는지 판단할 수 있다. 일 실시예로, 전자 장치(101)는 제2 이벤트가 감지되지 않는 경우에는, 다시 적어도 하나의 카메라(260)로부터 주변의 이미지 또는 영상을 획득할 수 있다.
일 실시예로, 전자 장치(101)는 제2 이벤트가 감지되는 경우, 동작 1140에서, 획득한 주변의 이미지 또는 영상에 기반하여, 제2 이벤트와 관련한 방향을 계산할 수 있다.
일 실시예로, 전자 장치(101)는 동작 1150에서, 제2 이벤트와 관련한 방향으로 알림이 제공되도록 알림 명령을 생성할 수 있다.
일 실시예로, 전자 장치(101)는 동작 1160에서, 생성한 알림 명령을 적어도 하나의 출력 모듈(예: 도 2의 햅틱 모듈(280) 또는 스피커 모듈(270), 또는 도 3의 제1 햅틱 모듈(281), 제2 햅틱 모듈(282), 제1 스피커(271) 또는 제2 스피커(272))로 출력할 수 있다.
일 실시예로, 전자 장치(101)는 동작 1170에서, 제2 이벤트의 종료를 감지할 수 있다. 일 실시예로, 전자 장치(101)는 제2 이벤트가 종료되지 않은 것으로 감지한 경우, 동작 1180에서 사용자에게 시각적 알림을 제공할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(101)는, 적어도 하나의 마이크로폰(250; 251, 252), 적어도 하나의 카메라(260; 261, 262), 사용자(H)에게 알림을 제공하는 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282), 및 적어도 하나의 프로세서(120)를 포함할 수 있다. 상기 적어도 하나의 프로세서(120)는, 상기 적어도 하나의 마이크로폰(250; 251, 252)으로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지하도록 설정될 수 있다. 상기 적어도 하나의 프로세서(120)는, 상기 제1 이벤트를 감지하는 경우, 상기 적어도 하나의 카메라(260; 261, 262)로부터 주변의 이미지 또는 영상을 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서(120)는, 상기 획득한 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지하도록 설정될 수 있다. 상기 적어도 하나의 프로세서(120)는, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 상기 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)로 출력하도록 설정될 수 있다.
일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 마이크로폰(250; 251, 252)은, 상기 전자 장치(101)가 상기 사용자(H)에 착용된 상태에서, 상기 사용자(H)의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치될 수 있다.
일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 프로세서(120)는, 상기 적어도 하나의 마이크로폰(250; 251, 252)으로부터 각각 획득한 사운드의 에너지와 관련한 데이터에 기반하여, 상기 감지한 제1 이벤트와 관련한 방향을 획득하도록 설정될 수 있다.
일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 프로세서(120)는, 상기 지정된 제1 이벤트를 감지하는 동작의 적어도 일부로, 상기 획득한 주변의 사운드를 상기 지정된 제1 이벤트와 관련하여 기계 학습된 음향 모델에 입력하여 상기 지정된 제1 이벤트를 감지하도록 설정될 수 있다.
일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 프로세서(120)는, 상기 주변의 이미지 또는 영상을 획득하는 동작의 적어도 일부로, 상기 적어도 하나의 카메라(260; 261, 262)로부터 상기 감지한 제1 이벤트와 관련한 방향에 대응하는 이미지 또는 영상을 획득하도록 설정될 수 있다.
일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 프로세서(120)는, 상기 지정된 제1 이벤트를 감지하는 동작의 적어도 일부로, 상기 획득한 주변의 사운드에 기반하여, 상기 사용자(H)의 주변의 위험 상황을 감지할 수 있다. 일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 프로세서(120)는, 상기 지정된 제2 이벤트를 감지하는 동작의 적어도 일부로, 상기 감지한 위험 상황을 상기 획득한 이미지 또는 영상에 기반하여 필터링하도록 설정될 수 있다.
일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 프로세서(120)는, 상기 지정된 제2 이벤트를 감지하는 동작의 적어도 일부로, 상기 획득한 이미지 또는 영상에 포함된 특정 오브젝트의 이동에 기반하여, 상기 감지한 위험 상황을 필터링하도록 설정될 수 있다.
일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)은, 상기 사용자(H)에게 촉각적 알림을 제공하는 햅틱 모듈(280; 281, 282) 및 상기 사용자(H)에게 청각적 알림을 제공하는 스피커 모듈(270; 271, 272)을 포함할 수 있다.
일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)은, 상기 전자 장치(101)가 상기 사용자(H)에 착용된 상태에서, 상기 사용자(H)의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치될 수 있다.
일 실시예에 따른 전자 장치(101)에서, 상기 적어도 하나의 프로세서(120)는, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 사용자(H)에게 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트와 관련한 방향으로 상기 알림이 제공되도록 상기 알림 명령을 생성하도록 설정될 수 있다.
본 개시의 일 실시예에 따른 전자 장치(101)의 동작 방법은, 적어도 하나의 마이크로폰(250; 251, 252)으로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지하는 동작(820; 920; 1020)을 포함할 수 있다. 일 실시예에 따른 전자 장치(101)의 동작 방법은, 상기 지정된 제1 이벤트를 감지하는 경우, 적어도 하나의 카메라(260; 261, 262)로부터 주변의 이미지 또는 영상을 획득하는 동작(840; 930; 1110)을 포함할 수 있다. 일 실시예에 따른 전자 장치(101)의 동작 방법은, 상기 획득한 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지하는 동작(850; 940; 1120)을 포함할 수 있다. 일 실시예에 따른 전자 장치(101)의 동작 방법은, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)로 출력하는 동작(880; 980; 1060; 1160)을 포함할 수 있다.
일 실시예에 따른 전자 장치(101)의 동작 방법에서, 상기 적어도 하나의 마이크로폰(250; 251, 252)은, 상기 전자 장치(101)가 상기 사용자(H)에 착용된 상태에서, 상기 사용자(H)의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치될 수 있다. 일 실시예에 따른 전자 장치(101)의 동작 방법은, 상기 적어도 하나의 마이크로폰(250; 251, 252)으로부터 각각 획득한 사운드의 에너지와 관련한 데이터에 기반하여, 상기 감지한 제1 이벤트와 관련한 방향을 획득하는 동작(870; 960; 1040)을 더 포함할 수 있다.
일 실시예에 따른 전자 장치(101)의 동작 방법에서, 상기 지정된 제1 이벤트를 감지하는 동작(820; 920; 1020)은, 상기 획득한 주변의 사운드를 상기 지정된 제1 이벤트와 관련하여 기계 학습된 음향 모델에 입력하여 상기 지정된 제1 이벤트를 감지할 수 있다.
일 실시예에 따른 전자 장치(101)의 동작 방법에서, 상기 주변의 이미지 또는 영상을 획득하는 동작(840; 930; 1110)은, 상기 적어도 하나의 카메라(260; 261, 262)로부터 상기 감지한 제1 이벤트와 관련한 방향에 대응하는 이미지 또는 영상을 획득할 수 있다.
일 실시예에 따른 전자 장치(101)의 동작 방법에서, 상기 지정된 제1 이벤트를 감지하는 동작(820; 920; 1020)은, 상기 획득한 주변의 사운드에 기반하여, 상기 사용자(H)의 주변의 위험 상황을 감지할 수 있다. 일 실시예에 따른 전자 장치(101)의 동작 방법에서, 상기 지정된 제2 이벤트를 감지하는 동작(850; 940; 1120)은, 상기 감지한 위험 상황을 상기 획득한 이미지 또는 영상에 기반하여 필터링할 수 있다.
일 실시예에 따른 전자 장치(101)의 동작 방법에서, 상기 지정된 제2 이벤트를 감지하는 동작(850; 940; 1120)은, 상기 획득한 이미지 또는 영상에 포함된 특정 오브젝트의 이동에 기반하여, 상기 감지한 위험 상황을 필터링할 수 있다.
일 실시예에 따른 전자 장치(101)의 동작 방법에서, 상기 알림 명령을 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)로 출력하는 동작(880; 980; 1060; 1160)은, 상기 사용자(H)에게 햅틱 모듈(280; 281, 282)을 통한 촉각적 알림 및 스피커 모듈(270; 271, 272)을 통한 청각적 알림을 제공하도록 상기 알림 명령을 출력할 수 있다.
일 실시예에 따른 전자 장치(101)의 동작 방법에서, 상기 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)은, 상기 전자 장치(101)가 상기 사용자(H)에 착용된 상태에서, 상기 사용자(H)의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치될 수 있다. 일 실시예에 따른 전자 장치(101)의 동작 방법은, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 사용자(H)에게 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트와 관련한 방향으로 상기 알림이 제공되도록 상기 알림 명령을 생성하는 동작(875; 960; 1050; 1150)을 더 포함할 수 있다.
본 개시의 일 실시예에 따른 하나 이상의 프로그램을 저장하는 비일시적 컴퓨터 판독 가능 저장 매체(130)는, 어플리케이션의 실행에 기반하여, 적어도 하나의 마이크로폰(250; 251, 252)으로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지하는 동작(820; 920; 1020)을 포함할 수 있다. 일 실시예에 따른 저장 매체(130)는 어플리케이션의 실행에 기반하여, 상기 지정된 제1 이벤트를 감지하는 경우, 적어도 하나의 카메라(260; 261, 262)로부터 주변의 이미지 또는 영상을 획득하는 동작(840; 930; 1110)을 포함할 수 있다. 일 실시예에 따른 저장 매체(130)는 어플리케이션의 실행에 기반하여, 상기 획득한 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지하는 동작(850; 940; 1120)을 포함할 수 있다. 일 실시예에 따른 저장 매체(130)는 어플리케이션의 실행에 기반하여, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)로 출력하는 동작(880; 980; 1060; 1160)을 포함할 수 있다.
일 실시예에 따른 하나 이상의 프로그램을 저장하는 비일시적 컴퓨터 판독 가능 저장 매체(130)에서, 상기 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)은, 상기 전자 장치(101)가 상기 사용자(H)에 착용된 상태에서, 상기 사용자(H)의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치될 수 있다. 일 실시예에 따른 상기 저장 매체(130)는 상기 어플리케이션의 실행에 기반하여, 상기 지정된 제2 이벤트를 감지하는 경우, 상기 사용자(H)에게 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트와 관련한 방향으로 상기 알림이 제공되도록 상기 알림 명령을 생성하는 동작(875; 960; 1050; 1150)을 더 포함할 수 있다.
본 문서의 일 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 일 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 일 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 일 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
일 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 일 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 일 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
Claims (15)
- 전자 장치(101)에 있어서,적어도 하나의 마이크로폰(250; 251, 252);적어도 하나의 카메라(260; 261, 262);사용자(H)에게 알림을 제공하는 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282); 및적어도 하나의 프로세서(120)를 포함하고,상기 적어도 하나의 프로세서(120)는:상기 적어도 하나의 마이크로폰(250; 251, 252)으로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지하고,상기 제1 이벤트를 감지하는 경우, 상기 적어도 하나의 카메라(260; 261, 262)로부터 주변의 이미지 또는 영상을 획득하고,상기 획득한 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지하고,상기 지정된 제2 이벤트를 감지하는 경우, 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 상기 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)로 출력하도록 설정된,전자 장치(101).
- 제 1 항에 있어서,상기 적어도 하나의 마이크로폰(250; 251, 252)은, 상기 전자 장치(101)가 상기 사용자(H)에 착용된 상태에서, 상기 사용자(H)의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치된,전자 장치(101).
- 제 2 항에 있어서,상기 적어도 하나의 프로세서(120)는:상기 적어도 하나의 마이크로폰(250; 251, 252)으로부터 각각 획득한 사운드의 에너지와 관련한 데이터에 기반하여, 상기 감지한 제1 이벤트와 관련한 방향을 획득하도록 설정된,전자 장치(101).
- 제 1 항 내지 제 3 항 중 적어도 어느 하나의 항에 있어서,상기 적어도 하나의 프로세서(120)는:상기 지정된 제1 이벤트를 감지하는 동작(820; 920; 1020)의 적어도 일부로, 상기 획득한 주변의 사운드를 상기 지정된 제1 이벤트와 관련하여 기계 학습된 음향 모델에 입력하여 상기 지정된 제1 이벤트를 감지하도록 설정된,전자 장치(101).
- 제 1 항 내지 제 4 항 중 적어도 어느 하나의 항에 있어서,상기 적어도 하나의 프로세서(120)는:상기 주변의 이미지 또는 영상을 획득하는 동작의 적어도 일부로, 상기 적어도 하나의 카메라(260; 261, 262)로부터 상기 감지한 제1 이벤트와 관련한 방향에 대응하는 이미지 또는 영상을 획득하도록 설정된,전자 장치(101).
- 제 1 항 내지 제 5 항 중 적어도 어느 하나의 항에 있어서,상기 적어도 하나의 프로세서(120)는:상기 지정된 제1 이벤트를 감지하는 동작(820; 920; 1020)의 적어도 일부로, 상기 획득한 주변의 사운드에 기반하여, 상기 사용자(H)의 주변의 위험 상황을 감지하고,상기 지정된 제2 이벤트를 감지하는 동작의 적어도 일부로, 상기 감지한 위험 상황을 상기 획득한 이미지 또는 영상에 기반하여 필터링하도록 설정된,전자 장치(101).
- 제 6 항에 있어서,상기 적어도 하나의 프로세서(120)는:상기 지정된 제2 이벤트를 감지하는 동작의 적어도 일부로, 상기 획득한 이미지 또는 영상에 포함된 특정 오브젝트의 이동에 기반하여, 상기 감지한 위험 상황을 필터링하도록 설정된,전자 장치(101).
- 제 1 항 내지 제 7 항 중 적어도 어느 하나의 항에 있어서,상기 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)은, 상기 사용자(H)에게 촉각적 알림을 제공하는 햅틱 모듈(280; 281, 282) 및 상기 사용자(H)에게 청각적 알림을 제공하는 스피커 모듈(270; 271, 272)을 포함하는,전자 장치(101).
- 제 1 항 내지 제 8 항 중 적어도 어느 하나의 항에 있어서,상기 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)은, 상기 전자 장치(101)가 상기 사용자(H)에 착용된 상태에서, 상기 사용자(H)의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치된,전자 장치(101).
- 제 9 항에 있어서,상기 적어도 하나의 프로세서(120)는:상기 지정된 제2 이벤트를 감지하는 경우, 상기 사용자(H)에게 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트와 관련한 방향으로 상기 알림이 제공되도록 상기 알림 명령을 생성하도록 설정된,전자 장치(101).
- 전자 장치(101)의 동작 방법에 있어서,적어도 하나의 마이크로폰(250; 251, 252)으로부터 획득한 주변의 사운드에 기반하여, 지정된 제1 이벤트를 감지하는 동작(820; 920; 1020);상기 지정된 제1 이벤트를 감지하는 경우, 적어도 하나의 카메라(260; 261, 262)로부터 주변의 이미지 또는 영상을 획득하는 동작(840; 930; 1110);상기 획득한 이미지 또는 영상에 기반하여, 지정된 제2 이벤트를 감지하는 동작(850; 940; 1120); 및상기 지정된 제2 이벤트를 감지하는 경우, 상기 감지한 제1 이벤트 또는 상기 감지한 제2 이벤트 중 적어도 하나 이상에 대응하는 알림 명령을 적어도 하나의 출력 모듈(270; 271, 272; 280; 281, 282)로 출력하는 동작(880; 980; 1060; 1160)을 포함하는,동작 방법.
- 제 11 항에 있어서,상기 적어도 하나의 마이크로폰(250; 251, 252)은, 상기 전자 장치(101)가 상기 사용자(H)에 착용된 상태에서, 상기 사용자(H)의 좌우 방향, 전후 방향 또는 상하 방향으로 서로 이격되도록 배치되고,상기 적어도 하나의 마이크로폰(250; 251, 252)으로부터 각각 획득한 사운드의 에너지와 관련한 데이터에 기반하여, 상기 감지한 제1 이벤트와 관련한 방향을 획득하는 동작(870; 960; 1040)을 더 포함하는,동작 방법.
- 제 11 항 내지 제 12 항 중 적어도 어느 하나의 항에 있어서,상기 지정된 제1 이벤트를 감지하는 동작(820; 920; 1020)은,상기 획득한 주변의 사운드를 상기 지정된 제1 이벤트와 관련하여 기계 학습된 음향 모델에 입력하여 상기 지정된 제1 이벤트를 감지하는,동작 방법.
- 제 11 항 내지 제 13 항 중 적어도 어느 하나의 항에 있어서,상기 주변의 이미지 또는 영상을 획득하는 동작(840; 930; 1110)은,상기 적어도 하나의 카메라(260; 261, 262)로부터 상기 감지한 제1 이벤트와 관련한 방향에 대응하는 이미지 또는 영상을 획득하는,동작 방법.
- 제 11 항 내지 제 14 항 중 적어도 어느 하나의 항에 있어서,상기 지정된 제1 이벤트를 감지하는 동작(820; 920; 1020)은, 상기 획득한 주변의 사운드에 기반하여, 상기 사용자(H)의 주변의 위험 상황을 감지하고,상기 지정된 제2 이벤트를 감지하는 동작(850; 940; 1120)은, 상기 감지한 위험 상황을 상기 획득한 이미지 또는 영상에 기반하여 필터링하는,동작 방법.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220125102 | 2022-09-30 | ||
KR10-2022-0125102 | 2022-09-30 | ||
KR10-2022-0143278 | 2022-11-01 | ||
KR1020220143278A KR20240045932A (ko) | 2022-09-30 | 2022-11-01 | 위험을 감지하는 전자 장치, 그의 동작 방법 및 프로그램을 저장하는 저장 매체 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024071694A1 true WO2024071694A1 (ko) | 2024-04-04 |
Family
ID=90478453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2023/012704 WO2024071694A1 (ko) | 2022-09-30 | 2023-08-28 | 위험을 감지하는 전자 장치, 그의 동작 방법 및 프로그램을 저장하는 저장 매체 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024071694A1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160086536A (ko) * | 2015-01-10 | 2016-07-20 | 조민성 | 시공적 상황데이터를 이용한 경고 방법 및 시스템 |
JP2016186786A (ja) * | 2015-01-21 | 2016-10-27 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 画像及びオーディオデータに基づいた危険の検出及び警告用のウェアラブルスマート装置 |
KR20190090221A (ko) * | 2018-01-24 | 2019-08-01 | 성균관대학교산학협력단 | 지능형 안전 장치 |
KR20200009760A (ko) * | 2018-07-20 | 2020-01-30 | 현대모비스 주식회사 | 차량용 위험 검출 및 대응 장치와 방법 |
KR20210072955A (ko) * | 2019-12-10 | 2021-06-18 | 김기성 | 공사현장에 사용되는 포터블형 안전관리장치 및 그 장치의 구동방법 |
-
2023
- 2023-08-28 WO PCT/KR2023/012704 patent/WO2024071694A1/ko unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160086536A (ko) * | 2015-01-10 | 2016-07-20 | 조민성 | 시공적 상황데이터를 이용한 경고 방법 및 시스템 |
JP2016186786A (ja) * | 2015-01-21 | 2016-10-27 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 画像及びオーディオデータに基づいた危険の検出及び警告用のウェアラブルスマート装置 |
KR20190090221A (ko) * | 2018-01-24 | 2019-08-01 | 성균관대학교산학협력단 | 지능형 안전 장치 |
KR20200009760A (ko) * | 2018-07-20 | 2020-01-30 | 현대모비스 주식회사 | 차량용 위험 검출 및 대응 장치와 방법 |
KR20210072955A (ko) * | 2019-12-10 | 2021-06-18 | 김기성 | 공사현장에 사용되는 포터블형 안전관리장치 및 그 장치의 구동방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022065722A1 (ko) | 외부 물체에 대한 알림을 디스플레이하는 전자 장치 및 그 방법 | |
WO2022019636A1 (ko) | 가상 사용자 인터랙션을 수행하기 위한 방법 및 그 장치 | |
WO2022098204A1 (ko) | 가상현실 서비스를 제공하는 전자 장치 및 방법 | |
WO2022014734A1 (ko) | 무선 음향 기기를 제어하는 단말기 및 그 방법 | |
WO2022154440A1 (ko) | 오디오 데이터를 처리하는 전자 장치 및 그 동작 방법 | |
WO2023017986A1 (ko) | 영상 데이터 및 오디오 데이터 출력 방법 및 전자 시스템 | |
WO2024071694A1 (ko) | 위험을 감지하는 전자 장치, 그의 동작 방법 및 프로그램을 저장하는 저장 매체 | |
WO2024085436A1 (ko) | 진동을 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치 | |
WO2024106796A1 (ko) | 오디오 설정을 제어하는 방법 및 이를 지원하는 웨어러블 전자 장치 | |
WO2024063353A1 (ko) | 시각적 객체와 관련된 정보에 기반하여 오디오 신호를 변경하는 전자 장치 및 그 방법 | |
WO2024071681A1 (ko) | 이미지를 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치 | |
WO2024043519A1 (ko) | 복수의 디스플레이들을 제어하는 방법 및 이를 지원하는 전자 장치 | |
WO2024076058A1 (ko) | 센서를 포함하는 웨어러블 전자 장치 및 이의 동작 방법 | |
WO2024090888A1 (ko) | 스피커 모듈 및 이를 포함하는 전자 장치 | |
WO2023229199A1 (ko) | 전자 장치의 화면 표시 모드를 결정하는 동작 방법 및 전자 장치 | |
WO2024071718A1 (ko) | 증강현실 기능을 지원하는 전자 장치 및 이의 동작 방법 | |
WO2024010220A1 (ko) | 거리 센서 활성화 방법 및 전자 장치 | |
WO2024101747A1 (ko) | 카메라를 포함하는 웨어러블 전자 장치 및 이의 동작 방법 | |
WO2024063380A1 (ko) | 플렉서블 디스플레이에 표시되는 화면을 제어하기 위한 전자 장치 및 방법 | |
WO2024072136A1 (ko) | 오디오를 처리하는 전자 장치 및 전자 장치의 동작 방법 | |
WO2024043546A1 (ko) | 사용자의 움직임을 트래킹 하기 위한 전자 장치 및 방법 | |
WO2024063253A1 (ko) | 카메라로부터 획득한 이미지 내에 포함된 복수의 영역들 각각의 해상도들을 제어하기 위한 전자 장치 및 그 방법 | |
WO2024150966A1 (ko) | 알림 정보를 출력하는 전자 장치 및 이의 동작 방법 | |
WO2022220373A1 (ko) | 외부 웨어러블 전자 장치의 노이즈 캔슬링을 제어하는 웨어러블 전자 장치 및 이의 동작 방법 | |
WO2024071903A1 (ko) | 헤드 마운트 디스플레이 장치 및 그의 착용 상태 감지 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23872816 Country of ref document: EP Kind code of ref document: A1 |