KR102445496B1 - Wearable apparatus and operating method thereof and server for reconizing situation - Google Patents
Wearable apparatus and operating method thereof and server for reconizing situation Download PDFInfo
- Publication number
- KR102445496B1 KR102445496B1 KR1020190120347A KR20190120347A KR102445496B1 KR 102445496 B1 KR102445496 B1 KR 102445496B1 KR 1020190120347 A KR1020190120347 A KR 1020190120347A KR 20190120347 A KR20190120347 A KR 20190120347A KR 102445496 B1 KR102445496 B1 KR 102445496B1
- Authority
- KR
- South Korea
- Prior art keywords
- sound
- situation
- wearable device
- display
- specific direction
- Prior art date
Links
- 238000011017 operating method Methods 0.000 title description 2
- 238000004891 communication Methods 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 31
- 230000000007 visual effect Effects 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 18
- 230000003190 augmentative effect Effects 0.000 claims description 15
- 238000013459 approach Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Abstract
착용형 장치가 개시된다. 일 실시예는 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 상기 사용자의 주변 상황을 인식하고, 상기 인식 결과를 사운드 출력기들 중 하나 이상 및 디스플레이를 통해 사용자에게 안내한다.A wearable device is disclosed. In one embodiment, the user's surroundings are recognized based on at least one of image data generated by one or more of the image capturers and sound data generated by one or more of the sound receivers, and the recognition result is outputted to a sound output device. one or more of them and guide the user through the display.
Description
아래 실시예들은 착용형 장치 및 상황 인식 서버에 관한 것이다.The embodiments below relate to a wearable device and a context-aware server.
최근에, 가상 현실(Virtual Reality, VR) 영상, 증강 현실(Augmented Reality, AR) 영상, 또는 혼합 현실(Mixed Reality, MR) 영상을 표시하는 장치가 나타난다.Recently, a device for displaying a virtual reality (VR) image, an augmented reality (AR) image, or a mixed reality (MR) image appears.
관련 선행기술로, 한국 공개특허공보 제10-2019-0098925호(발명의 명칭: XR 디바이스 및 그 제어 방법, 출원인: 엘지전자 주식회사)가 있다. 해당 공개특허공보에는 투명 디스플레이, 투명 디스플레이에 대한 사용자의 상대적 위치 및 시선 방향을 센싱하는 센싱부, 상기 센싱부를 통해 센싱된 상대적 위치 및 시선 방향에 기반하여, 상기 사용자가 상기 투명 디스플레이를 통해 보고 있는 상기 투명 디스플레이의 전방에 위치한 현실 세계의 외부 객체를 인식하는 프로세서를 포함하는 XR(extended reality) 디바이스가 개시된다. 여기서, XR은 VR, AR, 및 MR을 지칭하는 표현이다. As a related prior art, there is Korean Patent Application Laid-Open No. 10-2019-0098925 (Title of the Invention: XR Device and Control Method Thereof, Applicant: LG Electronics Co., Ltd.). The patent publication discloses a transparent display, a sensing unit for sensing the user's relative position and gaze direction with respect to the transparent display, and based on the relative position and gaze direction sensed through the sensing unit, the user is viewing through the transparent display. An extended reality (XR) device including a processor for recognizing an external object in the real world located in front of the transparent display is disclosed. Here, XR is an expression referring to VR, AR, and MR.
일 측에 따른 착용형 장치는 복수의 영상 촬영기들; 복수의 사운드 수신기들; 복수의 사운드 출력기들; 디스플레이; 및 상기 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 상기 사용자의 주변 상황을 인식하고, 상기 인식 결과를 상기 사운드 출력기들 중 하나 이상 및 상기 디스플레이를 통해 상기 사용자에게 안내하는 컨트롤러를 포함한다.A wearable device according to one side includes: a plurality of image capturers; a plurality of sound receivers; a plurality of sound output devices; display; and recognizing the surrounding situation of the user based on at least one of image data generated by one or more of the image capturers and sound data generated by one or more of the sound receivers, and outputting the recognition result to the sound output device one or more of these and a controller for guiding the user through the display.
상기 컨트롤러는 상기 인식 결과에 부합되는 시각적 피드백을 상기 디스플레이에 출력하고, 상기 인식 결과에 부합되는 청각적 피드백을 상기 사운드 출력기들 중 하나 이상을 통해 출력할 수 있다.The controller may output a visual feedback corresponding to the recognition result to the display, and output an auditory feedback corresponding to the recognition result through one or more of the sound output devices.
상기 디스플레이는 투명 디스플레이에 해당할 수 있고, 상기 컨트롤러는 상기 투명 디스플레이에 상기 인식 결과를 포함하는 증강 현실 영상을 표시할 수 있다.The display may correspond to a transparent display, and the controller may display an augmented reality image including the recognition result on the transparent display.
상기 컨트롤러는 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에서 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력할 수 있고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체를 노출할 수 있다.When the controller recognizes a situation in which an object makes sound in a specific direction based on at least one of the image data and the sound data, the controller matches the specific direction or through a sound output device matching the specific direction among the sound output devices A voice included in the recognized situation may be output through a plurality of sound output devices as much as possible, and a message corresponding to the recognized situation and a graphic object expressing the specific direction may be exposed on the display.
상기 메시지는 기울어져서 상기 디스플레이의 영역들 중 상기 특정 방향과 매칭되는 영역에 노출될 수 있다. 상기 메시지의 기울기는 상기 특정 방향을 나타낼 수 있다. The message may be tilted and exposed in a region matching the specific direction among regions of the display. The slope of the message may indicate the specific direction.
상기 디스플레이는 상기 영상 데이터를 통해 상기 사용자가 바라보는 방향에 해당하는 영상을 표시할 수 있고 상기 컨트롤러는 상기 디스플레이에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 방향과 매칭되는 사운드 출력기를 통해 또는 상기 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력할 수 있고, 상기 영상 속의 객체 주변에 상기 인식된 상황에 대응되는 메시지를 노출할 수 있다. The display may display an image corresponding to the direction in which the user is looking through the image data, and when the controller recognizes a situation in which an object in the image displayed on the display produces a sound, the A sound included in the recognized situation can be output through a sound output device matching the direction or through a plurality of sound output devices to match the direction, and a message corresponding to the recognized situation can be exposed around the object in the image. can
상기 컨트롤러는 상기 영상 데이터 및 상기 사운드 데이터를 기초로 특정 방향에서 객체가 상기 사용자에게 접근하는 상황을 인식한 경우, 상기 인식된 상황에 포함된 음성을 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 출력할 수 있고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지 및 상기 객체의 접근을 나타내는 메시지 중 적어도 하나와 상기 특정 방향을 표현하는 그래픽 객체를 노출할 수 있다. When the controller recognizes a situation in which an object approaches the user in a specific direction based on the image data and the sound data, a sound included in the recognized situation is matched with the specific direction among the sound output devices. A graphic expressing the specific direction and at least one of a message corresponding to the recognized situation and a message indicating the approach of the object on the display, which can be output through an output device or through a plurality of sound output devices to match the specific direction objects can be exposed.
상기 컨트롤러는 상기 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버에 상기 영상 데이터 및 상기 사운드 데이터를 통신 인터페이스를 통해 전송하고, 상기 상황 인식 서버로부터 상기 상황 인식 서버가 상기 영상 데이터 및 상기 사운드 데이터를 기초로 상기 주변 상황을 인식한 결과를 상기 통신 인터페이스를 통해 수신하며, 상기 수신된 결과를 포함하는 증강 현실 영상을 상기 디스플레이에 표시할 수 있다.When the controller fails to perform processing for recognizing the surrounding situation, the controller transmits the image data and the sound data to a context-aware server through a communication interface, and from the context-aware server, the context-aware server sends the image data and A result of recognizing the surrounding situation based on the sound data may be received through the communication interface, and an augmented reality image including the received result may be displayed on the display.
상기 착용형 장치는 안경 형태로 센터 프레임, 안경 다리들, 및 상기 안경 다리들과 연결되는 안경 밴드를 포함할 수 있다. The wearable device may include a center frame in the form of spectacles, temples, and a spectacle band connected to the temples.
상기 영상 촬영기들은 상기 센터 프레임에 위치하여 상기 사용자의 전방 영상을 촬영하는 하나 이상의 전방 카메라, 상기 안경 밴드에 위치하여 상기 사용자의 후방 영상을 촬영하는 후방 카메라, 상기 안경 다리들 중 하나에 위치하여 상기 사용자의 제1 측면 영상을 촬영하는 제1 측면 카메라, 및 상기 안경 다리들 중 나머지 하나에 위치하여 상기 사용자의 제2 측면 영상을 촬영하는 제2 측면 카메라를 포함할 수 있다.The imagers are located in one or more of the front camera located in the center frame to photograph the front image of the user, the rear camera located in the spectacle band to photograph the rear image of the user, and located in one of the temples. It may include a first side camera for photographing a first side image of the user, and a second side camera located on the other one of the temples to photograph a second side image of the user.
상기 사운드 수신기들은 상기 하나 이상의 전방 카메라에 대응되는 하나 이상의 마이크, 상기 후방 카메라에 대응되는 마이크, 상기 제1 측면 카메라에 대응되는 마이크, 및 상기 제2 측면 카메라에 대응되는 마이크를 포함할 수 있다.The sound receivers may include one or more microphones corresponding to the one or more front cameras, a microphone corresponding to the rear camera, a microphone corresponding to the first side camera, and a microphone corresponding to the second side camera.
상기 사운드 출력기들은 상기 하나 이상의 전방 카메라에 대응되는 하나 이상의 스피커, 상기 후방 카메라에 대응되는 스피커, 상기 제1 측면 카메라에 대응되는 스피커, 및 상기 제2 측면 카메라에 대응되는 스피커를 포함할 수 있다.The sound output devices may include one or more speakers corresponding to the one or more front cameras, a speaker corresponding to the rear camera, a speaker corresponding to the first side camera, and a speaker corresponding to the second side camera.
일 측에 따른 착용형 장치의 동작 방법은 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 상기 사용자의 주변 상황을 인식하는 단계; 및 상기 인식 결과를 사운드 출력기들 중 하나 이상 및 디스플레이를 통해 사용자에게 안내하는 단계를 포함한다.The operating method of the wearable device according to one side is to recognize the surrounding situation of the user based on at least one of image data generated by one or more of the imagers and sound data generated by one or more of the sound receivers step; and guiding the recognition result to the user through one or more of the sound output devices and a display.
상기 안내하는 단계는 상기 인식 결과에 부합되는 시각적 피드백을 상기 디스플레이에 출력하고, 상기 인식 결과에 부합되는 청각적 피드백을 상기 사운드 출력기들 중 하나 이상을 통해 출력하는 단계를 포함할 수 있다.The guiding may include outputting a visual feedback corresponding to the recognition result to the display and outputting an auditory feedback corresponding to the recognition result through one or more of the sound output devices.
상기 디스플레이는 투명 디스플레이에 해당할 수 있고, 상기 안내하는 단계는 상기 투명 디스플레이에 상기 인식 결과를 포함하는 증강 현실 영상을 표시하는 단계를 포함할 수 있다. The display may correspond to a transparent display, and the step of guiding may include displaying an augmented reality image including the recognition result on the transparent display.
상기 안내하는 단계는 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에서 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체를 노출하는 단계를 포함할 수 있다.In the guiding step, when a situation in which an object makes a sound in a specific direction is recognized based on at least one of the image data and the sound data, a sound output device matching the specific direction among the sound output devices or the specific direction It may include outputting a voice included in the recognized situation through a plurality of sound output devices to match the direction, and exposing a message corresponding to the recognized situation and a graphic object expressing the specific direction on the display. .
상기 메시지는 기울어져서 상기 디스플레이의 영역들 중 상기 특정 방향과 매칭되는 영역에 노출될 수 있다. 또한, 상기 메시지의 기울기는 상기 특정 방향을 나타낼 수 있다.The message may be tilted and exposed in a region matching the specific direction among regions of the display. Also, the slope of the message may indicate the specific direction.
상기 안내하는 단계는 상기 영상 데이터를 통해 상기 사용자가 바라보는 방향에 해당하는 영상이 상기 디스플레이에 표시되고 상기 디스플레이에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 방향과 매칭되는 사운드 출력기를 통해 또는 상기 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 영상 속의 객체 주변에 상기 인식된 상황에 대응되는 메시지를 노출하는 단계를 포함할 수 있다.In the guiding step, when an image corresponding to the direction in which the user is looking is displayed on the display through the image data and a situation in which an object in the image displayed on the display produces a sound is recognized, one of the sound output devices outputting the voice included in the recognized situation through a sound output device matching the direction or through a plurality of sound output devices to match the direction, and exposing a message corresponding to the recognized situation around the object in the image may include
상기 안내하는 단계는 상기 영상 데이터 및 상기 사운드 데이터를 기초로 특정 방향에서 객체가 상기 사용자에게 접근하는 상황을 인식한 경우, 상기 인식된 상황에 포함된 음성을 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지 및 상기 객체의 접근을 나타내는 메시지 중 적어도 하나와 상기 특정 방향을 표현하는 그래픽 객체를 노출하는 단계를 포함할 수 있다.In the guiding step, when a situation in which an object approaches the user in a specific direction is recognized based on the image data and the sound data, a voice included in the recognized situation is matched with the specific direction among the sound output devices A graphic expressing the specific direction and at least one of a message corresponding to the recognized situation and a message indicating the approach of the object on the display and output through a plurality of sound output devices to match the specific direction It may include exposing the object.
상기 착용형 장치의 동작 방법은 상기 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버에 상기 영상 데이터 및 상기 사운드 데이터를 통신 인터페이스를 통해 전송하는 단계; 상기 상황 인식 서버로부터 상기 상황 인식 서버가 상기 영상 데이터 및 상기 사운드 데이터를 기초로 상기 주변 상황을 인식한 결과를 상기 통신 인터페이스를 통해 수신하는 단계; 및 상기 수신된 결과를 포함하는 증강 현실 영상을 상기 디스플레이에 표시하는 단계를 더 포함할 수 있다.The method of operating the wearable device may include transmitting the image data and the sound data to a context recognition server through a communication interface when processing for recognizing the surrounding situation is not performed; receiving, by the context-aware server, a result of recognizing the surrounding context based on the image data and the sound data from the context-aware server through the communication interface; and displaying an augmented reality image including the received result on the display.
일 측에 따른 상황 인식 서버는 통신 인터페이스; 및 착용형 장치로부터 상기 착용형 장치에 포함된 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 착용형 장치에 포함된 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 상기 통신 인터페이스를 통해 수신하고, 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 상기 사용자의 주변 상황을 인식하며, 상기 인식 결과를 상기 통신 인터페이스를 통해 상기 착용형 장치로 전송하는 컨트롤러를 포함한다.Context-aware server according to one side is a communication interface; and communicating at least one of image data generated by one or more of imagers included in the wearable device and sound data generated by one or more of sound receivers included in the wearable device from a wearable device. and a controller for receiving through an interface, recognizing the surrounding situation of the user based on at least one of the image data and the sound data, and transmitting the recognition result to the wearable device through the communication interface.
상기 인식 결과는 상기 착용형 장치의 사운드 출력기들 중 하나 이상 및 상기 착용형 장치의 디스플레이를 통해 상기 사용자에게 안내된다. The recognition result is guided to the user through one or more of the sound output devices of the wearable device and a display of the wearable device.
도 1 내지 도 3은 일 실시예에 따른 착용형 장치를 설명하기 위한 도면이다.
도 4 내지 도 5는 일 실시예에 따른 착용형 장치의 주변 상황 안내를 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 착용형 장치의 일례에 포함된 처리 및 통신 모듈을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 상황 인식 서버가 착용형 장치의 사용자의 주변 상황을 인식하는 것을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 착용형 장치의 동작 방법을 설명하기 위한 순서도이다.
도 9는 일 실시예에 따른 상황 인식 서버를 설명하기 위한 블록도이다. 1 to 3 are views for explaining a wearable device according to an embodiment.
4 to 5 are diagrams for explaining the surrounding situation guidance of the wearable device according to an embodiment.
6 is a view for explaining a processing and communication module included in an example of a wearable device according to an embodiment.
7 is a diagram for explaining that the context recognition server recognizes the surrounding context of the user of the wearable device according to an embodiment.
8 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.
9 is a block diagram illustrating a context-aware server according to an embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
도 1 내지 도 3은 일 실시예에 따른 착용형 장치를 설명하기 위한 도면이다.1 to 3 are views for explaining a wearable device according to an embodiment.
도 1을 참조하면, 일 실시예에 따른 착용형 장치(100)는 복수의 영상 촬영기들(110-1 내지 110-a), 복수의 사운드 수신기들(120-1 내지 120-b), 복수의 사운드 출력기들(130-1 내지 130-c), 디스플레이(140), 통신부(150), 및 컨트롤러(160)를 포함한다. Referring to FIG. 1 , a
영상 촬영기들(110-1 내지 110-a)의 개수, 사운드 수신기들(120-1 내지 120-b)의 개수, 및 사운드 출력기들(130-1 내지 130-c)의 개수는 도 2 내지 도 3을 통해 설명할 예와 같이 동일할 수 있다. 구현에 따라, 영상 촬영기들(110-1 내지 110-a)의 개수, 사운드 수신기들(120-1 내지 120-b)의 개수, 및 사운드 출력기들(130-1 내지 130-c)의 개수는 서로 다를 수 있다.The number of imagers 110-1 to 110-a, the number of sound receivers 120-1 to 120-b, and the number of sound output devices 130-1 to 130-c are shown in Figs. It may be the same as the example described with reference to 3 . Depending on the implementation, the number of imagers 110-1 to 110-a, the number of sound receivers 120-1 to 120-b, and the number of sound output devices 130-1 to 130-c are may be different.
영상 촬영기들(110-1 내지 110-a) 각각은 주변을 촬영하여 영상 데이터를 생성할 수 있다. 영상 촬영기들(110-1 내지 110-a) 각각은, 예를 들어, 카메라를 포함할 수 있다.Each of the image capturers 110 - 1 to 110 - a may generate image data by photographing the surroundings. Each of the image capturers 110 - 1 to 110 - a may include, for example, a camera.
사운드 수신기들(120-1 내지 120-b) 각각은 사운드를 수신하여 사운드 데이터를 생성할 수 있다. 사운드 수신기들(120-1 내지 120-b) 각각은, 예를 들어, 마이크를 포함할 수 있다.Each of the sound receivers 120 - 1 to 120 - b may receive sound and generate sound data. Each of the sound receivers 120 - 1 to 120 - b may include, for example, a microphone.
사운드 출력기들(130-1 내지 130-c) 각각은 사운드를 출력할 수 있다. 사운드 출력기들(130-1 내지 130-c) 각각은, 예를 들어, 스피커를 포함할 수 있다.Each of the sound output devices 130-1 to 130-c may output a sound. Each of the sound output devices 130-1 to 130-c may include, for example, a speaker.
디스플레이(140)는 투명 디스플레이에 해당할 수 있고, 증강 현실 영상 및 콘텐츠를 출력할 수 있다.The
통신부(150)는 후술할 상황 인식 서버와 통신을 수행한다. 통신부(150)는, 예를 들어, 3G 통신, 4G 통신, 또는 5G 통신을 수행한다. 또한, 통신부(150)는 근거리 무선 통신(예를 들어, 블루투스)을 수행할 수 있고, 와이파이 통신을 수행할 수 있다. 특히 다수의 고속 영상 및 음성 등 멀티미디어 트래픽 송수신과 실시간으로 상황 인식, 그리고 저지연으로 상황 인식 결과를 피드백 해야하는 조건으로 인해 착용형 장치(100)와 상황 인식 서버는 5G 통신에서 보다 잘 적용될 수 있다.The
컨트롤러(160)는 영상 촬영기들(110-1 내지 110-a) 중 하나 이상에 의해 생성된 영상 데이터 및 사운드 수신기들(120-1 내지 120-b) 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식한다. 일례로, 컨트롤러(160)는 사용자의 전방 상황, 후방 상황, 좌측 상황, 및 우측 상황 중 적어도 하나를 인식할 수 있다.The
컨트롤러(160)는 주변 상황에 대한 인식 결과를 기초로 사운드 출력기들(130-1 내지 130-c) 중 하나 이상 및 디스플레이(140)를 통해 사용자에게 주변 상황을 안내할 수 있다. 일례로, 컨트롤러(160)는 주변 상황에 대한 인식 결과에 부합되는 시각적 피드백(또는 콘텐츠)(예를 들어, 메시지 및/또는 그래픽 객체)을 디스플레이(140)에 출력할 수 있고, 인식 결과에 부합되는 청각적 피드백(예를 들어, 음성)을 사운드 출력기들(130-1 내지 130-c) 중 하나 이상을 통해 출력할 수 있다.The
실시예에 있어서, 착용형 장치(100)는 안경 타입일 수 있다. 안경 타입의 착용형 장치(100)가 도 2 및 도 3에 도시된다. 설명의 편의상 도 3에는 안경 다리의 일부를 표현하였다.In an embodiment, the
도 2를 참조하면, 안경 타입의 착용형 장치(100)는 센터 프레임(250), 안경 다리들(260-1 및 260-2), 및 안경 다리들(260-1 및 260-2)과 연결되는 안경 밴드(280)를 포함한다. Referring to FIG. 2 , the glasses-type
또한, 도 2에 도시된 안경 타입의 착용형 장치(100)는 처리 및 통신 모듈(240)과 배터리(270)를 포함한다. 처리 및 통신 모듈(240)은 도 1을 통해 설명한 컨트롤러(160)와 통신부(150)를 포함하고, 배터리(270)는 착용형 장치(100)에 전원을 공급한다.In addition, the glasses-type
센터 프레임(250)에는 사용자의 전방 영상을 촬영하는 하나 이상의 전방 카메라, 하나 이상의 전방 카메라에 대응되는 마이크와 스피커가 위치할 수 있다. 일례로, 도 2 및 도 3에 도시된 예와 같이, 센터 프레임(250)에서 사용자의 코를 지지하는 부분에 전방 카메라(210-1), 마이크(220-1), 및 스피커(230-1)가 위치할 수 있고 센터 프레임(250)의 우측 부근에 우측 전방을 촬영하는 우측 전방 카메라(210-2), 마이크(220-2), 및 스피커(230-2)가 위치할 수 있으며, 센터 프레임(250)의 좌측 부근에 좌측 전방을 촬영하는 좌측 전방 카메라(210-3), 마이크(220-3), 및 스피커(230-3)가 위치할 수 있다.One or more front cameras for capturing a user's front image, and a microphone and a speaker corresponding to the one or more front cameras may be located in the
컨트롤러(160)는 전방 카메라(210-1)가 전방을 촬영하여 생성된 영상 데이터 및 마이크(220-1)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 전방 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 전방 카메라(210-1)에 기반한 것임을 나타내는 인덱스(또는 식별자)가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-1)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. 이로 인해, 컨트롤러(160)는 해당 영상 데이터가 어떤 카메라에 의해 생성된 것인지 알 수 있고 해당 사운드 데이터가 어떤 마이크에 의해 생성된 것인지 알 수 있다.The
컨트롤러(160)는 전방 상황에 대한 인식 결과를 기초로 투명 디스플레이(290-1 및 290-2) 중 하나 이상에 시각적 피드백을 출력할 수 있고 스피커(230-1)를 통해 청각적 피드백을 출력할 수 있다. 보다 구체적으로, 컨트롤러(160)는 전방 카메라(210-1)로부터 수신한 영상 데이터를 기초로 전방 상황을 인식하되 기준선(310)보다 왼쪽에서 발생한 상황을 인식한 경우, 해당 인식 결과를 기초로 좌측 투명 디스플레이(290-2)에 시각적 피드백을 출력할 수 있고, 기준선(310)보다 오른쪽에서 발생한 상황을 인식한 경우, 해당 인식 결과를 기초로 우측 투명 디스플레이(290-1)에 시각적 피드백을 출력할 수 있다. 일례로, 컨트롤러(160)는 전방 카메라(210-1)로부터 수신한 영상 데이터를 통해 기준선(310)보다 왼쪽의 전방에서 사용자를 향해 차가 접근하는 상황을 인식한 경우, 차의 접근을 나타내는 메시지를 좌측 투명 디스플레이(290-2)에 노출할 수 있고, 스피커(230-1)를 통해 차의 접근을 알리는 음성을 출력할 수 있다. The
컨트롤러(160)는 우측 전방 카메라(210-2)가 우측 전방을 촬영하여 생성된 영상 데이터 및 마이크(220-2)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 우측 전방 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 우측 전방 카메라(210-2)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-2)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. The
컨트롤러(160)는 우측 전방에 대한 인식 결과를 기초로 우측 투명 디스플레이(290-1)에 시각적 피드백을 출력할 수 있고, 스피커(230-2)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 우측 상황에 대한 안내를 수행할 수 있다.The
컨트롤러(160)는 좌측 전방 카메라(210-3)가 좌측 전방을 촬영하여 생성된 영상 데이터 및 마이크(220-3)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 좌측 전방 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 좌측 전방 카메라(210-3)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-3)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다.The
컨트롤러(160)는 좌측 전방에 대한 인식 결과를 기초로 좌측 투명 디스플레이(290-2)에 시각적 피드백을 출력할 수 있고, 스피커(230-3)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 좌측 상황에 대한 안내를 수행할 수 있다.The
안경 다리(260-1)에는 사용자의 제1 측면을 촬영하는 제1 측면 카메라(210-5), 제1 측면 카메라(210-5)와 대응되는 마이크(220-5) 및 스피커(230-5)가 위치할 수 있다. The temples 260-1 have a first side camera 210-5 for photographing the first side of the user, a microphone 220-5 corresponding to the first side camera 210-5, and a speaker 230-5 ) can be located.
컨트롤러(160)는 제1 측면 카메라(210-5)가 제1 측면을 촬영하여 생성된 영상 데이터 및 마이크(220-5)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 제1 측면 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 제1 측면 카메라(210-5)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-5)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. The
컨트롤러(160)는 제1 측면 상황에 대한 인식 결과를 기초로 좌측 투명 디스플레이(290-2)에 시각적 피드백을 출력할 수 있고, 스피커(230-5)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 좌측 상황에 대한 안내를 수행할 수 있다.The
안경 다리(260-2)에는 사용자의 제2 측면을 촬영하는 제2 측면 카메라(210-4), 제2 측면 카메라(210-4)와 대응되는 마이크(220-4) 및 스피커(230-4)가 위치할 수 있다. The temples 260-2 have a second side camera 210-4 for photographing the user's second side, a microphone 220-4 corresponding to the second side camera 210-4, and a speaker 230-4. ) can be located.
컨트롤러(160)는 제2 측면 카메라(210-4)가 제2 측면을 촬영하여 생성된 영상 데이터 및 마이크(220-4)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 제2 측면 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 제2 측면 카메라(210-4)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-4)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. The
컨트롤러(160)는 제2 측면 상황에 대한 인식 결과를 기초로 우측 투명 디스플레이(290-1)에 시각적 피드백을 출력할 수 있고 스피커(230-4)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 우측 상황에 대한 안내를 수행할 수 있다.The
안경 밴드(280)에는 사용자의 후방을 촬영하는 후방 카메라(210-6), 후방 카메라(210-6)와 대응되는 마이크(220-6) 및 스피커(230-6)가 위치할 수 있다. The glasses band 280 may include a rear camera 210-6 for photographing the rear of the user, a microphone 220-6 corresponding to the rear camera 210-6, and a speaker 230-6.
컨트롤러(160)는 후방 카메라(210-6)가 후방을 촬영하여 생성된 영상 데이터 및 마이크(220-6)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 후방 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 후방 카메라(210-6)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-6)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. The
컨트롤러(160)는 후방 상황에 대한 인식 결과를 기초로 투명 디스플레이들(290-1 및 290-2) 중 하나 이상에 시각적 피드백을 출력할 수 있다. 일례로, 컨트롤러(160)는 후방 카메라(210-6)의 영상 데이터를 기초로 좌측 후방에 대한 상황을 인식한 경우, 좌측 투명 디스플레이(290-2)에 시각적 피드백을 출력할 수 있고, 우측 후방에 대한 상황을 인식한 경우, 우측 투명 디스플레이(290-1)에 시각적 피드백을 출력할 수 있다. 또한, 컨트롤러(160)는 후방 상황에 대한 인식 결과를 기초로 스피커(230-6)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 후방 상황에 대한 안내를 수행할 수 있다.The
실시예에 있어서, 컨트롤러(160)는 카메라들(210-1 내지 210-6) 중 복수 개로부터 입력되는 영상 및/또는 마이크들(220-1 내지 220-6) 중 복수 개로부터 입력된 사운드를 분석하여 특정 방향의 상황을 인식할 수 있고, 인식 결과에 해당하는 시각적 피드백을 디스플레이(290-1 및 290-2)에 출력할 수 있으며, 인식 결과에 해당하는 음성을 스피커들(230-1 내지 230-6) 중 복수개를 통해 출력할 수 있다. In an embodiment, the
일례로, 컨트롤러(160)는 카메라들(210-1, 210-2, 및 210-3)로부터 입력되는 영상 및/또는 마이크들(220-1, 220-2, 및 220-3)로부터 입력되는 사운드를 분석하여 우측 전방(또는 좌측 전방, 또는 정면)의 상황을 인식할 수 있다. 이에 따라, 컨트롤러(160)는 컨트롤러(160)는 인식한 상황의 방향을 보다 정확히 결정할 수 있다. 컨트롤러(160)는 우측 전방(또는 좌측 전방, 또는 정면) 상황에 대한 인식 결과에 해당하는 음성을 스피커들(230-1, 230-2, 및 230-3)을 통해 출력할 수 있다. 이에 따라, 컨트롤러(160)는 인식한 상황의 방향을 보다 정확히 표현할 수 있다.For example, the
다른 일례로, 컨트롤러(160)는 카메라들(210-2 및 210-4)로부터 입력되는 영상 및/또는 마이크들(220-2 및 220-4)로부터 입력되는 사운드를 분석하여 우측 전방과 우측 사이에서의 상황을 인식할 수 있다. 이 경우, 컨트롤러(160)는 우측 전방과 우측 사이에서의 상황에 대한 인식 결과에 해당하는 음성을 스피커들(230-2 및 230-4)을 통해 출력할 수 있다. 이에 따라, 컨트롤러(160)는 인식한 상황의 방향을 보다 정확히 표현할 수 있다.As another example, the
또 다른 일례로, 컨트롤러(160)는 카메라들(210-5 및 210-6)로부터 입력되는 영상 및/또는 마이크들(220-5 및 220-6)로부터 입력되는 사운드를 분석하여 후방과 좌측 사이에서의 상황을 인식할 수 있다. 컨트롤러(160)는 후방과 좌측 사이에서의 상황에 대한 인식 결과에 해당하는 음성을 스피커들(230-5 및 230-6)을 통해 출력할 수 있다. 이에 따라, 컨트롤러(160)는 인식한 상황의 방향을 보다 정확히 표현할 수 있다.As another example, the
일 실시예에 따르면, 착용형 장치(100)는 카메라들(210-1 내지 210-6) 및 마이크들(220-1 내지 220-6)를 활용해서 360도 전방위의 상황 인식을 수행할 수 있고, 상황 인식 결과를 디스플레이(290-1 및 290-2) 및 스피커들(230-1 내지 230-6)을 통해 사용자에게 알려줄 수 있다. According to an embodiment, the
또한, 착용형 장치(100)는 주변 360도 전방위에 대한 영상 및 소리를 기반으로 낯선 공간, 낯선 환경, 또는 외국 등에 있는 사용자에게 주어진 상황을 인식할 수 있고, 투명 디스플레이(290-1 및 290-2)에 사람의 음성의 번역문을 표시하거나 스피커들(230-1 내지 230-6)을 통해 통역을 사용자에게 제공할 수 있다. 이에 따라, 착용형 장치(100)는 의사소통, 사고예방 등 문제가 없도록 사용자를 지원하여 사용자 편의성을 향상시킬 수 있다.In addition, the
도 4 내지 도 5는 일 실시예에 따른 착용형 장치의 주변 상황 안내를 설명하기 위한 도면이다. 4 to 5 are diagrams for explaining the surrounding situation guidance of the wearable device according to an embodiment.
도 4를 참조하면, 디스플레이(140)에 증강 현실 영상이 표시될 수 있다. 디스플레이(140)는 투명 디스플레이에 해당할 수 있다. 일례로, 전방 카메라(210-1)를 통해 촬영되는 영상과 컨트롤러(160)가 주변 상황을 인식한 결과를 포함하는 증강 현실 영상이 디스플레이(140)에 표시될 수 있다. 구현에 따라, 컨트롤러(160)는 전방 카메라(210-1)를 통해 촬영되는 영상, 우측 전방 카메라(210-2)를 통해 촬영되는 영상, 및 좌측 전방 카메라(210-3)를 통해 촬영되는 영상을 조합할 수 있고, 해당 조합에 의해 생성된 영상 및 컨트롤러(160)가 주변 상황을 인식한 결과를 포함하는 증강 현실 영상을 디스플레이(140)에 표시할 수 있다. Referring to FIG. 4 , an augmented reality image may be displayed on the
도 4에 도시된 예에서, 착용형 장치(100)의 사용자의 후방에서 자전거가 접근하고, 해당 자전거를 타고 있는 사람이 "길 좀 비켜주세요"라고 소리치며, 착용형 장치(100)의 좌측에서 사람이 "이보세요 뒤에 자전거가 와요"라고 말하고, 전방 우측에서 사람이 사용자를 향해 손을 흔들고 "안녕하세요"라고 말을 한다고 하자. In the example shown in FIG. 4 , a bicycle approaches from the rear of the user of the
후방 카메라(210-6)는 후방을 촬영하여 생성된 영상 데이터를 컨트롤러(160)로 전송할 수 있고, 마이크(220-6)는 후방 자전거를 타고 있는 사람의 음성을 수신하여 생성된 사운드 데이터를 컨트롤러(160)로 전송할 수 있다.The rear camera 210-6 may transmit image data generated by photographing the rear to the
제1 측면 카메라(210-5)는 좌측을 촬영하여 생성된 영상 데이터를 컨트롤러(160)로 전송할 수 있고, 마이크(220-5)는 좌측 사람의 음성을 수신하여 생성된 사운드 데이터를 컨트롤러(160)로 전송할 수 있다.The first side camera 210-5 may transmit image data generated by photographing the left side to the
우측 전방 카메라(210-2)는 우측 전방을 촬영하여 생성된 영상 데이터를 컨트롤러(160)로 전송할 수 있고, 마이크(220-2)는 우측 전방의 사람의 음성을 수신하여 생성된 사운드 데이터를 컨트롤러(160)로 전송할 수 있다.The right front camera 210-2 may transmit image data generated by photographing the right front to the
컨트롤러(160)는 후방 카메라(210-6)로부터 수신한 영상 데이터 및 마이크(220-6)로부터 수신한 사운드 데이터를 기초로 후방 상황을 인식할 수 있다. 다시 말해, 컨트롤러(160)는 좌측 후방에서 자전거가 접근 중이고 비켜달라는 상황을 인식할 수 있다. 이러한 인식 결과를 기초로 컨트롤러(160)는 디스플레이(140 또는 290-2)에 메시지(410-1)와 후방을 표현하는 그래픽 객체(420-1)를 출력할 수 있다. 이 때, 메시지(410-1)와 그래픽 객체(420-1)는 디스플레이(140)의 전체 영역에서 후방에 대응되는 영역(즉, 디스플레이(140)의 좌측 하단)에 출력될 수 있다.The
도 4에 도시된 예에서, 메시지(410-1)는 뒤집어져서 디스플레이(140)에 출력되나 이는 예시적인 사항일 뿐, 뒤집어지지 않고 표현될 수 있다. 또한, 실시예에 따라, 후방 카메라(210-6)에 의해 촬영되는 영상이 디스플레이(140)의 일부 영역에 표시될 수 있다.In the example shown in FIG. 4 , the message 410 - 1 is turned over and output to the
컨트롤러(160)는 제1 측면 카메라(210-5)로부터 수신한 영상 데이터 및 마이크(220-5)로부터 수신한 사운드 데이터를 기초로 좌측 상황을 인식할 수 있다. 다시 말해, 컨트롤러(160)는 사람이 비키라고 소리치는 좌측 상황을 인식할 수 있다. 이러한 인식 결과를 기초로 컨트롤러(160)는 디스플레이(140 또는 290-2)에 메시지(410-2)와 좌측을 표현하는 그래픽 객체(420-2)를 출력할 수 있다. 이 때, 메시지(410-2)와 그래픽 객체(420-2)는 디스플레이(140)의 전체 영역에서 좌측에 대응되는 영역(즉, 기준선(310)의 왼쪽)에 출력될 수 있다. 또한, 메시지(410-2)는 도 4에 도시된 예와 같이 좌측 방향에 해당하는 각도(예를 들어, 45도)만큼 기울어져 출력될 수 있다. 메시지(410-2)의 기울기는 특정 방향을 나타내거나 표현할 수 있다. 만약, 컨트롤러(160)는 우측에서 사람이 비키라고 소리치는 상황을 인식한 경우, 우측 방향에 해당하는 각도(예를 들어, -45도)만큼 기울어진 메시지를 디스플레이(140)의 우측에 노출할 수 있다.The
컨트롤러(160)는 우측 전방 카메라(210-2)로부터 수신한 영상 데이터 및 마이크(220-2)로부터 수신한 사운드 데이터를 기초로 우측 전방 상황을 인식할 수 있다. 다시 말해, 컨트롤러(160)는 사람이 인사하는 우측 전방 상황을 인식할 수 있다. 이러한 인식 결과를 기초로 컨트롤러(160)는 디스플레이(140 또는 290-1)에 사람 객체(430) 주변에 메시지(410-3)를 출력할 수 있다. The
도 4에 도시된 예와 같이, 착용형 장치(100)는 주변 상황에 대한 인식 결과를 기초로 생성된 콘텐츠들(예를 들어, 메시지와 그래픽 객체들) 및 사용자가 디스플레이(140)를 통해 바라보고 있는 방향에 해당하는 영상을 포함하는 증강 현실 영상을 디스플레이(140)에 표시할 수 있다. 이에 따라, 착용형 장치(100)는 주변 상황에 대한 안내를 시각적으로 수행할 수 있다. As shown in the example shown in FIG. 4 , the
도 5에 착용형 장치(100)가 도 4를 통해 설명한 주변 상황에 대한 안내를 청각적으로 수행하는 일례가 도시된다.FIG. 5 shows an example in which the
컨트롤러(160)는 후방 상황에 대한 인식 결과를 기초로 "자전거 접근 중, 길 좀 비켜주세요"의 음성을 스피커(230-6)를 통해 출력할 수 있다. 이에 따라, 착용형 장치(100)는 후방에서 자전거가 접근 중인 상황과 비켜달라고 하는 상황을 소리로 사용자에게 안내할 수 있다.The
컨트롤러(160)는 좌측 상항에 대한 인식 결과를 기초로 "뒤에 자전거오니 비키세요"의 음성을 스피커(230-5)를 통해 출력할 수 있다. 이에 따라, 착용형 장치(100)는 뒤에서 자전거가 오니 비키라고 하는 좌측 상황을 소리로 사용자에게 안내할 수 있다.The
컨트롤러(160)는 우측 전방 상황에 대한 인식 결과를 기초로 "안녕하세요. 누군가 인사합니다"의 음성을 스피커(230-2)를 통해 출력할 수 있다. 이에 따라, 컨트롤러(160)는 전방에서 사람이 인사하는 상황을 소리로 사용자에게 안내할 수 있다.The
만약, 도 4를 통해 설명한 상황이 외국에서 사용자에게 동일하게 발생한 경우, 메시지(410-1, 410-2, 및 410-3)는 번역되어 출력될 수 있고, 인식된 상황에 포함된 각 음성에 대한 기계 통역 서비스가 스피커(230-2, 230-5, 및 230-6)을 통해 제공될 수 있다. 이에 따라, 사용자가 해당 국가의 언어를 잘 모르더라도 착용형 장치(100)를 통해 주변 상황에 대한 안내를 제공받을 수 있어, 사용자 편의성이 향상될 수 있다.If the same situation described with reference to FIG. 4 occurs to the user in a foreign country, the messages 410-1, 410-2, and 410-3 may be translated and output, and each voice included in the recognized situation may be displayed. A machine interpretation service may be provided through the speakers 230 - 2 , 230 - 5 , and 230 - 6 . Accordingly, even if the user does not know the language of the corresponding country well, the user can be provided with information about the surrounding situation through the
도 6은 일 실시예에 따른 착용형 장치의 일례에 포함된 처리 및 통신 모듈을 설명하기 위한 도면이다.6 is a view for explaining a processing and communication module included in an example of a wearable device according to an embodiment.
도 6을 참조하면, 처리 및 통신 모듈(240)은 통신부(150) 및 컨트롤러(160)를 포함한다. Referring to FIG. 6 , the processing and
컨트롤러(160)는 관리부(610) 및 데이터 처리부(620)를 포함한다.The
데이터 처리부(620)는 입력부(621) 및 출력부(622)를 포함한다.The
입력부(621)는 상황 인식을 위한 데이터를 수집하고 출력부(622)는 상황 인식 결과를 표현한다.The
입력부(621)는 영상 촬영기들(110-1 내지 110-a)(일례로, 카메라들(210-1 내지 210-6))로부터 전송된 영상 데이터를 처리하는 영상 데이터 처리부와 사운드 수신기들(120-1 내지 120-b)(일례로, 마이크들(220-1 내지 220-6))로부터 전송된 사운드 데이터를 처리하는 사운드 데이터 처리부를 포함할 수 있다. The
출력부(622)는 상황 인식 결과에 해당하는 메시지 및 그래픽 객체를 디스플레이(140)에 표시하는 영상 출력부 및 상황 인식 결과에 해당하는 음성을 사운드 출력기들(130-1 내지 130-c)(일례로, 스피커들(230-1 내지 230-6))을 통해 출력하는 음성 출력부를 포함할 수 있다. The
관리부(610)는 데이터 처리부(620)에서 실시간으로 다루는 입력 영상, 입력 사운드, 출력 영상, 및 출력 음성 각각의 데이터를 처리하도록 제어하는 데이터 처리 제어부 및 해당 데이터들을 저장하거나 서버 통신을 준비하는 데이터 관리부를 포함할 수 있다. The
통신부(150)는 입력부(621)로 입력되는 영상 데이터 및 사운드 데이터를 상황 인식 서버로 전송하는 전송부(151) 및 상황 인식 결과에 해당하는 메시지, 음성, 및 그래픽 객체를 상황 인식 서버로부터 수신하는 수신부(152), 및 상황 인식 서버와의 통신을 제어하는 통신 제어부(153)를 포함한다. The
실시예에 따르면, 통신부(150)는 컨트롤러(160)가 상황 인식을 위한 연산이 어려울 경우, 상황 인식 서버를 통해 실시간 상황인식 처리를 할 수 있도록 입력부(621)로 입력되는 영상 데이터 및 사운드 데이터를 상황 인식 서버로 전송할 수 있다.According to an embodiment, the
도 7은 일 실시예에 따른 상황 인식 서버가 착용형 장치의 사용자의 주변 상황을 인식하는 것을 설명하기 위한 도면이다.7 is a diagram for explaining that the context recognition server recognizes the surrounding context of the user of the wearable device according to an embodiment.
도 7을 참조하면, 착용형 장치(100)는 주변 상황에 대한 영상 데이터 및 사운드 데이터를 상황 인식 서버(700)로 전송한다(710). 일례로, 착용형 장치(100)는 영상 촬영기들(110-1 내지 110-a)(일례로, 카메라들(210-1 내지 210-6)) 각각에 의해 생성된 영상 데이터 및 사운드 수신기들(120-1 내지 120-b)(일례로, 마이크들(220-1 내지 220-6)) 각각에 의해 생성된 사운드 데이터를 상황 인식 서버(700)로 전송할 수 있다. Referring to FIG. 7 , the
실시예에 있어서, 영상 촬영기들(110-1 내지 110-a)(일례로, 카메라들(210-1 내지 210-6)) 각각의 영상 데이터에는 각 영상 촬영기(또는 각 카메라)에 부여된 인덱스가 포함될 수 있다. 또한, 사운드 수신기들(120-1 내지 120-b)(일례로, 마이크들(220-1 내지 220-6)) 각각의 사운드 데이터에는 각 사운드 수신기(또는 각 마이크)에 부여된 인덱스가 포함될 수 있다. 이에 따라, 상황 인식 서버(700)는 영상 데이터가 어떤 카메라에 의해 생성된 것인지 및 사운드 데이터가 어떤 마이크에 의해 생성된 것인지 구분 또는 구별할 수 있다. In the embodiment, the image data of each of the imagers 110-1 to 110-a (eg, the cameras 210-1 to 210-6) has an index assigned to each imager (or each camera). may be included. In addition, the sound data of each of the sound receivers 120-1 to 120-b (eg, the microphones 220-1 to 220-6) may include an index assigned to each sound receiver (or each microphone). have. Accordingly, the
일례로, 전방 카메라(210-1)의 영상 데이터에는 인덱스 "1"이 포함될 수 있고, 우측 전방 카메라(210-2)의 영상 데이터에는 인덱스 "2"가 포함될 수 있으며, 좌측 전방 카메라(210-3)의 영상 데이터에는 인덱스 "3"이 포함될 수 있다. 또한, 제1 측면 카메라(210-4)의 영상 데이터에는 인덱스 "4"가 포함될 수 있고, 제2 측면 카메라(210-5)의 영상 데이터에는 인덱스 "5"가 포함될 수 있으며, 후방 카메라(210-6)의 영상 데이터에는 인덱스 "6"이 포함될 수 있다. 이와 유사하게, 마이크들(220-1 내지 220-6) 각각의 사운드 데이터에는 인덱스들 "1" 내지 "6" 각각이 포함될 수 있다.For example, the image data of the front camera 210 - 1 may include index “1”, the image data of the right front camera 210 - 2 may include index “2”, and the left front camera 210 - The image data of 3) may include an index “3”. In addition, the image data of the first side camera 210-4 may include an index “4”, the image data of the second side camera 210-5 may include an index “5”, and the rear camera 210 The image data of -6) may include an index “6”. Similarly, sound data of each of the microphones 220 - 1 to 220 - 6 may include indices "1" to "6", respectively.
상술한 인덱스는 방향을 의미할 수 있다. 인덱스 "1"은 전방을 의미할 수 있고, 인덱스 "2"는 우측 전방을 의미할 수 있으며, 인덱스 "3"은 좌측 전방을 의미할 수 있고, 인덱스 "4"는 좌측을 의미할 수 있고, 인덱스 "5"는 우측을 의미할 수 있고, 인덱스 "6"은 후방을 의미할 수 있다.The above-mentioned index may mean a direction. Index "1" may mean forward, index "2" may mean right front, index "3" may mean left front, index "4" may mean left, The index “5” may mean the right side, and the index “6” may mean the rear side.
상황 인식 서버(700)는 착용형 장치(100)로부터 수신한 영상 데이터 및 사운드 데이터를 기초로 사용자의 주변 상황을 인식한다(720). 달리 표현하면, 상황 인식 서버(700)는 음성 기반 상황 인식과 영상 기반 상황 인식을 수행할 수 있다. 일례로, 상황 인식 서버(700)는 인덱스 "1"이 포함된 영상 데이터 및 사운드 데이터를 기초로 전방 상황을 인식할 수 있고, 인덱스 "6"이 포함된 영상 데이터 및 사운드 데이터를 기초로 후방 상황을 인식할 수 있다.The
상황 인식 서버(700)의 주변 상황 인식에 대해선 착용형 장치(100)의 주변 상황 인식에 대한 설명이 적용될 수 있으므로, 상세한 설명을 생략한다.Since the description of the surrounding situation recognition of the
상황 인식 서버(700)는 착용형 장치(100)의 주변 상황에 대한 인식 결과를 착용형 장치(100)로 전송하고(730), 착용형 장치(100)는 수신된 인식 결과를 기초로 주변 상황을 사용자에게 안내한다(740). 일례로, 상황 인식 서버(700)는 인덱스 "6"이 포함된 영상 데이터 및 사운드 데이터를 기초로 자전거가 후방에서 접근 중인 후방 상황과 비켜달라는 후방 상황을 인식할 수 있다. 이 경우, 상황 인식 서버(700)는 어느 방향의 주변 상황을 인식하였는지를 나타내는 방향 정보(예를 들어, 앞서 설명한 인덱스 "6"), 시각적 정보, 및 음성 정보를 착용형 장치(100)로 전송할 수 있다. 해당 시각적 정보에는, 예를 들어, "길 좀 비켜주세요(자전거 접근중)"의 텍스트와 후방을 나타내는 그래픽 객체가 포함될 수 있고, 해당 음성 정보에는, 예를 들어, "자전거 접근중, 길 좀 비켜 주세요"의 음성이 포함될 수 있다. 착용형 장치(100)는 디스플레이(140)의 전체 영역에서 방향 정보(예를 들어, 인덱스 "6")에 대응되는 영역에 시각적 정보를 노출할 수 있다. 이에 따라, 도 4를 통해 설명한 예와 같이, 디스플레이(140)의 좌측 하단(또는 좌측 투명 디스플레이(290-2)의 하단)에 메시지(410-1) 및 그래픽 객체(420-1)가 노출될 수 있다. 또한, 착용형 장치(100)는 스피커들(230-1 내지 230-6) 중에서 방향 정보(예를 들어, 인덱스 "6")에 대응되는 스피커(230-6)를 선택할 수 있고, 스피커(230-6)를 통해 음성 정보를 출력할 수 있다. 이에 따라, 도 5를 통해 설명한 것과 같이, "자전거 접근 중, 길 좀 비켜주세요"의 음성이 스피커(230-6)를 통해 출력될 수 있다. The
실시예에 따르면, 착용형 장치(100)는 주변 상황을 인식하기 위한 프로세싱을 수행하지 못할 수 있다. 일례로, 착용형 장치(100)는 배터리(270)의 충전 상태가 일정 기준 미만이어서 전력 소비를 줄이기 위해 주변 상황을 인식하기 위한 프로세싱 기능을 잠시 중지할 수 있다. 이 경우, 착용형 장치(100)는 영상 데이터 및 사운드 데이터를 상황 인식 서버(700)로 전송하여 상황 인식 서버(700)에게 상황 인식을 요청할 수 있고, 상황 인식 서버(700)로부터 인식 결과를 수신할 수 있다. 구현에 따라, 착용형 장치(100)에는 상황 인식 기능이 없을 수 있다. 이러한 경우에도 착용형 장치(100)는 도 7을 통해 설명한 것과 같이 상황 인식 서버(700)에 주변 상황에 대한 인식을 요청할 수 있고, 상황 인식 서버(700)로부터 인식 결과를 수신함으로써 주변 상황에 대한 안내를 수행할 수 있다. According to an embodiment, the
도 1 내지 도 6을 통해 기술된 사항들은 도 7을 통해 기술된 사항들에 적용될 수 있으므로, 상세한 설명을 생략한다.Since the matters described with reference to FIGS. 1 to 6 may be applied to the matters described with reference to FIG. 7 , a detailed description thereof will be omitted.
도 8은 일 실시예에 따른 착용형 장치의 동작 방법을 설명하기 위한 순서도이다.8 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.
도 8을 참조하면, 착용형 장치(100)는 영상 촬영기들(110-1 내지 110-a) 중 하나 이상에 의해 생성된 영상 데이터 및 사운드 수신기들(120-1 내지 120-b) 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식한다(810). Referring to FIG. 8 , the
착용형 장치(100)는 인식 결과를 사운드 출력기들(130-1 내지 130-c) 중 하나 이상 및 디스플레이(140)를 통해 사용자에게 안내한다(820).The
실시예에 따르면, 단계(820)에서 착용형 장치(100)는 인식 결과에 부합되는 시각적 피드백을 디스플레이(140)에 출력할 수 있고, 인식 결과에 부합되는 청각적 피드백을 사운드 출력기들(130-1 내지 130-c) 중 하나 이상을 통해 출력할 수 있다.According to an embodiment, in
실시예에 따르면, 단계(820)에서 착용형 장치(100)는 영상 데이터 및 사운드 데이터 중 적어도 하나를 기초로 특정 방향에서 객체(예를 들어, 사람, 동물, 자동차, 자전거 등의 움직임이 가능한 객체)가 사운드를 내는 상황을 인식한 경우, 인식된 상황에 포함된 음성을 사운드 출력기들(130-1 내지 130-c) 중 특정 방향과 매칭되는 사운드 출력기를 통해 출력할 수 있고, 디스플레이(140)에 인식된 상황에 대응되는 메시지와 특정 방향을 표현하는 그래픽 객체를 노출할 수 있다. 이 때, 메시지는 기울어져서 디스플레이(140)의 영역들 중 특정 방향과 매칭되는 영역에 노출될 수 있다. 해당 실시예에 대한 일례로서 도 4 및 도 5를 통해 좌측 상황 안내 및 후방 상황 안내를 설명하였으므로, 해당 실시예에 대한 자세한 설명을 생략한다.According to an embodiment, in
실시예에 따르면, 단계(820)에서 착용형 장치(100)는 영상 데이터를 통해 사용자가 바라보는 방향에 해당하는 영상이 디스플레이(140)에 표시되고 디스플레이(140)에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 인식된 상황에 포함된 음성을 사운드 출력기들(130-1 내지 130-c) 중 사용자가 바라보는 방향과 매칭되는 사운드 출력기를 통해 출력할 수 있고, 영상 속의 객체 주변에 인식된 상황에 대응되는 메시지를 노출할 수 있다. 해당 실시예에 대한 일례로서 도 4 및 도 5를 통해 전방 상황 안내를 설명하였으므로, 해당 실시예에 대한 자세한 설명을 생략한다.According to an embodiment, in
실시예에 따르면, 단계(820)에서 착용형 장치(100)는 영상 데이터 및 사운드 데이터를 기초로 특정 방향에서 객체가 사용자에게 접근하는 상황을 인식한 경우, 인식된 상황에 포함된 음성을 사운드 출력기들(130-1 내지 130-c) 중 특정 방향과 매칭되는 사운드 출력기를 통해 출력할 수 있고, 디스플레이(140)에 인식된 상황에 대응되는 메시지 및 객체의 접근을 나타내는 메시지 중 적어도 하나와 특정 방향을 표현하는 그래픽 객체를 노출할 수 있다. 해당 실시예에 대한 일례로서 도 4 및 도 5를 통해 후방 상황 안내를 설명하였으므로, 해당 실시예에 대한 자세한 설명을 생략한다.According to an embodiment, when the
실시예에 따르면, 착용형 장치(100)는 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버(700)에 영상 데이터 및 사운드 데이터를 통신 인터페이스를 통해 전송할 수 있다. 여기서, 통신 인터페이스는 상술한 통신부(150)에 해당할 수 있다. 착용형 장치(100)는 상황 인식 서버(700)로부터 상황 인식 서버(700)가 영상 데이터 및 사운드 데이터를 기초로 주변 상황을 인식한 결과를 통신 인터페이스를 통해 수신할 수 있고, 수신된 결과를 포함하는 증강 현실 영상을 디스플레이(140)에 표시할 수 있다.According to an embodiment, when the
착용형 장치(100)는 360도 상황을 디스플레이(140)에 표현하기 위해 사용자가 바라보는 방향 기준으로 텍스트 또는 부가 콘텐츠 정보를 기울여 표시하거나 화살표를 표시함으로써 상황 인식된 방향에서의 결과를 사용자에게 알려줄 수 있다. The
또한, 착용형 장치(100)는 360도 상황을 서라운드 스피커를 이용하여 상황 인식 결과에 해당하는 음성을 해당 방향에서 들리도록 할 수 있다.In addition, the
착용형 장치(100)는 하나의 카메라로 특정 방향을 인식할 수 있다. 또한, 착용형 장치(100)는 다수 카메라로부터 들어오는 영상들을 모아 분석하여 특정 방향을 인식할 수 있다. The
착용형 장치(100)는 하나의 마이크 입력 뿐만 아니라 다수의 마이크로부터 들어오는 사운드를 분석하여 특정 방향을 인식할 수 있다. The
착용형 장치(100)는 하나의 스피커를 통해 음성을 출력할 수 있다. 또한, 착용형 장치(100)는 다수의 스피커를 통해 음성을 출력하여 보다 높은 정확도의 특정 방향에서의 음성이 들리도록 할 수 있다. The
도 1 내지 도 7을 통해 기술된 사항들은 도 8을 통해 기술된 사항들에 적용될 수 있으므로, 상세한 설명을 생략한다.Since the matters described with reference to FIGS. 1 to 7 may be applied to the matters described with reference to FIG. 8 , a detailed description thereof will be omitted.
도 9는 일 실시예에 따른 상황 인식 서버를 설명하기 위한 블록도이다. 9 is a block diagram illustrating a context-aware server according to an embodiment.
도 9를 참조하면, 상황 인식 서버(700)는 통신 인터페이스(910) 및 컨트롤러(920)를 포함한다.Referring to FIG. 9 , the context-
컨트롤러(920)는 착용형 장치(100)로부터 착용형 장치(100)에 포함된 영상 촬영기들(110-1 내지 110-a) 중 하나 이상에 의해 생성된 영상 데이터 및 착용형 장치(100)에 포함된 사운드 수신기들(120-1 내지 120-b) 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 통신 인터페이스(910)를 통해 수신한다.The
컨트롤러(920)는 영상 데이터 및 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식하고, 인식 결과를 통신 인터페이스(910)를 통해 착용형 장치(100)로 전송한다.The
도 1 내지 도 8을 통해 기술된 사항들은 도 9를 통해 기술된 사항들에 적용될 수 있으므로, 상세한 설명을 생략한다.Since the matters described with reference to FIGS. 1 to 8 may be applied to the matters described with reference to FIG. 9 , a detailed description thereof will be omitted.
일 실시예는 360도 전방위에 대한 영상 및 소리 정보를 기반으로 상황 분석하여 이를 텍스트 또는 부가 정보로 변경할 수 있고 디스플레이에 방향에 맞도록 각도를 기울인 텍스트나 화살표를 출력할 수 있으며, 서라운드 스피커를 통해 해당 방향에서의 상황 인식 결과를 해당 방향에서 소리가 들리게 할 수 있다. 이에 따라, 일 실시예는 360도 전방위에 대한 상황을 인식하고 사용자에게 알려줄 수 있다. In one embodiment, it is possible to analyze a situation based on video and sound information for 360 degrees and change it to text or additional information, and output text or arrows inclined at an angle to fit the direction on the display, and through a surround speaker A sound may be heard in the corresponding direction as a result of situation recognition in the corresponding direction. Accordingly, an embodiment may recognize the situation for 360-degree omnidirectional and inform the user.
또한, 일 실시예는 외국과 같은 낯선 공간, 환경에서 원활한 상황 인식 기반의 자동 번역을 포함한 의사소통으로 사용자에게 편리함과 편의성을 제공할 수 있다. 또한, 일 실시예는 청각 및 시각 장애인들에게도 360도 방향에 따른 상황인식 및 의사소통을 할 수 있도록 도와줄 수 있으며, 스키장 등의 액티비티 장소나 물속 잠수 환경, 산악 고지대 및 우림 지역, 우주 공간 등 360도 전방위 상황인식이 필요한 환경에도 적용하여 사용자의 안전, 이상 상황에 대한 대처 등을 할 수 있도록 도와줄 수 있다.In addition, an embodiment may provide convenience and convenience to the user through communication including automatic translation based on situational awareness in an unfamiliar space or environment such as a foreign country. In addition, one embodiment can help the hearing and visually impaired to recognize situations and communicate according to a 360-degree direction, such as an activity place such as a ski resort, a diving environment, a mountainous highland and rain forest area, outer space, etc. It can be applied to an environment that requires 360-degree situational awareness to help users safety and respond to abnormal situations.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (19)
복수의 영상 촬영기들;
복수의 사운드 수신기들;
복수의 사운드 출력기들;
디스플레이; 및
상기 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 영상 촬영기들과 독립적으로 동작하는 상기 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식하고,
상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에 대한 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고,
상기 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체를 노출 - 상기 음성 및 상기 메시지는 설정된 언어에 따라 변환됨 -하는 컨트롤러
를 포함하는,
착용형 장치.
In the wearable device,
a plurality of imagers;
a plurality of sound receivers;
a plurality of sound output devices;
display; and
Recognizing the user's surrounding situation based on at least one of image data generated by one or more of the image capturers and sound data generated by one or more of the sound receivers that operate independently of the image capturers,
When a situation for a specific direction is recognized based on at least one of the image data and the sound data, through a sound output device matching the specific direction among the sound output devices or through a plurality of sound output devices to match the specific direction output the voice included in the recognized situation,
A controller that exposes a message corresponding to the recognized situation and a graphic object expressing the specific direction on the display, wherein the voice and the message are converted according to a set language
containing,
wearable device.
상기 컨트롤러는,
상기 인식 결과에 부합되는 시각적 피드백을 상기 디스플레이에 출력하고, 상기 인식 결과에 부합되는 청각적 피드백을 상기 사운드 출력기들 중 하나 이상을 통해 출력하는,
착용형 장치.
According to claim 1,
The controller is
outputting a visual feedback corresponding to the recognition result to the display, and outputting an auditory feedback corresponding to the recognition result through one or more of the sound output devices,
wearable device.
상기 디스플레이는,
투명 디스플레이에 해당하고,
상기 컨트롤러는,
상기 투명 디스플레이에 상기 인식 결과를 포함하는 증강 현실 영상을 표시하는,
착용형 장치.
According to claim 1,
The display is
It corresponds to a transparent display,
The controller is
Displaying an augmented reality image including the recognition result on the transparent display,
wearable device.
상기 메시지는 기울어져서 상기 디스플레이의 영역들 중 상기 특정 방향과 매칭되는 영역에 노출되거나 또는 기울기 정도에 따라 특정 방향을 나타내도록 하는,
착용형 장치.
According to claim 1,
The message is tilted to be exposed to an area matching the specific direction among the areas of the display or to indicate a specific direction according to the degree of inclination,
wearable device.
상기 디스플레이는,
상기 영상 데이터를 통해 상기 사용자가 바라보는 방향에 해당하는 영상을 표시하고,
상기 컨트롤러는,
상기 디스플레이에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 방향과 매칭되는 사운드 출력기를 통해 또는 상기 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 영상 속의 객체 주변에 상기 인식된 상황에 대응되는 메시지를 노출하는,
착용형 장치.
According to claim 1,
The display is
Displaying an image corresponding to the direction in which the user is looking through the image data,
The controller is
When a situation in which an object in the image displayed on the display emits a sound is recognized, a sound output device matching the direction among the sound output devices is included in the recognized situation through a plurality of sound output devices to match the direction Outputting a voice and exposing a message corresponding to the recognized situation around the object in the image,
wearable device.
상기 컨트롤러는,
상기 영상 데이터 및 상기 사운드 데이터를 기초로 특정 방향에서 객체가 상기 사용자에게 접근하는 상황을 인식한 경우, 상기 인식된 상황에 포함된 음성을 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지 및 상기 객체의 접근을 나타내는 메시지 중 적어도 하나와 상기 특정 방향을 표현하는 그래픽 객체를 노출하는,
착용형 장치.
According to claim 1,
The controller is
When a situation in which an object approaches the user in a specific direction is recognized based on the image data and the sound data, a sound included in the recognized situation is transmitted through a sound output device matching the specific direction among the sound output devices or outputting through a plurality of sound output devices to match the specific direction, and exposing at least one of a message corresponding to the recognized situation and a message indicating an approach of the object and a graphic object expressing the specific direction on the display,
wearable device.
상기 컨트롤러는,
상기 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버에 상기 영상 데이터 및 상기 사운드 데이터를 통신 인터페이스를 통해 전송하고, 상기 상황 인식 서버로부터 상기 상황 인식 서버가 상기 영상 데이터 및 상기 사운드 데이터를 기초로 상기 주변 상황을 인식한 결과를 상기 통신 인터페이스를 통해 수신하며, 상기 수신된 결과를 포함하는 증강 현실 영상을 상기 디스플레이에 표시하는,
착용형 장치.
According to claim 1,
The controller is
If the processing for recognizing the surrounding situation cannot be performed, the image data and the sound data are transmitted to a context-aware server through a communication interface, and the context-aware server sends the image data and the sound data from the context-aware server Receiving a result of recognizing the surrounding situation based on the communication interface, and displaying the augmented reality image including the received result on the display,
wearable device.
상기 착용형 장치는,
안경 형태로 센터 프레임, 안경 다리들, 및 상기 안경 다리들과 연결되는 안경 밴드를 포함하고,
상기 영상 촬영기들은,
상기 센터 프레임에 위치하여 상기 사용자의 전방 영상을 촬영하는 하나 이상의 전방 카메라, 상기 안경 밴드에 위치하여 상기 사용자의 후방 영상을 촬영하는 후방 카메라, 상기 안경 다리들 중 하나에 위치하여 상기 사용자의 제1 측면 영상을 촬영하는 제1 측면 카메라, 및 상기 안경 다리들 중 나머지 하나에 위치하여 상기 사용자의 제2 측면 영상을 촬영하는 제2 측면 카메라를 포함하는,
착용형 장치.
According to claim 1,
The wearable device is
a center frame in the form of spectacles, temples, and a spectacle band connected to the temples,
The video cameras are
One or more front cameras positioned in the center frame to capture a front image of the user, a rear camera positioned in the spectacle band to capture a rear image of the user, and one of the temples to capture the user's first A first side camera for photographing a side image, and a second side camera located on the other one of the temples to photograph a second side image of the user,
wearable device.
상기 사운드 수신기들은 상기 하나 이상의 전방 카메라에 대응되는 하나 이상의 마이크, 상기 후방 카메라에 대응되는 마이크, 상기 제1 측면 카메라에 대응되는 마이크, 및 상기 제2 측면 카메라에 대응되는 마이크를 포함하고,
상기 사운드 출력기들은 상기 하나 이상의 전방 카메라에 대응되는 하나 이상의 스피커, 상기 후방 카메라에 대응되는 스피커, 상기 제1 측면 카메라에 대응되는 스피커, 및 상기 제2 측면 카메라에 대응되는 스피커를 포함하는,
착용형 장치.
10. The method of claim 9,
The sound receivers include one or more microphones corresponding to the one or more front cameras, a microphone corresponding to the rear camera, a microphone corresponding to the first side camera, and a microphone corresponding to the second side camera,
The sound output devices include one or more speakers corresponding to the one or more front cameras, a speaker corresponding to the rear camera, a speaker corresponding to the first side camera, and a speaker corresponding to the second side camera,
wearable device.
영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 영상 촬영기들과 독립적으로 동작하는 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식하는 단계; 및
상기 인식 결과를 사운드 출력기들 중 하나 이상 및 디스플레이를 통해 사용자에게 안내하는 단계
를 포함하고,
상기 안내하는 단계는,
상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에 대한 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체를 노출 - 상기 음성 및 상기 메시지는 설정된 언어에 따라 변환됨 -하는 단계
를 포함하는,
착용형 장치의 동작 방법.
In the method of operating a wearable device,
recognizing a user's surroundings based on at least one of image data generated by one or more of the image capturers and sound data generated by one or more of sound receivers that operate independently of the image capturers; and
guiding the recognition result to the user through one or more of the sound output devices and a display
including,
The guiding step is
When a situation for a specific direction is recognized based on at least one of the image data and the sound data, through a sound output device matching the specific direction among the sound output devices or through a plurality of sound output devices to match the specific direction outputting a voice included in the recognized situation, and exposing a message corresponding to the recognized situation and a graphic object expressing the specific direction on the display - the voice and the message are converted according to a set language
containing,
How a wearable device works.
상기 안내하는 단계는,
상기 인식 결과에 부합되는 시각적 피드백을 상기 디스플레이에 출력하고, 상기 인식 결과에 부합되는 청각적 피드백을 상기 사운드 출력기들 중 하나 이상을 통해 출력하는 단계
를 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The guiding step is
outputting a visual feedback corresponding to the recognition result to the display, and outputting an auditory feedback corresponding to the recognition result through one or more of the sound output devices;
containing,
How a wearable device works.
상기 디스플레이는,
투명 디스플레이에 해당하고,
상기 안내하는 단계는,
상기 투명 디스플레이에 상기 인식 결과를 포함하는 증강 현실 영상을 표시하는 단계
를 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The display is
It corresponds to a transparent display,
The guiding step is
Displaying an augmented reality image including the recognition result on the transparent display
containing,
How a wearable device works.
상기 메시지는 기울어져서 상기 디스플레이의 영역들 중 상기 특정 방향과 매칭되는 영역에 노출되거나 또는 기울기 정도에 따라 특정 방향을 나타내도록 하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The message is tilted to be exposed to an area matching the specific direction among the areas of the display or to indicate a specific direction according to the degree of inclination,
How a wearable device works.
상기 안내하는 단계는,
상기 영상 데이터를 통해 상기 사용자가 바라보는 방향에 해당하는 영상이 상기 디스플레이에 표시되고 상기 디스플레이에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 방향과 매칭되는 사운드 출력기를 통해 또는 상기 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 영상 속의 객체 주변에 상기 인식된 상황에 대응되는 메시지를 노출하는 단계
를 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The guiding step is
When an image corresponding to the direction in which the user is looking is displayed on the display through the image data and a situation in which an object in the image displayed on the display produces a sound is recognized, a sound matching the direction among the sound output devices Outputting a voice included in the recognized situation through an output device or a plurality of sound output devices to match the direction, and exposing a message corresponding to the recognized situation around the object in the image
containing,
How a wearable device works.
상기 안내하는 단계는,
상기 영상 데이터 및 상기 사운드 데이터를 기초로 특정 방향에서 객체가 상기 사용자에게 접근하는 상황을 인식한 경우, 상기 인식된 상황에 포함된 음성을 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지 및 상기 객체의 접근을 나타내는 메시지 중 적어도 하나와 상기 특정 방향을 표현하는 그래픽 객체를 노출하는 단계
를 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The guiding step is
When a situation in which an object approaches the user in a specific direction is recognized based on the image data and the sound data, a sound included in the recognized situation is transmitted through a sound output device matching the specific direction among the sound output devices or outputting through a plurality of sound output devices to match the specific direction, and exposing on the display at least one of a message corresponding to the recognized situation and a message indicating an approach of the object and a graphic object expressing the specific direction
containing,
How a wearable device works.
상기 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버에 상기 영상 데이터 및 상기 사운드 데이터를 통신 인터페이스를 통해 전송하는 단계;
상기 상황 인식 서버로부터 상기 상황 인식 서버가 상기 영상 데이터 및 상기 사운드 데이터를 기초로 상기 주변 상황을 인식한 결과를 상기 통신 인터페이스를 통해 수신하는 단계; 및
상기 수신된 결과를 포함하는 증강 현실 영상을 상기 디스플레이에 표시하는 단계
를 더 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
transmitting the image data and the sound data to a context recognition server through a communication interface when processing for recognizing the surrounding situation cannot be performed;
receiving, by the context-aware server, a result of recognizing the surrounding context based on the image data and the sound data from the context-aware server through the communication interface; and
displaying an augmented reality image including the received result on the display
further comprising,
How a wearable device works.
착용형 장치로부터 상기 착용형 장치에 포함된 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 착용형 장치에 포함되고, 상기 영상 촬영기들과 독립적으로 동작하는 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 상기 통신 인터페이스를 통해 수신하고, 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식하며, 상기 인식 결과를 상기 통신 인터페이스를 통해 상기 착용형 장치로 전송하는 컨트롤러
를 포함하고,
상기 컨트롤러가 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에 대한 상황을 인식한 경우,
상기 인식 결과는 상기 착용형 장치의 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성이 출력되고, 상기 착용형 장치의 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체가 노출 - 상기 음성 및 상기 메시지는 설정된 언어에 따라 변환됨 -되는,
상황 인식 서버.communication interface; and
Image data generated by one or more of the imagers included in the wearable device from a wearable device and generated by one or more of sound receivers included in the wearable device and operating independently of the imagers Receives at least one of the received sound data through the communication interface, recognizes the user's surroundings based on at least one of the image data and the sound data, and transmits the recognition result to the wearable device through the communication interface controller that transmits
including,
When the controller recognizes a situation in a specific direction based on at least one of the image data and the sound data,
The recognition result is that the voice included in the recognized situation is output through a sound output device matching the specific direction among sound output devices of the wearable device or through a plurality of sound output devices to match the specific direction, A message corresponding to the recognized situation and a graphic object representing the specific direction are exposed on the display of the device, wherein the voice and the message are converted according to a set language;
Context-Aware Server.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190120347A KR102445496B1 (en) | 2019-09-30 | 2019-09-30 | Wearable apparatus and operating method thereof and server for reconizing situation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190120347A KR102445496B1 (en) | 2019-09-30 | 2019-09-30 | Wearable apparatus and operating method thereof and server for reconizing situation |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210037886A KR20210037886A (en) | 2021-04-07 |
KR102445496B1 true KR102445496B1 (en) | 2022-09-21 |
Family
ID=75469631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190120347A KR102445496B1 (en) | 2019-09-30 | 2019-09-30 | Wearable apparatus and operating method thereof and server for reconizing situation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102445496B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102368929B1 (en) * | 2021-12-20 | 2022-03-02 | (주)에어패스 | Voice recognition-based shortcut key XR interactive interworking system and the method using it |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100911376B1 (en) * | 2007-11-08 | 2009-08-10 | 한국전자통신연구원 | The method and apparatus for realizing augmented reality using transparent display |
KR102195773B1 (en) * | 2013-11-15 | 2020-12-28 | 엘지전자 주식회사 | Wearable glass-type device and method of controlling the device |
US10318016B2 (en) * | 2014-06-03 | 2019-06-11 | Harman International Industries, Incorporated | Hands free device with directional interface |
KR20180116044A (en) * | 2017-04-14 | 2018-10-24 | 에스케이텔레콤 주식회사 | Augmented reality device and method for outputting augmented reality therefor |
KR20200081274A (en) * | 2018-12-27 | 2020-07-07 | 한화테크윈 주식회사 | Device and method to recognize voice |
-
2019
- 2019-09-30 KR KR1020190120347A patent/KR102445496B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20210037886A (en) | 2021-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200250462A1 (en) | Key point detection method and apparatus, and storage medium | |
US10708477B2 (en) | Gaze based directional microphone | |
US10891953B2 (en) | Multi-mode guard for voice commands | |
US8929954B2 (en) | Headset computer (HSC) as auxiliary display with ASR and HT input | |
US9721567B2 (en) | Multi-level voice menu | |
US20190331914A1 (en) | Experience Sharing with Region-Of-Interest Selection | |
US9542958B2 (en) | Display device, head-mount type display device, method of controlling display device, and method of controlling head-mount type display device | |
US9967690B2 (en) | Acoustic control apparatus and acoustic control method | |
US9541761B2 (en) | Imaging apparatus and imaging method | |
US20120330659A1 (en) | Information processing device, information processing system, information processing method, and information processing program | |
CN110572716B (en) | Multimedia data playing method, device and storage medium | |
US20220066207A1 (en) | Method and head-mounted unit for assisting a user | |
WO2019026616A1 (en) | Information processing device and method | |
CN114422935B (en) | Audio processing method, terminal and computer readable storage medium | |
JP6364735B2 (en) | Display device, head-mounted display device, display device control method, and head-mounted display device control method | |
US11605396B2 (en) | Image processing system and method | |
KR102445496B1 (en) | Wearable apparatus and operating method thereof and server for reconizing situation | |
CN112154412A (en) | Providing audio information with a digital assistant | |
CN110933314B (en) | Focus-following shooting method and related product | |
WO2023231787A1 (en) | Audio processing method and apparatus | |
CN114118408A (en) | Training method of image processing model, image processing method, device and equipment | |
CN113763940A (en) | Voice information processing method and system for AR glasses | |
KR102334319B1 (en) | Method and apparatus for providing visually transformed sound information using augmented reality display device | |
US11234090B2 (en) | Using audio visual correspondence for sound source identification | |
US20240107086A1 (en) | Multi-layer Foveated Streaming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X601 | Decision of rejection after re-examination | ||
J201 | Request for trial against refusal decision | ||
J301 | Trial decision |
Free format text: TRIAL NUMBER: 2022101000293; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20220214 Effective date: 20220720 |
|
GRNO | Decision to grant (after opposition) |