KR102445496B1 - Wearable apparatus and operating method thereof and server for reconizing situation - Google Patents

Wearable apparatus and operating method thereof and server for reconizing situation Download PDF

Info

Publication number
KR102445496B1
KR102445496B1 KR1020190120347A KR20190120347A KR102445496B1 KR 102445496 B1 KR102445496 B1 KR 102445496B1 KR 1020190120347 A KR1020190120347 A KR 1020190120347A KR 20190120347 A KR20190120347 A KR 20190120347A KR 102445496 B1 KR102445496 B1 KR 102445496B1
Authority
KR
South Korea
Prior art keywords
sound
situation
wearable device
display
specific direction
Prior art date
Application number
KR1020190120347A
Other languages
Korean (ko)
Other versions
KR20210037886A (en
Inventor
정창용
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020190120347A priority Critical patent/KR102445496B1/en
Publication of KR20210037886A publication Critical patent/KR20210037886A/en
Application granted granted Critical
Publication of KR102445496B1 publication Critical patent/KR102445496B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

착용형 장치가 개시된다. 일 실시예는 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 상기 사용자의 주변 상황을 인식하고, 상기 인식 결과를 사운드 출력기들 중 하나 이상 및 디스플레이를 통해 사용자에게 안내한다.A wearable device is disclosed. In one embodiment, the user's surroundings are recognized based on at least one of image data generated by one or more of the image capturers and sound data generated by one or more of the sound receivers, and the recognition result is outputted to a sound output device. one or more of them and guide the user through the display.

Description

착용형 장치 및 이의 동작 방법과 상황 인식 서버{WEARABLE APPARATUS AND OPERATING METHOD THEREOF AND SERVER FOR RECONIZING SITUATION}WEARABLE APPARATUS AND OPERATING METHOD THEREOF AND SERVER FOR RECONIZING SITUATION

아래 실시예들은 착용형 장치 및 상황 인식 서버에 관한 것이다.The embodiments below relate to a wearable device and a context-aware server.

최근에, 가상 현실(Virtual Reality, VR) 영상, 증강 현실(Augmented Reality, AR) 영상, 또는 혼합 현실(Mixed Reality, MR) 영상을 표시하는 장치가 나타난다.Recently, a device for displaying a virtual reality (VR) image, an augmented reality (AR) image, or a mixed reality (MR) image appears.

관련 선행기술로, 한국 공개특허공보 제10-2019-0098925호(발명의 명칭: XR 디바이스 및 그 제어 방법, 출원인: 엘지전자 주식회사)가 있다. 해당 공개특허공보에는 투명 디스플레이, 투명 디스플레이에 대한 사용자의 상대적 위치 및 시선 방향을 센싱하는 센싱부, 상기 센싱부를 통해 센싱된 상대적 위치 및 시선 방향에 기반하여, 상기 사용자가 상기 투명 디스플레이를 통해 보고 있는 상기 투명 디스플레이의 전방에 위치한 현실 세계의 외부 객체를 인식하는 프로세서를 포함하는 XR(extended reality) 디바이스가 개시된다. 여기서, XR은 VR, AR, 및 MR을 지칭하는 표현이다. As a related prior art, there is Korean Patent Application Laid-Open No. 10-2019-0098925 (Title of the Invention: XR Device and Control Method Thereof, Applicant: LG Electronics Co., Ltd.). The patent publication discloses a transparent display, a sensing unit for sensing the user's relative position and gaze direction with respect to the transparent display, and based on the relative position and gaze direction sensed through the sensing unit, the user is viewing through the transparent display. An extended reality (XR) device including a processor for recognizing an external object in the real world located in front of the transparent display is disclosed. Here, XR is an expression referring to VR, AR, and MR.

일 측에 따른 착용형 장치는 복수의 영상 촬영기들; 복수의 사운드 수신기들; 복수의 사운드 출력기들; 디스플레이; 및 상기 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 상기 사용자의 주변 상황을 인식하고, 상기 인식 결과를 상기 사운드 출력기들 중 하나 이상 및 상기 디스플레이를 통해 상기 사용자에게 안내하는 컨트롤러를 포함한다.A wearable device according to one side includes: a plurality of image capturers; a plurality of sound receivers; a plurality of sound output devices; display; and recognizing the surrounding situation of the user based on at least one of image data generated by one or more of the image capturers and sound data generated by one or more of the sound receivers, and outputting the recognition result to the sound output device one or more of these and a controller for guiding the user through the display.

상기 컨트롤러는 상기 인식 결과에 부합되는 시각적 피드백을 상기 디스플레이에 출력하고, 상기 인식 결과에 부합되는 청각적 피드백을 상기 사운드 출력기들 중 하나 이상을 통해 출력할 수 있다.The controller may output a visual feedback corresponding to the recognition result to the display, and output an auditory feedback corresponding to the recognition result through one or more of the sound output devices.

상기 디스플레이는 투명 디스플레이에 해당할 수 있고, 상기 컨트롤러는 상기 투명 디스플레이에 상기 인식 결과를 포함하는 증강 현실 영상을 표시할 수 있다.The display may correspond to a transparent display, and the controller may display an augmented reality image including the recognition result on the transparent display.

상기 컨트롤러는 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에서 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력할 수 있고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체를 노출할 수 있다.When the controller recognizes a situation in which an object makes sound in a specific direction based on at least one of the image data and the sound data, the controller matches the specific direction or through a sound output device matching the specific direction among the sound output devices A voice included in the recognized situation may be output through a plurality of sound output devices as much as possible, and a message corresponding to the recognized situation and a graphic object expressing the specific direction may be exposed on the display.

상기 메시지는 기울어져서 상기 디스플레이의 영역들 중 상기 특정 방향과 매칭되는 영역에 노출될 수 있다. 상기 메시지의 기울기는 상기 특정 방향을 나타낼 수 있다. The message may be tilted and exposed in a region matching the specific direction among regions of the display. The slope of the message may indicate the specific direction.

상기 디스플레이는 상기 영상 데이터를 통해 상기 사용자가 바라보는 방향에 해당하는 영상을 표시할 수 있고 상기 컨트롤러는 상기 디스플레이에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 방향과 매칭되는 사운드 출력기를 통해 또는 상기 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력할 수 있고, 상기 영상 속의 객체 주변에 상기 인식된 상황에 대응되는 메시지를 노출할 수 있다. The display may display an image corresponding to the direction in which the user is looking through the image data, and when the controller recognizes a situation in which an object in the image displayed on the display produces a sound, the A sound included in the recognized situation can be output through a sound output device matching the direction or through a plurality of sound output devices to match the direction, and a message corresponding to the recognized situation can be exposed around the object in the image. can

상기 컨트롤러는 상기 영상 데이터 및 상기 사운드 데이터를 기초로 특정 방향에서 객체가 상기 사용자에게 접근하는 상황을 인식한 경우, 상기 인식된 상황에 포함된 음성을 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 출력할 수 있고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지 및 상기 객체의 접근을 나타내는 메시지 중 적어도 하나와 상기 특정 방향을 표현하는 그래픽 객체를 노출할 수 있다. When the controller recognizes a situation in which an object approaches the user in a specific direction based on the image data and the sound data, a sound included in the recognized situation is matched with the specific direction among the sound output devices. A graphic expressing the specific direction and at least one of a message corresponding to the recognized situation and a message indicating the approach of the object on the display, which can be output through an output device or through a plurality of sound output devices to match the specific direction objects can be exposed.

상기 컨트롤러는 상기 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버에 상기 영상 데이터 및 상기 사운드 데이터를 통신 인터페이스를 통해 전송하고, 상기 상황 인식 서버로부터 상기 상황 인식 서버가 상기 영상 데이터 및 상기 사운드 데이터를 기초로 상기 주변 상황을 인식한 결과를 상기 통신 인터페이스를 통해 수신하며, 상기 수신된 결과를 포함하는 증강 현실 영상을 상기 디스플레이에 표시할 수 있다.When the controller fails to perform processing for recognizing the surrounding situation, the controller transmits the image data and the sound data to a context-aware server through a communication interface, and from the context-aware server, the context-aware server sends the image data and A result of recognizing the surrounding situation based on the sound data may be received through the communication interface, and an augmented reality image including the received result may be displayed on the display.

상기 착용형 장치는 안경 형태로 센터 프레임, 안경 다리들, 및 상기 안경 다리들과 연결되는 안경 밴드를 포함할 수 있다. The wearable device may include a center frame in the form of spectacles, temples, and a spectacle band connected to the temples.

상기 영상 촬영기들은 상기 센터 프레임에 위치하여 상기 사용자의 전방 영상을 촬영하는 하나 이상의 전방 카메라, 상기 안경 밴드에 위치하여 상기 사용자의 후방 영상을 촬영하는 후방 카메라, 상기 안경 다리들 중 하나에 위치하여 상기 사용자의 제1 측면 영상을 촬영하는 제1 측면 카메라, 및 상기 안경 다리들 중 나머지 하나에 위치하여 상기 사용자의 제2 측면 영상을 촬영하는 제2 측면 카메라를 포함할 수 있다.The imagers are located in one or more of the front camera located in the center frame to photograph the front image of the user, the rear camera located in the spectacle band to photograph the rear image of the user, and located in one of the temples. It may include a first side camera for photographing a first side image of the user, and a second side camera located on the other one of the temples to photograph a second side image of the user.

상기 사운드 수신기들은 상기 하나 이상의 전방 카메라에 대응되는 하나 이상의 마이크, 상기 후방 카메라에 대응되는 마이크, 상기 제1 측면 카메라에 대응되는 마이크, 및 상기 제2 측면 카메라에 대응되는 마이크를 포함할 수 있다.The sound receivers may include one or more microphones corresponding to the one or more front cameras, a microphone corresponding to the rear camera, a microphone corresponding to the first side camera, and a microphone corresponding to the second side camera.

상기 사운드 출력기들은 상기 하나 이상의 전방 카메라에 대응되는 하나 이상의 스피커, 상기 후방 카메라에 대응되는 스피커, 상기 제1 측면 카메라에 대응되는 스피커, 및 상기 제2 측면 카메라에 대응되는 스피커를 포함할 수 있다.The sound output devices may include one or more speakers corresponding to the one or more front cameras, a speaker corresponding to the rear camera, a speaker corresponding to the first side camera, and a speaker corresponding to the second side camera.

일 측에 따른 착용형 장치의 동작 방법은 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 상기 사용자의 주변 상황을 인식하는 단계; 및 상기 인식 결과를 사운드 출력기들 중 하나 이상 및 디스플레이를 통해 사용자에게 안내하는 단계를 포함한다.The operating method of the wearable device according to one side is to recognize the surrounding situation of the user based on at least one of image data generated by one or more of the imagers and sound data generated by one or more of the sound receivers step; and guiding the recognition result to the user through one or more of the sound output devices and a display.

상기 안내하는 단계는 상기 인식 결과에 부합되는 시각적 피드백을 상기 디스플레이에 출력하고, 상기 인식 결과에 부합되는 청각적 피드백을 상기 사운드 출력기들 중 하나 이상을 통해 출력하는 단계를 포함할 수 있다.The guiding may include outputting a visual feedback corresponding to the recognition result to the display and outputting an auditory feedback corresponding to the recognition result through one or more of the sound output devices.

상기 디스플레이는 투명 디스플레이에 해당할 수 있고, 상기 안내하는 단계는 상기 투명 디스플레이에 상기 인식 결과를 포함하는 증강 현실 영상을 표시하는 단계를 포함할 수 있다. The display may correspond to a transparent display, and the step of guiding may include displaying an augmented reality image including the recognition result on the transparent display.

상기 안내하는 단계는 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에서 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체를 노출하는 단계를 포함할 수 있다.In the guiding step, when a situation in which an object makes a sound in a specific direction is recognized based on at least one of the image data and the sound data, a sound output device matching the specific direction among the sound output devices or the specific direction It may include outputting a voice included in the recognized situation through a plurality of sound output devices to match the direction, and exposing a message corresponding to the recognized situation and a graphic object expressing the specific direction on the display. .

상기 메시지는 기울어져서 상기 디스플레이의 영역들 중 상기 특정 방향과 매칭되는 영역에 노출될 수 있다. 또한, 상기 메시지의 기울기는 상기 특정 방향을 나타낼 수 있다.The message may be tilted and exposed in a region matching the specific direction among regions of the display. Also, the slope of the message may indicate the specific direction.

상기 안내하는 단계는 상기 영상 데이터를 통해 상기 사용자가 바라보는 방향에 해당하는 영상이 상기 디스플레이에 표시되고 상기 디스플레이에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 방향과 매칭되는 사운드 출력기를 통해 또는 상기 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 영상 속의 객체 주변에 상기 인식된 상황에 대응되는 메시지를 노출하는 단계를 포함할 수 있다.In the guiding step, when an image corresponding to the direction in which the user is looking is displayed on the display through the image data and a situation in which an object in the image displayed on the display produces a sound is recognized, one of the sound output devices outputting the voice included in the recognized situation through a sound output device matching the direction or through a plurality of sound output devices to match the direction, and exposing a message corresponding to the recognized situation around the object in the image may include

상기 안내하는 단계는 상기 영상 데이터 및 상기 사운드 데이터를 기초로 특정 방향에서 객체가 상기 사용자에게 접근하는 상황을 인식한 경우, 상기 인식된 상황에 포함된 음성을 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지 및 상기 객체의 접근을 나타내는 메시지 중 적어도 하나와 상기 특정 방향을 표현하는 그래픽 객체를 노출하는 단계를 포함할 수 있다.In the guiding step, when a situation in which an object approaches the user in a specific direction is recognized based on the image data and the sound data, a voice included in the recognized situation is matched with the specific direction among the sound output devices A graphic expressing the specific direction and at least one of a message corresponding to the recognized situation and a message indicating the approach of the object on the display and output through a plurality of sound output devices to match the specific direction It may include exposing the object.

상기 착용형 장치의 동작 방법은 상기 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버에 상기 영상 데이터 및 상기 사운드 데이터를 통신 인터페이스를 통해 전송하는 단계; 상기 상황 인식 서버로부터 상기 상황 인식 서버가 상기 영상 데이터 및 상기 사운드 데이터를 기초로 상기 주변 상황을 인식한 결과를 상기 통신 인터페이스를 통해 수신하는 단계; 및 상기 수신된 결과를 포함하는 증강 현실 영상을 상기 디스플레이에 표시하는 단계를 더 포함할 수 있다.The method of operating the wearable device may include transmitting the image data and the sound data to a context recognition server through a communication interface when processing for recognizing the surrounding situation is not performed; receiving, by the context-aware server, a result of recognizing the surrounding context based on the image data and the sound data from the context-aware server through the communication interface; and displaying an augmented reality image including the received result on the display.

일 측에 따른 상황 인식 서버는 통신 인터페이스; 및 착용형 장치로부터 상기 착용형 장치에 포함된 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 착용형 장치에 포함된 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 상기 통신 인터페이스를 통해 수신하고, 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 상기 사용자의 주변 상황을 인식하며, 상기 인식 결과를 상기 통신 인터페이스를 통해 상기 착용형 장치로 전송하는 컨트롤러를 포함한다.Context-aware server according to one side is a communication interface; and communicating at least one of image data generated by one or more of imagers included in the wearable device and sound data generated by one or more of sound receivers included in the wearable device from a wearable device. and a controller for receiving through an interface, recognizing the surrounding situation of the user based on at least one of the image data and the sound data, and transmitting the recognition result to the wearable device through the communication interface.

상기 인식 결과는 상기 착용형 장치의 사운드 출력기들 중 하나 이상 및 상기 착용형 장치의 디스플레이를 통해 상기 사용자에게 안내된다. The recognition result is guided to the user through one or more of the sound output devices of the wearable device and a display of the wearable device.

도 1 내지 도 3은 일 실시예에 따른 착용형 장치를 설명하기 위한 도면이다.
도 4 내지 도 5는 일 실시예에 따른 착용형 장치의 주변 상황 안내를 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 착용형 장치의 일례에 포함된 처리 및 통신 모듈을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 상황 인식 서버가 착용형 장치의 사용자의 주변 상황을 인식하는 것을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 착용형 장치의 동작 방법을 설명하기 위한 순서도이다.
도 9는 일 실시예에 따른 상황 인식 서버를 설명하기 위한 블록도이다.
1 to 3 are views for explaining a wearable device according to an embodiment.
4 to 5 are diagrams for explaining the surrounding situation guidance of the wearable device according to an embodiment.
6 is a view for explaining a processing and communication module included in an example of a wearable device according to an embodiment.
7 is a diagram for explaining that the context recognition server recognizes the surrounding context of the user of the wearable device according to an embodiment.
8 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.
9 is a block diagram illustrating a context-aware server according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

도 1 내지 도 3은 일 실시예에 따른 착용형 장치를 설명하기 위한 도면이다.1 to 3 are views for explaining a wearable device according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 착용형 장치(100)는 복수의 영상 촬영기들(110-1 내지 110-a), 복수의 사운드 수신기들(120-1 내지 120-b), 복수의 사운드 출력기들(130-1 내지 130-c), 디스플레이(140), 통신부(150), 및 컨트롤러(160)를 포함한다. Referring to FIG. 1 , a wearable device 100 according to an embodiment includes a plurality of image capturers 110-1 to 110-a, a plurality of sound receivers 120-1 to 120-b, and a plurality of It includes sound output devices 130 - 1 to 130 - c , a display 140 , a communication unit 150 , and a controller 160 .

영상 촬영기들(110-1 내지 110-a)의 개수, 사운드 수신기들(120-1 내지 120-b)의 개수, 및 사운드 출력기들(130-1 내지 130-c)의 개수는 도 2 내지 도 3을 통해 설명할 예와 같이 동일할 수 있다. 구현에 따라, 영상 촬영기들(110-1 내지 110-a)의 개수, 사운드 수신기들(120-1 내지 120-b)의 개수, 및 사운드 출력기들(130-1 내지 130-c)의 개수는 서로 다를 수 있다.The number of imagers 110-1 to 110-a, the number of sound receivers 120-1 to 120-b, and the number of sound output devices 130-1 to 130-c are shown in Figs. It may be the same as the example described with reference to 3 . Depending on the implementation, the number of imagers 110-1 to 110-a, the number of sound receivers 120-1 to 120-b, and the number of sound output devices 130-1 to 130-c are may be different.

영상 촬영기들(110-1 내지 110-a) 각각은 주변을 촬영하여 영상 데이터를 생성할 수 있다. 영상 촬영기들(110-1 내지 110-a) 각각은, 예를 들어, 카메라를 포함할 수 있다.Each of the image capturers 110 - 1 to 110 - a may generate image data by photographing the surroundings. Each of the image capturers 110 - 1 to 110 - a may include, for example, a camera.

사운드 수신기들(120-1 내지 120-b) 각각은 사운드를 수신하여 사운드 데이터를 생성할 수 있다. 사운드 수신기들(120-1 내지 120-b) 각각은, 예를 들어, 마이크를 포함할 수 있다.Each of the sound receivers 120 - 1 to 120 - b may receive sound and generate sound data. Each of the sound receivers 120 - 1 to 120 - b may include, for example, a microphone.

사운드 출력기들(130-1 내지 130-c) 각각은 사운드를 출력할 수 있다. 사운드 출력기들(130-1 내지 130-c) 각각은, 예를 들어, 스피커를 포함할 수 있다.Each of the sound output devices 130-1 to 130-c may output a sound. Each of the sound output devices 130-1 to 130-c may include, for example, a speaker.

디스플레이(140)는 투명 디스플레이에 해당할 수 있고, 증강 현실 영상 및 콘텐츠를 출력할 수 있다.The display 140 may correspond to a transparent display and may output augmented reality images and content.

통신부(150)는 후술할 상황 인식 서버와 통신을 수행한다. 통신부(150)는, 예를 들어, 3G 통신, 4G 통신, 또는 5G 통신을 수행한다. 또한, 통신부(150)는 근거리 무선 통신(예를 들어, 블루투스)을 수행할 수 있고, 와이파이 통신을 수행할 수 있다. 특히 다수의 고속 영상 및 음성 등 멀티미디어 트래픽 송수신과 실시간으로 상황 인식, 그리고 저지연으로 상황 인식 결과를 피드백 해야하는 조건으로 인해 착용형 장치(100)와 상황 인식 서버는 5G 통신에서 보다 잘 적용될 수 있다.The communication unit 150 communicates with a context-aware server, which will be described later. The communication unit 150 performs, for example, 3G communication, 4G communication, or 5G communication. Also, the communication unit 150 may perform short-range wireless communication (eg, Bluetooth) and may perform Wi-Fi communication. In particular, the wearable device 100 and the context-aware server can be better applied in 5G communication due to the conditions for transmitting and receiving a large number of high-speed multimedia traffic such as video and voice, real-time situational awareness, and low-latency situation recognition results.

컨트롤러(160)는 영상 촬영기들(110-1 내지 110-a) 중 하나 이상에 의해 생성된 영상 데이터 및 사운드 수신기들(120-1 내지 120-b) 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식한다. 일례로, 컨트롤러(160)는 사용자의 전방 상황, 후방 상황, 좌측 상황, 및 우측 상황 중 적어도 하나를 인식할 수 있다.The controller 160 may include at least one of image data generated by one or more of the image capturers 110-1 to 110-a and sound data generated by one or more of the sound receivers 120-1 to 120-b. Based on one, the user's surrounding situation is recognized. For example, the controller 160 may recognize at least one of a front situation, a rear situation, a left situation, and a right situation of the user.

컨트롤러(160)는 주변 상황에 대한 인식 결과를 기초로 사운드 출력기들(130-1 내지 130-c) 중 하나 이상 및 디스플레이(140)를 통해 사용자에게 주변 상황을 안내할 수 있다. 일례로, 컨트롤러(160)는 주변 상황에 대한 인식 결과에 부합되는 시각적 피드백(또는 콘텐츠)(예를 들어, 메시지 및/또는 그래픽 객체)을 디스플레이(140)에 출력할 수 있고, 인식 결과에 부합되는 청각적 피드백(예를 들어, 음성)을 사운드 출력기들(130-1 내지 130-c) 중 하나 이상을 통해 출력할 수 있다.The controller 160 may guide the user through the display 140 and at least one of the sound output devices 130 - 1 to 130 -c based on the recognition result of the surrounding situation. As an example, the controller 160 may output visual feedback (or content) (eg, a message and/or a graphic object) corresponding to the recognition result of the surrounding situation to the display 140 and match the recognition result. The resulting auditory feedback (eg, voice) may be output through one or more of the sound output devices 130 - 1 to 130 -c.

실시예에 있어서, 착용형 장치(100)는 안경 타입일 수 있다. 안경 타입의 착용형 장치(100)가 도 2 및 도 3에 도시된다. 설명의 편의상 도 3에는 안경 다리의 일부를 표현하였다.In an embodiment, the wearable device 100 may be a glasses type. A wearable device 100 of the glasses type is shown in FIGS. 2 and 3 . For convenience of explanation, a part of the temples is shown in FIG. 3 .

도 2를 참조하면, 안경 타입의 착용형 장치(100)는 센터 프레임(250), 안경 다리들(260-1 및 260-2), 및 안경 다리들(260-1 및 260-2)과 연결되는 안경 밴드(280)를 포함한다. Referring to FIG. 2 , the glasses-type wearable device 100 is connected to a center frame 250 , temples 260-1 and 260-2, and temples 260-1 and 260-2. It includes a spectacle band 280 that is.

또한, 도 2에 도시된 안경 타입의 착용형 장치(100)는 처리 및 통신 모듈(240)과 배터리(270)를 포함한다. 처리 및 통신 모듈(240)은 도 1을 통해 설명한 컨트롤러(160)와 통신부(150)를 포함하고, 배터리(270)는 착용형 장치(100)에 전원을 공급한다.In addition, the glasses-type wearable device 100 shown in FIG. 2 includes a processing and communication module 240 and a battery 270 . The processing and communication module 240 includes the controller 160 and the communication unit 150 described with reference to FIG. 1 , and the battery 270 supplies power to the wearable device 100 .

센터 프레임(250)에는 사용자의 전방 영상을 촬영하는 하나 이상의 전방 카메라, 하나 이상의 전방 카메라에 대응되는 마이크와 스피커가 위치할 수 있다. 일례로, 도 2 및 도 3에 도시된 예와 같이, 센터 프레임(250)에서 사용자의 코를 지지하는 부분에 전방 카메라(210-1), 마이크(220-1), 및 스피커(230-1)가 위치할 수 있고 센터 프레임(250)의 우측 부근에 우측 전방을 촬영하는 우측 전방 카메라(210-2), 마이크(220-2), 및 스피커(230-2)가 위치할 수 있으며, 센터 프레임(250)의 좌측 부근에 좌측 전방을 촬영하는 좌측 전방 카메라(210-3), 마이크(220-3), 및 스피커(230-3)가 위치할 수 있다.One or more front cameras for capturing a user's front image, and a microphone and a speaker corresponding to the one or more front cameras may be located in the center frame 250 . For example, as in the example shown in FIGS. 2 and 3 , the front camera 210-1, the microphone 220-1, and the speaker 230-1 are located in the center frame 250 to support the user's nose. ) may be located and a right front camera 210-2, a microphone 220-2, and a speaker 230-2 for photographing the right front in the vicinity of the right side of the center frame 250 may be located, and the center A left front camera 210 - 3 , a microphone 220 - 3 , and a speaker 230 - 3 for photographing the left front of the frame 250 may be located near the left side of the frame 250 .

컨트롤러(160)는 전방 카메라(210-1)가 전방을 촬영하여 생성된 영상 데이터 및 마이크(220-1)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 전방 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 전방 카메라(210-1)에 기반한 것임을 나타내는 인덱스(또는 식별자)가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-1)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. 이로 인해, 컨트롤러(160)는 해당 영상 데이터가 어떤 카메라에 의해 생성된 것인지 알 수 있고 해당 사운드 데이터가 어떤 마이크에 의해 생성된 것인지 알 수 있다.The controller 160 may recognize a forward situation based on image data generated by the front camera 210-1 photographing the front and sound data generated by the microphone 220-1 receiving a sound. In an embodiment, the corresponding image data may include an index (or identifier) indicating that it is based on the front camera 210-1, and the corresponding sound data may include an index indicating that it is based on the microphone 220-1. Due to this, the controller 160 can know which camera the corresponding image data is generated by and can know which microphone the corresponding sound data is generated by.

컨트롤러(160)는 전방 상황에 대한 인식 결과를 기초로 투명 디스플레이(290-1 및 290-2) 중 하나 이상에 시각적 피드백을 출력할 수 있고 스피커(230-1)를 통해 청각적 피드백을 출력할 수 있다. 보다 구체적으로, 컨트롤러(160)는 전방 카메라(210-1)로부터 수신한 영상 데이터를 기초로 전방 상황을 인식하되 기준선(310)보다 왼쪽에서 발생한 상황을 인식한 경우, 해당 인식 결과를 기초로 좌측 투명 디스플레이(290-2)에 시각적 피드백을 출력할 수 있고, 기준선(310)보다 오른쪽에서 발생한 상황을 인식한 경우, 해당 인식 결과를 기초로 우측 투명 디스플레이(290-1)에 시각적 피드백을 출력할 수 있다. 일례로, 컨트롤러(160)는 전방 카메라(210-1)로부터 수신한 영상 데이터를 통해 기준선(310)보다 왼쪽의 전방에서 사용자를 향해 차가 접근하는 상황을 인식한 경우, 차의 접근을 나타내는 메시지를 좌측 투명 디스플레이(290-2)에 노출할 수 있고, 스피커(230-1)를 통해 차의 접근을 알리는 음성을 출력할 수 있다. The controller 160 may output visual feedback to one or more of the transparent displays 290-1 and 290-2 based on the recognition result of the forward situation, and output an auditory feedback through the speaker 230-1. can More specifically, the controller 160 recognizes the front situation based on the image data received from the front camera 210-1, but when recognizing a situation occurring to the left of the reference line 310, the left side based on the recognition result Visual feedback can be output to the transparent display 290 - 2 , and when a situation occurring on the right side of the reference line 310 is recognized, visual feedback can be output to the right transparent display 290 - 1 based on the recognition result. can For example, when the controller 160 recognizes a situation in which the vehicle approaches the user from the front left of the reference line 310 through the image data received from the front camera 210-1, a message indicating the approach of the vehicle is displayed. It may be exposed to the left transparent display 290 - 2 , and a voice notifying the approach of the car may be output through the speaker 230 - 1 .

컨트롤러(160)는 우측 전방 카메라(210-2)가 우측 전방을 촬영하여 생성된 영상 데이터 및 마이크(220-2)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 우측 전방 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 우측 전방 카메라(210-2)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-2)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. The controller 160 may recognize the right front situation based on the image data generated by the right front camera 210 - 2 photographing the right front and the sound data generated by the microphone 220 - 2 receiving the sound. . In an embodiment, the corresponding image data may include an index indicating that it is based on the right front camera 210 - 2 , and the corresponding sound data may include an index indicating that it is based on the microphone 220 - 2 .

컨트롤러(160)는 우측 전방에 대한 인식 결과를 기초로 우측 투명 디스플레이(290-1)에 시각적 피드백을 출력할 수 있고, 스피커(230-2)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 우측 상황에 대한 안내를 수행할 수 있다.The controller 160 may output a visual feedback to the right transparent display 290-1 based on the recognition result of the right front side, and may output an auditory feedback through the speaker 230-2. Accordingly, the wearable device 100 may visually and audibly guide the user to the right situation.

컨트롤러(160)는 좌측 전방 카메라(210-3)가 좌측 전방을 촬영하여 생성된 영상 데이터 및 마이크(220-3)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 좌측 전방 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 좌측 전방 카메라(210-3)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-3)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다.The controller 160 may recognize the left front situation based on the image data generated by the left front camera 210-3 photographing the left front and the sound data generated by the microphone 220-3 receiving the sound. . In an embodiment, the corresponding image data may include an index indicating that it is based on the left front camera 210 - 3 , and the corresponding sound data may include an index indicating that it is based on the microphone 220 - 3 .

컨트롤러(160)는 좌측 전방에 대한 인식 결과를 기초로 좌측 투명 디스플레이(290-2)에 시각적 피드백을 출력할 수 있고, 스피커(230-3)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 좌측 상황에 대한 안내를 수행할 수 있다.The controller 160 may output a visual feedback to the left transparent display 290 - 2 based on the recognition result of the left front and may output an auditory feedback through the speaker 230 - 3 . Accordingly, the wearable device 100 may visually and audibly guide the user about the left side situation.

안경 다리(260-1)에는 사용자의 제1 측면을 촬영하는 제1 측면 카메라(210-5), 제1 측면 카메라(210-5)와 대응되는 마이크(220-5) 및 스피커(230-5)가 위치할 수 있다. The temples 260-1 have a first side camera 210-5 for photographing the first side of the user, a microphone 220-5 corresponding to the first side camera 210-5, and a speaker 230-5 ) can be located.

컨트롤러(160)는 제1 측면 카메라(210-5)가 제1 측면을 촬영하여 생성된 영상 데이터 및 마이크(220-5)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 제1 측면 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 제1 측면 카메라(210-5)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-5)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. The controller 160 recognizes the first side situation based on the image data generated by the first side camera 210-5 photographing the first side and the sound data generated when the microphone 220-5 receives the sound can do. In an embodiment, the corresponding image data may include an index indicating that it is based on the first side camera 210 - 5 , and the corresponding sound data may include an index indicating that it is based on the microphone 220 - 5 .

컨트롤러(160)는 제1 측면 상황에 대한 인식 결과를 기초로 좌측 투명 디스플레이(290-2)에 시각적 피드백을 출력할 수 있고, 스피커(230-5)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 좌측 상황에 대한 안내를 수행할 수 있다.The controller 160 may output a visual feedback to the left transparent display 290 - 2 based on the recognition result of the first side situation and may output an auditory feedback through the speaker 230 - 5 . Accordingly, the wearable device 100 may visually and audibly guide the user about the left side situation.

안경 다리(260-2)에는 사용자의 제2 측면을 촬영하는 제2 측면 카메라(210-4), 제2 측면 카메라(210-4)와 대응되는 마이크(220-4) 및 스피커(230-4)가 위치할 수 있다. The temples 260-2 have a second side camera 210-4 for photographing the user's second side, a microphone 220-4 corresponding to the second side camera 210-4, and a speaker 230-4. ) can be located.

컨트롤러(160)는 제2 측면 카메라(210-4)가 제2 측면을 촬영하여 생성된 영상 데이터 및 마이크(220-4)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 제2 측면 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 제2 측면 카메라(210-4)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-4)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. The controller 160 recognizes the second side situation based on the image data generated by the second side camera 210-4 photographing the second side and the sound data generated when the microphone 220-4 receives the sound can do. In an embodiment, the corresponding image data may include an index indicating that it is based on the second side camera 210 - 4 , and the corresponding sound data may include an index indicating that it is based on the microphone 220 - 4 .

컨트롤러(160)는 제2 측면 상황에 대한 인식 결과를 기초로 우측 투명 디스플레이(290-1)에 시각적 피드백을 출력할 수 있고 스피커(230-4)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 우측 상황에 대한 안내를 수행할 수 있다.The controller 160 may output a visual feedback to the right transparent display 290-1 based on the recognition result of the second side situation and may output an auditory feedback through the speaker 230-4. Accordingly, the wearable device 100 may visually and audibly guide the user to the right situation.

안경 밴드(280)에는 사용자의 후방을 촬영하는 후방 카메라(210-6), 후방 카메라(210-6)와 대응되는 마이크(220-6) 및 스피커(230-6)가 위치할 수 있다. The glasses band 280 may include a rear camera 210-6 for photographing the rear of the user, a microphone 220-6 corresponding to the rear camera 210-6, and a speaker 230-6.

컨트롤러(160)는 후방 카메라(210-6)가 후방을 촬영하여 생성된 영상 데이터 및 마이크(220-6)가 사운드를 수신하여 생성된 사운드 데이터를 기초로 후방 상황을 인식할 수 있다. 실시예에 있어서, 해당 영상 데이터에는 후방 카메라(210-6)에 기반한 것임을 나타내는 인덱스가 포함될 수 있고, 해당 사운드 데이터에는 마이크(220-6)에 기반한 것임을 나타내는 인덱스가 포함될 수 있다. The controller 160 may recognize the rear situation based on the image data generated by the rear camera 210-6 photographing the rear and the sound data generated by the microphone 220-6 receiving the sound. In an embodiment, the corresponding image data may include an index indicating that it is based on the rear camera 210 - 6 , and the corresponding sound data may include an index indicating that it is based on the microphone 220 - 6 .

컨트롤러(160)는 후방 상황에 대한 인식 결과를 기초로 투명 디스플레이들(290-1 및 290-2) 중 하나 이상에 시각적 피드백을 출력할 수 있다. 일례로, 컨트롤러(160)는 후방 카메라(210-6)의 영상 데이터를 기초로 좌측 후방에 대한 상황을 인식한 경우, 좌측 투명 디스플레이(290-2)에 시각적 피드백을 출력할 수 있고, 우측 후방에 대한 상황을 인식한 경우, 우측 투명 디스플레이(290-1)에 시각적 피드백을 출력할 수 있다. 또한, 컨트롤러(160)는 후방 상황에 대한 인식 결과를 기초로 스피커(230-6)를 통해 청각적 피드백을 출력할 수 있다. 이에 따라, 착용형 장치(100)는 사용자에게 시각적 및 청각적으로 후방 상황에 대한 안내를 수행할 수 있다.The controller 160 may output visual feedback to one or more of the transparent displays 290-1 and 290-2 based on the recognition result of the rear situation. For example, when the controller 160 recognizes the situation for the left rear side based on the image data of the rear camera 210 - 6 , the controller 160 may output a visual feedback to the left transparent display 290 - 2 , and the right rear side When the situation is recognized, a visual feedback may be output to the right transparent display 290-1. Also, the controller 160 may output an auditory feedback through the speaker 230 - 6 based on the recognition result of the rear situation. Accordingly, the wearable device 100 may visually and audibly guide the user about the rear situation.

실시예에 있어서, 컨트롤러(160)는 카메라들(210-1 내지 210-6) 중 복수 개로부터 입력되는 영상 및/또는 마이크들(220-1 내지 220-6) 중 복수 개로부터 입력된 사운드를 분석하여 특정 방향의 상황을 인식할 수 있고, 인식 결과에 해당하는 시각적 피드백을 디스플레이(290-1 및 290-2)에 출력할 수 있으며, 인식 결과에 해당하는 음성을 스피커들(230-1 내지 230-6) 중 복수개를 통해 출력할 수 있다. In an embodiment, the controller 160 receives an image input from a plurality of the cameras 210-1 to 210-6 and/or a sound input from a plurality of the microphones 220-1 to 220-6. It is possible to recognize a situation in a specific direction by analyzing, visual feedback corresponding to the recognition result may be output to the displays 290-1 and 290-2, and a voice corresponding to the recognition result may be outputted to the speakers 230-1 to 230-1 to 230-6) can be output through a plurality of.

일례로, 컨트롤러(160)는 카메라들(210-1, 210-2, 및 210-3)로부터 입력되는 영상 및/또는 마이크들(220-1, 220-2, 및 220-3)로부터 입력되는 사운드를 분석하여 우측 전방(또는 좌측 전방, 또는 정면)의 상황을 인식할 수 있다. 이에 따라, 컨트롤러(160)는 컨트롤러(160)는 인식한 상황의 방향을 보다 정확히 결정할 수 있다. 컨트롤러(160)는 우측 전방(또는 좌측 전방, 또는 정면) 상황에 대한 인식 결과에 해당하는 음성을 스피커들(230-1, 230-2, 및 230-3)을 통해 출력할 수 있다. 이에 따라, 컨트롤러(160)는 인식한 상황의 방향을 보다 정확히 표현할 수 있다.For example, the controller 160 may include images input from the cameras 210-1, 210-2, and 210-3 and/or images inputted from the microphones 220-1, 220-2, and 220-3. By analyzing the sound, it is possible to recognize the situation of the right front (or left front, or front). Accordingly, the controller 160 may more accurately determine the direction of the situation recognized by the controller 160 . The controller 160 may output a voice corresponding to the recognition result of the right front (or left front, or front) situation through the speakers 230 - 1 , 230 - 2 , and 230 - 3 . Accordingly, the controller 160 may more accurately express the direction of the recognized situation.

다른 일례로, 컨트롤러(160)는 카메라들(210-2 및 210-4)로부터 입력되는 영상 및/또는 마이크들(220-2 및 220-4)로부터 입력되는 사운드를 분석하여 우측 전방과 우측 사이에서의 상황을 인식할 수 있다. 이 경우, 컨트롤러(160)는 우측 전방과 우측 사이에서의 상황에 대한 인식 결과에 해당하는 음성을 스피커들(230-2 및 230-4)을 통해 출력할 수 있다. 이에 따라, 컨트롤러(160)는 인식한 상황의 방향을 보다 정확히 표현할 수 있다.As another example, the controller 160 analyzes the image input from the cameras 210-2 and 210-4 and/or the sound input from the microphones 220-2 and 220-4 between the right front and the right side. can recognize the situation in In this case, the controller 160 may output a voice corresponding to the recognition result of the situation between the right front side and the right side through the speakers 230 - 2 and 230 - 4 . Accordingly, the controller 160 may more accurately express the direction of the recognized situation.

또 다른 일례로, 컨트롤러(160)는 카메라들(210-5 및 210-6)로부터 입력되는 영상 및/또는 마이크들(220-5 및 220-6)로부터 입력되는 사운드를 분석하여 후방과 좌측 사이에서의 상황을 인식할 수 있다. 컨트롤러(160)는 후방과 좌측 사이에서의 상황에 대한 인식 결과에 해당하는 음성을 스피커들(230-5 및 230-6)을 통해 출력할 수 있다. 이에 따라, 컨트롤러(160)는 인식한 상황의 방향을 보다 정확히 표현할 수 있다.As another example, the controller 160 analyzes the image input from the cameras 210-5 and 210-6 and/or the sound input from the microphones 220-5 and 220-6 to be between the rear and the left. can recognize the situation in The controller 160 may output a voice corresponding to the recognition result of the situation between the rear and the left side through the speakers 230 - 5 and 230 - 6 . Accordingly, the controller 160 may more accurately express the direction of the recognized situation.

일 실시예에 따르면, 착용형 장치(100)는 카메라들(210-1 내지 210-6) 및 마이크들(220-1 내지 220-6)를 활용해서 360도 전방위의 상황 인식을 수행할 수 있고, 상황 인식 결과를 디스플레이(290-1 및 290-2) 및 스피커들(230-1 내지 230-6)을 통해 사용자에게 알려줄 수 있다. According to an embodiment, the wearable device 100 may perform 360-degree situational awareness by utilizing the cameras 210-1 to 210-6 and the microphones 220-1 to 220-6, , the situation recognition result may be notified to the user through the displays 290-1 and 290-2 and the speakers 230-1 to 230-6.

또한, 착용형 장치(100)는 주변 360도 전방위에 대한 영상 및 소리를 기반으로 낯선 공간, 낯선 환경, 또는 외국 등에 있는 사용자에게 주어진 상황을 인식할 수 있고, 투명 디스플레이(290-1 및 290-2)에 사람의 음성의 번역문을 표시하거나 스피커들(230-1 내지 230-6)을 통해 통역을 사용자에게 제공할 수 있다. 이에 따라, 착용형 장치(100)는 의사소통, 사고예방 등 문제가 없도록 사용자를 지원하여 사용자 편의성을 향상시킬 수 있다.In addition, the wearable device 100 may recognize a situation given to a user in an unfamiliar space, an unfamiliar environment, or a foreign country based on images and sounds for 360-degree surroundings, and transparent displays 290-1 and 290- In 2), a translation of a human voice may be displayed or an interpretation may be provided to the user through the speakers 230-1 to 230-6. Accordingly, the wearable device 100 can improve user convenience by supporting the user so that there are no problems such as communication and accident prevention.

도 4 내지 도 5는 일 실시예에 따른 착용형 장치의 주변 상황 안내를 설명하기 위한 도면이다. 4 to 5 are diagrams for explaining the surrounding situation guidance of the wearable device according to an embodiment.

도 4를 참조하면, 디스플레이(140)에 증강 현실 영상이 표시될 수 있다. 디스플레이(140)는 투명 디스플레이에 해당할 수 있다. 일례로, 전방 카메라(210-1)를 통해 촬영되는 영상과 컨트롤러(160)가 주변 상황을 인식한 결과를 포함하는 증강 현실 영상이 디스플레이(140)에 표시될 수 있다. 구현에 따라, 컨트롤러(160)는 전방 카메라(210-1)를 통해 촬영되는 영상, 우측 전방 카메라(210-2)를 통해 촬영되는 영상, 및 좌측 전방 카메라(210-3)를 통해 촬영되는 영상을 조합할 수 있고, 해당 조합에 의해 생성된 영상 및 컨트롤러(160)가 주변 상황을 인식한 결과를 포함하는 증강 현실 영상을 디스플레이(140)에 표시할 수 있다. Referring to FIG. 4 , an augmented reality image may be displayed on the display 140 . The display 140 may correspond to a transparent display. For example, an augmented reality image including an image captured by the front camera 210-1 and a result of recognizing a surrounding situation by the controller 160 may be displayed on the display 140 . According to the implementation, the controller 160 has an image captured through the front camera 210 - 1 , an image captured through the right front camera 210 - 2 , and an image captured through the left front camera 210 - 3 . may be combined, and an augmented reality image including an image generated by the combination and a result of recognizing the surrounding situation by the controller 160 may be displayed on the display 140 .

도 4에 도시된 예에서, 착용형 장치(100)의 사용자의 후방에서 자전거가 접근하고, 해당 자전거를 타고 있는 사람이 "길 좀 비켜주세요"라고 소리치며, 착용형 장치(100)의 좌측에서 사람이 "이보세요 뒤에 자전거가 와요"라고 말하고, 전방 우측에서 사람이 사용자를 향해 손을 흔들고 "안녕하세요"라고 말을 한다고 하자. In the example shown in FIG. 4 , a bicycle approaches from the rear of the user of the wearable device 100 , and the person riding the bicycle shouts “Please get out of the way”, and on the left side of the wearable device 100 . Let's say a person says "Hey, there's a bike behind you", and a person from the front right waves towards you and says "hello".

후방 카메라(210-6)는 후방을 촬영하여 생성된 영상 데이터를 컨트롤러(160)로 전송할 수 있고, 마이크(220-6)는 후방 자전거를 타고 있는 사람의 음성을 수신하여 생성된 사운드 데이터를 컨트롤러(160)로 전송할 수 있다.The rear camera 210-6 may transmit image data generated by photographing the rear to the controller 160, and the microphone 220-6 receives the voice of a person riding the rear bicycle and controls the generated sound data. It can be transmitted to (160).

제1 측면 카메라(210-5)는 좌측을 촬영하여 생성된 영상 데이터를 컨트롤러(160)로 전송할 수 있고, 마이크(220-5)는 좌측 사람의 음성을 수신하여 생성된 사운드 데이터를 컨트롤러(160)로 전송할 수 있다.The first side camera 210-5 may transmit image data generated by photographing the left side to the controller 160, and the microphone 220-5 may receive the voice of the left person and transmit the generated sound data to the controller 160 ) can be transmitted.

우측 전방 카메라(210-2)는 우측 전방을 촬영하여 생성된 영상 데이터를 컨트롤러(160)로 전송할 수 있고, 마이크(220-2)는 우측 전방의 사람의 음성을 수신하여 생성된 사운드 데이터를 컨트롤러(160)로 전송할 수 있다.The right front camera 210-2 may transmit image data generated by photographing the right front to the controller 160, and the microphone 220-2 may receive the voice of the right front person and control the sound data generated by the controller. It can be transmitted to (160).

컨트롤러(160)는 후방 카메라(210-6)로부터 수신한 영상 데이터 및 마이크(220-6)로부터 수신한 사운드 데이터를 기초로 후방 상황을 인식할 수 있다. 다시 말해, 컨트롤러(160)는 좌측 후방에서 자전거가 접근 중이고 비켜달라는 상황을 인식할 수 있다. 이러한 인식 결과를 기초로 컨트롤러(160)는 디스플레이(140 또는 290-2)에 메시지(410-1)와 후방을 표현하는 그래픽 객체(420-1)를 출력할 수 있다. 이 때, 메시지(410-1)와 그래픽 객체(420-1)는 디스플레이(140)의 전체 영역에서 후방에 대응되는 영역(즉, 디스플레이(140)의 좌측 하단)에 출력될 수 있다.The controller 160 may recognize a rear situation based on image data received from the rear camera 210 - 6 and sound data received from the microphone 220 - 6 . In other words, the controller 160 may recognize a situation in which the bicycle is approaching from the left rear and asks to get out of the way. Based on the recognition result, the controller 160 may output the message 410 - 1 and the graphic object 42 - 1 representing the rear on the display 140 or 290 - 2 . In this case, the message 410 - 1 and the graphic object 42 - 1 may be output to an area corresponding to the rear of the entire area of the display 140 (ie, the lower left of the display 140 ).

도 4에 도시된 예에서, 메시지(410-1)는 뒤집어져서 디스플레이(140)에 출력되나 이는 예시적인 사항일 뿐, 뒤집어지지 않고 표현될 수 있다. 또한, 실시예에 따라, 후방 카메라(210-6)에 의해 촬영되는 영상이 디스플레이(140)의 일부 영역에 표시될 수 있다.In the example shown in FIG. 4 , the message 410 - 1 is turned over and output to the display 140 , but this is merely exemplary and may be expressed without being turned over. Also, according to an embodiment, an image captured by the rear camera 210 - 6 may be displayed on a partial area of the display 140 .

컨트롤러(160)는 제1 측면 카메라(210-5)로부터 수신한 영상 데이터 및 마이크(220-5)로부터 수신한 사운드 데이터를 기초로 좌측 상황을 인식할 수 있다. 다시 말해, 컨트롤러(160)는 사람이 비키라고 소리치는 좌측 상황을 인식할 수 있다. 이러한 인식 결과를 기초로 컨트롤러(160)는 디스플레이(140 또는 290-2)에 메시지(410-2)와 좌측을 표현하는 그래픽 객체(420-2)를 출력할 수 있다. 이 때, 메시지(410-2)와 그래픽 객체(420-2)는 디스플레이(140)의 전체 영역에서 좌측에 대응되는 영역(즉, 기준선(310)의 왼쪽)에 출력될 수 있다. 또한, 메시지(410-2)는 도 4에 도시된 예와 같이 좌측 방향에 해당하는 각도(예를 들어, 45도)만큼 기울어져 출력될 수 있다. 메시지(410-2)의 기울기는 특정 방향을 나타내거나 표현할 수 있다. 만약, 컨트롤러(160)는 우측에서 사람이 비키라고 소리치는 상황을 인식한 경우, 우측 방향에 해당하는 각도(예를 들어, -45도)만큼 기울어진 메시지를 디스플레이(140)의 우측에 노출할 수 있다.The controller 160 may recognize the left side situation based on the image data received from the first side camera 210 - 5 and the sound data received from the microphone 220 - 5 . In other words, the controller 160 may recognize a situation on the left in which a person shouts to get out. Based on the recognition result, the controller 160 may output the message 410-2 and the graphic object 420-2 representing the left side on the display 140 or 290-2. In this case, the message 410 - 2 and the graphic object 420 - 2 may be output to the area corresponding to the left side of the entire area of the display 140 (ie, the left side of the reference line 310 ). In addition, the message 410-2 may be output at an angle (eg, 45 degrees) corresponding to the left direction as shown in the example shown in FIG. 4 . The slope of the message 410-2 may indicate or express a specific direction. If the controller 160 recognizes a situation in which a person shouts to get away from the right side, the controller 160 may expose a message inclined by an angle corresponding to the right direction (eg, -45 degrees) to the right side of the display 140 . can

컨트롤러(160)는 우측 전방 카메라(210-2)로부터 수신한 영상 데이터 및 마이크(220-2)로부터 수신한 사운드 데이터를 기초로 우측 전방 상황을 인식할 수 있다. 다시 말해, 컨트롤러(160)는 사람이 인사하는 우측 전방 상황을 인식할 수 있다. 이러한 인식 결과를 기초로 컨트롤러(160)는 디스플레이(140 또는 290-1)에 사람 객체(430) 주변에 메시지(410-3)를 출력할 수 있다. The controller 160 may recognize the right front situation based on the image data received from the right front camera 210 - 2 and the sound data received from the microphone 220 - 2 . In other words, the controller 160 may recognize a right front situation in which a person greets. Based on the recognition result, the controller 160 may output a message 410-3 around the human object 430 on the display 140 or 290-1.

도 4에 도시된 예와 같이, 착용형 장치(100)는 주변 상황에 대한 인식 결과를 기초로 생성된 콘텐츠들(예를 들어, 메시지와 그래픽 객체들) 및 사용자가 디스플레이(140)를 통해 바라보고 있는 방향에 해당하는 영상을 포함하는 증강 현실 영상을 디스플레이(140)에 표시할 수 있다. 이에 따라, 착용형 장치(100)는 주변 상황에 대한 안내를 시각적으로 수행할 수 있다. As shown in the example shown in FIG. 4 , the wearable device 100 provides contents (eg, messages and graphic objects) generated based on the recognition result of the surrounding situation and the user sees through the display 140 . An augmented reality image including an image corresponding to the viewing direction may be displayed on the display 140 . Accordingly, the wearable device 100 may visually guide the surrounding situation.

도 5에 착용형 장치(100)가 도 4를 통해 설명한 주변 상황에 대한 안내를 청각적으로 수행하는 일례가 도시된다.FIG. 5 shows an example in which the wearable device 100 audibly guides the surrounding situation described with reference to FIG. 4 .

컨트롤러(160)는 후방 상황에 대한 인식 결과를 기초로 "자전거 접근 중, 길 좀 비켜주세요"의 음성을 스피커(230-6)를 통해 출력할 수 있다. 이에 따라, 착용형 장치(100)는 후방에서 자전거가 접근 중인 상황과 비켜달라고 하는 상황을 소리로 사용자에게 안내할 수 있다.The controller 160 may output a voice of “Please get out of the way while approaching the bicycle” through the speaker 230 - 6 based on the recognition result of the rear situation. Accordingly, the wearable device 100 may guide the user with a sound of a situation in which a bicycle is approaching from the rear and a situation in which a bicycle is requested to move away.

컨트롤러(160)는 좌측 상항에 대한 인식 결과를 기초로 "뒤에 자전거오니 비키세요"의 음성을 스피커(230-5)를 통해 출력할 수 있다. 이에 따라, 착용형 장치(100)는 뒤에서 자전거가 오니 비키라고 하는 좌측 상황을 소리로 사용자에게 안내할 수 있다.The controller 160 may output a voice of “Please get out of the bicycle because it is behind you” through the speaker 230 - 5 based on the recognition result of the upper left corner. Accordingly, the wearable device 100 may guide the user to a situation on the left side of a bicycle coming from behind with a sound.

컨트롤러(160)는 우측 전방 상황에 대한 인식 결과를 기초로 "안녕하세요. 누군가 인사합니다"의 음성을 스피커(230-2)를 통해 출력할 수 있다. 이에 따라, 컨트롤러(160)는 전방에서 사람이 인사하는 상황을 소리로 사용자에게 안내할 수 있다.The controller 160 may output a voice of “Hello. Someone greets” through the speaker 230 - 2 based on the recognition result of the right front situation. Accordingly, the controller 160 may guide the user to a situation in which a person greets from the front with a sound.

만약, 도 4를 통해 설명한 상황이 외국에서 사용자에게 동일하게 발생한 경우, 메시지(410-1, 410-2, 및 410-3)는 번역되어 출력될 수 있고, 인식된 상황에 포함된 각 음성에 대한 기계 통역 서비스가 스피커(230-2, 230-5, 및 230-6)을 통해 제공될 수 있다. 이에 따라, 사용자가 해당 국가의 언어를 잘 모르더라도 착용형 장치(100)를 통해 주변 상황에 대한 안내를 제공받을 수 있어, 사용자 편의성이 향상될 수 있다.If the same situation described with reference to FIG. 4 occurs to the user in a foreign country, the messages 410-1, 410-2, and 410-3 may be translated and output, and each voice included in the recognized situation may be displayed. A machine interpretation service may be provided through the speakers 230 - 2 , 230 - 5 , and 230 - 6 . Accordingly, even if the user does not know the language of the corresponding country well, the user can be provided with information about the surrounding situation through the wearable device 100, thereby improving user convenience.

도 6은 일 실시예에 따른 착용형 장치의 일례에 포함된 처리 및 통신 모듈을 설명하기 위한 도면이다.6 is a view for explaining a processing and communication module included in an example of a wearable device according to an embodiment.

도 6을 참조하면, 처리 및 통신 모듈(240)은 통신부(150) 및 컨트롤러(160)를 포함한다. Referring to FIG. 6 , the processing and communication module 240 includes a communication unit 150 and a controller 160 .

컨트롤러(160)는 관리부(610) 및 데이터 처리부(620)를 포함한다.The controller 160 includes a management unit 610 and a data processing unit 620 .

데이터 처리부(620)는 입력부(621) 및 출력부(622)를 포함한다.The data processing unit 620 includes an input unit 621 and an output unit 622 .

입력부(621)는 상황 인식을 위한 데이터를 수집하고 출력부(622)는 상황 인식 결과를 표현한다.The input unit 621 collects data for situation recognition, and the output unit 622 expresses the situation recognition result.

입력부(621)는 영상 촬영기들(110-1 내지 110-a)(일례로, 카메라들(210-1 내지 210-6))로부터 전송된 영상 데이터를 처리하는 영상 데이터 처리부와 사운드 수신기들(120-1 내지 120-b)(일례로, 마이크들(220-1 내지 220-6))로부터 전송된 사운드 데이터를 처리하는 사운드 데이터 처리부를 포함할 수 있다. The input unit 621 includes an image data processing unit and sound receivers 120 for processing image data transmitted from the image capturers 110-1 to 110-a (eg, cameras 210-1 to 210-6). -1 to 120-b) (eg, the microphones 220-1 to 220-6) may include a sound data processing unit for processing sound data.

출력부(622)는 상황 인식 결과에 해당하는 메시지 및 그래픽 객체를 디스플레이(140)에 표시하는 영상 출력부 및 상황 인식 결과에 해당하는 음성을 사운드 출력기들(130-1 내지 130-c)(일례로, 스피커들(230-1 내지 230-6))을 통해 출력하는 음성 출력부를 포함할 수 있다. The output unit 622 is an image output unit for displaying a message and a graphic object corresponding to the situation recognition result on the display 140 and a voice corresponding to the situation recognition result to the sound output devices 130-1 to 130-c (an example). For example, it may include an audio output unit outputting through the speakers 230-1 to 230-6).

관리부(610)는 데이터 처리부(620)에서 실시간으로 다루는 입력 영상, 입력 사운드, 출력 영상, 및 출력 음성 각각의 데이터를 처리하도록 제어하는 데이터 처리 제어부 및 해당 데이터들을 저장하거나 서버 통신을 준비하는 데이터 관리부를 포함할 수 있다. The management unit 610 includes a data processing control unit that controls to process each data of an input image, an input sound, an output image, and an output voice handled by the data processing unit 620 in real time, and a data management unit that stores the data or prepares for server communication may include.

통신부(150)는 입력부(621)로 입력되는 영상 데이터 및 사운드 데이터를 상황 인식 서버로 전송하는 전송부(151) 및 상황 인식 결과에 해당하는 메시지, 음성, 및 그래픽 객체를 상황 인식 서버로부터 수신하는 수신부(152), 및 상황 인식 서버와의 통신을 제어하는 통신 제어부(153)를 포함한다. The communication unit 150 receives the transmission unit 151 for transmitting image data and sound data input to the input unit 621 to the context recognition server, and messages, voices, and graphic objects corresponding to the context recognition results from the context recognition server. It includes a receiving unit 152 and a communication control unit 153 that controls communication with the context recognition server.

실시예에 따르면, 통신부(150)는 컨트롤러(160)가 상황 인식을 위한 연산이 어려울 경우, 상황 인식 서버를 통해 실시간 상황인식 처리를 할 수 있도록 입력부(621)로 입력되는 영상 데이터 및 사운드 데이터를 상황 인식 서버로 전송할 수 있다.According to an embodiment, the communication unit 150 transmits image data and sound data input to the input unit 621 so that the controller 160 can perform real-time situation recognition processing through the situation recognition server when it is difficult for the controller 160 to perform an operation for situation recognition. It can be sent to a context-aware server.

도 7은 일 실시예에 따른 상황 인식 서버가 착용형 장치의 사용자의 주변 상황을 인식하는 것을 설명하기 위한 도면이다.7 is a diagram for explaining that the context recognition server recognizes the surrounding context of the user of the wearable device according to an embodiment.

도 7을 참조하면, 착용형 장치(100)는 주변 상황에 대한 영상 데이터 및 사운드 데이터를 상황 인식 서버(700)로 전송한다(710). 일례로, 착용형 장치(100)는 영상 촬영기들(110-1 내지 110-a)(일례로, 카메라들(210-1 내지 210-6)) 각각에 의해 생성된 영상 데이터 및 사운드 수신기들(120-1 내지 120-b)(일례로, 마이크들(220-1 내지 220-6)) 각각에 의해 생성된 사운드 데이터를 상황 인식 서버(700)로 전송할 수 있다. Referring to FIG. 7 , the wearable device 100 transmits image data and sound data for a surrounding situation to the context recognition server 700 ( 710 ). As an example, the wearable device 100 includes image data and sound receivers ( Sound data generated by each of 120-1 to 120-b (eg, the microphones 220-1 to 220-6) may be transmitted to the context recognition server 700 .

실시예에 있어서, 영상 촬영기들(110-1 내지 110-a)(일례로, 카메라들(210-1 내지 210-6)) 각각의 영상 데이터에는 각 영상 촬영기(또는 각 카메라)에 부여된 인덱스가 포함될 수 있다. 또한, 사운드 수신기들(120-1 내지 120-b)(일례로, 마이크들(220-1 내지 220-6)) 각각의 사운드 데이터에는 각 사운드 수신기(또는 각 마이크)에 부여된 인덱스가 포함될 수 있다. 이에 따라, 상황 인식 서버(700)는 영상 데이터가 어떤 카메라에 의해 생성된 것인지 및 사운드 데이터가 어떤 마이크에 의해 생성된 것인지 구분 또는 구별할 수 있다. In the embodiment, the image data of each of the imagers 110-1 to 110-a (eg, the cameras 210-1 to 210-6) has an index assigned to each imager (or each camera). may be included. In addition, the sound data of each of the sound receivers 120-1 to 120-b (eg, the microphones 220-1 to 220-6) may include an index assigned to each sound receiver (or each microphone). have. Accordingly, the context recognition server 700 may distinguish or distinguish between which camera the image data is generated and which microphone the sound data is generated by.

일례로, 전방 카메라(210-1)의 영상 데이터에는 인덱스 "1"이 포함될 수 있고, 우측 전방 카메라(210-2)의 영상 데이터에는 인덱스 "2"가 포함될 수 있으며, 좌측 전방 카메라(210-3)의 영상 데이터에는 인덱스 "3"이 포함될 수 있다. 또한, 제1 측면 카메라(210-4)의 영상 데이터에는 인덱스 "4"가 포함될 수 있고, 제2 측면 카메라(210-5)의 영상 데이터에는 인덱스 "5"가 포함될 수 있으며, 후방 카메라(210-6)의 영상 데이터에는 인덱스 "6"이 포함될 수 있다. 이와 유사하게, 마이크들(220-1 내지 220-6) 각각의 사운드 데이터에는 인덱스들 "1" 내지 "6" 각각이 포함될 수 있다.For example, the image data of the front camera 210 - 1 may include index “1”, the image data of the right front camera 210 - 2 may include index “2”, and the left front camera 210 - The image data of 3) may include an index “3”. In addition, the image data of the first side camera 210-4 may include an index “4”, the image data of the second side camera 210-5 may include an index “5”, and the rear camera 210 The image data of -6) may include an index “6”. Similarly, sound data of each of the microphones 220 - 1 to 220 - 6 may include indices "1" to "6", respectively.

상술한 인덱스는 방향을 의미할 수 있다. 인덱스 "1"은 전방을 의미할 수 있고, 인덱스 "2"는 우측 전방을 의미할 수 있으며, 인덱스 "3"은 좌측 전방을 의미할 수 있고, 인덱스 "4"는 좌측을 의미할 수 있고, 인덱스 "5"는 우측을 의미할 수 있고, 인덱스 "6"은 후방을 의미할 수 있다.The above-mentioned index may mean a direction. Index "1" may mean forward, index "2" may mean right front, index "3" may mean left front, index "4" may mean left, The index “5” may mean the right side, and the index “6” may mean the rear side.

상황 인식 서버(700)는 착용형 장치(100)로부터 수신한 영상 데이터 및 사운드 데이터를 기초로 사용자의 주변 상황을 인식한다(720). 달리 표현하면, 상황 인식 서버(700)는 음성 기반 상황 인식과 영상 기반 상황 인식을 수행할 수 있다. 일례로, 상황 인식 서버(700)는 인덱스 "1"이 포함된 영상 데이터 및 사운드 데이터를 기초로 전방 상황을 인식할 수 있고, 인덱스 "6"이 포함된 영상 데이터 및 사운드 데이터를 기초로 후방 상황을 인식할 수 있다.The context recognition server 700 recognizes the user's surroundings based on the image data and sound data received from the wearable device 100 (operation 720 ). In other words, the context recognition server 700 may perform voice-based context recognition and image-based context recognition. For example, the context recognition server 700 may recognize a forward situation based on image data and sound data including index “1”, and a rear situation based on image data and sound data including index “6” can be recognized

상황 인식 서버(700)의 주변 상황 인식에 대해선 착용형 장치(100)의 주변 상황 인식에 대한 설명이 적용될 수 있으므로, 상세한 설명을 생략한다.Since the description of the surrounding situation recognition of the wearable device 100 may be applied to the surrounding situation recognition of the context recognition server 700 , a detailed description thereof will be omitted.

상황 인식 서버(700)는 착용형 장치(100)의 주변 상황에 대한 인식 결과를 착용형 장치(100)로 전송하고(730), 착용형 장치(100)는 수신된 인식 결과를 기초로 주변 상황을 사용자에게 안내한다(740). 일례로, 상황 인식 서버(700)는 인덱스 "6"이 포함된 영상 데이터 및 사운드 데이터를 기초로 자전거가 후방에서 접근 중인 후방 상황과 비켜달라는 후방 상황을 인식할 수 있다. 이 경우, 상황 인식 서버(700)는 어느 방향의 주변 상황을 인식하였는지를 나타내는 방향 정보(예를 들어, 앞서 설명한 인덱스 "6"), 시각적 정보, 및 음성 정보를 착용형 장치(100)로 전송할 수 있다. 해당 시각적 정보에는, 예를 들어, "길 좀 비켜주세요(자전거 접근중)"의 텍스트와 후방을 나타내는 그래픽 객체가 포함될 수 있고, 해당 음성 정보에는, 예를 들어, "자전거 접근중, 길 좀 비켜 주세요"의 음성이 포함될 수 있다. 착용형 장치(100)는 디스플레이(140)의 전체 영역에서 방향 정보(예를 들어, 인덱스 "6")에 대응되는 영역에 시각적 정보를 노출할 수 있다. 이에 따라, 도 4를 통해 설명한 예와 같이, 디스플레이(140)의 좌측 하단(또는 좌측 투명 디스플레이(290-2)의 하단)에 메시지(410-1) 및 그래픽 객체(420-1)가 노출될 수 있다. 또한, 착용형 장치(100)는 스피커들(230-1 내지 230-6) 중에서 방향 정보(예를 들어, 인덱스 "6")에 대응되는 스피커(230-6)를 선택할 수 있고, 스피커(230-6)를 통해 음성 정보를 출력할 수 있다. 이에 따라, 도 5를 통해 설명한 것과 같이, "자전거 접근 중, 길 좀 비켜주세요"의 음성이 스피커(230-6)를 통해 출력될 수 있다. The context recognition server 700 transmits a recognition result of the surrounding situation of the wearable device 100 to the wearable device 100 ( 730 ), and the wearable device 100 receives the surrounding situation based on the received recognition result. guides the user ( 740 ). As an example, the context recognition server 700 may recognize a rear situation in which a bicycle is approaching from the rear and a rear situation in which a bicycle is approaching from the rear, based on image data and sound data including the index “6”. In this case, the context recognition server 700 may transmit direction information (eg, the index "6" described above), visual information, and voice information indicating in which direction the surrounding situation was recognized to the wearable device 100 . have. Corresponding visual information may include, for example, text of "Please get out of the way (bicycle approaching)" and a graphic object indicating the rear, and the corresponding audio information may include, for example, "bicycle approaching, get out of the way." A voice of "please" may be included. The wearable device 100 may expose visual information to an area corresponding to direction information (eg, index "6") in the entire area of the display 140 . Accordingly, as in the example described with reference to FIG. 4 , the message 410 - 1 and the graphic object 42 - 1 are to be exposed on the lower left side of the display 140 (or the lower end of the left transparent display 290 - 2 ). can Also, the wearable device 100 may select a speaker 230-6 corresponding to direction information (eg, index “6”) from among the speakers 230-1 to 230-6, and the speaker 230 Voice information can be output through -6). Accordingly, as described with reference to FIG. 5 , a voice of “Please get out of the way while approaching a bicycle” may be output through the speaker 230 - 6 .

실시예에 따르면, 착용형 장치(100)는 주변 상황을 인식하기 위한 프로세싱을 수행하지 못할 수 있다. 일례로, 착용형 장치(100)는 배터리(270)의 충전 상태가 일정 기준 미만이어서 전력 소비를 줄이기 위해 주변 상황을 인식하기 위한 프로세싱 기능을 잠시 중지할 수 있다. 이 경우, 착용형 장치(100)는 영상 데이터 및 사운드 데이터를 상황 인식 서버(700)로 전송하여 상황 인식 서버(700)에게 상황 인식을 요청할 수 있고, 상황 인식 서버(700)로부터 인식 결과를 수신할 수 있다. 구현에 따라, 착용형 장치(100)에는 상황 인식 기능이 없을 수 있다. 이러한 경우에도 착용형 장치(100)는 도 7을 통해 설명한 것과 같이 상황 인식 서버(700)에 주변 상황에 대한 인식을 요청할 수 있고, 상황 인식 서버(700)로부터 인식 결과를 수신함으로써 주변 상황에 대한 안내를 수행할 수 있다. According to an embodiment, the wearable device 100 may not be able to perform processing for recognizing a surrounding situation. For example, the wearable device 100 may temporarily suspend a processing function for recognizing a surrounding situation in order to reduce power consumption because the state of charge of the battery 270 is less than a predetermined standard. In this case, the wearable device 100 may transmit image data and sound data to the context recognition server 700 to request context recognition from the context recognition server 700 , and receive a recognition result from the context recognition server 700 . can do. Depending on the implementation, the wearable device 100 may not have a context recognition function. Even in this case, the wearable device 100 may request the context recognition server 700 to recognize the surrounding situation as described with reference to FIG. 7 , and by receiving the recognition result from the context recognition server 700 , guidance can be provided.

도 1 내지 도 6을 통해 기술된 사항들은 도 7을 통해 기술된 사항들에 적용될 수 있으므로, 상세한 설명을 생략한다.Since the matters described with reference to FIGS. 1 to 6 may be applied to the matters described with reference to FIG. 7 , a detailed description thereof will be omitted.

도 8은 일 실시예에 따른 착용형 장치의 동작 방법을 설명하기 위한 순서도이다.8 is a flowchart illustrating a method of operating a wearable device according to an exemplary embodiment.

도 8을 참조하면, 착용형 장치(100)는 영상 촬영기들(110-1 내지 110-a) 중 하나 이상에 의해 생성된 영상 데이터 및 사운드 수신기들(120-1 내지 120-b) 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식한다(810). Referring to FIG. 8 , the wearable device 100 includes image data generated by one or more of the imagers 110-1 to 110-a and one or more of the sound receivers 120-1 to 120-b. The user's surrounding situation is recognized based on at least one of the sound data generated by 810 .

착용형 장치(100)는 인식 결과를 사운드 출력기들(130-1 내지 130-c) 중 하나 이상 및 디스플레이(140)를 통해 사용자에게 안내한다(820).The wearable device 100 guides the recognition result to the user through one or more of the sound output devices 130 - 1 to 130 -c and the display 140 ( 820 ).

실시예에 따르면, 단계(820)에서 착용형 장치(100)는 인식 결과에 부합되는 시각적 피드백을 디스플레이(140)에 출력할 수 있고, 인식 결과에 부합되는 청각적 피드백을 사운드 출력기들(130-1 내지 130-c) 중 하나 이상을 통해 출력할 수 있다.According to an embodiment, in step 820 , the wearable device 100 may output visual feedback corresponding to the recognition result to the display 140 , and may output auditory feedback corresponding to the recognition result to the sound output devices 130- 1 to 130-c) may be used for output.

실시예에 따르면, 단계(820)에서 착용형 장치(100)는 영상 데이터 및 사운드 데이터 중 적어도 하나를 기초로 특정 방향에서 객체(예를 들어, 사람, 동물, 자동차, 자전거 등의 움직임이 가능한 객체)가 사운드를 내는 상황을 인식한 경우, 인식된 상황에 포함된 음성을 사운드 출력기들(130-1 내지 130-c) 중 특정 방향과 매칭되는 사운드 출력기를 통해 출력할 수 있고, 디스플레이(140)에 인식된 상황에 대응되는 메시지와 특정 방향을 표현하는 그래픽 객체를 노출할 수 있다. 이 때, 메시지는 기울어져서 디스플레이(140)의 영역들 중 특정 방향과 매칭되는 영역에 노출될 수 있다. 해당 실시예에 대한 일례로서 도 4 및 도 5를 통해 좌측 상황 안내 및 후방 상황 안내를 설명하였으므로, 해당 실시예에 대한 자세한 설명을 생략한다.According to an embodiment, in step 820 , the wearable device 100 may move an object (eg, a person, an animal, a car, a bicycle, etc.) in a specific direction based on at least one of image data and sound data. ), when recognizing a situation in which a sound is made, a voice included in the recognized situation may be output through a sound output device matching a specific direction among the sound output devices 130-1 to 130-c, and the display 140 It is possible to expose a message corresponding to the recognized situation and a graphic object expressing a specific direction. In this case, the message may be tilted and exposed to a region matching a specific direction among regions of the display 140 . As an example of the embodiment, since the left situation guidance and the rear situation guidance have been described with reference to FIGS. 4 and 5 , a detailed description of the corresponding embodiment will be omitted.

실시예에 따르면, 단계(820)에서 착용형 장치(100)는 영상 데이터를 통해 사용자가 바라보는 방향에 해당하는 영상이 디스플레이(140)에 표시되고 디스플레이(140)에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 인식된 상황에 포함된 음성을 사운드 출력기들(130-1 내지 130-c) 중 사용자가 바라보는 방향과 매칭되는 사운드 출력기를 통해 출력할 수 있고, 영상 속의 객체 주변에 인식된 상황에 대응되는 메시지를 노출할 수 있다. 해당 실시예에 대한 일례로서 도 4 및 도 5를 통해 전방 상황 안내를 설명하였으므로, 해당 실시예에 대한 자세한 설명을 생략한다.According to an embodiment, in step 820 , in the wearable device 100 , an image corresponding to the direction the user is looking through is displayed on the display 140 through the image data, and an object in the image displayed on the display 140 is sound. When it is recognized that a situation of making A message corresponding to the recognized situation can be exposed. Since the forward situation guidance has been described with reference to FIGS. 4 and 5 as an example of the embodiment, a detailed description of the embodiment will be omitted.

실시예에 따르면, 단계(820)에서 착용형 장치(100)는 영상 데이터 및 사운드 데이터를 기초로 특정 방향에서 객체가 사용자에게 접근하는 상황을 인식한 경우, 인식된 상황에 포함된 음성을 사운드 출력기들(130-1 내지 130-c) 중 특정 방향과 매칭되는 사운드 출력기를 통해 출력할 수 있고, 디스플레이(140)에 인식된 상황에 대응되는 메시지 및 객체의 접근을 나타내는 메시지 중 적어도 하나와 특정 방향을 표현하는 그래픽 객체를 노출할 수 있다. 해당 실시예에 대한 일례로서 도 4 및 도 5를 통해 후방 상황 안내를 설명하였으므로, 해당 실시예에 대한 자세한 설명을 생략한다.According to an embodiment, when the wearable device 100 recognizes a situation in which an object approaches the user from a specific direction based on the image data and the sound data in step 820 , a voice included in the recognized situation is output to the sound output device. It can be output through a sound output device matching a specific direction among the ones 130-1 to 130-c, and at least one of a message corresponding to a situation recognized on the display 140 and a message indicating the approach of an object and a specific direction You can expose a graphic object representing Since the rear situation guidance has been described with reference to FIGS. 4 and 5 as an example of the embodiment, a detailed description of the embodiment will be omitted.

실시예에 따르면, 착용형 장치(100)는 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버(700)에 영상 데이터 및 사운드 데이터를 통신 인터페이스를 통해 전송할 수 있다. 여기서, 통신 인터페이스는 상술한 통신부(150)에 해당할 수 있다. 착용형 장치(100)는 상황 인식 서버(700)로부터 상황 인식 서버(700)가 영상 데이터 및 사운드 데이터를 기초로 주변 상황을 인식한 결과를 통신 인터페이스를 통해 수신할 수 있고, 수신된 결과를 포함하는 증강 현실 영상을 디스플레이(140)에 표시할 수 있다.According to an embodiment, when the wearable device 100 fails to perform processing for recognizing the surrounding situation, the wearable device 100 may transmit image data and sound data to the context recognition server 700 through a communication interface. Here, the communication interface may correspond to the above-described communication unit 150 . The wearable device 100 may receive the result of recognizing the surrounding situation based on the image data and the sound data from the context recognition server 700 by the context recognition server 700 through the communication interface, including the received result The augmented reality image may be displayed on the display 140 .

착용형 장치(100)는 360도 상황을 디스플레이(140)에 표현하기 위해 사용자가 바라보는 방향 기준으로 텍스트 또는 부가 콘텐츠 정보를 기울여 표시하거나 화살표를 표시함으로써 상황 인식된 방향에서의 결과를 사용자에게 알려줄 수 있다. The wearable device 100 informs the user of the result in the situation-recognized direction by tilting the text or additional content information or displaying an arrow based on the direction in which the user looks to express the 360-degree situation on the display 140 . can

또한, 착용형 장치(100)는 360도 상황을 서라운드 스피커를 이용하여 상황 인식 결과에 해당하는 음성을 해당 방향에서 들리도록 할 수 있다.In addition, the wearable device 100 may use a surround speaker in a 360-degree situation to hear a voice corresponding to the situation recognition result in the corresponding direction.

착용형 장치(100)는 하나의 카메라로 특정 방향을 인식할 수 있다. 또한, 착용형 장치(100)는 다수 카메라로부터 들어오는 영상들을 모아 분석하여 특정 방향을 인식할 수 있다. The wearable device 100 may recognize a specific direction with one camera. Also, the wearable device 100 may recognize a specific direction by collecting and analyzing images coming from multiple cameras.

착용형 장치(100)는 하나의 마이크 입력 뿐만 아니라 다수의 마이크로부터 들어오는 사운드를 분석하여 특정 방향을 인식할 수 있다. The wearable device 100 may recognize a specific direction by analyzing sound coming from a plurality of microphones as well as a single microphone input.

착용형 장치(100)는 하나의 스피커를 통해 음성을 출력할 수 있다. 또한, 착용형 장치(100)는 다수의 스피커를 통해 음성을 출력하여 보다 높은 정확도의 특정 방향에서의 음성이 들리도록 할 수 있다. The wearable device 100 may output a voice through one speaker. In addition, the wearable device 100 may output a voice through a plurality of speakers so that the voice from a specific direction with higher accuracy can be heard.

도 1 내지 도 7을 통해 기술된 사항들은 도 8을 통해 기술된 사항들에 적용될 수 있으므로, 상세한 설명을 생략한다.Since the matters described with reference to FIGS. 1 to 7 may be applied to the matters described with reference to FIG. 8 , a detailed description thereof will be omitted.

도 9는 일 실시예에 따른 상황 인식 서버를 설명하기 위한 블록도이다. 9 is a block diagram illustrating a context-aware server according to an embodiment.

도 9를 참조하면, 상황 인식 서버(700)는 통신 인터페이스(910) 및 컨트롤러(920)를 포함한다.Referring to FIG. 9 , the context-aware server 700 includes a communication interface 910 and a controller 920 .

컨트롤러(920)는 착용형 장치(100)로부터 착용형 장치(100)에 포함된 영상 촬영기들(110-1 내지 110-a) 중 하나 이상에 의해 생성된 영상 데이터 및 착용형 장치(100)에 포함된 사운드 수신기들(120-1 내지 120-b) 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 통신 인터페이스(910)를 통해 수신한다.The controller 920 transmits image data generated by one or more of the imagers 110-1 to 110-a included in the wearable device 100 and the wearable device 100 from the wearable device 100 . At least one of sound data generated by one or more of the included sound receivers 120 - 1 to 120 - b is received through the communication interface 910 .

컨트롤러(920)는 영상 데이터 및 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식하고, 인식 결과를 통신 인터페이스(910)를 통해 착용형 장치(100)로 전송한다.The controller 920 recognizes the user's surroundings based on at least one of image data and sound data, and transmits the recognition result to the wearable device 100 through the communication interface 910 .

도 1 내지 도 8을 통해 기술된 사항들은 도 9를 통해 기술된 사항들에 적용될 수 있으므로, 상세한 설명을 생략한다.Since the matters described with reference to FIGS. 1 to 8 may be applied to the matters described with reference to FIG. 9 , a detailed description thereof will be omitted.

일 실시예는 360도 전방위에 대한 영상 및 소리 정보를 기반으로 상황 분석하여 이를 텍스트 또는 부가 정보로 변경할 수 있고 디스플레이에 방향에 맞도록 각도를 기울인 텍스트나 화살표를 출력할 수 있으며, 서라운드 스피커를 통해 해당 방향에서의 상황 인식 결과를 해당 방향에서 소리가 들리게 할 수 있다. 이에 따라, 일 실시예는 360도 전방위에 대한 상황을 인식하고 사용자에게 알려줄 수 있다. In one embodiment, it is possible to analyze a situation based on video and sound information for 360 degrees and change it to text or additional information, and output text or arrows inclined at an angle to fit the direction on the display, and through a surround speaker A sound may be heard in the corresponding direction as a result of situation recognition in the corresponding direction. Accordingly, an embodiment may recognize the situation for 360-degree omnidirectional and inform the user.

또한, 일 실시예는 외국과 같은 낯선 공간, 환경에서 원활한 상황 인식 기반의 자동 번역을 포함한 의사소통으로 사용자에게 편리함과 편의성을 제공할 수 있다. 또한, 일 실시예는 청각 및 시각 장애인들에게도 360도 방향에 따른 상황인식 및 의사소통을 할 수 있도록 도와줄 수 있으며, 스키장 등의 액티비티 장소나 물속 잠수 환경, 산악 고지대 및 우림 지역, 우주 공간 등 360도 전방위 상황인식이 필요한 환경에도 적용하여 사용자의 안전, 이상 상황에 대한 대처 등을 할 수 있도록 도와줄 수 있다.In addition, an embodiment may provide convenience and convenience to the user through communication including automatic translation based on situational awareness in an unfamiliar space or environment such as a foreign country. In addition, one embodiment can help the hearing and visually impaired to recognize situations and communicate according to a 360-degree direction, such as an activity place such as a ski resort, a diving environment, a mountainous highland and rain forest area, outer space, etc. It can be applied to an environment that requires 360-degree situational awareness to help users safety and respond to abnormal situations.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (19)

착용형 장치에 있어서,
복수의 영상 촬영기들;
복수의 사운드 수신기들;
복수의 사운드 출력기들;
디스플레이; 및
상기 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 영상 촬영기들과 독립적으로 동작하는 상기 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식하고,
상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에 대한 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고,
상기 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체를 노출 - 상기 음성 및 상기 메시지는 설정된 언어에 따라 변환됨 -하는 컨트롤러
를 포함하는,
착용형 장치.
In the wearable device,
a plurality of imagers;
a plurality of sound receivers;
a plurality of sound output devices;
display; and
Recognizing the user's surrounding situation based on at least one of image data generated by one or more of the image capturers and sound data generated by one or more of the sound receivers that operate independently of the image capturers,
When a situation for a specific direction is recognized based on at least one of the image data and the sound data, through a sound output device matching the specific direction among the sound output devices or through a plurality of sound output devices to match the specific direction output the voice included in the recognized situation,
A controller that exposes a message corresponding to the recognized situation and a graphic object expressing the specific direction on the display, wherein the voice and the message are converted according to a set language
containing,
wearable device.
제1항에 있어서,
상기 컨트롤러는,
상기 인식 결과에 부합되는 시각적 피드백을 상기 디스플레이에 출력하고, 상기 인식 결과에 부합되는 청각적 피드백을 상기 사운드 출력기들 중 하나 이상을 통해 출력하는,
착용형 장치.
According to claim 1,
The controller is
outputting a visual feedback corresponding to the recognition result to the display, and outputting an auditory feedback corresponding to the recognition result through one or more of the sound output devices,
wearable device.
제1항에 있어서,
상기 디스플레이는,
투명 디스플레이에 해당하고,
상기 컨트롤러는,
상기 투명 디스플레이에 상기 인식 결과를 포함하는 증강 현실 영상을 표시하는,
착용형 장치.
According to claim 1,
The display is
It corresponds to a transparent display,
The controller is
Displaying an augmented reality image including the recognition result on the transparent display,
wearable device.
삭제delete 제1항에 있어서,
상기 메시지는 기울어져서 상기 디스플레이의 영역들 중 상기 특정 방향과 매칭되는 영역에 노출되거나 또는 기울기 정도에 따라 특정 방향을 나타내도록 하는,
착용형 장치.
According to claim 1,
The message is tilted to be exposed to an area matching the specific direction among the areas of the display or to indicate a specific direction according to the degree of inclination,
wearable device.
제1항에 있어서,
상기 디스플레이는,
상기 영상 데이터를 통해 상기 사용자가 바라보는 방향에 해당하는 영상을 표시하고,
상기 컨트롤러는,
상기 디스플레이에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 방향과 매칭되는 사운드 출력기를 통해 또는 상기 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 영상 속의 객체 주변에 상기 인식된 상황에 대응되는 메시지를 노출하는,
착용형 장치.
According to claim 1,
The display is
Displaying an image corresponding to the direction in which the user is looking through the image data,
The controller is
When a situation in which an object in the image displayed on the display emits a sound is recognized, a sound output device matching the direction among the sound output devices is included in the recognized situation through a plurality of sound output devices to match the direction Outputting a voice and exposing a message corresponding to the recognized situation around the object in the image,
wearable device.
제1항에 있어서,
상기 컨트롤러는,
상기 영상 데이터 및 상기 사운드 데이터를 기초로 특정 방향에서 객체가 상기 사용자에게 접근하는 상황을 인식한 경우, 상기 인식된 상황에 포함된 음성을 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지 및 상기 객체의 접근을 나타내는 메시지 중 적어도 하나와 상기 특정 방향을 표현하는 그래픽 객체를 노출하는,
착용형 장치.
According to claim 1,
The controller is
When a situation in which an object approaches the user in a specific direction is recognized based on the image data and the sound data, a sound included in the recognized situation is transmitted through a sound output device matching the specific direction among the sound output devices or outputting through a plurality of sound output devices to match the specific direction, and exposing at least one of a message corresponding to the recognized situation and a message indicating an approach of the object and a graphic object expressing the specific direction on the display,
wearable device.
제1항에 있어서,
상기 컨트롤러는,
상기 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버에 상기 영상 데이터 및 상기 사운드 데이터를 통신 인터페이스를 통해 전송하고, 상기 상황 인식 서버로부터 상기 상황 인식 서버가 상기 영상 데이터 및 상기 사운드 데이터를 기초로 상기 주변 상황을 인식한 결과를 상기 통신 인터페이스를 통해 수신하며, 상기 수신된 결과를 포함하는 증강 현실 영상을 상기 디스플레이에 표시하는,
착용형 장치.
According to claim 1,
The controller is
If the processing for recognizing the surrounding situation cannot be performed, the image data and the sound data are transmitted to a context-aware server through a communication interface, and the context-aware server sends the image data and the sound data from the context-aware server Receiving a result of recognizing the surrounding situation based on the communication interface, and displaying the augmented reality image including the received result on the display,
wearable device.
제1항에 있어서,
상기 착용형 장치는,
안경 형태로 센터 프레임, 안경 다리들, 및 상기 안경 다리들과 연결되는 안경 밴드를 포함하고,
상기 영상 촬영기들은,
상기 센터 프레임에 위치하여 상기 사용자의 전방 영상을 촬영하는 하나 이상의 전방 카메라, 상기 안경 밴드에 위치하여 상기 사용자의 후방 영상을 촬영하는 후방 카메라, 상기 안경 다리들 중 하나에 위치하여 상기 사용자의 제1 측면 영상을 촬영하는 제1 측면 카메라, 및 상기 안경 다리들 중 나머지 하나에 위치하여 상기 사용자의 제2 측면 영상을 촬영하는 제2 측면 카메라를 포함하는,
착용형 장치.
According to claim 1,
The wearable device is
a center frame in the form of spectacles, temples, and a spectacle band connected to the temples,
The video cameras are
One or more front cameras positioned in the center frame to capture a front image of the user, a rear camera positioned in the spectacle band to capture a rear image of the user, and one of the temples to capture the user's first A first side camera for photographing a side image, and a second side camera located on the other one of the temples to photograph a second side image of the user,
wearable device.
제9항에 있어서,
상기 사운드 수신기들은 상기 하나 이상의 전방 카메라에 대응되는 하나 이상의 마이크, 상기 후방 카메라에 대응되는 마이크, 상기 제1 측면 카메라에 대응되는 마이크, 및 상기 제2 측면 카메라에 대응되는 마이크를 포함하고,
상기 사운드 출력기들은 상기 하나 이상의 전방 카메라에 대응되는 하나 이상의 스피커, 상기 후방 카메라에 대응되는 스피커, 상기 제1 측면 카메라에 대응되는 스피커, 및 상기 제2 측면 카메라에 대응되는 스피커를 포함하는,
착용형 장치.
10. The method of claim 9,
The sound receivers include one or more microphones corresponding to the one or more front cameras, a microphone corresponding to the rear camera, a microphone corresponding to the first side camera, and a microphone corresponding to the second side camera,
The sound output devices include one or more speakers corresponding to the one or more front cameras, a speaker corresponding to the rear camera, a speaker corresponding to the first side camera, and a speaker corresponding to the second side camera,
wearable device.
착용형 장치의 동작 방법에 있어서,
영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 영상 촬영기들과 독립적으로 동작하는 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식하는 단계; 및
상기 인식 결과를 사운드 출력기들 중 하나 이상 및 디스플레이를 통해 사용자에게 안내하는 단계
를 포함하고,
상기 안내하는 단계는,
상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에 대한 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체를 노출 - 상기 음성 및 상기 메시지는 설정된 언어에 따라 변환됨 -하는 단계
를 포함하는,
착용형 장치의 동작 방법.
In the method of operating a wearable device,
recognizing a user's surroundings based on at least one of image data generated by one or more of the image capturers and sound data generated by one or more of sound receivers that operate independently of the image capturers; and
guiding the recognition result to the user through one or more of the sound output devices and a display
including,
The guiding step is
When a situation for a specific direction is recognized based on at least one of the image data and the sound data, through a sound output device matching the specific direction among the sound output devices or through a plurality of sound output devices to match the specific direction outputting a voice included in the recognized situation, and exposing a message corresponding to the recognized situation and a graphic object expressing the specific direction on the display - the voice and the message are converted according to a set language
containing,
How a wearable device works.
제11항에 있어서,
상기 안내하는 단계는,
상기 인식 결과에 부합되는 시각적 피드백을 상기 디스플레이에 출력하고, 상기 인식 결과에 부합되는 청각적 피드백을 상기 사운드 출력기들 중 하나 이상을 통해 출력하는 단계
를 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The guiding step is
outputting a visual feedback corresponding to the recognition result to the display, and outputting an auditory feedback corresponding to the recognition result through one or more of the sound output devices;
containing,
How a wearable device works.
제11항에 있어서,
상기 디스플레이는,
투명 디스플레이에 해당하고,
상기 안내하는 단계는,
상기 투명 디스플레이에 상기 인식 결과를 포함하는 증강 현실 영상을 표시하는 단계
를 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The display is
It corresponds to a transparent display,
The guiding step is
Displaying an augmented reality image including the recognition result on the transparent display
containing,
How a wearable device works.
삭제delete 제11항에 있어서,
상기 메시지는 기울어져서 상기 디스플레이의 영역들 중 상기 특정 방향과 매칭되는 영역에 노출되거나 또는 기울기 정도에 따라 특정 방향을 나타내도록 하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The message is tilted to be exposed to an area matching the specific direction among the areas of the display or to indicate a specific direction according to the degree of inclination,
How a wearable device works.
제11항에 있어서,
상기 안내하는 단계는,
상기 영상 데이터를 통해 상기 사용자가 바라보는 방향에 해당하는 영상이 상기 디스플레이에 표시되고 상기 디스플레이에 표시되는 영상 속의 객체가 사운드를 내는 상황을 인식한 경우, 상기 사운드 출력기들 중 상기 방향과 매칭되는 사운드 출력기를 통해 또는 상기 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성을 출력하고, 상기 영상 속의 객체 주변에 상기 인식된 상황에 대응되는 메시지를 노출하는 단계
를 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The guiding step is
When an image corresponding to the direction in which the user is looking is displayed on the display through the image data and a situation in which an object in the image displayed on the display produces a sound is recognized, a sound matching the direction among the sound output devices Outputting a voice included in the recognized situation through an output device or a plurality of sound output devices to match the direction, and exposing a message corresponding to the recognized situation around the object in the image
containing,
How a wearable device works.
제11항에 있어서,
상기 안내하는 단계는,
상기 영상 데이터 및 상기 사운드 데이터를 기초로 특정 방향에서 객체가 상기 사용자에게 접근하는 상황을 인식한 경우, 상기 인식된 상황에 포함된 음성을 상기 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 출력하고, 상기 디스플레이에 상기 인식된 상황에 대응되는 메시지 및 상기 객체의 접근을 나타내는 메시지 중 적어도 하나와 상기 특정 방향을 표현하는 그래픽 객체를 노출하는 단계
를 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
The guiding step is
When a situation in which an object approaches the user in a specific direction is recognized based on the image data and the sound data, a sound included in the recognized situation is transmitted through a sound output device matching the specific direction among the sound output devices or outputting through a plurality of sound output devices to match the specific direction, and exposing on the display at least one of a message corresponding to the recognized situation and a message indicating an approach of the object and a graphic object expressing the specific direction
containing,
How a wearable device works.
제11항에 있어서,
상기 주변 상황을 인식하기 위한 프로세싱을 수행하지 못하는 경우, 상황 인식 서버에 상기 영상 데이터 및 상기 사운드 데이터를 통신 인터페이스를 통해 전송하는 단계;
상기 상황 인식 서버로부터 상기 상황 인식 서버가 상기 영상 데이터 및 상기 사운드 데이터를 기초로 상기 주변 상황을 인식한 결과를 상기 통신 인터페이스를 통해 수신하는 단계; 및
상기 수신된 결과를 포함하는 증강 현실 영상을 상기 디스플레이에 표시하는 단계
를 더 포함하는,
착용형 장치의 동작 방법.
12. The method of claim 11,
transmitting the image data and the sound data to a context recognition server through a communication interface when processing for recognizing the surrounding situation cannot be performed;
receiving, by the context-aware server, a result of recognizing the surrounding context based on the image data and the sound data from the context-aware server through the communication interface; and
displaying an augmented reality image including the received result on the display
further comprising,
How a wearable device works.
통신 인터페이스; 및
착용형 장치로부터 상기 착용형 장치에 포함된 영상 촬영기들 중 하나 이상에 의해 생성된 영상 데이터 및 상기 착용형 장치에 포함되고, 상기 영상 촬영기들과 독립적으로 동작하는 사운드 수신기들 중 하나 이상에 의해 생성된 사운드 데이터 중 적어도 하나를 상기 통신 인터페이스를 통해 수신하고, 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 사용자의 주변 상황을 인식하며, 상기 인식 결과를 상기 통신 인터페이스를 통해 상기 착용형 장치로 전송하는 컨트롤러
를 포함하고,
상기 컨트롤러가 상기 영상 데이터 및 상기 사운드 데이터 중 적어도 하나를 기초로 특정 방향에 대한 상황을 인식한 경우,
상기 인식 결과는 상기 착용형 장치의 사운드 출력기들 중 상기 특정 방향과 매칭되는 사운드 출력기를 통해 또는 상기 특정 방향과 매칭되도록 다수 사운드 출력기들을 통해 상기 인식된 상황에 포함된 음성이 출력되고, 상기 착용형 장치의 디스플레이에 상기 인식된 상황에 대응되는 메시지와 상기 특정 방향을 표현하는 그래픽 객체가 노출 - 상기 음성 및 상기 메시지는 설정된 언어에 따라 변환됨 -되는,
상황 인식 서버.
communication interface; and
Image data generated by one or more of the imagers included in the wearable device from a wearable device and generated by one or more of sound receivers included in the wearable device and operating independently of the imagers Receives at least one of the received sound data through the communication interface, recognizes the user's surroundings based on at least one of the image data and the sound data, and transmits the recognition result to the wearable device through the communication interface controller that transmits
including,
When the controller recognizes a situation in a specific direction based on at least one of the image data and the sound data,
The recognition result is that the voice included in the recognized situation is output through a sound output device matching the specific direction among sound output devices of the wearable device or through a plurality of sound output devices to match the specific direction, A message corresponding to the recognized situation and a graphic object representing the specific direction are exposed on the display of the device, wherein the voice and the message are converted according to a set language;
Context-Aware Server.
KR1020190120347A 2019-09-30 2019-09-30 Wearable apparatus and operating method thereof and server for reconizing situation KR102445496B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190120347A KR102445496B1 (en) 2019-09-30 2019-09-30 Wearable apparatus and operating method thereof and server for reconizing situation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190120347A KR102445496B1 (en) 2019-09-30 2019-09-30 Wearable apparatus and operating method thereof and server for reconizing situation

Publications (2)

Publication Number Publication Date
KR20210037886A KR20210037886A (en) 2021-04-07
KR102445496B1 true KR102445496B1 (en) 2022-09-21

Family

ID=75469631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190120347A KR102445496B1 (en) 2019-09-30 2019-09-30 Wearable apparatus and operating method thereof and server for reconizing situation

Country Status (1)

Country Link
KR (1) KR102445496B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102368929B1 (en) * 2021-12-20 2022-03-02 (주)에어패스 Voice recognition-based shortcut key XR interactive interworking system and the method using it

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100911376B1 (en) * 2007-11-08 2009-08-10 한국전자통신연구원 The method and apparatus for realizing augmented reality using transparent display
KR102195773B1 (en) * 2013-11-15 2020-12-28 엘지전자 주식회사 Wearable glass-type device and method of controlling the device
US10318016B2 (en) * 2014-06-03 2019-06-11 Harman International Industries, Incorporated Hands free device with directional interface
KR20180116044A (en) * 2017-04-14 2018-10-24 에스케이텔레콤 주식회사 Augmented reality device and method for outputting augmented reality therefor
KR20200081274A (en) * 2018-12-27 2020-07-07 한화테크윈 주식회사 Device and method to recognize voice

Also Published As

Publication number Publication date
KR20210037886A (en) 2021-04-07

Similar Documents

Publication Publication Date Title
US20200250462A1 (en) Key point detection method and apparatus, and storage medium
US10708477B2 (en) Gaze based directional microphone
US10891953B2 (en) Multi-mode guard for voice commands
US8929954B2 (en) Headset computer (HSC) as auxiliary display with ASR and HT input
US9721567B2 (en) Multi-level voice menu
US20190331914A1 (en) Experience Sharing with Region-Of-Interest Selection
US9542958B2 (en) Display device, head-mount type display device, method of controlling display device, and method of controlling head-mount type display device
US9967690B2 (en) Acoustic control apparatus and acoustic control method
US9541761B2 (en) Imaging apparatus and imaging method
US20120330659A1 (en) Information processing device, information processing system, information processing method, and information processing program
CN110572716B (en) Multimedia data playing method, device and storage medium
US20220066207A1 (en) Method and head-mounted unit for assisting a user
WO2019026616A1 (en) Information processing device and method
CN114422935B (en) Audio processing method, terminal and computer readable storage medium
JP6364735B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
US11605396B2 (en) Image processing system and method
KR102445496B1 (en) Wearable apparatus and operating method thereof and server for reconizing situation
CN112154412A (en) Providing audio information with a digital assistant
CN110933314B (en) Focus-following shooting method and related product
WO2023231787A1 (en) Audio processing method and apparatus
CN114118408A (en) Training method of image processing model, image processing method, device and equipment
CN113763940A (en) Voice information processing method and system for AR glasses
KR102334319B1 (en) Method and apparatus for providing visually transformed sound information using augmented reality display device
US11234090B2 (en) Using audio visual correspondence for sound source identification
US20240107086A1 (en) Multi-layer Foveated Streaming

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2022101000293; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20220214

Effective date: 20220720

GRNO Decision to grant (after opposition)