WO2020196931A1 - 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 - Google Patents

차량용 전자 장치 및 차량용 전자 장치의 동작 방법 Download PDF

Info

Publication number
WO2020196931A1
WO2020196931A1 PCT/KR2019/003364 KR2019003364W WO2020196931A1 WO 2020196931 A1 WO2020196931 A1 WO 2020196931A1 KR 2019003364 W KR2019003364 W KR 2019003364W WO 2020196931 A1 WO2020196931 A1 WO 2020196931A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
processor
vehicle
electronic device
voice
Prior art date
Application number
PCT/KR2019/003364
Other languages
English (en)
French (fr)
Inventor
신경준
강태권
신동헌
유경환
윤용철
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/003364 priority Critical patent/WO2020196931A1/ko
Publication of WO2020196931A1 publication Critical patent/WO2020196931A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Abstract

본 발명은 화상 회의 애플리케이션이 구동되는 상태에서, 영상 데이터 및 제1 언어의 음성 데이터를 상대 단말기로부터 수신하고, 상기 음성 데이터를 제1 외부 서버에 전송하고, 상기 제1 외부 서버로부터, 제2 언어로 전환된 번역 데이터를 수신하고, 상기 번역 데이터에 기초하여 상기 제2 언어로 구성된 컨텐츠를 출력하는 적어도 하나의 프로세서;를 포함하는 차량용 전자 장치에 관한 것이다.

Description

차량용 전자 장치 및 차량용 전자 장치의 동작 방법
본 발명은 차량용 전자 장치 및 차량용 전자 장치의 동작 방법에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 자율 주행 차량은 인간의 운전 조작 없이 자동으로 주행할 수 있는 차량을 의미한다. 자율 주행 차량에 탑승자는 운전에서 자유로워지기 때문에, 주행 중 영상 통화 기능이 사용자에게 제공되기도 한다.
자율 주행 차량에서 사용자 편의성을 높이기 위해 영상 통화와 같은 다양한 기능들이 제공되고 있지만, 편의성을 높이기 위해서는, 여러가지의 전자 장치들이 구비되고, 그에 따른 부작용(예를 들면, 과부하)이 발생될 수 있다.
본 발명은 상기한 문제점을 해결하기 위하여, 영상 통화와 관련된 여러 가지 기능을 차량에 포함되는 장치로부터 제공 받지 않고, 외부 장치로부터 제공 받는 차량용 전자 장치 및 차량용 전자 장치의 동작 방법을 제공하는데 목적이 있다.
또한, 본 발명의 실시예는, 상대 단말기 및 외부 서버로부터 수신되는 데이터에 기초한 컨텐츠를 사용자에게 제공하는 차량용 전자 장치 및 차량용 전자 장치의 동작 방법을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량용 전자 장치는, 화상 회의 애플리케이션이 구동되는 상태에서, 영상 데이터 및 제1 언어의 음성 데이터를 상대 단말기로부터 수신하고, 상기 음성 데이터를 제1 외부 서버에 전송하고, 상기 제1 외부 서버로부터, 제2 언어로 전환된 번역 데이터를 수신하고, 상기 번역 데이터에 기초하여 상기 제2 언어로 구성된 컨텐츠를 출력하는 적어도 하나의 프로세서;를 포함한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 상대 단말기로부터 섹션 데이터(section data) 형태로 상기 영상 데이터 및 상기 음성 데이터를 수신한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 섹션 데이터를 추출하고 파싱(parsing)하여 영상내에서 상대편 화자의 위치를 결정한다.
본 발명의 실시예에 따르면, 상기 섹션 데이터는, 상대편 화자에 대응되는 PID(personal identifier) 데이터를 포함하고, 상기 프로세서는, 상기 PID 데이터에 기초하여, 상대편 화자에 대한 정보를 획득한다.
본 발명의 실시예에 따르면, 공유 메모리(shared memory);를 더 포함하고, 상기 프로세서는, 상기 공유 메모리에 저장된 상기 음성 데이터에 대하여, i) 상기 제1 외부 서버에 전송하는 동작과 ii) 음성을 텍스트로 전환하는 동작을 병렬적으로 수행한다.
본 발명의 실시예에 따르면, 공유 메모리;를 더 포함하고, 상기 프로세서는, 마이크를 통해 획득되어 상기 공유 메모리에 저장되는 음성 데이터에 대하여, i) 음성을 텍스트로 전환한 후 음성에 대응되는 제어 신호를 생성하는 동작, ii)음성을 텍스트로 전환한후 상기 제1 외부 서버에 전송하는 동작 및 iii) 음성 데이터를 상대 단말기로 전송하는 동작을 병렬적으로 수행한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 화상 회의 애플리케이션이 구동되는 상태에서, 매쉬업(mashup) 서비스를 위한 사용자 인터페이스를 제공한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 화상 회의 애플리케이션이 구동되는 상태에서, 검색 서비스를 위한 사용자 인터페이스를 제공한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 어레이 마이크로부터 수신되는 오디오 빔포밍 데이터에 기초하여, 화자의 위치를 판단한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 음성 데이터에 기초하여 제2 외부 서버에 성문 인식을 요청하고, 상기 제2 외부 서버로부터, 성문 인식 결과를 수신하고, 상기 성문 인식 결과에 기초하여, 화자를 인증한다.
본 발명의 실시예에 따른 차량용 전자 장치의 동작 방법은, 적어도 하나의 프로세서가, 화상 회의 애플리케이션을 구동하는 단계; 적어도 하나의 프로세서가, 상기 화상 회의 애플리케이션이 구동되는 상태에서, 영상 데이터 및 제1 언어의 음성 데이터를 상대 단말기로부터 수신하는 단계; 적어도 하나의 프로세서가, 상기 음성 데이터를 제1 외부 서버에 전송하는 단계; 적어도 하나의 프로세서가, 상기 제1 외부 서버로부터, 제2 언어로 전환된 번역 데이터를 수신하는 단계; 및 적어도 하나의 프로세서가, 상기 번역 데이터에 기초하여 상기 제2 언어로 구성된 컨텐츠를 출력하는 단계;를 포함한다.
본 발명의 실시예에 따르면, 상기 수신하는 단계는, 상기 상대 단말기로부터 섹션 데이터(section data) 형태로 상기 영상 데이터 및 상기 음성 데이터를 수신한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 상기 섹션 데이터를 추출하고 파싱(parsing)하여 영상내에서 상대편 화자의 위치를 결정하는 단계;를 더 포함한다.
본 발명의 실시예에 따르면, 상기 섹션 데이터는, 상대편 화자에 대응되는 PID(personal identifier) 데이터를 포함하고, 적어도 하나의 프로세서가, 상기 PID 데이터에 기초하여, 상대편 화자에 대한 정보를 획득하는 단계를 더 포함한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 상기 화상 회의 애플리케이션이 구동되는 상태에서, 매쉬업(mashup) 서비스를 위한 사용자 인터페이스를 제공하는 단계;를 더 포함한다.
본 발명의 실시예에 따르면, 상기 제공하는 단계는, 상기 화상 회의 애플리케이션이 구동되는 상태에서, 검색 서비스를 위한 사용자 인터페이스를 제공한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 어레이 마이크로부터 수신되는 오디오 빔포밍 데이터에 기초하여, 화자의 위치를 판단하는 단계;를 더 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 외부 장치를 이용하여 화상 회의 관련 여러 기능을 제공함으로써, 자율 주행 차량에 걸리는 부하를 줄이는 효과가 있다.
둘째, 언어가 다른 사용자들끼리도 원활하게 회의를 진행할 수 있는 효과가 있다.
셋째, 자율 주행 차량 내부에 여러명의 사용자가 위치한 상태에서 회의를 진행하는 경우에도 각각의 사용자를 특정하고, 특정된 사용자에 대응되도록 컨텐츠를 제공할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 3은 본 발명의 실시예에 따른 전체 시스템을 설명하는데 참조되는 도면이다.
도 4는 본 발명의 실시예에 따른 화상 회의 시스템의 구성도이다.
도 5는 본 발명의 실시예에 따른 화상 회의 시스템의 신호 흐름도이다.
도 6는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다.
도 7 내지 도 10은 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 실시예에 따른 차량을 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 차량(10)은, 도로나 선로 위를 달리는 수송 수단으로 정의된다. 차량(10)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량(10)은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다. 차량(10)은, 공유형 차량일 수 있다. 차량(10)은 자율 주행 차량일 수 있다.
차량(10)에는 전자 장치(100)가 포함될 수 있다. 전자 장치(100)는, 차량(10)에서 영상 통화 또는 화상 회의를 구현하기 위한 장치일 수 있다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 2를 참조하면, 차량(10)은, 차량용 전자 장치(100), 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280)를 포함할 수 있다.
차량용 전자 장치(100)는, 영상 통화 동작을 수행할 수 있다. 차량용 전자 장치(100)는, 차량(10) 내부의 통신 장치를 이용하여, 영상 통화 동작을 수행할 수 있다. 차량용 전자 장치(100)는, 탑승자가 소지한 단말기를 경유하여, 영상 통화 동작을 수행할 수 있다. 이경우, 차량(10)에 구비된 마이크, 스피커, 디스플레이가 이용될 수 있다. 차량(10)에 구비된 마이크, 스피커, 디스플레이는, 사용자 인터페이스 장치(200)의 하위 구성일 수 있다. 차량용 전자 장치(100)는, 영상 통화 동작을 통해, 화상 회의 기능을 제공할 수 있다. 차량용 전자 장치(100)는, 사용자가 차량에 탑승한 상태에서 구동될 수 있다.
사용자 인터페이스 장치(200)는, 차량(10)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(10)에서 생성된 정보를 제공할 수 있다. 차량(10)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다.
오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(210)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(210)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다.
통신 장치(220)는, 차량(10) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치(220)는, 인프라(예를 들면, 서버, 방송국) 및 타 차량 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치(220)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
운전 조작 장치(230)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 차량(10)은, 운전 조작 장치(230)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(230)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.
메인 ECU(240)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다.
차량 구동 장치(250)는, 차량(10)내 각종 장치의 구동을 전기적으로 제어하는 장치이다. 차량 구동 장치(250)는, 파워 트레인 구동부, 샤시 구동부, 도어/윈도우 구동부, 안전 장치 구동부, 램프 구동부 및 공조 구동부를 포함할 수 있다. 파워 트레인 구동부는, 동력원 구동부 및 변속기 구동부를 포함할 수 있다. 샤시 구동부는, 조향 구동부, 브레이크 구동부 및 서스펜션 구동부를 포함할 수 있다.
한편, 안전 장치 구동부는, 안전 벨트 제어를 위한 안전 벨트 구동부를 포함할 수 있다.
ADAS(260)는, 오브젝트 검출 장치(210)에서 수신한 오브젝트에 대한 데이터에 기초하여, 차량(10)의 움직임을 제어하거나, 사용자에게 정보를 출력하기 위한 신호를 생성할 수 있다. ADAS(260)는, 생성된 신호를, 사용자 인터페이스 장치(200), 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나에 제공할 수 있다.
ADAS(260)는, 적응형 크루즈 컨트롤 시스템(ACC : Adaptive Cruise Control), 자동 비상 제동 시스템(AEB : Autonomous Emergency Braking), 전방 충돌 알림 시스템(FCW : Foward Collision Warning), 차선 유지 보조 시스템(LKA : Lane Keeping Assist), 차선 변경 보조 시스템(LCA : Lane Change Assist), 타겟 추종 보조 시스템(TFA : Target Following Assist), 사각 지대 감시 시스템(BSD : Blind Spot Detection), 적응형 하이빔 제어 시스템(HBA : High Beam Assist), 자동 주차 시스템(APS : Auto Parking System), 보행자 충돌 알림 시스템(PD collision warning system), 교통 신호 검출 시스템(TSR : Traffic Sign Recognition), 교통 신호 보조 시스템(TSA : Trafffic Sign Assist), 나이트 비전 시스템(NV : Night Vision), 운전자 상태 모니터링 시스템(DSM : Driver Status Monitoring) 및 교통 정체 지원 시스템(TJA : Traffic Jam Assist) 중 적어도 어느 하나를 구현할 수 있다.
센싱부(270)는, 차량의 상태를 센싱할 수 있다. 센싱부(270)는, IMU(inertial navigation unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서 및 브레이크 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial navigation unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다.
센싱부(270)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 센싱부(270)는, 차량 자세 정보, 차량 모션 정보, 차량 요(yaw) 정보, 차량 롤(roll) 정보, 차량 피치(pitch) 정보, 차량 충돌 정보, 차량 방향 정보, 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(270)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
센싱부(270)는, 센싱 데이터를 기초로, 차량 상태 정보를 생성할 수 있다. 차량 상태 정보는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다.
예를 들면, 차량 상태 정보는, 차량의 자세 정보, 차량의 속도 정보, 차량의 기울기 정보, 차량의 중량 정보, 차량의 방향 정보, 차량의 배터리 정보, 차량의 연료 정보, 차량의 타이어 공기압 정보, 차량의 스티어링 정보, 차량 실내 온도 정보, 차량 실내 습도 정보, 페달 포지션 정보 및 차량 엔진 온도 정보 등을 포함할 수 있다.
한편, 센싱부는, 텐션 센서를 포함할 수 있다. 텐션 센서는, 안전 벨트의 텐션 상태에 기초하여 센싱 신호를 생성할 수 있다.
위치 데이터 생성 장치(280)는, 차량(10)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치(280)는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치(280)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(10)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(280)는, 센싱부(270)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(210)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다.
차량(10)은, 내부 통신 시스템(50)을 포함할 수 있다. 차량(10)에 포함되는 복수의 전자 장치는 내부 통신 시스템(50)을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템(50)은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.
도 3은 본 발명의 실시예에 따른 전체 시스템을 설명하는데 참조되는 도면이다.
도 3을 참조하면, 시스템은, 차량(10), 사용자의 이동 단말기(20) 및 외부 장치(30)를 포함할 수 있다. 차량(10)은, 적어도 하나의 통신망을 통해, 이동 단말기(20) 및 외부 장치(30)와 신호를 교환할 수 있다.
차량(10)은, 도 1 및 도 2를 참조하여 설명한 바와 같다. 차량(10)은, 차량용 전자 장치(100)를 포함할 수 있다.
차량용 전자 장치(100)는, 통신 장치(220)를 통해, 이동 단말기(20) 및 외부 장치(30)와 신호를 교환할 수 있다. 실시예에 따라, 차량용 전자 장치(100)는 이더넷 스위치 허브를 거쳐 통신 장치(220)에 연결될 수 있다. 프로세서(170)는, 인터페이스부(180) 및 통신 장치(220)를 통해, 이동 단말기(20)와 신호를 교환할 수 있다. 프로세서(170)는, 이동 단말기(20)로부터 데이터를 수신하고, 이동 단말기(20)에 데이터를 전송할 수 있다. 프로세서(170)는, 인터페이스부(180) 및 통신 장치(220)를 통해, 외부 장치(30)와 신호를 교환할 수 있다. 프로세서(170)는, 외부 장치(30)로부터 데이터를 수신하고, 외부 장치(30)에 데이터를 전송할 수 있다.
차량용 전자 장치(100)는, 프로세서(170) 및 인터페이스부(180)를 포함할 수 있다. 차량용 전자 장치(100)는, 메모리 및 전원 공급부를 더 포함할 수 있다.
프로세서(170)는, 메모리, 인터페이스부(180), 전원 공급부와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(170)는, 사용자 입력에 따라, 상대 단말기(32)와의 영상 통화를 시도할 수 있다. 예를 들면, 프로세서(170)는, 터치 모듈(211)로부터 사용자의 터치 입력에 기초한 신호를 수신할 수 있다. 프로세서(170)는, 신호에 따라, 상대 단말기(32)와의 영상 통화를 시도할 수 있다. 한편, 프로세서(170)는, 인터페이스부(180)를 통해, 터치 모듈(211)에서 생성되고 USB Hub를 거친 신호를 수신할 수 있다.
프로세서(170)는, 카메라(212)로부터 차량 내부 영상 데이터를 수신할 수 있다. 프로세서(170)는, 차량 내부 영상 데이터를 영상 통화에 이용할 수 있다.
프로세서(170)는, 마이크(213)로부터 음성 데이터를 수신할 수 있다. 프로세서(170)는, 음성 데이터를 영상 통화에 이용할 수 있다. 마이크(213)는, 어레이 형태로 구성되어 어레이 마이크로 명명될 수 있다. 프로세서(170)는, 어레이 마이크(213)로부터 수신되는 데이터에 기초하여, 음원의 방향성 정보를 획득할 수 있다. 프로세서(170)는, 어레이 마이크(213)로부터 수신되는 오디오 빔포밍 데이터에 기초하여, 화자의 위치를 판단할 수 있다.
프로세서(170)는, 음성 데이터에 기초하여 제2 외부 서버(33)에 성문 인식을 요청할 수 있다. 제2 외부 서버(33)는, 관제 서버일 수 있다. 제2 외부 서버(33)는, 기 등록된 성문 데이터에 기초하여, 요청된 성문 인식을 수행할 수 있다. 제2 외부 서버(33)는, 성문 인식 결과를 차량용 전자 장치(100)에 전송할 수 있다. 프로세서(170)는, 성문 인식 결과를 수신하고, 성문 인식 결과에 기초하여, 화자를 인증할 수 있다. 프로세서(170)는, 영상 데이터와 성문 인식 결과를 매칭하여 영상에서 화자가 누구인지 판단할 수 있다.
프로세서(170)는, 영상 통화 애플리케이션을 구동할 수 있다. 영상 통화 애플리케이션의 일 종류로 화상 회의 애플리케이션이 있다.
프로세서(170)는, 화상 회의 애플리케이션이 구동되는 상태에서, 카메라(212)로부터 수신된 영상 데이터 및 마이크(213)로부터 수신된 음성 데이터를 상대 단말기(32)에 전송할 수 있다. 프로세서(170)는, 영상 데이터 및 음성 데이터를 가공하여 상대 단말기(32)에 전송할 수 있다. 예를 들면, 프로세서(170)는, 영상 데이터 및 음성 데이터를 섹션 데이터(section data) 형태로 상대 단말기(32)에 전송할 수 있다. 예를 들면, 섹션 데이터는, MPEC-TS(MPEG transport stream)일 수 있다.
프로세서(170)는, 화상 회의 애플리케이션이 구동되는 상태에서, 영상 데이터 및 음성 데이터를 상대 단말기(32)로부터 수신할 수 있다. 여기서, 음성 데이터는, 제1 언어로 구성될 수 있다. 프로세서(170)는, 상대 단말기(32)로부터, 섹션 데이터 형태로 영상 데이터 및 음성 데이터를 수신할 수 있다. 예를 들면, 섹션 데이터는, MPEC-TS(MPEG transport stream)일 수 있다.
프로세서(170)는, 섹센 데이터를 추출하고 파싱(parsing)하여 영상내에서 상대편 화자의 위치를 결정할 수 있다. 섹션 데이터는, 상대편 화자에 대응되는 PID(personal identifier) 데이터를 포함할 수 있다. 프로세서(170)는, PID 데이터에 기초하여, 상대편 화자에 대한 정보를 획득할 수 있다. PID 데이터는, 상대편 화자의 위치 데이터도 포함할 수 있다. 상대 단말기는, 오디오 빔포밍 데이터에 기초하여, 화자의 위치를 판단하고, 데이터화할 수 있다. 상대 단말기는, 화자의 위치 데이터를 섹션 데이터에 포함시켜 차량용 전자 장치(100)에 전송할 수 있다. 프로세서(170)는, 수신된 섹션 데이터에 기초하여 상대편 화자의 위치를 결정할 수 있다. 한편, 상대편 화자가 복수인 경우, 프로세서(170)는, PID 데이터에 기초하여, 각각의 화자의 위치를 결정할 수 있다. PID 데이터는, 고유한 개인을 식별하고 다른 사람이 자신의 지식이나 동의없이 해당 개인의 신원을 추측하도록 허용하는 개인 식별 정보 데이터로 설명될 수 있다.
프로세서(170)는, 음성 데이터를 제1 외부 서버(31)에 전송할 수 있다. 제1 외부 서버(31)는, 오픈 클라우드(open cloud) 서버일 수 있다. 제1 외부 서버(31)는, 번역 기능을 제공할 수 있다. 실시예에 따라, 제1 외부 서버(31)는, STT(speech to text) 기능 및/또는 TTS(text to speech) 기능을 제공할 수도 있다. 제1 외부 서버(31)는, 수신된 음성 데이터에 기초하여, 번역을 수행할 수 있다. 제1 외부 서버(31)는, 제1 언어의 음성을 제2 언어로 번역할 수 있다. 예를 들면, 제1 외부 서버(31)는, 제1 언어의 음성을 텍스트로 전환할 수 있다. 제1 외부 서버(31)는, 제1 언어의 텍스트를 제2 언어의 텍스트로 번역할 수 있다. 제1 외부 서버(31)는, 제1 언어의 텍스트를 제2 언어의 음성으로 전환할 수 있다.
프로세서(170)는, 제1 외부 서버(31)로부터, 제2 언어로 전환된 번역 데이터를 수신할 수 있다. 번역 데이터는, 번역 음성 데이터이거나 번역 텍스트 데이터일 수 있다.
프로세서(170)는, 번역 데이터에 기초하여, 제2 언어로 구성된 컨텐츠를 출력할 수 있다. 컨텐츠는, 음성 컨텐츠, 텍스트 컨텐츠 및 영상 컨텐츠 중 적어도 어느 하나를 포함할 수 있다. 프로세서(170)는, 컨텐츠 출력을 위한 신호를 디스플레이(214) 및 스피커에 제공할 수 있다.
프로세서(170)는, 화상 회의 애플리케이션이 구동되는 상태에서, 매쉬업(mashup) 서비스를 위한 사용자 인터페이스를 제공할 수 있다. 예를 들면, 프로세서(170)는, 화상 회의 애플리케이션이 구동되는 상태에서, 검색 서비스를 위한 사용자 인터페이스를 제공할 수 있다. 매쉬업 서비스는, 화상 회의 서비스와 다른 서비스를 융합하여 제공하는 것으로 정의될 수 있다.
한편, 프로세서(170)는, 공유 메모리에 저장된 음성 데이터에 대하여, i) 제1 외부 서버(31)에 전송하는 동작과 ii) 음성을 텍스트로 전환하는 동작을 병렬적으로 수행할 수 있다. 음성 데이터를 제1 외부 서버(31)에 전송하는 동작은 번역 동작으로 설명될 수 있다. 한편, 실시예에 따라, 번역 동작은, 프로세서(170)의 자체 프로세싱에 의해 이루어질 수도 있다.
한편, 프로세서(170)는, 마이크(213)를 통해 획득되어 공유 메모리에 저장되는 음성 데이터에 대하여, i) 음성을 텍스트로 전환한 후 음성에 대응되는 제어 신호를 생성하는 동작, ii) 음성을 텍스트로 전환한 후 제1 외부 서버(31)에 전송하는 동작 및 iii) 음성 데이터를 상대 단말기(32)로 전송하는 동작을 병렬적으로 수행할 수 있다.
프로세서(170)는, 화상 회의의 종료 시점 정보를 획득할 수 있다. 예를 들면, 프로세서(170)는, 이동 단말기(20) 등으로부터 수신된 화상 회의 예약 정보에 기초하여, 화상 회의의 종료 시점 정보를 획득할 수 있다. 프로세서(170)는, 종료 시점에 기초하여, 자율 주행 경로 및 주행 속도 중 적어도 어느 하나를 설정하기 위한 신호를 제공할 수 있다. 프로세서(170)는, 상기 신호를 메인 ECU(240) 또는 주행 시스템(260)에 제공할 수 있다. 목적지의 도착 시점이 화상 화의의 종료 시점보다 더 늦는 것으로 예상되는 경우, 차량(10)은, 화상 회의의 종료 시점 이후에 목적지에 도착할 수 있도록, 상대적으로 더 긴 경로를 따라 주행하거나 상대적으로 낮은 주행 속도로 주행할 수 있다.
프로세서(170)는, 미디어 플레이어(media player)(121), SIP 클라이언트(session initiation protocol client)(122), 페이스 디텍터(face detector)(123), 성문 인식부(124) 및 음성 서비스 클라이언트(125)를 포함할 수 있다.
미디어 플레이어(media player)(121)는, 컨텐츠를 재생할 수 있다. SIP 클라이언트(session initiation protocol client)(122)는, SIP 서버와 연동될 수 있다. SIP 클라이언트(122)는, SIP 서버와의 연동을 통해, 상대 단말기(32)와의 영상 통화 기능을 수행할 수 있다. 페이스 디텍터(face detector)(123)는, 카메라(212)로부터 획득된 영상에서 화자의 얼굴을 인식할 수 있다. 성문 인식부(124)는, 화자의 인식을 수행할 수 있다. 성문 인식부(124)는, 제2 외부 서버(33)와 연동될 수 있다. 성문 인식부(124)는, 제2 외부 서버(33)로부터 성문 데이터 베이스를 제공받을 수 있다. 음성 서비스 클라이언트(125)는, 제1 외부 서버(31)와 연동될 수 있다. 음성 서비스 클라이언트(125)는, 오픈 클라우드 서비스를 이용하여, 화자의 음성을 제1 외부 서버(31)로 전송하고, 제1 외부 서버(31)로부터 번역 데이터를 수신할 수 있다.
한편, 터치 모듈(211), 카메라(212), 마이크(213) 및 디스플레이(214)는, 사용자 인터페이스 장치(200)의 하위 구성으로 분류될 수 있다.
인터페이스부(180)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(140), 차량 구동 장치(250), ADAS(260), 센싱부(170) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.
인터페이스부(180)는, 위치 데이터 생성 장치(280)로부터, 차량(10) 위치 데이터를 수시할 수 있다. 인터페이스부(180)는, 센싱부(270)로부터 주행 속도 데이터를 수신할 수 있다. 인터페이스부(180)는, 오브젝트 검출 장치(210)로부터, 차량 주변 오브젝트 데이터를 수신할 수 있다.
메모리는, 프로세서(170)와 전기적으로 연결된다. 메모리는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리는, 프로세서(170)에서 처리된 데이터를 저장할 수 있다. 메모리는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리는 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 전자 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리는, 프로세서(170)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리는, 프로세서(170)의 하위 구성으로 분류될 수 있다. 한편, 메모리는 공유 메모리(shared memory) 형태로 구현될 수 있다. 공유 메모리는, 컴퓨터 환경에서 여러 프로그램이 동시에 접근할 수 있는 메모리로 정의될 수 있다. 공유 메모리는, 하나의 프로세서에서나 여러개의 프로세서가 접근할 수 있다.
전원 공급부는, 전자 장치(100)에 전원을 공급할 수 있다. 전원 공급부는, 차량(10)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 전자 장치(100)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부는, 메인 ECU(140)로부터 제공되는 제어 신호에 따라 동작될 수 있다.
전자 장치(100)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 전자 장치(110), 메모리, 인터페이스부(180), 전원 공급부 및 프로세서(170)는, 인쇄 회로 기판에 전기적으로 연결될 수 있다.
이동 단말기(20)는, 차량(10)과 신호를 교환할 수 있다. 예를 들면, 이동 단말기(20)는, 근거리 통신 방식(예를 들면, 블루투스)를 통해, 차량(10)과 신호를 교환할 수 있다.
외부 장치(30)는, 적어도 하나의 통신망을 이용해, 차량(10)과 교환할 수 있다. 외부 장치(30)는, 오픈 클라우드 서버(31), 상대 단말기(32), 관제 서버(33) 및 SIP(session initiation protocol) 서버(34)를 포함할 수 있다.
오픈 클라우드 서버(31)는, 제1 외부 서버로 명명될 수 있다. 오픈 클라우드 서버(31)는, 번역 기능을 제공할 수 있다. 오픈 클라우드 서버(31)는, STT(speech to text) 기능 및/또는 TTS(text to speech) 기능을 제공할 수 있다. 상대 단말기(32)는, 화상 회의의 상대방이 이용하는 전자 장치일 수 있다. 상대 단말기(32)는, 이동 단말기, 고정 단말기 또는 차량 시스템일 수 있다. 관제 서버(33)는, 제2 외부 서버로 명명될 수 있다. 관제 서버(33)는, 자율 주행 차량을 제어하고 주행 경로를 설정할 수 있다. 관제 서버(33)는, 예약 서버와 연동하여 차량 제공 서비스를 수행할 수 있다. 관제 서버(33)는, 성문 인식부(124)와 연동될 수 있다. SIP 서버(34)는, 영상 통화를 구현할 수 있다. SIP 서버(34)는, 복수의 SIP 클라이언트와 연동되어 영상 통화 채널을 형성할 수 있다.
도 4는 본 발명의 실시예에 따른 화상 회의 시스템의 구성도이다.
도 4를 참조하면, 전자 장치(100), 제1 상대 단말기(410), 제2 상대 단말기(420), SIP 서버(34) 및 오픈 클라우드 서버(31)는 서로 연동될 수 있다. 전자 장치(100)는, SIP 클라이언트(125)를 통해, 제1 상대 단말기(410), 제2 상대 단말기(420), SIP 서부(34) 및 오픈 클라우드 서버(31)와 연동될 수 있다.
도 5는 본 발명의 실시예에 따른 화상 회의 시스템의 신호 흐름도이다.
도 5를 참조하면, 전자 장치(100)는 SIP 서버(34)에, 상대 단말기(410)를 상대로하는 영상 통화(예를 들면, 화상 회의) 연결 요청 메시지를 전송할 수 있다(S510). SIP 서버(34)는, 상대 단말기(410)에 영상 통화 연결 요청 메시지를 전송할 수 있다(S520). 상대 단말기(410)는, SIP 서버(34)에 연결 승인 메시지를 전송할 수 있다(S530). SIP 서버(34)는, 전자 장치(100)에 연결 정보를 전송할 수 있다(S540).
전자 장치(100)는, 상대 단말기(410)에 통화 요청 메시지를 전송할 수 있다(S550). 상대 단말기(410)는, 전자 장치(100)에 통화 수락 메시지를 전송할 수 있다(S560).
전자 장치(100)는, 상대 단말기(410)에 영상 통화를 위한 영상 데이터 및 음성 데이터를 전송할 수 있다(S570). 상대 단말기(410)는, 수신된 음성 데이터를 오픈 클라우드 서버(31)에 전송할 수 있다(S580). 오픈 클라우드 서버(31)는, 상대 단말기(410)에 번역 데이터를 전송할 수 있다(S580).
상대 단말기(410)는, 전자 장치(100)에 영상 통화를 위한 영상 데이터 및 음성 데이터를 전송할 수 있다(S585). 전자 장치(100)는, 수신된 음성 데이터를 오픈 클라우드 서버(31)에 전송할 수 있다(S590). 오픈 클라우드 서버(31)는, 전자 장치(100)에 번역 데이터를 전송할 수 있다(S595).
도 6는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다. 도 6의 플로우 차트는 차량용 전자 장치의 동작 방법의 각 단계를 예시한다.
도 6을 참조하면, 프로세서(170)는, 화상 회의 애플리케이션을 구동할 수 있다(S605). 프로세서(170)는, 화상 회의 애플리케이션이 구동되는 상태에서, 영상 데이터 및 음성 데이터를 수신할 수 있다(S610). 여기서, 음성 데이터는, 제1 언어로 구성될 수 있다. 수신하는 단계(S610)에서, 프로세서(170)는, 상대 단말기로부터 섹션 데이터 형태로 영상 데이터 및 음성 데이터를 수신할 수 있다.
프로세서(170)는, 영상내에서 상대편 화자의 위치를 결정할 수 있다(S620). 예를 들면, 프로세서(170)는, 섹션 데이터를 추출하고 파싱(parsing)하여 영상내에서 상대편 화자의 위치를 결정할 수 있다. 섹션 데이터는, 상대편 화자에 대응되는 PID(personal identifier) 데이터를 포함할 수 있다. 차량용 전자 장치의 동작 방법은, 적어도 하나의 프로세서(170)가, PID 데이터에 기초하여, 상대편 화자에 대한 정보를 획득하는 단계를 더 포함할 수 있다. PID 데이터는, 상대편 화자의 위치 데이터도 포함할 수 있다. 상대 단말기는, 오디오 빔포밍 데이터에 기초하여, 화자의 위치를 판단하고, 데이터화할 수 있다. 상대 단말기는, 화자의 위치 데이터를 섹션 데이터에 포함시켜 차량용 전자 장치(100)에 전송할 수 있다. 프로세서(170)는, 수신된 섹션 데이터에 기초하여 상대편 화자의 위치를 결정할 수 있다. 한편, 상대편 화자가 복수인 경우, 프로세서(170)는, PID 데이터에 기초하여, 각각의 화자의 위치를 결정할 수 있다. PID 데이터는, 고유한 개인을 식별하고 다른 사람이 자신의 지식이나 동의없이 해당 개인의 신원을 추측하도록 허용하는 개인 식별 정보 데이터로 설명될 수 있다.
프로세서(170)는, 음성 데이터를 제1 외부 서버에 전송할 수 있다(S630). 제1 외부 서버(31)는, 오픈 클라우드(open cloud) 서버일 수 있다. 제1 외부 서버(31)는, 번역 기능을 제공할 수 있다. 실시예에 따라, 제1 외부 서버(31)는, STT(speech to text) 기능 및/또는 TTS(text to speech) 기능을 제공할 수도 있다. 제1 외부 서버(31)는, 수신된 음성 데이터에 기초하여, 번역을 수행할 수 있다. 제1 외부 서버(31)는, 제1 언어의 음성을 제2 언어로 번역할 수 있다. 예를 들면, 제1 외부 서버(31)는, 제1 언어의 음성을 텍스트로 전환할 수 있다. 제1 외부 서버(31)는, 제1 언어의 텍스트를 제2 언어의 텍스트로 번역할 수 있다. 제1 외부 서버(31)는, 제1 언어의 텍스트를 제2 언어의 음성으로 전환할 수 있다.
프로세서(170)는, 제1 외부 서버(31)로부터, 제2 언어로 전환된 번역 데이터를 수신할 수 있다(S640). 번역 데이터는, 번역 음성 데이터이거나 번역 텍스트 데이터일 수 있다.
프로세서(170)는, 번역 데이터에 기초하여, 제2 언어로 구성된 컨텐츠를 출력할 수 있다(S650). 컨텐츠는, 음성 컨텐츠, 텍스트 컨텐츠 및 영상 컨텐츠 중 적어도 어느 하나를 포함할 수 있다. 프로세서(170)는, 컨텐츠 출력을 위한 신호를 디스플레이(214) 및 스피커에 제공할 수 있다.
프로세서(170)는, 카메라(212)로부터 차량 내부 영상 데이터를 수신하고, 마이크(213)로부터 음성 데이터를 수신할 수 있다(S660). 프로세서(170)는, 화자의 위치를 판단할 수 있다. 마이크(213)는, 어레이 형태로 구성되어 어레이 마이크로 명명될 수 있다. 프로세서(170)는, 어레이 마이크(213)로부터 수신되는 데이터에 기초하여, 음원의 방향성 정보를 획득할 수 있다. 프로세서(170)는, 어레이 마이크(213)로부터 수신되는 오디오 빔포밍 데이터에 기초하여, 화자의 위치를 판단할 수 있다(S670).
프로세서(170)는, 화상 회의 애플리케이션이 구동되는 상태에서, 매쉬업(mashup) 서비스를 위한 사용자 인터페이스를 제공할 수 있다(S680). 제공하는 단계(S680)에서, 적어도 하나의 프로세서(170)는, 화상 회의 애플리케이션이 구동되는 상태에서, 검색 서비스를 위한 사용자 인터페이스를 제공할 수 있다. 매쉬업 서비스는, 화상 회의 서비스와 다른 서비스를 융합하여 제공하는 것으로 정의될 수 있다.
차량용 전자 장치의 동작 방법은, 적어도 하나의 프로세서(170)가, 화상 회의의 종료 시점 정보를 획득하는 단계 및 적어도 하나의 프로세서(170)가, 종료 시점 정보에 기초하여, 자율 주행 경로 및 주행 속도 중 적어도 어느 하나를 결정하기 위한 신호를 제공하는 단계를 더 포함할 수 있다. 화상 회의의 종료 시점 정보를 획득하는 단계는, S605 단계 이전에 이루어질 수 있다. 자율 주행 경로 및 주행 속도 중 적어도 어느 하나를 결정하기 위한 신호를 제공하는 단계는, S650 단계 이후에 이루어질 수 있다.
도 7 내지 도 10은 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.
도 7을 참조하면, 전자 장치(100)는, 공유형 메모리(31, 720)를 포함할 수 있다. 예를 들면, 전자 장치(100)는, 제1 공유형 메모리(31) 및 제2 공유형 메모리(720)를 포함할 수 있다. 실시예에 따라, 전자 장치(100)는, 복수의 공유형 메모리를 포함할 수 있다. 이경우, 제1 공유형 메모리(31) 및 제2 공유형 메모리(720)는, 물리적으로 분리된 별개의 공유형 메모리일 수 있다. 실시예에 따라, 전자 장치(100)는, 1개의 공유형 메모리를 포함하되, 공유형 메모리는 기능적으로 분리되 이용될 수 있다. 이경우, 제1 공유형 메모리(31) 및 제2 공유형 메모리(720)는, 물리적으로는 1개이지만 기능적으로 2개로 분리된 공유형 메모리일 수 있다.
제1 공유형 메모리(31)는, 상대 단말기(31)로부터 수신된 음성 데이터를 저장할 수 있다. 프로세서(170)는, 제1 공유형 메모리(31)에 저장된 음성 데이터에 대하여, i) 번역 동작과 ii) 음성을 텍스트로 전환하는 동작(STT)을 병렬적으로 수행할 수 있다. i) 번역 동작과 ii) 음성을 텍스트로 전환하는 동작은 한개의 프로세서에서 이루어질수도 있고, 2개의 프로세서에서 각각 이루어질 수도 있다. i) 번역 동작은, 프로세서 내부에서 이루어질수도 있고, 프로세서가 제1 외부 서버(31)에 전송하고, 제1 외부 서버(31)로부터 수신하여 이루어질 수도 있다. ii) 음성을 텍스트로 전환하는 동작은, 프로세서 내부에서 이루어질수도 있고, 프로세서가 제1 외부 서버(31)에 전송하고, 제1 외부 서버(31)로부터 수신하여 이루어질 수도 있다.
제2 공유형 메모리(31)는, 마이크(213)를 통해 획득된 음성 데이터를 저장할 수 있다. 프로세서(170)는, 제2 공유형 메모리(31)에 저장된 음성 데이터에 대하여, i) 음성을 텍스트로 전환한 후 음성에 대응되는 제어 신호를 생성하는 동작, ii) 음성을 텍스트로 전환한 후, 번역하는 동작 및 iii) 음성 데이터를 상대 단말기(31)에 전송하는 동작을 병렬적으로 수행할 수 있다. i) 음성을 텍스트로 전환한 후 음성에 대응되는 제어 신호를 생성하는 동작, ii) 음성을 텍스트로 전환한 후, 번역하는 동작 및 iii) 음성 데이터를 상대 단말기(31)에 전송하는 동작은 한개의 프로세서에서 이루어질수도 있고, 3개의 프로세서에서 각각 이루어질 수도 있다.
도 8을 참조하면, 지시부호 810은, 상대 단말기에서 전송된 영상 데이터에 기초하여 디스플레이에 표시되는 영상을 예시한다. 프로세서(170)는, 수신된 영상 데이터에 기초하여, 상대 단말기에 의해 촬영된 영상을 표시할 수 있다. 프로세서(170)는, 상대 단말기로부터 섹션 데이터를 수신할 수 있다. 프로세서(170)는, 섹션 데이터로부터 영상 데이터 및 음성 데이터를 추출할 수 있다. 프로세서(170)는, 섹션 데이터로부터 PID 데이터를 추출할 수 있다. PID 데이터는, 상대편 화자의 위치 데이터도 포함할 수 있다. 한편, 상대 단말기는, 어레이 마이크를 이용하여 상대편 화자의 위치 정보를 회득할 수 있다.
프로세서(170)는, 영상 데이터에, 상대편 화자의 위치 데이터를 매칭할 수 있다. 프로세서(170)는, 복수의 화자 중 제1 화자의 발화에 의해 생성된 음성 데이터를 수신하는 경우, 복수의 화자 중 제1 화자에 매칭시켜 텍스트를 표시할 수 있다. 이경우, 프로세서(170)는, 번역된 텍스트를 표시할 수 있다.
도 9를 참조하면, 프로세서(170)는, 컨텐츠를 표시할 수 있다. 컨텐츠는, 상대 단말기에 의해 촬영된 영상, 상대 마이크에서 회득된 음성, 번역 음성, 텍스트 및 번역 텍스트 중 적어도 어느 하나를 포함할 수 있다.
프로세서(170)는, 화상 회의 애플리케이션이 구동되는 상태에서, 매쉬업 서비스를 위한 사용자 인터페이스를 제공할 수 있다. 예를 들면, 프로세서(170)는, 사용자 입력에 기초하여, 지도에서 위치를 검색할 수 있는 사용자 인터페이스를 제공할 수 있다. 사용자는, 상대방과 화상 회의 진행 중에, 지도를 검색하는 서비스를 제공받을 수 있다.
도 10을 참조하면, 이동 단말기(20)는, 사용자의 음성을 등록할 수 있다(S1010). 이동 단말기(20)는, 이동 단말기(20) 정보와 페어링된 음성 등록 정보를 제2 외부 서버(33)에 전송할 수 있다(S1020). 제2 외부 서버(33)는, 사용자의 음성에 기초하여, 사용자의 성문을 등록할 수 있다. 제2 외부 서버(33)는, 사용자의 성문을 이동 단말기(20) 정보에 매칭하여 등록할 수 있다.
전자 장치(100)와 이동 단말기(20)가 동기화된 상태에서(S1025), 이동 단말기(20)는, 사용자의 음성 명령을 수신할 수 있다(S1030). 이동 단말기(20)는 차량 내 서비스 요청을 위한 음성 명령을 전자 장치(100)에 전송할 수 있다. 전자 장치(100)는, 제2 외부 서버(33)에 음성 명령에 대한 성문 인식을 요청할 수 있다(S1060). 전자 장치(100)는, 제2 외부 서버(33)로부터 성문 인식 결과를 수신할 수 있다(S1070). 성문이 기 등록된 성문 데이터와 일치하는 결과를 수신하는 경우, 전자 장치(100)는, 차량내 서비스를 실행할 수 있다. 차량내 서비스는, 영상 통화 서비스를 포함할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
[부호의 설명]
10 : 차량
100 : 차량용 전자 장치

Claims (19)

  1. 사용자가 차량에 탑승한 상태에서 구동되는 차량용 전자 장치에 있어서,
    화상 회의 애플리케이션이 구동되는 상태에서, 영상 데이터 및 제1 언어의 음성 데이터를 상대 단말기로부터 수신하고,
    상기 음성 데이터를 제1 외부 서버에 전송하고,
    상기 제1 외부 서버로부터, 제2 언어로 전환된 번역 데이터를 수신하고,
    상기 번역 데이터에 기초하여 상기 제2 언어로 구성된 컨텐츠를 출력하는 적어도 하나의 프로세서;를 포함하는 차량용 전자 장치.
  2. 제 1항에 있어서,
    상기 프로세서는,
    상기 상대 단말기로부터 섹션 데이터(section data) 형태로 상기 영상 데이터 및 상기 음성 데이터를 수신하는 차량용 전자 장치.
  3. 제 2항에 있어서,
    상기 프로세서는,
    상기 섹션 데이터를 추출하고 파싱(parsing)하여 영상내에서 상대편 화자의 위치를 결정하는 차량용 전자 장치.
  4. 제 3항에 있어서,
    상기 섹션 데이터는, 상대편 화자에 대응되는 PID(personal identifier) 데이터를 포함하고,
    상기 프로세서는,
    상기 PID 데이터에 기초하여, 상대편 화자에 대한 정보를 획득하는 차량용 전자 장치.
  5. 제 1항에 있어서,
    공유 메모리(shared memory);를 더 포함하고,
    상기 프로세서는,
    상기 공유 메모리에 저장된 상기 음성 데이터에 대하여, i) 상기 제1 외부 서버에 전송하는 동작과 ii) 음성을 텍스트로 전환하는 동작을 병렬적으로 수행하는 차량용 전자 장치.
  6. 제 1항에 있어서,
    공유 메모리;를 더 포함하고,
    상기 프로세서는,
    마이크를 통해 획득되어 상기 공유 메모리에 저장되는 음성 데이터에 대하여, i) 음성을 텍스트로 전환한 후 음성에 대응되는 제어 신호를 생성하는 동작, ii)음성을 텍스트로 전환한후 상기 제1 외부 서버에 전송하는 동작 및 iii) 음성 데이터를 상대 단말기로 전송하는 동작을 병렬적으로 수행하는 차량용 전자 장치.
  7. 제 1항에 있어서,
    상기 프로세서는,
    상기 화상 회의 애플리케이션이 구동되는 상태에서, 매쉬업(mashup) 서비스를 위한 사용자 인터페이스를 제공하는 차량용 전자 장치.
  8. 제 7항에 있어서,
    상기 프로세서는,
    상기 화상 회의 애플리케이션이 구동되는 상태에서, 검색 서비스를 위한 사용자 인터페이스를 제공하는 차량용 전자 장치.
  9. 제 1항에 있어서,
    상기 프로세서는,
    어레이 마이크로부터 수신되는 오디오 빔포밍 데이터에 기초하여, 화자의 위치를 판단하는 차량용 전자 장치.
  10. 제 1항에 있어서,
    상기 프로세서는,
    상기 음성 데이터에 기초하여 제2 외부 서버에 성문 인식을 요청하고,
    상기 제2 외부 서버로부터, 성문 인식 결과를 수신하고,
    상기 성문 인식 결과에 기초하여, 화자를 인증하는 차량용 전자 장치.
  11. 제 1항에 있어서,
    상기 프로세서는,
    화상 회의의 종료 시점 정보를 획득하고, 상기 종료 시점 정보에 기초하여, 자율 주행 경로 설정 및 주행 속도 중 적어도 어느 하나를 설정하기 위한 신호를 제공하는 차량용 전자 장치.
  12. 사용자가 차량에 탑승한 상태에서 구동되는 차량용 전자 장치의 동작 방법에 있어서,
    적어도 하나의 프로세서가, 화상 회의 애플리케이션을 구동하는 단계;
    적어도 하나의 프로세서가, 상기 화상 회의 애플리케이션이 구동되는 상태에서, 영상 데이터 및 제1 언어의 음성 데이터를 상대 단말기로부터 수신하는 단계;
    적어도 하나의 프로세서가, 상기 음성 데이터를 제1 외부 서버에 전송하는 단계;
    적어도 하나의 프로세서가, 상기 제1 외부 서버로부터, 제2 언어로 전환된 번역 데이터를 수신하는 단계; 및
    적어도 하나의 프로세서가, 상기 번역 데이터에 기초하여 상기 제2 언어로 구성된 컨텐츠를 출력하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  13. 제 12항에 있어서,
    상기 수신하는 단계는,
    상기 상대 단말기로부터 섹션 데이터(section data) 형태로 상기 영상 데이터 및 상기 음성 데이터를 수신하는 차량용 전자 장치의 동작 방법.
  14. 제 13항에 있어서,
    적어도 하나의 프로세서가, 상기 섹션 데이터를 추출하고 파싱(parsing)하여 영상내에서 상대편 화자의 위치를 결정하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  15. 제 14항에 있어서,
    상기 섹션 데이터는, 상대편 화자에 대응되는 PID(personal identifier) 데이터를 포함하고,
    적어도 하나의 프로세서가, 상기 PID 데이터에 기초하여, 상대편 화자에 대한 정보를 획득하는 단계를 더 포함하는 차량용 전자 장치의 동작 방법.
  16. 제 12항에 있어서,
    적어도 하나의 프로세서가, 상기 화상 회의 애플리케이션이 구동되는 상태에서, 매쉬업(mashup) 서비스를 위한 사용자 인터페이스를 제공하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  17. 제 16항에 있어서,
    상기 제공하는 단계는,
    상기 화상 회의 애플리케이션이 구동되는 상태에서, 검색 서비스를 위한 사용자 인터페이스를 제공하는 차량용 전자 장치의 동작 방법.
  18. 제 12항에 있어서,
    적어도 하나의 프로세서가, 어레이 마이크로부터 수신되는 오디오 빔포밍 데이터에 기초하여, 화자의 위치를 판단하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  19. 제 12항에 있어서,
    적어도 하나의 프로세서가, 화상 회의의 종료 시점 정보를 획득하는 단계; 및
    적어도 하나의 프로세서가, 상기 종료 시점 정보에 기초하여, 자율 주행 경로 및 주행 속도 중 적어도 어느 하나를 결정하기 위한 신호를 제공하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
PCT/KR2019/003364 2019-03-22 2019-03-22 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 WO2020196931A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003364 WO2020196931A1 (ko) 2019-03-22 2019-03-22 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003364 WO2020196931A1 (ko) 2019-03-22 2019-03-22 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Publications (1)

Publication Number Publication Date
WO2020196931A1 true WO2020196931A1 (ko) 2020-10-01

Family

ID=72609459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/003364 WO2020196931A1 (ko) 2019-03-22 2019-03-22 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Country Status (1)

Country Link
WO (1) WO2020196931A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023273063A1 (zh) * 2021-06-30 2023-01-05 上海商汤临港智能科技有限公司 乘员说话检测方法及装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130162752A1 (en) * 2011-12-22 2013-06-27 Advanced Micro Devices, Inc. Audio and Video Teleconferencing Using Voiceprints and Face Prints
KR20160091767A (ko) * 2015-01-26 2016-08-03 엘지전자 주식회사 차량 제어 장치 및 이의 제어 방법
US20160350287A1 (en) * 2012-05-18 2016-12-01 Amazon Technologies, Inc. Determining delay for language translation in video communication
US9720909B2 (en) * 2011-12-12 2017-08-01 Google Inc. Auto-translation for multi user audio and video
KR20180128793A (ko) * 2017-05-24 2018-12-04 엘지전자 주식회사 차량의 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720909B2 (en) * 2011-12-12 2017-08-01 Google Inc. Auto-translation for multi user audio and video
US20130162752A1 (en) * 2011-12-22 2013-06-27 Advanced Micro Devices, Inc. Audio and Video Teleconferencing Using Voiceprints and Face Prints
US20160350287A1 (en) * 2012-05-18 2016-12-01 Amazon Technologies, Inc. Determining delay for language translation in video communication
KR20160091767A (ko) * 2015-01-26 2016-08-03 엘지전자 주식회사 차량 제어 장치 및 이의 제어 방법
KR20180128793A (ko) * 2017-05-24 2018-12-04 엘지전자 주식회사 차량의 제어방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023273063A1 (zh) * 2021-06-30 2023-01-05 上海商汤临港智能科技有限公司 乘员说话检测方法及装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
WO2021002517A1 (ko) 공유형 차량 관리 장치 및 공유형 차량의 관리 방법
JP6025363B2 (ja) 車両間における情報共有システムおよびその方法
WO2020122270A1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
WO2020222333A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020241952A1 (ko) 자율 주행 차량 시스템 및 차량의 자율 주행 방법
WO2020241954A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020096083A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020196931A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020091119A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
JP6981095B2 (ja) サーバ装置、記録方法、プログラム、および記録システム
WO2020196960A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002518A1 (ko) 위치 데이터 생성 장치, 자율 주행 차량 및 위치 데이터 생성 방법
WO2022239972A1 (ko) 가상 운전자 서비스를 제공하는 장치, 방법 및 컴퓨터 프로그램
WO2020096081A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020196932A1 (ko) 디지털 사이니지 장치 및 디지털 사이니지 장치의 동작 방법
WO2020145440A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
JPWO2020031696A1 (ja) 情報処理装置及び情報処理方法、並びに映像音声出力システム
WO2019117658A1 (ko) 카메라 제어 장치 및 그것의 제어 방법
WO2020196961A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020222319A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
EP4171021A1 (en) Control device, projection system, control method, and program
WO2020241953A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020222318A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020166747A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
US11070714B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19921458

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19921458

Country of ref document: EP

Kind code of ref document: A1