KR20190053814A - 음성 제시 방법, 음성 제시 프로그램, 음성 제시 시스템 및 단말 장치 - Google Patents

음성 제시 방법, 음성 제시 프로그램, 음성 제시 시스템 및 단말 장치 Download PDF

Info

Publication number
KR20190053814A
KR20190053814A KR1020187002270A KR20187002270A KR20190053814A KR 20190053814 A KR20190053814 A KR 20190053814A KR 1020187002270 A KR1020187002270 A KR 1020187002270A KR 20187002270 A KR20187002270 A KR 20187002270A KR 20190053814 A KR20190053814 A KR 20190053814A
Authority
KR
South Korea
Prior art keywords
voice
announcement
user
importance
announcement voice
Prior art date
Application number
KR1020187002270A
Other languages
English (en)
Inventor
고지 미우라
히카루 우사미
Original Assignee
파나소닉 아이피 매니지먼트 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 파나소닉 아이피 매니지먼트 가부시키가이샤 filed Critical 파나소닉 아이피 매니지먼트 가부시키가이샤
Publication of KR20190053814A publication Critical patent/KR20190053814A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • G06F17/277
    • G06F17/289
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/454Multi-language systems; Localisation; Internationalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • G10L15/265
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

사용자의 쾌적성을 향상시킬 수 있는 음성 제시 방법, 음성 제시 프로그램, 음성 제시 시스템 및 단말 장치를 제공한다. 통신부(301)는, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 아나운스 음성의 중요도를 취득하고, 기내 방송 우선도 제어부(310)는, 취득한 중요도에 따라 아나운스 음성을 사용자에게 제시할지 여부를 판단하며, 기내 방송 제어부(308)는, 아나운스 음성을 사용자에게 제시한다고 판단되었을 경우, 사용자가 사용하는 엔터테인먼트 단말로 아나운스 음성을 송신한다.

Description

음성 제시 방법, 음성 제시 프로그램, 음성 제시 시스템 및 단말 장치
본 개시는, 발화자로부터 사용자에게 아나운스되는 아나운스 음성을 사용자에게 제시하는 음성 제시 방법, 음성 제시 프로그램, 음성 제시 시스템 및 단말 장치에 관한 것이다.
최근, 교통 기관 또는 관광용 차량 등에서, 외국인을 대상으로 한 다언어에 의한 승객을 위한 아나운스가 행해지고 있다. 또한, 아나운스는 탈 것에 비치된 스피커를 이용한 방송형의 출력 형태에 더하여, 승객용의 단말로부터 개별적으로 출력하는 형태도 증가하고 있다.
예를 들면, 항공기 내에 있어서, 승무원 또는 조종사에 의해, 승객에 대한 여러 가지의 정보의 아나운스가 행해지고 있다. 또한, 객석에는 엔터테인먼트 단말이 장비되어, 승객은 엔터테인먼트 단말을 이용하여 영화 등을 시청하는 것이 가능하다. 승무원 또는 조종사에 의한 아나운스는, 마이크를 이용하여 행해지며, 항공기 내의 방송 스피커 및 엔터테인먼트 단말에 접속된 이어폰 또는 헤드폰으로부터 출력된다. 또한, 승무원 또는 조종사에 의한 아나운스는, 통상, 대표적인 2~3종류의 언어로 행해진다.
일군의 개인에게 아나운스를 행하는 다언어 교신 방법으로서, 예를 들면, 특허 문헌 1이 개시되어 있다. 특허 문헌 1에 있어서의 다언어 교신 방법에 있어서는, 각 개인에게 복수의 언어 선택에 대한 액세스를 제공하고, 언어 선택으로부터 각 개인에게 의해 선택된 각 언어 선택의 표시를 1명 이상의 사람으로부터 수신하고, 데이터베이스에 언어 선택을 기억시켜, 1개 이상의 어플리케이션에 의해 액세스 가능한 언어 선택을 하고, 선택적으로 조작되었을 때에 어플리케이션은 각 개인에게 각 언어 선택으로 출력이 제공되는 것이다.
일본 특허공표 2006-512647호 공보
그러나, 상기 특허문헌 1에서는, 개선이 한층 더 필요했었다.
본 개시된 일양태에 관련된 음성 제시 방법은, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 상기 아나운스 음성의 중요도를 취득하고, 취득한 상기 중요도에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하며, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단했을 경우, 상기 사용자가 사용하는 단말 장치로 상기 아나운스 음성을 송신한다.
또한, 본 개시된 다른 양태에 관련된 음성 제시 프로그램은, 컴퓨터를, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 상기 아나운스 음성의 중요도를 취득하는 취득부와, 취득한 상기 중요도에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하는 판단부와, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단되었을 경우, 상기 사용자가 사용하는 단말 장치로 상기 아나운스 음성을 송신하는 송신부로서 기능시킨다.
또한, 본 개시된 다른 양태에 관련된 음성 제시 시스템은, 서버와, 상기 서버와 서로 통신 가능하게 접속되어, 상기 사용자가 사용하는 단말 장치를 구비하고, 상기 서버는, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 상기 아나운스 음성의 중요도를 취득하는 취득부와, 취득한 상기 중요도에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하는 판단부와, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단되었을 경우, 상기 단말 장치로 상기 아나운스 음성을 송신하는 송신부를 구비하고, 상기 단말 장치는, 상기 아나운스 음성을 수신하는 수신부와, 상기 아나운스 음성을 출력하는 출력부를 구비한다.
또한, 본 개시된 다른 양태에 관련된 단말 장치는, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성이며, 상기 사용자에게 제시하지 않는다고 판단된 상기 아나운스 음성의 취득 요구를 송신하는 송신부와, 상기 취득 요구에 대한 응답으로서, 상기 아나운스 음성을 수신하는 수신부와, 수신된 상기 아나운스 음성을 출력하는 출력부를 구비한다.
상기 양태에 의하면, 개선을 한층 더 실현할 수 있다.
도 1은 본 개시된 실시의 형태에 있어서의 음성 제시 시스템의 구성을 나타내는 도면이다.
도 2는 본 개시된 실시의 형태에 있어서의 기내 방송 장치의 구성을 나타내는 도면이다.
도 3은 본 개시된 실시의 형태에 있어서의 번역 서버의 구성을 나타내는 도면이다.
도 4는 중요도 테이블의 일례를 나타내는 도면이다.
도 5는 본 개시된 실시의 형태에 있어서의 엔터테인먼트 서버의 구성을 나타내는 도면이다.
도 6은 본 개시된 실시의 형태에 있어서의 엔터테인먼트 단말의 구성을 나타내는 도면이다.
도 7은 본 실시의 형태의 기내 방송 장치에 있어서의 발화자 언어 설정 처리에 대해 설명하기 위한 플로차트이다.
도 8은 발화자 언어 설정 화면의 일례를 나타내는 도면이다.
도 9는 본 실시의 형태의 엔터테인먼트 단말 및 엔터테인먼트 서버에 있어서의 사용자 언어 설정 처리에 대해 설명하기 위한 플로차트이다.
도 10은 사용자 언어 설정 화면의 일례를 나타내는 도면이다.
도 11은 본 실시의 형태의 엔터테인먼트 단말 및 엔터테인먼트 서버에 있어서의 음성 차단 설정 처리에 대해 설명하기 위한 플로차트이다.
도 12는 기내 방송 설정 화면의 일례를 나타내는 도면이다.
도 13은 본 실시의 형태의 기내 방송 장치, 번역 서버 및 엔터테인먼트 서버에 있어서의 아나운스 음성 제시 처리에 대해 설명하기 위한 제1의 플로차트이다.
도 14는 본 실시의 형태의 기내 방송 장치, 번역 서버 및 엔터테인먼트 서버에 있어서의 아나운스 음성 제시 처리에 대해 설명하기 위한 제2의 플로차트이다.
도 15는 본 실시의 형태의 기내 방송 장치, 번역 서버 및 엔터테인먼트 서버에 있어서의 아나운스 음성 제시 처리에 대해 설명하기 위한 제3의 플로차트이다.
도 16은 본 실시의 형태의 엔터테인먼트 단말 및 엔터테인먼트 서버에 있어서의 아나운스 음성 재생 처리에 대해 설명하기 위한 제1의 플로차트이다.
도 17은 본 실시의 형태의 엔터테인먼트 단말 및 엔터테인먼트 서버에 있어서의 아나운스 음성 재생 처리에 대해 설명하기 위한 제2의 플로차트이다.
도 18은 아나운스 선택 화면의 일례를 나타내는 도면이다.
도 19는 아나운스 텍스트 화면의 일례를 나타내는 도면이다.
도 20은 상세 정보 표시 화면의 일례를 나타내는 도면이다.
(본 개시에 관련된 일양태를 발명하기에 이른 경위)
우선, 본 개시에 관련된 일양태의 착안점에 대해 설명한다.
최근, 교통 기관 또는 관광용 차량 등에서, 외국인을 대상으로 한 다언어에 의한 승객을 위한 아나운스가 행해지고 있다. 또한, 아나운스는 탈 것에 비치된 스피커를 이용한 방송형의 출력 형태에 더하여, 승객용의 단말로부터 개별적으로 출력하는 형태도 증가하고 있다.
예를 들면, 항공기 내에 있어서, 승무원 또는 조종사에 의해, 승객에 대한 여러 가지의 정보의 아나운스가 행해지고 있다. 또한, 객석에는 엔터테인먼트 단말이 장비되어, 승객은 엔터테인먼트 단말을 이용하여 영화 등을 시청하는 것이 가능하다. 승무원 또는 조종사에 의한 아나운스는, 마이크를 이용하여 행해지며, 항공기 내의 방송 스피커 및 엔터테인먼트 단말에 접속된 이어폰 또는 헤드폰으로부터 출력된다. 또한, 승무원 또는 조종사에 의한 아나운스는, 통상, 대표적인 2~3종류의 언어로 행해진다.
일군의 개인에게 아나운스를 행하는 다언어 교신 방법으로서, 예를 들면, 특허문헌 1이 개시되어 있다. 특허문헌 1에 있어서의 다언어 교신 방법에 있어서는, 각 개인에게 복수의 언어 선택에 대한 액세스를 제공하고, 언어 선택으로부터 각 개인에게 의해 선택된 각 언어 선택의 표시를 1명 이상의 사람으로부터 수신하고, 데이터베이스에 언어 선택을 기억시켜, 1개 이상의 어플리케이션에 의해 액세스 가능한 언어 선택을 하고, 선택적으로 조작되었을 때에 어플리케이션은 각 개인에게 각 언어 선택으로 출력이 제공되는 것이다.
그러나, 종래의 항공기 내에 설치된 엔터테인먼트 단말에서는, 승무원 또는 조종사에 의해 아나운스가 행해지는 경우, 영화 등의 컨텐츠가 재생 중이라도, 컨텐츠의 재생이 중단되고, 아나운스 음성이 헤드폰으로부터 출력된다. 승무원 또는 조종사로부터는, 안전에 관련된 아나운스 뿐만이 아니라, 기내 서비스에 관한 아나운스도 행해진다. 이러한 기내 서비스에 관한 아나운스는, 승객에게 있어서 반드시 필요한 정보가 아니며, 이러한 아나운스에 의해 승객의 컨텐츠의 시청이 방해되는 것은, 승객에게 불쾌감을 주게 되어, 쾌적성을 해치는 것으로 연결된다.
이상의 과제를 해결하기 위해서, 본 개시된 일양태에 관련된 음성 제시 방법은, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 상기 아나운스 음성의 중요도를 취득하고, 취득한 상기 중요도에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하며, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단했을 경우, 상기 사용자가 사용하는 단말 장치로 상기 아나운스 음성을 송신한다.
이 구성에 의하면, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 아나운스 음성의 중요도가 취득된다. 취득된 중요도에 따라 아나운스 음성을 사용자에게 제시할지 여부가 판단된다. 아나운스 음성을 사용자에게 제시한다고 판단되었을 경우, 사용자가 사용하는 단말 장치로 아나운스 음성이 송신된다.
따라서, 중요도에 따라 아나운스 음성을 사용자에게 제시할지 여부가 판단되고, 아나운스 음성을 사용자에게 제시한다고 판단되었을 경우, 사용자에게 아나운스 음성이 제시되므로, 중요도가 높은 아나운스 음성은 사용자에게 제시하고, 중요도가 낮은 아나운스 음성은 사용자에게 제시하지 않고 차단할 수 있어, 사용자의 쾌적성을 향상시킬 수 있다.
또한, 상기의 음성 제시 방법에 있어서, 상기 아나운스 음성을 음성 인식함으로써 발화 텍스트를 생성하고, 상기 중요도와 단어를 대응지어 기억하는 중요도 기억부를 참조하여, 상기 발화 텍스트에 포함되는 단어에 대응지어져 있는 중요도를 상기 중요도 기억부로부터 결정해도 된다.
이 구성에 의하면, 아나운스 음성을 음성 인식함으로써 발화 텍스트가 생성된다. 중요도와 단어를 대응지어 기억하는 중요도 기억부가 참조되어, 발화 텍스트에 포함되는 단어에 대응지어져 있는 중요도가 중요도 기억부로부터 결정된다.
따라서, 중요도와 단어를 대응지어 기억하는 중요도 기억부가 참조되어, 발화 텍스트에 포함되는 단어에 대응지어져 있는 중요도가 결정되므로, 아나운스 음성의 중요도를 용이하게 결정할 수 있다.
또한, 상기의 음성 제시 방법에 있어서, 상기 발화자가 발화에 사용하는 제1의 언어와, 상기 사용자가 발화에 사용하는 제2의 언어는 상이하며, 상기 발화 텍스트를 상기 제2의 언어로 번역함으로써 발화 번역 텍스트를 생성하고, 상기 발화 번역 텍스트를 음성 합성함으로써 아나운스 번역 음성을 생성하고, 상기 아나운스 번역 음성을 또한 취득하여, 취득한 상기 중요도에 따라 상기 아나운스 번역 음성을 상기 사용자에게 제시할지 여부를 판단하며, 상기 아나운스 번역 음성을 상기 사용자에게 제시한다고 판단했을 경우, 상기 단말 장치로 상기 아나운스 번역 음성을 송신해도 된다.
이 구성에 의하면, 발화자가 발화에 사용하는 제1의 언어와, 사용자가 발화에 사용하는 제2의 언어는 상이하다. 발화 텍스트를 제2의 언어로 번역함으로써 발화 번역 텍스트가 생성된다. 발화 번역 텍스트를 음성 합성함으로써 아나운스 번역 음성이 생성된다. 아나운스 번역 음성이 또한 취득된다. 취득된 중요도에 따라 아나운스 번역 음성을 사용자에게 제시할지 여부가 판단된다. 아나운스 번역 음성을 사용자에게 제시한다고 판단되었을 경우, 단말 장치로 아나운스 번역 음성이 송신된다.
따라서, 발화자가 발화한 아나운스 음성을, 사용자가 발화에 사용하는 언어로 번역하여 출력할 수 있다.
또한, 상기의 음성 제시 방법에 있어서, 상기 발화자에 의한 상기 아나운스 음성의 중요도의 입력을 접수해도 된다.
이 구성에 의하면, 발화자에 의한 아나운스 음성의 중요도의 입력이 접수되고, 접수된 중요도와 아나운스 음성이 취득되므로, 발화자가 중요도를 결정할 수 있다.
또한, 상기의 음성 제시 방법에 있어서, 상기 중요도는, 제1의 중요도와, 상기 제1의 중요도보다 낮은 제2의 중요도와, 상기 제2의 중요도보다 낮은 제3의 중요도를 포함하며, 상기 제1의 중요도가 취득되었을 경우, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단하며, 상기 제2의 중요도가 취득되었을 경우, 상기 아나운스 음성을 상기 사용자에게 제시하지 않는다고 판단하며, 상기 제2의 중요도의 상기 아나운스 음성을 음성 기억부에 기억시키고, 상기 제3의 중요도가 취득되었을 경우, 상기 아나운스 음성을 상기 사용자에게 제시하지 않는다고 판단해도 된다.
이 구성에 의하면, 중요도는, 제1의 중요도와, 제1의 중요도보다 낮은 제2의 중요도와, 제2의 중요도보다 낮은 제3의 중요도를 포함한다. 제1의 중요도가 취득되었을 경우, 아나운스 음성을 사용자에게 제시한다고 판단된다. 제2의 중요도가 취득되었을 경우, 아나운스 음성을 사용자에게 제시하지 않는다고 판단되며, 제2의 중요도의 아나운스 음성이 음성 기억부에 기억된다. 제3의 중요도가 취득되었을 경우, 아나운스 음성을 사용자에게 제시하지 않는다고 판단된다.
따라서, 가장 높은 제1의 중요도의 아나운스 음성은 즉시 사용자에게 제시할 수 있으며, 제1의 중요도보다 낮은 제2의 중요도의 아나운스 음성은 즉시 사용자에게 제시되지 않지만, 제2의 중요도의 아나운스 음성을 음성 기억부에 기억시킬 수 있고, 제2의 중요도보다 낮은 제3의 중요도의 아나운스 음성은 사용자에게 제시하는 일 없이 블록할 수 있다.
또한, 상기의 음성 제시 방법에 있어서, 상기 음성 기억부에 기억된 상기 아나운스 음성을 취득하는 취득 요구를 상기 단말 장치로부터 수신했을 경우, 상기 아나운스 음성을 상기 음성 기억부로부터 읽어내어, 상기 단말 장치로 송신해도 된다.
이 구성에 의하면, 음성 기억부에 기억된 아나운스 음성을 취득하는 취득 요구가 단말 장치로부터 수신되었을 경우, 아나운스 음성이 음성 기억부로부터 읽어내져, 단말 장치로 송신된다.
따라서, 기억된 아나운스 음성을, 사용자로부터의 요구에 따라 송신할 수 있어, 실시간으로 사용자에게 제시되지 않았던 아나운스 음성을, 나중에 사용자에게 제시할 수 있다.
또한, 상기의 음성 제시 방법에 있어서, 상기 사용자의 주위의 상황을 취득하여, 취득한 상기 상황이 소정의 상황인 경우, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단하고, 상기 단말 장치로 상기 아나운스 음성을 송신해도 된다.
이 구성에 의하면, 사용자의 주위의 상황을 취득하여, 취득한 상황이 소정의 상황인 경우, 아나운스 음성을 사용자에게 제시한다고 판단되어, 단말 장치로 아나운스 음성이 송신된다.
따라서, 사용자의 주위의 상황이 소정의 상황인 경우, 아나운스 음성이 사용자에게 제시되므로, 사용자의 주위의 상황을 고려하여 아나운스 음성을 사용자에게 제시할 수 있다.
또한, 상기의 음성 제시 방법에 있어서, 상기 상황은, 상기 사용자가 탑승하고 있는 항공기의 비행 중에 변화되는 기상 상황이어도 된다.
이 구성에 의하면, 사용자가 탑승하고 있는 항공기의 비행 중에 변화되는 기상 상황을 고려하여 아나운스 음성을 사용자에게 제시할 수 있다.
또한, 상기의 음성 제시 방법에 있어서, 특정의 상기 중요도의 상기 아나운스 음성을 차단하는 것을 나타내는 블록 정보를 상기 단말 장치로부터 수신하고, 상기 중요도 및 상기 블록 정보에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단해도 된다.
이 구성에 의하면, 사용자에게 제시하는 아나운스를 사용자에게 제시할지 여부를 동적으로 변경할 수 있다. 그것에 의해, 개개의 사용자에게 맞는 아나운스의 제공이 가능해진다.
또한, 상기의 음성 제시 방법에 있어서, 상기 중요도 및 상기 블록 정보에 따라 상기 아나운스 음성을 상기 사용자에게 제시하지 않는다고 판단했을 경우, 제시하지 않는다고 판단된 상기 아나운스 음성이 축적되어 있는 것을 통지하기 위한 통지 정보를 상기 단말 장치로 송신해도 된다.
이 구성에 의하면, 아나운스가 블록된 것을 단말 장치로 전할 수 있다. 그것에 의해, 아나운스를 미쳐 못 듣는 것을 방지하는 것이 가능해진다.
또한, 상기의 음성 제시 방법에 있어서, 상기 단말 장치로 송신된 상기 아나운스 음성의 특정 부분에 대한 상세 정보의 취득 요구를 상기 단말 장치로부터 수신하고, 상기 상세 정보를 상기 단말 장치로 송신해도 된다.
이 구성에 의하면, 단말 장치로부터의 요구에 따른 아나운스의 상세 정보를 단말 장치로 제공할 수 있다. 그것에 의해, 사용자에게 원하는 정보를 과부족 없이 제공하는 것이 가능해진다.
본 개시된 다른 양태에 관련된 음성 제시 프로그램은, 컴퓨터를, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 상기 아나운스 음성의 중요도를 취득하는 취득부와, 취득한 상기 중요도에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하는 판단부와, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단되었을 경우, 상기 사용자가 사용하는 단말 장치로 상기 아나운스 음성을 송신하는 송신부로서 기능시킨다.
이 구성에 의하면, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 아나운스 음성의 중요도가 취득된다. 취득된 중요도에 따라 아나운스 음성을 사용자에게 제시할지 여부가 판단된다. 아나운스 음성을 사용자에게 제시한다고 판단되었을 경우, 사용자가 사용하는 단말 장치로 아나운스 음성이 송신된다.
따라서, 중요도에 따라 아나운스 음성을 사용자에게 제시할지 여부가 판단되고, 아나운스 음성을 사용자에게 제시한다고 판단되었을 경우, 사용자에게 아나운스 음성이 제시되므로, 중요도가 높은 아나운스 음성은 사용자에게 제시하고, 중요도가 낮은 아나운스 음성은 사용자에게 제시하지 않고 차단할 수 있어, 사용자의 쾌적성을 향상시킬 수 있다.
본 개시된 다른 양태에 관련된 음성 제시 시스템은, 서버와, 상기 서버와 서로 통신 가능하게 접속되어, 상기 사용자가 사용하는 단말 장치를 구비하고, 상기 서버는, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 상기 아나운스 음성의 중요도를 취득하는 취득부와, 취득한 상기 중요도에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하는 판단부와, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단되었을 경우, 상기 단말 장치로 상기 아나운스 음성을 송신하는 송신부를 구비하고, 상기 단말 장치는, 상기 아나운스 음성을 수신하는 수신부와, 상기 아나운스 음성을 출력하는 출력부를 구비한다.
이 구성에 의하면, 서버에 있어서, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 아나운스 음성의 중요도가 취득된다. 취득된 중요도에 따라 아나운스 음성을 사용자에게 제시할지 여부가 판단된다. 아나운스 음성을 사용자에게 제시한다고 판단되었을 경우, 단말 장치로 아나운스 음성이 송신된다. 단말 장치에 있어서, 아나운스 음성이 수신되고, 아나운스 음성이 출력된다.
따라서, 중요도에 따라 아나운스 음성을 사용자에게 제시할지 여부가 판단되며, 아나운스 음성을 사용자에게 제시한다고 판단되었을 경우, 사용자에게 아나운스 음성이 제시되므로, 중요도가 높은 아나운스 음성은 사용자에게 제시하고, 중요도가 낮은 아나운스 음성은 사용자에게 제시하지 않고 차단할 수 있어, 사용자의 쾌적성을 향상시킬 수 있다.
본 개시된 다른 양태에 관련된 단말 장치는, 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성이며, 상기 사용자에게 제시하지 않는다고 판단된 상기 아나운스 음성의 취득 요구를 송신하는 송신부와, 상기 취득 요구에 대한 응답으로서, 상기 아나운스 음성을 수신하는 수신부와, 수신된 상기 아나운스 음성을 출력하는 출력부를 구비한다.
이 구성에 의하면, 단말 장치에 있어서, 서버로부터 제공되지 않았던 아나운스 음성을 나중에 재생할 수 있다. 그것에 의해, 사용자의 쾌적성을 유지하면서, 편리성을 향상시키는 것이 가능해진다.
또한, 상기의 단말 장치에 있어서, 특정의 중요도의 상기 아나운스 음성을 차단할지 여부를 나타내는 입력을 접수하는 입력부를 더 구비하고, 상기 송신부는, 상기 입력에 따라 상기 특정의 중요도의 상기 아나운스 음성을 차단하는 것을 나타내는 블록 정보를 송신해도 된다.
이 구성에 의하면, 사용자에게 제시하는 아나운스를 사용자가 설정할 수 있다. 그것에 의해, 개개의 사용자의 요구에 맞는 아나운스의 제공이 가능해진다.
또한, 상기의 단말 장치에 있어서, 상기 출력부가 출력하는 화면에 대한 입력을 접수하는 입력부를 더 구비하고, 상기 출력부는, 상기 사용자에게 제시하지 않는다고 판단된 상기 아나운스 음성을 나타내는 화면을 출력하고, 상기 송신부는, 상기 사용자에게 제시하지 않는다고 판단된 상기 아나운스 음성을 나타내는 화면에 대한 입력에 의거하여 상기 아나운스 음성의 취득 요구를 송신해도 된다.
이 구성에 의하면, 재생하는 아나운스를 사용자가 선택할 수 있다. 그것에 의해, 사용자는 원하는 아나운스 만을 나중에 재생할 수 있어, 편리성을 향상시키는 것이 가능해진다.
또한, 상기의 단말 장치에 있어서, 상기 아나운스 음성의 특정 부분에 대한 입력을 접수하는 입력부를 더 구비하고, 상기 송신부는, 상기 아나운스 음성의 특정 부분에 대한 입력에 따라 상기 아나운스 음성의 특정 부분에 대한 상세 정보의 취득 요구를 송신하며, 상기 수신부는, 상기 상세 정보를 수신하고, 상기 출력부는, 상기 상세 정보를 출력해도 된다.
이 구성에 의하면, 사용자의 요망에 따른 아나운스의 상세 정보를 제시할 수 있다. 그것에 의해, 사용자에게 원하는 정보를 과부족 없이 제공하는 것이 가능해진다.
(실시의 형태)
이하 첨부 도면을 참조하면서, 본 개시된 실시의 형태에 대해 설명한다. 또한, 이하의 실시의 형태는, 본 개시를 구체화한 일례이며, 본 개시된 기술적 범위를 한정하는 것은 아니다.
도 1은, 본 개시된 실시의 형태에 있어서의 음성 제시 시스템의 구성을 나타내는 도면이다. 도 1에 나타내는 음성 제시 시스템은, 기내 방송 장치(100), 번역 서버(200), 엔터테인먼트 서버(300), 엔터테인먼트 단말(400)을 구비한다. 또한, 본 실시의 형태에 있어서의 음성 제시 시스템은, 항공기 내에 배치되어 있다.
기내 방송 장치(100)는, 발화자(승무원 또는 조종사)로부터 사용자(승객)에게 아나운스되는 아나운스 음성을 취득한다.
번역 서버(200)는, 아나운스 음성의 중요도를 판단함과 함께, 아나운스 음성을 발화자의 언어와는 상이한 언어로 번역한다. 기내 방송 장치(100)와 번역 서버(200)는, 서로 통신 가능하게 접속되어 있다.
엔터테인먼트 서버(300)는, 중요도에 따라 아나운스 음성을 사용자(승객)에게 제시할지 여부를 판단한다. 번역 서버(200)와 엔터테인먼트 서버(300)는, 서로 통신 가능하게 접속되어 있다.
엔터테인먼트 단말(400)은, 객석에 배치되어 있으며, 승객에 의해 사용된다. 엔터테인먼트 서버(300)와 엔터테인먼트 단말(400)은, 서로 통신 가능하게 접속되어 있다. 또한, 엔터테인먼트 서버(300)는, 복수의 엔터테인먼트 단말(400)에 접속되어 있다. 복수의 엔터테인먼트 단말(400)의 각각은, 동일한 구성이다.
도 2는, 본 개시된 실시의 형태에 있어서의 기내 방송 장치의 구성을 나타내는 도면이다.
도 2에 나타내는 기내 방송 장치(100)는, 음성 입력부(101), 중요도 입력부(102), 언어 설정부(103), 방송 출력부(104) 및 통신부(105)를 구비한다.
음성 입력부(101)는, 예를 들면 마이크이며, 발화자(승무원 또는 조종사)에 의해 발화된 음성을 취득하여 아날로그 음성 신호를 생성한다. 승무원 또는 조종사는, 항공기 내에서 승객에게 제공되는 서비스에 관한 정보, 항공기의 안전에 관한 정보, 도착지에 관한 정보 및 플라이트 상황에 관한 정보 등의 여러 가지의 정보를 아나운스한다. 음성 입력부(101)는, 발화자에 의해 아나운스된 아나운스 음성을 취득한다.
중요도 입력부(102)는, 발화자에 의한 아나운스 음성의 중요도의 입력을 접수한다. 발화자는, 발화하기 전에, 지금부터 자신이 발화하는 아나운스 음성의 중요도를 입력하는 것이 가능하다. 중요도는, 예를 들면, 「고」, 「중」 및 「저」의 3단계로 분류된다. 중요도는, 기내 방송 장치(100)에 설치된 버튼 또는 터치 패널에 의해 입력하는 것이 가능하다. 또한, 중요도 입력부(102)는, 발화자가 발화하기 전이 아니라, 발화자가 발화한 후에 중요도의 입력을 접수해도 된다. 또한, 후술하는 바와 같이, 중요도는, 아나운스 음성으로부터도 특정하는 것이 가능하므로, 반드시 입력할 필요는 없다.
언어 설정부(103)는, 발화자가 발화하는 언어의 설정 입력을 접수한다. 발화자는, 자신이 발화하는 언어를 입력한다. 발화 언어는, 기내 방송 장치(100)에 설치된 버튼 또는 터치 패널에 의해 입력하는 것이 가능하다. 또한, 발화 언어는, 예를 들면, 영어 또는 항공기가 소속되는 나라의 공용어인 언어다.
방송 출력부(104)는, 예를 들면 스피커이며, 음성 입력부(101)에 의해 취득된 아나운스 음성을 출력한다. 항공기 내에는, 복수의 스피커가 배치되어 있으며, 복수의 스피커로부터 아나운스 음성이 출력된다.
통신부(105)는, 유선 또는 무선 통신에 의해 번역 서버(200)와 데이터 통신을 행한다. 통신부(105)는, 음성 입력부(101)에 의해 취득된 아나운스 음성을 번역 서버(200)로 송신한다. 여기서, 아날로그 음성 신호인 아나운스 음성은, 도시하지 않은 포맷 변환부에 의해 예를 들면 펄스 부호 변조(PCM)에 의해 디지털 음성 신호로 변환된다. 통신부(105)는, 디지털 음성 신호로 변환된 아나운스 음성과, 아나운스 음성의 언어를 나타내는 언어 정보와, 중요도 입력부(102)에 의해 입력된 중요도를 포함하는 아나운스 음성 정보를 번역 서버(200)로 송신한다. 또한, 상술한 바와 같이, 아나운스 음성 정보는, 중요도를 포함하지 않고, 아나운스 음성 및 언어 정보 만을 포함해도 된다.
도 3은, 본 개시된 실시의 형태에 있어서의 번역 서버의 구성을 나타내는 도면이다.
도 3에 나타내는 번역 서버(200)는, 통신부(201), 제어부(202), 음성 인식부(203), 번역부(204), 중요도 판정부(205), 음성 합성부(206), 아나운스 발화 일시 축적부(207) 및 중요도 테이블 기억부(208)를 구비한다.
통신부(201)는, 유선 또는 무선 통신에 의해 기내 방송 장치(100) 및 엔터테인먼트 서버(300)와 데이터 통신을 행한다. 통신부(201)는, 기내 방송 장치(100)에 의해 송신된 아나운스 음성 정보를 수신한다.
제어부(202)는, 예를 들면 CPU(중앙 연산 처리 장치)이며, 통신부(201), 음성 인식부(203), 번역부(204), 중요도 판정부(205), 음성 합성부(206) 및 아나운스 발화 일시 축적부(207)를 제어함으로써, 아나운스의 중요도 판정 및 아나운스 음성의 번역·음성 합성을 행한다.
음성 인식부(203)는, 아나운스 음성을 음성 인식함으로써 발화 텍스트를 생성한다.
번역부(204)는, 음성 인식부(203)에서 생성된 발화 텍스트를 번역함으로써 발화 번역 텍스트를 생성한다. 또한, 번역부(204)는, 발화 텍스트를 엔터테인먼트 단말(400)에서 설정 가능한 모든 언어로 번역한다. 예를 들면, 발화 텍스트의 언어가 일본어이며, 엔터테인먼트 단말(400)에서 설정 가능한 언어가 영어, 중국어 및 프랑스어인 경우, 번역부(204)는, 일본어의 발화 텍스트를 영어, 중국어 및 프랑스어로 번역하고, 영어, 중국어 및 프랑스어의 발화 번역 텍스트를 생성한다.
중요도 테이블 기억부(208)는, 중요도와 중요어를 대응지은 중요도 테이블을 기억한다. 도 4는, 중요도 테이블의 일례를 나타내는 도면이다. 상술한 바와 같이 중요도는, 예를 들면, 「고」, 「중」 및 「저」의 3단계로 분류되어 있다. 가장 높은 중요도 「고」에는, 예를 들면 「좌석 벨트」라는 중요어가 대응지어져 있다. 2번째로 높은 중요도 「중」에는, 예를 들면 「기내 서비스」, 「음료」, 「식사」, 「면세품」 및 「판매」라는 중요어가 대응지어져 있다. 또한, 가장 낮은 중요도 「저」에는, 예를 들면 「업무 연락」이라는 중요어가 대응지어져 있다.
또한, 중요도 테이블은, 기계 학습에 의해 갱신되어도 된다. 예를 들면, 제어부(202)는, 복수의 텍스트 중에서, 중요도가 「고」인 중요어와 함께 출현하는 빈도가 높은 단어를 추출하고, 추출한 단어를 중요어로서 중요도 「고」에 대응지어 중요도 테이블에 기억시켜도 된다.
또한, 제어부(202)는, 통신부(201)에 의해 수신된 아나운스 음성 정보에, 중요도 입력부(102)에 의해 입력된 중요도가 포함되는 경우, 아나운스 음성을 음성 인식함으로써 생성된 발화 텍스트에 출현하는 빈도가 높은 단어를 추출하고, 추출한 단어를 중요도와 대응지어 중요도 테이블에 기억시켜도 된다.
중요도 판정부(205)는, 중요도와 단어를 대응지어 기억하는 중요도 테이블을 참조하여, 발화 텍스트에 포함되는 단어에 대응지어져 있는 중요도를 중요도 테이블로부터 판정한다. 예를 들면, 발화 텍스트에 「좌석 벨트」라는 단어가 포함되어 있는 경우, 중요도 판정부(205)는, 당해 발화 텍스트의 중요도는 「고」라고 판정한다.
음성 합성부(206)는, 발화 텍스트를 번역한 발화 번역 텍스트를 음성 합성함으로써 아나운스 번역 음성을 생성한다.
아나운스 발화 일시 축적부(207)는, 통신부(201)에 의해 수신된 아나운스 음성 정보를 일시적으로 축적한다.
또한, 통신부(201)는, 아나운스 음성 및 아나운스 음성의 중요도를 엔터테인먼트 서버(300)로 송신한다. 통신부(201)는, 기내 방송 장치(100)로부터 수신한 아나운스 음성과, 아나운스 음성을 텍스트화한 발화 텍스트와, 아나운스 음성을 소정의 언어로 번역한 아나운스 번역 음성과, 발화 텍스트를 소정의 언어로 번역한 발화 번역 텍스트와, 아나운스 음성의 언어를 나타내는 언어 정보와, 아나운스 번역 음성의 언어를 나타내는 언어 정보와, 중요도 판정부(205)에 의해 판정된 중요도와, 발화 텍스트에 포함되는 중요어와, 발화 번역 텍스트에 포함되는 번역된 중요어를 포함하는 아나운스 음성 정보를 엔터테인먼트 서버(300)로 송신한다.
또한, 통신부(201)에 의해 수신된 아나운스 음성 정보에, 중요도 입력부(102)에 의해 입력된 중요도가 포함되는 경우, 중요도 판정부(205)는, 발화 텍스트의 중요도를 판정하지 않아도 되다. 이 경우, 중요도 판정부(205)는, 아나운스 음성 정보에 포함되는 중요도를 발화 텍스트의 중요도로 결정한다.
또한, 통신부(201)에 의해 수신된 아나운스 음성 정보에, 중요도 입력부(102)에 의해 입력된 중요도가 포함되는 경우라도, 중요도 판정부(205)는, 중요도를 판정해도 된다. 이 경우, 제어부(202)는, 중요도 입력부(102)에 의해 입력된 중요도와, 중요도 판정부(205)에 의해 판정된 중요도가 일치하는지 여부를 판단한다. 양자가 일치하는 경우, 제어부(202)는, 일치한 중요도를 엔터테인먼트 서버(300)로 송신한다. 양자가 일치하지 않는 경우, 제어부(202)는, 미리 정해져 있는 어느 한쪽의 중요도를 엔터테인먼트 서버(300)로 송신한다.
도 5는, 본 개시된 실시의 형태에 있어서의 엔터테인먼트 서버의 구성을 나타내는 도면이다.
도 5에 나타내는 엔터테인먼트 서버(300)는, 통신부(301), 제어부(302), 스트림 제어부(303), AV스트림 기억부(304), GUI(Graphical User Interface) 제어부(305), GUI 기억부(306), 상세 정보 기억부(307), 기내 방송 제어부(308), 아나운스 발화 기억부(309), 기내 방송 우선도 제어부(310), 플라이트 상황 취득부(311) 및 단말 설정 정보 기억부(312)를 구비한다.
통신부(301)는, 유선 또는 무선 통신에 의해 번역 서버(200) 및 엔터테인먼트 단말(400)과 데이터 통신을 행한다. 통신부(301)는, 번역 서버(200)에 의해 송신된 아나운스 음성 정보를 수신한다. 통신부(301)는, 아나운스 음성 및 아나운스 음성의 중요도를 취득한다.
제어부(302)는, 통신부(301), 스트림 제어부(303), GUI 제어부(305), 기내 방송 제어부(308) 및 단말 설정 정보 기억부(312)를 제어함으로써, AV스트림, 여러 가지의 표시 화면, 및 아나운스 음성을 엔터테인먼트 단말(400)로 송신한다.
AV스트림 기억부(304)는, 영화 등의 여러 가지의 컨텐츠의 AV스트림을 기억한다.
스트림 제어부(303)는, 영화 등의 여러 가지의 컨텐츠의 AV스트림의 재생 요구를 엔터테인먼트 단말(400)로부터 수신하고, 재생 요구에 따른 AV스트림을 AV스트림 기억부(304)로부터 읽어내고, 읽어낸 AV스트림을, 통신부(301)를 통하여 엔터테인먼트 단말(400)로 송신한다.
GUI 기억부(306)는, 엔터테인먼트 단말(400)에 표시하는 여러 가지의 표시 화면을 기억한다.
상세 정보 기억부(307)는, 중요어와, 중요어에 대해 상세하게 설명한 상세 정보를 대응지어 기억한다.
GUI 제어부(305)는, 엔터테인먼트 단말(400)에 표시해야 할 표시 화면을 GUI 기억부(306)로부터 읽어내고, 읽어낸 표시 화면을, 통신부(301)를 통하여 엔터테인먼트 단말(400)로 송신한다. GUI 제어부(305)는, 엔터테인먼트 단말(400)로부터 상세 정보를 표시하는 중요어를 접수하고, 접수한 중요어에 대응하는 상세 정보를 상세 정보 기억부(307)로부터 읽어내고, 읽어낸 상세 정보를, 통신부(301)를 통하여 엔터테인먼트 단말(400)로 송신한다.
단말 설정 정보 기억부(312)는, 엔터테인먼트 단말(400)을 식별하기 위한 단말 ID와, 엔터테인먼트 단말(400)에서 설정된 사용자(승객)가 시청하는 언어를 나타내는 언어 정보와, 엔터테인먼트 단말(400)에서 설정된 아나운스 음성을 블록할지 여부를 나타내는 블록 정보를 대응지어 기억한다.
플라이트 상황 취득부(311)는, 항공기에 설치된 여러 가지의 센서에 의해, 비행 중의 항공기의 플라이트 상황을 취득한다. 플라이트 상황은, 예를 들면, 기류의 난조, 기압의 변화, 풍속의 변화, 풍향의 변화 및 기후 등의 항공기의 비행 중에 변화되는 기상 상황이다.
기내 방송 우선도 제어부(310)는, 취득한 중요도에 따라 아나운스 음성을 사용자에게 제시할지 여부를 판단한다. 기내 방송 제어부(308)는, 기내 방송 우선도 제어부(310)에 의해 아나운스 음성을 사용자에게 제시한다고 판단되었을 경우, 아나운스 음성을 통신부(301)를 통하여 엔터테인먼트 단말(400)로 송신한다.
기내 방송 우선도 제어부(310)는, 중요도가 「고」인 경우, 아나운스 음성을 사용자에게 제시한다고 판단한다. 기내 방송 우선도 제어부(310)는, 중요도가 「저」인 경우, 아나운스 음성을 사용자에게 제시하지 않는다고 판단한다. 기내 방송 우선도 제어부(310)는, 중요도가 「중」인 경우, 아나운스 음성을 즉시 사용자에게 제시하지 않는다고 판단하지만, 아나운스 음성을 아나운스 발화 기억부(309)에 기억시키고, 엔터테인먼트 단말(400)로부터의 요구에 따라 아나운스 발화 기억부(309)에 기억시킨 아나운스 음성을 사용자에게 제시한다.
또한, 기내 방송 제어부(308)는, 단말 설정 정보 기억부(312)를 참조하여, 제시하는 사용자의 언어에 따른 아나운스 음성 또는 아나운스 번역 음성을 엔터테인먼트 단말(400)로 송신한다. 기내 방송 제어부(308)는, 취득한 중요도에 따라 아나운스 번역 음성을 사용자에게 제시할지 여부를 판단한다. 기내 방송 제어부(308)는, 아나운스 번역 음성을 사용자에게 제시한다고 판단되었을 경우, 사용자가 사용하는 엔터테인먼트 단말(400)로 아나운스 번역 음성을 송신한다.
기내 방송 제어부(308)는, 중요도에 따라 아나운스 음성 정보를 아나운스 발화 기억부(309)에 기억시킨다. 기내 방송 제어부(308)는, 기내 방송 우선도 제어부(310)에 의해 아나운스 음성을 사용자에게 제시하지 않는다고 판단되었을 경우, 엔터테인먼트 단말(400)로 아나운스 음성을 송신하지 않고, 아나운스 음성을 아나운스 발화 기억부(309)에 기억시킨다. 기내 방송 제어부(308)는, 중요도가 「고」 또는 「중」인 아나운스 음성 정보는 아나운스 발화 기억부(309)에 기억되고, 중요도가 「저」인 아나운스 음성 정보는 아나운스 발화 기억부(309)에 기억되지 않는다.
아나운스 발화 기억부(309)는, 아나운스 음성 정보를 기억한다.
또한, 기내 방송 우선도 제어부(310)는, 플라이트 상황 취득부(311)에 의해 취득된 플라이트 상황이 소정의 플라이트 상황인 경우, 아나운스 음성의 중요도에 관계없이, 아나운스 음성을 사용자에게 제시한다고 판단하고, 엔터테인먼트 단말(400)로 아나운스 음성을 송신한다.
도 6은, 본 개시된 실시의 형태에 있어서의 엔터테인먼트 단말의 구성을 나타내는 도면이다.
도 6에 나타내는 엔터테인먼트 단말(400)은, 사용자 입력부(401), 단말 제어부(402), 통신부(406), 화면 출력 제어부(407), 표시부(408), 음성 출력 제어부(409) 및 음성 출력부(410)를 구비한다.
사용자 입력부(401)는, 예를 들면 터치 패널이며, 사용자에 의한 여러 가지의 입력을 접수한다. 사용자 입력부(401)는, 사용자가 사용하는 언어의 입력을 접수한다. 사용자 입력부(401)는, 아나운스 음성을 블록할지 여부의 입력을 접수한다. 사용자 입력부(401)는, 엔터테인먼트 서버(300)에 기억되어 있는 아나운스 음성을 재생하기 위한 아나운스 음성 재생 지시의 입력을 접수한다. 사용자 입력부(401)는, 재생하는 AV스트림의 선택을 접수한다.
단말 제어부(402)는, 언어 설정부(403), 블록 설정부(404) 및 아나운스 재생 지시부(405)를 구비한다.
언어 설정부(403)는, 사용자 입력부(401)에 의해 접수한 사용자가 사용하는 언어를 설정한다.
블록 설정부(404)는, 아나운스 음성을 블록할지 여부를 설정한다. 아나운스 음성을 블록하지 않는다고 설정되었을 경우, 중요도에 관계없이 모든 아나운스 음성이 출력된다. 아나운스 음성을 블록한다고 설정되었을 경우, 중요한 아나운스 음성은 출력되고, 중요하지 않은 아나운스 음성은 출력되지 않는다. 예를 들면, 중요도가 「고」인 아나운스 음성은 출력되고, 중요도가 「저」인 아나운스 음성은 출력되지 않는다. 또한, 중요도가 「중」인 아나운스 음성은, 즉시 출력되지 않지만, 사용자의 지시에 따라, 나중에 출력하는 것이 가능하다.
아나운스 재생 지시부(405)는, 엔터테인먼트 서버(300)에 기억되어 있는 아나운스 음성을 재생하기 위한 아나운스 음성 재생 지시를 엔터테인먼트 서버(300)로 송신한다.
통신부(406)는, 유선 또는 무선 통신에 의해 엔터테인먼트 서버(300)와 데이터 통신을 행한다. 통신부(406)는, 엔터테인먼트 서버(300)에 의해 송신된 표시 화면을 수신한다. 통신부(406)는, 엔터테인먼트 서버(300)에 의해 송신된 AV스트림을 수신한다. 통신부(406)는, 엔터테인먼트 서버(300)에 의해 송신된 아나운스 음성 또는 아나운스 번역 음성을 수신한다.
또한, 통신부(406)는, 언어 설정부(403)에 의해 설정된 언어를, 엔터테인먼트 단말(400)을 식별하기 위한 단말 ID와 함께 엔터테인먼트 서버(300)로 송신한다. 또한, 통신부(406)는, 블록 설정부(404)에 의해 설정된 아나운스 음성을 블록할지 여부를 나타내는 블록 정보를, 단말 ID와 함께 엔터테인먼트 서버(300)로 송신한다. 또한, 단말 ID는, 엔터테인먼트 단말(400)에 미리 기억되어 있다.
화면 출력 제어부(407)는, 통신부(406)에 의해 수신된 표시 화면을 표시하도록 표시부(408)를 제어한다. 표시부(408)는, 화면 출력 제어부(407)에 의한 제어에 의거하여 표시 화면을 표시한다.
음성 출력 제어부(409)는, 통신부(406)에 의해 수신된 아나운스 음성 또는 아나운스 번역 음성을 음성 출력하도록 음성 출력부(410)를 제어한다. 음성 출력부(410)는, 예를 들면 이어폰 또는 헤드폰이며, 아나운스 음성 또는 아나운스 번역 음성을 음성 출력한다.
여기서, 본 실시의 형태의 기내 방송 장치(100)에 있어서의 발화자 언어 설정 처리에 대해 설명한다.
도 7은, 본 실시의 형태의 기내 방송 장치에 있어서의 발화자 언어 설정 처리에 대해 설명하기 위한 플로차트이다.
우선, 단계 S1에 있어서, 기내 방송 장치(100)의 언어 설정부(103)는, 발화자 언어 설정 화면을 표시부에 표시한다. 도 8은, 발화자 언어 설정 화면의 일례를 나타내는 도면이다. 도 8에 나타내는 바와 같이, 발화자 언어 설정 화면(110)에는, 복수의 언어를 나타내는 언어 화상(1101)이 선택 가능하게 표시된다. 기내 방송 장치(100)의 표시부는, 예를 들면 터치 패널이며, 복수의 언어를 나타내는 언어 화상(1101)을 선택 가능하게 표시한다. 발화자(승무원 또는 조종사)는, 복수의 언어 화상(1101) 중에서 자신이 발화하는 언어에 대응하는 언어 화상을 선택한다.
다음에, 단계 S2에 있어서, 언어 설정부(103)는, 발화자에 의해 언어가 선택되었는지 여부를 판단한다. 여기서, 발화자에 의해 언어가 선택되지 않는다고 판단되었을 경우(단계 S2에서 NO), 언어 설정부(103)는, 발화자 언어 설정 화면의 표시를 종료한다.
한편, 발화자에 의해 언어가 선택되었다고 판단되었을 경우(단계 S2에서 YES), 단계 S3에 있어서, 언어 설정부(103)는, 발화자에 의해 선택된 언어를 기억한다. 이상의 처리에 의해, 승무원 또는 조종사가 발화하는 언어가 설정된다.
계속해서, 본 실시의 형태의 엔터테인먼트 단말(400) 및 엔터테인먼트 서버(300)에 있어서의 사용자 언어 설정 처리에 대해 설명한다.
도 9는, 본 실시의 형태의 엔터테인먼트 단말 및 엔터테인먼트 서버에 있어서의 사용자 언어 설정 처리에 대해 설명하기 위한 플로차트이다.
우선, 단계 S11에 있어서, 엔터테인먼트 단말(400)의 언어 설정부(403)는, 사용자 언어 설정 화면을 표시부(408)에 표시한다. 도 10은, 사용자 언어 설정 화면의 일례를 나타내는 도면이다. 도 10에 나타내는 바와 같이, 사용자 언어 설정 화면(420)에는, 복수의 언어를 나타내는 언어 화상(4201)이 선택 가능하게 표시된다. 엔터테인먼트 단말(400)의 표시부(408)는, 예를 들면 터치 패널이며, 복수의 언어를 나타내는 언어 화상(4201)을 선택 가능하게 표시한다. 사용자(승객)는, 복수의 언어 화상(4201) 중에서 자신이 시청하는 언어에 대응하는 언어 화상을 선택한다.
다음에, 단계 S12에 있어서, 언어 설정부(403)는, 사용자에 의해 언어가 선택되었는지 여부를 판단한다. 여기서, 사용자에 의해 언어가 선택되지 않는다고 판단되었을 경우(단계 S12에서 NO), 언어 설정부(403)는, 사용자 언어 설정 화면의 표시를 종료한다.
한편, 사용자에 의해 언어가 선택되었다고 판단되었을 경우(단계 S12에서 YES), 단계 S13에 있어서, 언어 설정부(403)는, 사용자에 의해 선택된 언어를 나타내는 언어 정보와, 엔터테인먼트 단말(400)을 식별하기 위한 단말 ID를 포함하는 언어 설정 정보를 엔터테인먼트 서버(300)로 송신한다.
다음에, 단계 S14에 있어서, 엔터테인먼트 서버(300)의 통신부(301)는, 엔터테인먼트 단말(400)에 의해 송신된 언어 설정 정보를 수신한다.
다음에, 단계 S15에 있어서, 제어부(302)는, 통신부(301)에 의해 수신된 언어 설정 정보를 단말 설정 정보 기억부(312)에 기억시킨다. 이것에 의해, 단말 설정 정보 기억부(312)에는, 단말 ID와, 당해 단말 ID의 엔터테인먼트 단말(400)에서 출력되는 음성의 언어를 나타내는 언어 정보가 대응지어 기억된다.
계속해서, 본 실시의 형태의 엔터테인먼트 단말(400) 및 엔터테인먼트 서버(300)에 있어서의 음성 차단 설정 처리에 대해 설명한다.
도 11은, 본 실시의 형태의 엔터테인먼트 단말 및 엔터테인먼트 서버에 있어서의 음성 차단 설정 처리에 대해 설명하기 위한 플로차트이다.
우선, 단계 S21에 있어서, 엔터테인먼트 단말(400)의 블록 설정부(404)는, 기내 방송 설정 화면을 표시부(408)에 표시한다. 도 12는, 기내 방송 설정 화면의 일례를 나타내는 도면이다. 도 12에 나타내는 바와 같이, 기내 방송 설정 화면(421)에는, 중요하지 않은 아나운스 음성을 차단할지 여부의 선택을 접수하는 선택 화상이 표시된다. 엔터테인먼트 단말(400)의 표시부(408)는, 예를 들면 터치 패널이며, 중요하지 않은 아나운스 음성을 차단할지 여부의 선택을 접수하는 선택 화상을 표시한다. 예를 들면, 기내 방송 설정 화면(421)에는, 「중요한 기내 방송 이외를 블록합니까?」라는 문장과, 중요하지 않은 아나운스 음성을 차단할 때에 선택되는 「네」라는 화상(4211)과, 중요하지 않은 아나운스 음성을 차단하지 않는 때에 선택되는 「아니오」라는 화상(4212)이 표시된다. 사용자(승객)는, 화상(4211) 및 화상(4212) 중 어느 한쪽을 터치함으로써, 중요하지 않은 아나운스 음성을 차단할지 여부를 선택한다.
다음에, 단계 S22에 있어서, 블록 설정부(404)는, 중요하지 않은 아나운스 음성을 차단하는 설정이 선택되었는지 여부를 판단한다. 여기서, 중요하지 않은 아나운스 음성을 차단하는 설정이 선택되지 않는다고 판단되었을 경우(단계 S22에서 NO), 블록 설정부(404)는, 기내 방송 설정 화면의 표시를 종료한다.
한편, 중요하지 않은 아나운스 음성을 차단하는 설정이 선택되었다고 판단되었을 경우(단계 S22에서 YES), 단계 S23에 있어서, 블록 설정부(404)는, 중요하지 않은 아나운스 음성을 차단하는 것을 나타내는 블록 정보와, 엔터테인먼트 단말(400)을 식별하기 위한 단말 ID를 포함하는 블록 설정 정보를 엔터테인먼트 서버(300)로 송신한다.
다음에, 단계 S24에 있어서, 엔터테인먼트 서버(300)의 통신부(301)는, 엔터테인먼트 단말(400)에 의해 송신된 블록 설정 정보를 수신한다.
다음에, 단계 S25에 있어서, 제어부(302)는, 통신부(301)에 의해 수신된 블록 설정 정보를 단말 설정 정보 기억부(312)에 기억시킨다. 이것에 의해, 단말 설정 정보 기억부(312)에는, 단말 ID와, 당해 단말 ID의 엔터테인먼트 단말(400)에서 중요하지 않은 아나운스 음성을 차단하는 것을 나타내는 블록 정보가 대응지어 기억된다.
또한, 중요하지 않은 아나운스 음성을 차단하지 않는 설정이 선택되었을 경우, 블록 설정부(404)는, 중요하지 않은 아나운스 음성을 차단하지 않는 것을 나타내는 블록 정보와, 단말 ID를 포함하는 블록 설정 정보를 엔터테인먼트 서버(300)로 송신해도 된다. 이 경우, 단말 설정 정보 기억부(312)에는, 단말 ID와, 당해 단말 ID의 엔터테인먼트 단말(400)에서 중요하지 않은 아나운스 음성을 차단하지 않는 것을 나타내는 블록 정보가 대응지어 기억된다.
또한, 엔터테인먼트 단말(400)에 의해 중요하지 않은 아나운스 음성을 차단할지 여부가 설정되어 있지 않은 경우, 단말 설정 정보 기억부(312)에는, 단말 ID와, 당해 단말 ID의 엔터테인먼트 단말(400)에서 중요하지 않은 아나운스 음성을 차단하지 않는 것을 나타내는 블록 정보가 대응지어 기억되어 있어도 된다.
계속해서, 본 실시의 형태의 기내 방송 장치(100), 번역 서버(200) 및 엔터테인먼트 서버(300)에 있어서의 아나운스 음성 제시 처리에 대해 설명한다.
도 13은, 본 실시의 형태의 기내 방송 장치, 번역 서버 및 엔터테인먼트 서버에 있어서의 아나운스 음성 제시 처리에 대해 설명하기 위한 제1의 플로차트이며, 도 14는, 본 실시의 형태의 기내 방송 장치, 번역 서버 및 엔터테인먼트 서버에 있어서의 아나운스 음성 제시 처리에 대해 설명하기 위한 제2의 플로차트이며, 도 15는, 본 실시의 형태의 기내 방송 장치, 번역 서버 및 엔터테인먼트 서버에 있어서의 아나운스 음성 제시 처리에 대해 설명하기 위한 제3의 플로차트이다.
우선, 단계 S31에 있어서, 기내 방송 장치(100)의 중요도 입력부(102)는, 발화자에 의한 아나운스 음성의 중요도의 입력을 접수한다. 또한, 발화자는, 중요도를 반드시 입력할 필요는 없다.
다음에, 단계 S32에 있어서, 음성 입력부(101)는, 발화자에 의한 아나운스 음성을 취득한다. 음성 입력부(101)는, 아나운스 음성의 입력이 개시되고 나서, 무음 상태가 검출될 때까지 입력된 아나운스 음성을 취득해도 된다.
다음에, 단계 S33에 있어서, 통신부(105)는, 디지털 음성 신호로 변환된 아나운스 음성과, 아나운스 음성의 언어를 나타내는 언어 정보와, 중요도 입력부(102)에 의해 입력된 중요도를 포함하는 아나운스 음성 정보를 번역 서버(200)로 송신한다. 또한, 중요도가 입력되어 있지 않은 경우, 통신부(105)는, 디지털 음성 신호로 변환된 아나운스 음성과, 아나운스 음성의 언어를 나타내는 언어 정보를 포함하는 아나운스 음성 정보를 번역 서버(200)로 송신한다.
또한, 기내 방송 장치(100)는, 일시적으로 축적한 아나운스 음성을 번역 서버(200)로 송신해도 되고, 입력된 아나운스 음성을 실시간으로 번역 서버(200)로 송신해도 된다.
다음에, 단계 S34에 있어서, 번역 서버(200)의 통신부(201)는, 기내 방송 장치(100)에 의해 송신된 아나운스 음성 정보를 수신한다.
다음에, 단계 S35에 있어서, 음성 인식부(203)는, 통신부(201)에 의해 수신된 아나운스 음성 정보에 포함되는 아나운스 음성을 음성 인식함으로써 발화 텍스트를 생성한다. 발화 텍스트는, 아나운스 음성을 텍스트화한 정보이다.
다음에, 단계 S36에 있어서, 제어부(202)는, 통신부(201)에 의해 수신된 아나운스 음성 정보를 아나운스 발화 일시 축적부(207)에 일시적으로 축적한다.
다음에, 단계 S37에 있어서, 중요도 판정부(205)는, 중요도 테이블을 참조하여, 발화 텍스트에 포함되는 단어의 중요도를 판정한다. 중요도 판정부(205)는, 발화 텍스트에 포함되는 단어 중에, 중요도 테이블의 중요어와 일치하는 단어를 특정하고, 특정한 중요어에 대응지어져 있는 중요도를 당해 발화 텍스트의 중요도로 결정한다. 또한, 발화 텍스트에 중요도가 상이한 단어가 포함되어 있는 경우, 중요도 판정부(205)는, 복수의 중요도 중 가장 높은 중요도를 발화 텍스트의 중요도로 결정해도 된다.
또한, 발화자는, 중요도를 판정 가능한 단어를 아나운스의 모두(冒頭)에서 발화해도 되고, 중요도 판정부(205)는, 아나운스 음성의 모두의 단어의 중요도를 판정해도 된다.
또한, 본 실시의 형태에서는, 발화자가 발화한 아나운스 음성을 이용하여 중요도를 판정하고 있지만, 본 개시는 특별히 이것에 한정되지 않고, 미리 녹음되어 있는 아나운스 음성을 이용하여 중요도를 판정해도 된다. 이 경우, 발화자는, 미리 녹음되어 있는 아나운스 음성 중, 음성 출력하는 아나운스 음성을 선택한다. 녹음된 아나운스 음성은, 미리 결정된 중요도를 대응지어 기억되어 있다. 중요도 판정부(205)는, 발화자에 의해 선택된 아나운스 음성의 중요도를 결정하지만, 이 때, 미리 녹음 시에 판정된 중요도로 결정한다.
다음에, 단계 S38에 있어서, 번역부(204)는, 음성 인식부(203)에서 생성된 발화 텍스트를 번역함으로써 발화 번역 텍스트를 생성한다. 이 때, 발화 텍스트의 언어는, 아나운스 음성 정보에 포함되는 언어 정보에 의해 특정할 수 있다.
다음에, 단계 S39에 있어서, 음성 합성부(206)는, 발화 텍스트를 번역한 발화 번역 텍스트를 음성 합성함으로써 아나운스 번역 음성을 생성한다.
다음에, 단계 S40에 있어서, 통신부(201)는, 기내 방송 장치(100)로부터 수신한 아나운스 음성과, 발화 텍스트와, 아나운스 음성을 소정의 언어로 번역한 아나운스 번역 음성과, 발화 번역 텍스트와, 아나운스 음성의 언어를 나타내는 언어 정보와, 아나운스 번역 음성의 언어를 나타내는 언어 정보와, 중요도 판정부(205)에 의해 판정된 중요도와, 발화 텍스트에 포함되는 중요어와, 발화 번역 텍스트에 포함되는 번역된 중요어를 포함하는 아나운스 음성 정보를 엔터테인먼트 서버(300)로 송신한다.
다음에, 단계 S41에 있어서, 엔터테인먼트 서버(300)의 통신부(301)는, 번역 서버(200)에 의해 송신된 아나운스 음성 정보를 수신한다.
다음에, 단계 S42에 있어서, 플라이트 상황 취득부(311)는, 비행 중의 항공기의 플라이트 상황을 취득한다.
다음에, 단계 S43에 있어서, 기내 방송 우선도 제어부(310)는, 아나운스 음성의 우선도가, 가장 높은 제1의 우선도, 2번째로 높은 제2의 우선도 및 가장 낮은 제3의 우선도 중 어느 것인지를 판정한다. 예를 들면, 우선도는, 중요도와 마찬가지로, 「고」, 「중」 및 「저」의 3단계로 분류된다. 기내 방송 우선도 제어부(310)는, 아나운스 음성의 중요도가 「고」이면 우선도를 「고」로 결정하고, 아나운스 음성의 중요도가 「중」이면 우선도를 「중」으로 결정하고, 아나운스 음성의 중요도가 「저」이면 우선도를 「저」로 결정한다. 또한, 기내 방송 우선도 제어부(310)는, 플라이트 상황 취득부(311)에 의해 취득된 플라이트 상황이 소정의 플라이트 상황인 경우, 아나운스 음성의 중요도에 관계없이, 우선도를 「고」로 결정한다.
다음에, 단계 S44에 있어서, 기내 방송 제어부(308)는, 아나운스 음성의 우선도에 의거하여, 아나운스 음성 정보를 아나운스 발화 기억부(309)에 기억시킬지 여부를 판단한다. 여기서, 우선도가 제1의 우선도(「고」) 또는 제2의 우선도(「중」)이면, 기내 방송 제어부(308)는, 아나운스 음성 정보를 아나운스 발화 기억부(309)에 기억시킨다고 판단하며, 우선도가 제3의 우선도(「저」)이면, 기내 방송 제어부(308)는, 아나운스 음성 정보를 아나운스 발화 기억부(309)에 기억시키지 않는다고 판단한다.
또한, 우선도가 제1의 우선도(「고」)인 경우, 아나운스 음성은 즉시 출력되므로, 기내 방송 제어부(308)는, 아나운스 음성 정보를 아나운스 발화 기억부(309)에 기억시키지 않는다고 판단해도 된다.
아나운스 음성 정보를 아나운스 발화 기억부(309)에 기억시키지 않는다고 판단되었을 경우(단계 S44에서 NO), 단계 S46의 처리로 이행한다.
한편, 아나운스 음성 정보를 아나운스 발화 기억부(309)에 기억시킨다고 판단되었을 경우(단계 S44에서 YES), 단계 S45에 있어서, 기내 방송 제어부(308)는, 아나운스 음성 정보를 아나운스 발화 기억부(309)에 기억시킨다.
다음에, 단계 S46에 있어서, 기내 방송 제어부(308)는, 엔터테인먼트 서버(300)에 접속되어 있는 복수의 엔터테인먼트 단말(400) 중 하나의 엔터테인먼트 단말(400)의 단말 ID에 대응지어져 있는 블록 정보를 단말 설정 정보 기억부(312)로부터 취득한다.
다음에, 단계 S47에 있어서, 기내 방송 제어부(308)는, 취득한 블록 정보가, 중요하지 않은 아나운스 음성을 차단하는 설정인지 여부를 판단한다. 여기서, 블록 정보가, 중요하지 않은 아나운스 음성을 차단하는 설정은 아니라고 판단되었을 경우(단계 S47에서 NO), 단계 S50의 처리로 이행한다.
한편, 블록 정보가, 중요하지 않은 아나운스 음성을 차단하는 설정인 경우(단계 S47에서 YES), 단계 S48에 있어서, 기내 방송 제어부(308)는, 우선도에 의거하여, 아나운스 음성을 출력할지 여부를 판단한다. 즉, 우선도가 제1의 우선도(「고」)이면, 기내 방송 제어부(308)는, 아나운스 음성을 출력한다고 판단하며, 우선도가 제2의 우선도(「중」)이면, 기내 방송 제어부(308)는, 아나운스 음성을 출력하지 않는다고 판단한다.
아나운스 음성을 출력하지 않는다고 판단되었을 경우(단계 S48에서 NO), 단계 S49에 있어서, 기내 방송 제어부(308)는, 아나운스 음성이 엔터테인먼트 서버(300)에 축적되어 있는 것을 통지하기 위한 통지 정보를 엔터테인먼트 단말(400)로 송신한다.
한편, 아나운스 음성을 출력한다고 판단되었을 경우(단계 S48에서 YES), 단계 S50에 있어서, 기내 방송 제어부(308)는, 엔터테인먼트 단말(400)이 AV스트림을 재생 중인지 여부를 판단한다. 스트림 제어부(303)는, 각 엔터테인먼트 단말(400)에 대한 AV스트림의 전달을 제어하고 있으므로, 기내 방송 제어부(308)는, 엔터테인먼트 단말(400)이 AV스트림을 재생 중인지 여부를, 스트림 제어부(303)에 문의한다.
엔터테인먼트 단말(400)이 AV스트림을 재생 중은 아니라고 판단되었을 경우(단계 S50에서 NO), 단계 S52의 처리로 이행한다.
한편, 엔터테인먼트 단말(400)이 AV스트림을 재생 중이라고 판단되었을 경우(단계 S50에서 YES), 단계 S51에 있어서, 기내 방송 제어부(308)는, 엔터테인먼트 단말(400)에 있어서의 AV스트림의 재생의 중단을, 스트림 제어부(303)에 지시한다.
다음에, 단계 S52에 있어서, 기내 방송 제어부(308)는, 아나운스 음성 또는 아나운스 번역 음성을 엔터테인먼트 단말(400)로 송신한다. 기내 방송 제어부(308)는, 엔터테인먼트 단말(400)에 설정되어 있는 언어 정보를 단말 설정 정보 기억부(312)로부터 취득하고, 취득한 언어 정보에 따른 아나운스 음성 또는 아나운스 번역 음성을 엔터테인먼트 단말(400)로 송신한다. 예를 들면, 기내 방송 장치(100)에서 설정한 발화자의 언어와, 엔터테인먼트 단말(400)에서 설정한 사용자의 언어가 동일하면, 기내 방송 제어부(308)는, 아나운스 음성을 엔터테인먼트 단말(400)로 송신한다. 또한, 기내 방송 장치(100)에서 설정한 발화자의 언어와, 엔터테인먼트 단말(400)에서 설정한 사용자의 언어가 상이하면, 기내 방송 제어부(308)는, 사용자의 언어에 대응하는 아나운스 번역 음성을 엔터테인먼트 단말(400)로 송신한다.
다음에, 단계 S53에 있어서, 기내 방송 제어부(308)는, 모든 엔터테인먼트 단말(400)에 대해 아나운스 음성을 출력할지 여부의 판단이 종료되었는지 여부를 판단한다. 여기서, 모든 엔터테인먼트 단말(400)에 대해 아나운스 음성을 출력할지 여부의 판단이 종료되어 있지 않다고 판단되었을 경우(단계 S53에서 NO), 단계 S46의 처리로 되돌아와, 기내 방송 제어부(308)는, 아나운스 음성을 출력할지 여부의 판단이 종료되어 있지 않는 엔터테인먼트 단말(400) 중 하나의 엔터테인먼트 단말(400)의 단말 ID에 대응지어져 있는 블록 정보를 단말 설정 정보 기억부(312)로부터 취득한다.
한편, 모든 엔터테인먼트 단말(400)에 대해 아나운스 음성을 출력할지 여부의 판단이 종료되었다고 판단되었을 경우(단계 S53에서 YES), 단계 S54에 있어서, 기내 방송 제어부(308)는, 엔터테인먼트 단말(400)에 있어서의 AV스트림의 재생의 재개를, 스트림 제어부(303)에 지시한다. 이 때, 스트림 제어부(303)는, AV스트림의 재생을 중단한 모든 엔터테인먼트 단말(400)에 대해, AV스트림의 재생을 재개한다.
계속해서, 본 실시의 형태의 엔터테인먼트 단말(400) 및 엔터테인먼트 서버(300)에 있어서의 아나운스 음성 재생 처리에 대해 설명한다.
도 16은, 본 실시의 형태의 엔터테인먼트 단말 및 엔터테인먼트 서버에 있어서의 아나운스 음성 재생 처리에 대해 설명하기 위한 제1의 플로차트이며, 도 17은, 본 실시의 형태의 엔터테인먼트 단말 및 엔터테인먼트 서버에 있어서의 아나운스 음성 재생 처리에 대해 설명하기 위한 제2의 플로차트이다.
우선, 단계 S61에 있어서, 엔터테인먼트 단말(400)의 아나운스 재생 지시부(405)는, 엔터테인먼트 서버(300)에 축적되어 있는 아나운스 음성 또는 아나운스 번역 음성을 재생하기 위한 아나운스 선택 화면을 표시할지 여부를 판단한다. 예를 들면, 메뉴 화면에 있어서, 아나운스 선택 화면의 표시가 선택되었을 경우, 아나운스 재생 지시부(405)는, 아나운스 선택 화면을 표시한다고 판단한다.
여기서, 아나운스 선택 화면을 표시하지 않는다고 판단되었을 경우(단계 S61에서 NO), 단계 S61의 판단 처리가 반복해서 행해진다.
한편, 아나운스 선택 화면을 표시한다고 판단되었을 경우(단계 S61에서 YES), 단계 S62에 있어서, 아나운스 재생 지시부(405)는, 아나운스 선택 화면을 취득하기 위한 아나운스 선택 화면 취득 요구를 엔터테인먼트 서버(300)로 송신한다.
다음에, 단계 S63에 있어서, 엔터테인먼트 서버(300)의 통신부(301)는, 엔터테인먼트 단말(400)에 의해 송신된 아나운스 선택 화면 취득 요구를 수신한다.
다음에, 단계 S64에 있어서, 기내 방송 제어부(308)는, 아나운스 발화 기억부(309)에 기억되어 있는 아나운스 음성 정보에 포함되는 발화 텍스트 또는 발화 번역 텍스트를 이용하여 아나운스 선택 화면을 생성하고, 생성한 아나운스 선택 화면을 엔터테인먼트 단말(400)로 송신한다. 이 때, 기내 방송 제어부(308)는, 아나운스 선택 화면 취득 요구를 송신한 엔터테인먼트 단말(400)에서 설정되어 있는 언어를 단말 설정 정보 기억부(312)에 기억되어 있는 언어 정보로부터 특정하고, 특정한 언어에 따른 발화 텍스트 또는 발화 번역 텍스트를 이용하여 아나운스 선택 화면을 생성한다.
다음에, 단계 S65에 있어서, 엔터테인먼트 단말(400)의 통신부(406)는, 엔터테인먼트 서버(300)에 의해 송신된 아나운스 선택 화면을 수신한다.
다음에, 단계 S66에 있어서, 아나운스 재생 지시부(405)는, 통신부(406)에 의해 수신된 아나운스 선택 화면을 표시부(408)에 표시한다. 도 18은, 아나운스 선택 화면의 일례를 나타내는 도면이다. 도 18에 나타내는 바와 같이, 아나운스 선택 화면(422)에는, 복수의 아나운스 음성을 나타내는 선택 화상(4221, 4222, 4223, 4224)이 선택 가능하게 표시된다. 선택 화상(4221, 4222, 4223)에는, 아나운스 음성의 발화 텍스트 또는 아나운스 번역 음성의 발화 번역 텍스트의 모두 부분이 표시된다. 사용자는, 선택 화상(4221, 4222, 4223)에 포함되는 발화 텍스트 또는 발화 번역 텍스트의 모두 부분을 확인함으로써, 아나운스 음성 또는 아나운스 번역 음성의 내용을 추정할 수 있어, 원하는 아나운스 음성 또는 아나운스 번역 음성을 선택할 수 있다.
다음에, 단계 S67에 있어서, 아나운스 재생 지시부(405)는, 아나운스 선택 화면 중에서, 아나운스 음성 또는 아나운스 번역 음성이 선택되었는지 여부를 판단한다. 여기서, 아나운스 음성 또는 아나운스 번역 음성이 선택되지 않는다고 판단되었을 경우(단계 S67에서 NO), 아나운스 재생 지시부(405)는, 아나운스 선택 화면의 표시를 종료한다.
한편, 아나운스 음성 또는 아나운스 번역 음성이 선택되었다고 판단되었을 경우(단계 S67에서 YES), 단계 S68에 있어서, 아나운스 재생 지시부(405)는, 선택된 아나운스 음성 또는 아나운스 번역 음성을 재생하기 위한 음성 재생 요구를 엔터테인먼트 서버(300)로 송신한다.
다음에, 단계 S69에 있어서, 엔터테인먼트 서버(300)의 통신부(301)는, 엔터테인먼트 단말(400)에 의해 송신된 음성 재생 요구를 수신한다.
다음에, 단계 S70에 있어서, 기내 방송 제어부(308)는, 음성 재생 요구에 의해 요구된 아나운스 음성 또는 아나운스 번역 음성을 아나운스 발화 기억부(309)로부터 읽어내고, 읽어낸 아나운스 음성 또는 아나운스 번역 음성을 엔터테인먼트 단말(400)로 송신한다.
다음에, 단계 S71에 있어서, 엔터테인먼트 단말(400)의 통신부(406)는, 엔터테인먼트 서버(300)에 의해 송신된 아나운스 음성 또는 아나운스 번역 음성을 수신한다.
다음에, 단계 S72에 있어서, 아나운스 재생 지시부(405)는, 통신부(406)에 의해 수신된 아나운스 음성 또는 아나운스 번역 음성을 음성 출력부(410)로부터 출력한다.
이와 같이, 이미 방송된 아나운스 음성 또는 아나운스 번역 음성이 기억되므로, 사용자는, 기억된 아나운스 음성 또는 아나운스 번역 음성을 방송 후에 들을 수 있다.
다음에, 단계 S73에 있어서, 엔터테인먼트 단말(400)의 아나운스 재생 지시부(405)는, 엔터테인먼트 서버(300)에 축적되어 있는 발화 텍스트 또는 발화 번역 텍스트를 표시하기 위한 아나운스 텍스트 화면을 취득하기 위한 아나운스 텍스트 화면 취득 요구를 엔터테인먼트 서버(300)로 송신한다. 즉, 엔터테인먼트 단말(400)은, 아나운스 음성을 텍스트화한 텍스트 화상을 표시하는 것이 가능하고, 텍스트 화상에 포함되는 중요어를 강조하여 선택 가능하게 표시하는 것이 가능하다. 그리고, 중요어가 사용자에 의해 선택되었을 경우, 엔터테인먼트 단말(400)은, 당해 중요어를 상세하게 설명한 상세 정보를 표시하는 것이 가능하다.
다음에, 단계 S74에 있어서, 엔터테인먼트 서버(300)의 통신부(301)는, 엔터테인먼트 단말(400)에 의해 송신된 아나운스 텍스트 화면 취득 요구를 수신한다.
다음에, 단계 S75에 있어서, GUI 제어부(305)는, 아나운스 발화 기억부(309)에 기억되어 있는 아나운스 음성 정보에 포함되는 발화 텍스트 또는 발화 번역 텍스트를 이용하여 아나운스 텍스트 화면을 생성하고, 생성한 아나운스 텍스트 화면을 엔터테인먼트 단말(400)로 송신한다. 이 때, GUI 제어부(305)는, 아나운스 텍스트 화면 취득 요구를 송신한 엔터테인먼트 단말(400)에서 설정되어 있는 언어를 단말 설정 정보 기억부(312)에 기억되어 있는 언어 정보로부터 특정하고, 특정한 언어에 따른 발화 텍스트 또는 발화 번역 텍스트를 이용하여 아나운스 텍스트 화면을 생성한다.
다음에, 단계 S76에 있어서, 엔터테인먼트 단말(400)의 통신부(406)는, 엔터테인먼트 서버(300)에 의해 송신된 아나운스 텍스트 화면을 수신한다.
다음에, 단계 S77에 있어서, 아나운스 재생 지시부(405)는, 통신부(406)에 의해 수신된 아나운스 텍스트 화면을 표시부(408)에 표시한다. 도 19는, 아나운스 텍스트 화면의 일례를 나타내는 도면이다. 도 19에 나타내는 바와 같이, 아나운스 텍스트 화면(423)에는, 아나운스 선택 화면(422)에서 선택된 아나운스 음성의 발화 텍스트 또는 아나운스 번역 음성의 발화 번역 텍스트가 표시된다. 또한, 아나운스 텍스트 화면(423)에서는, 발화 텍스트 또는 발화 번역 텍스트에 포함되는 중요어(4231)가 강조되어 선택 가능하게 표시된다. 중요어(4231)는, 다른 문자와는 상이한 양태로 표시된다. 예를 들면, 중요어(4231)는, 다른 문자보다 굵은 문자로 표시되어도 되고, 다른 문자와는 상이한 색으로 표시되어도 된다. 또한, 중요어(4231)에 대해 밑줄이 부여되어도 된다. 사용자는, 아나운스 텍스트 화면(423)에 포함되는 중요어(4231) 중, 상세한 설명을 필요로 하는 중요어를 터치함으로써 선택할 수 있다.
다음에, 단계 S78에 있어서, 아나운스 재생 지시부(405)는, 아나운스 텍스트 화면 중에서, 중요어가 선택되었는지 여부를 판단한다. 여기서, 중요어가 선택되지 않는다고 판단되었을 경우(단계 S78에서 NO), 아나운스 재생 지시부(405)는, 아나운스 텍스트 화면의 표시를 종료한다.
한편, 중요어가 선택되었다고 판단되었을 경우(단계 S78에서 YES), 단계 S79에 있어서, 아나운스 재생 지시부(405)는, 선택된 중요어의 상세 정보를 표시하기 위한 상세 정보 취득 요구를 엔터테인먼트 서버(300)로 송신한다.
다음에, 단계 S80에 있어서, 엔터테인먼트 서버(300)의 통신부(301)는, 엔터테인먼트 단말(400)에 의해 송신된 상세 정보 취득 요구를 수신한다.
다음에, 단계 S81에 있어서, GUI 제어부(305)는, 상세 정보 취득 요구에 의해 요구된 중요어의 상세 정보를 상세 정보 기억부(307)로부터 취득한다.
다음에, 단계 S82에 있어서, GUI 제어부(305)는, 취득한 상세 정보를 엔터테인먼트 단말(400)로 송신한다.
다음에, 단계 S83에 있어서, 엔터테인먼트 단말(400)의 통신부(406)는, 엔터테인먼트 서버(300)에 의해 송신된 상세 정보를 수신한다.
다음에, 단계 S84에 있어서, 아나운스 재생 지시부(405)는, 통신부(406)에 의해 수신된 상세 정보를 표시부(408)에 표시한다. 도 20은, 상세 정보 표시 화면의 일례를 나타내는 도면이다. 도 20에 나타내는 바와 같이, 상세 정보 표시 화면(424)에는, 중요어를 상세하게 설명한 상세 정보가 표시된다. 도 20에 나타내는 상세 정보 표시 화면(424)은, 도 19에 나타내는 아나운스 텍스트 화면(423)에 있어서의 「면세품」이라는 중요어(4231)가 선택되었을 경우에 표시되는 상세 정보를 나타내고 있다.
또한, 도 16 및 도 17에 나타내는 처리에서는, 아나운스 음성 또는 아나운스 번역 음성이 출력된 후, 아나운스 텍스트 화면이 표시되어 있지만, 본 개시는 특별히 이것에 한정되지 않고, 아나운스 음성 또는 아나운스 번역 음성이 출력된 후, 아나운스 텍스트 화면이 표시되지 않아도 된다.
또한, 단계 S66에서 아나운스 선택 화면이 표시되고, 단계 S67에서 원하는 아나운스 음성 또는 아나운스 번역 음성이 선택된 후, 음성 재생 요구를 송신하는 일 없이, 아나운스 텍스트 화면 취득 요구를 송신해도 된다. 이 경우, 아나운스 음성 또는 아나운스 번역 음성이 출력되는 일이 없이, 아나운스 텍스트 화면이 표시된다.
또한, 본 실시의 형태에 있어서의 음성 제시 시스템은, 항공기 내에 배치되어 있지만, 본 개시는 특별히 이것에 한정되지 않고, 예를 들면, 전철 또는 버스 등의 공공의 탈 것에 배치되어도 된다.
또한, 상기의 실시의 형태에 있어서, 각 구성 요소는, 전용의 하드웨어로 구성되거나, 각 구성 요소에 적합한 소프트웨어 프로그램을 실행함으로써 실현되어도 된다. 각 구성 요소는, CPU 또는 프로세서 등의 프로그램 실행부가, 하드 디스크 또는 반도체 메모리 등의 컴퓨터 판독 가능한 기록 매체에 기록된 소프트웨어 프로그램을 읽어내어 실행함으로써 각 구성 요소의 동작 또는 기능이 실현되어도 된다.
또한, 각 구성 요소의 동작 또는 기능을 실현할 때에 이용하는 데이터는, 반도체 메모리 또는 하드 디스크 등의 기입 가능한 기록 매체에 기록되어도 된다.
[산업상의 이용 가능성]
본 개시에 관련된 음성 제시 방법, 음성 제시 프로그램, 음성 제시 시스템 및 단말 장치는, 중요도가 높은 아나운스 음성은 사용자에게 제시하고, 중요도가 낮은 아나운스 음성은 사용자에게 제시하지 않고 차단할 수 있어, 사용자의 쾌적성을 향상시킬 수 있으며, 발화자로부터 사용자에게 아나운스되는 아나운스 음성을 사용자에게 제시하는 음성 제시 방법, 음성 제시 프로그램, 음성 제시 시스템 및 단말 장치로서 유용하다.
100 기내 방송 장치 101 음성 입력부
102 중요도 입력부 103 언어 설정부
104 방송 출력부 105 통신부
200 번역 서버 201 통신부
202 제어부 203 음성 인식부
204 번역부 205 중요도 판정부
206 음성 합성부 207 아나운스 발화 일시 축적부
208 중요도 테이블 기억부 300 엔터테인먼트 서버
301 통신부 302 제어부
303 스트림 제어부 304 AV스트림 기억부
305 GUI 제어부 306 GUI 기억부
307 상세 정보 기억부 308 기내 방송 제어부
309 아나운스 발화 기억부 310 기내 방송 우선도 제어부
311 플라이트 상황 취득부 312 단말 설정 정보 기억부
400 엔터테인먼트 단말 401 사용자 입력부
402 단말 제어부 403 언어 설정부
404 블록 설정부 405 아나운스 재생 지시부
406 통신부 407 화면 출력 제어부
408 표시부 409 음성 출력 제어부
410 음성 출력부

Claims (17)

  1. 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 상기 아나운스 음성의 중요도를 취득하고,
    취득한 상기 중요도에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하며,
    상기 아나운스 음성을 상기 사용자에게 제시한다고 판단했을 경우, 상기 사용자가 사용하는 단말 장치로 상기 아나운스 음성을 송신하는, 음성 제시 방법.
  2. 청구항 1에 있어서,
    상기 아나운스 음성을 음성 인식함으로써 발화 텍스트를 생성하고,
    상기 중요도와 단어를 대응지어 기억하는 중요도 기억부를 참조하여, 상기 발화 텍스트에 포함되는 단어에 대응지어져 있는 중요도를 상기 중요도 기억부로부터 결정하는, 음성 제시 방법.
  3. 청구항 2에 있어서,
    상기 발화자가 발화에 사용하는 제1의 언어와, 상기 사용자가 발화에 사용하는 제2의 언어는 상이하며,
    상기 발화 텍스트를 상기 제2의 언어로 번역함으로써 발화 번역 텍스트를 생성하고,
    상기 발화 번역 텍스트를 음성 합성함으로써 아나운스 번역 음성을 생성하고,
    상기 아나운스 번역 음성을 또한 취득하여,
    취득한 상기 중요도에 따라 상기 아나운스 번역 음성을 상기 사용자에게 제시할지 여부를 판단하며,
    상기 아나운스 번역 음성을 상기 사용자에게 제시한다고 판단했을 경우, 상기 단말 장치로 상기 아나운스 번역 음성을 송신하는, 음성 제시 방법.
  4. 청구항 1에 있어서,
    상기 발화자에 의한 상기 아나운스 음성의 중요도의 입력을 접수하는, 음성 제시 방법.
  5. 청구항 1 내지 청구항 4 중 어느 한 항에 있어서,
    상기 중요도는, 제1의 중요도와, 상기 제1의 중요도보다 낮은 제2의 중요도와, 상기 제2의 중요도보다 낮은 제3의 중요도를 포함하며,
    상기 제1의 중요도가 취득되었을 경우, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단하며,
    상기 제2의 중요도가 취득되었을 경우, 상기 아나운스 음성을 상기 사용자에게 제시하지 않는다고 판단하고,
    상기 제2의 중요도의 상기 아나운스 음성을 음성 기억부에 기억시키며,
    상기 제3의 중요도가 취득되었을 경우, 상기 아나운스 음성을 상기 사용자에게 제시하지 않는다고 판단하는, 음성 제시 방법.
  6. 청구항 5에 있어서,
    상기 음성 기억부에 기억된 상기 아나운스 음성을 취득하는 취득 요구를 상기 단말 장치로부터 수신했을 경우, 상기 아나운스 음성을 상기 음성 기억부로부터 읽어내어, 상기 단말 장치로 송신하는, 음성 제시 방법.
  7. 청구항 1 내지 청구항 6 중 어느 한 항에 있어서,
    상기 사용자의 주위의 상황을 취득하여,
    취득한 상기 상황이 소정의 상황인 경우, 상기 아나운스 음성을 상기 사용자에게 제시한다고 판단하고, 상기 단말 장치로 상기 아나운스 음성을 송신하는, 음성 제시 방법.
  8. 청구항 7에 있어서,
    상기 상황은, 상기 사용자가 탑승하고 있는 항공기의 비행 중에 변화되는 기상 상황인, 음성 제시 방법.
  9. 청구항 1 내지 청구항 8 중 어느 한 항에 있어서,
    특정의 상기 중요도의 상기 아나운스 음성을 차단하는 것을 나타내는 블록 정보를 상기 단말 장치로부터 수신하고,
    상기 중요도 및 상기 블록 정보에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하는, 음성 제시 방법.
  10. 청구항 9에 있어서,
    상기 중요도 및 상기 블록 정보에 따라 상기 아나운스 음성을 상기 사용자에게 제시하지 않는다고 판단했을 경우, 제시하지 않는다고 판단된 상기 아나운스 음성이 축적되어 있는 것을 통지하기 위한 통지 정보를 상기 단말 장치로 송신하는, 음성 제시 방법.
  11. 청구항 1 내지 청구항 10 중 어느 한 항에 있어서,
    상기 단말 장치로 송신된 상기 아나운스 음성의 특정 부분에 대한 상세 정보의 취득 요구를 상기 단말 장치로부터 수신하고,
    상기 상세 정보를 상기 단말 장치로 송신하는, 음성 제시 방법.
  12. 컴퓨터를,
    발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 상기 아나운스 음성의 중요도를 취득하는 취득부와,
    취득한 상기 중요도에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하는 판단부와,
    상기 아나운스 음성을 상기 사용자에게 제시한다고 판단되었을 경우, 상기 사용자가 사용하는 단말 장치로 상기 아나운스 음성을 송신하는 송신부로서 기능시키는, 음성 제시 프로그램.
  13. 서버와,
    상기 서버와 서로 통신 가능하게 접속되어, 상기 사용자가 사용하는 단말 장치를 구비하고,
    상기 서버는,
    발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성 및 상기 아나운스 음성의 중요도를 취득하는 취득부와,
    취득한 상기 중요도에 따라 상기 아나운스 음성을 상기 사용자에게 제시할지 여부를 판단하는 판단부와,
    상기 아나운스 음성을 상기 사용자에게 제시한다고 판단되었을 경우, 상기 단말 장치로 상기 아나운스 음성을 송신하는 송신부를 구비하고,
    상기 단말 장치는,
    상기 아나운스 음성을 수신하는 수신부와,
    상기 아나운스 음성을 출력하는 출력부를 구비하는, 음성 제시 시스템.
  14. 발화자로부터 사용자에게 비행기 내에서 아나운스되는 아나운스 음성이며, 상기 사용자에게 제시하지 않는다고 판단된 상기 아나운스 음성의 취득 요구를 송신하는 송신부와,
    상기 취득 요구에 대한 응답으로서 상기 아나운스 음성을 수신하는 수신부와,
    수신된 상기 아나운스 음성을 출력하는 출력부를 구비하는, 단말 장치.
  15. 청구항 14에 있어서,
    특정의 중요도의 상기 아나운스 음성을 차단할지 여부를 나타내는 입력을 접수하는 입력부를 더 구비하고,
    상기 송신부는, 상기 입력에 따라 상기 특정의 중요도의 상기 아나운스 음성을 차단하는 것을 나타내는 블록 정보를 송신하는, 단말 장치.
  16. 청구항 14 또는 청구항 15에 있어서,
    상기 출력부가 출력하는 화면에 대한 입력을 접수하는 입력부를 더 구비하고,
    상기 출력부는, 상기 사용자에게 제시하지 않는다고 판단된 상기 아나운스 음성을 나타내는 화면을 출력하고,
    상기 송신부는, 상기 사용자에게 제시하지 않는다고 판단된 상기 아나운스 음성을 나타내는 화면에 대한 입력에 의거하여 상기 아나운스 음성의 취득 요구를 송신하는, 단말 장치.
  17. 청구항 14 내지 청구항 16 중 어느 한 항에 있어서,
    상기 아나운스 음성의 특정 부분에 대한 입력을 접수하는 입력부를 더 구비하고,
    상기 송신부는, 상기 아나운스 음성의 특정 부분에 대한 입력에 따라 상기 아나운스 음성의 특정 부분에 대한 상세 정보의 취득 요구를 송신하며,
    상기 수신부는, 상기 상세 정보를 수신하고,
    상기 출력부는, 상기 상세 정보를 출력하는, 단말 장치.
KR1020187002270A 2016-09-13 2017-04-26 음성 제시 방법, 음성 제시 프로그램, 음성 제시 시스템 및 단말 장치 KR20190053814A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JPJP-P-2016-178304 2016-09-13
JP2016178304 2016-09-13
JP2017076694 2017-04-07
JPJP-P-2017-076694 2017-04-07
PCT/JP2017/016512 WO2018051570A1 (ja) 2016-09-13 2017-04-26 音声提示方法、音声提示プログラム、音声提示システム及び端末装置

Publications (1)

Publication Number Publication Date
KR20190053814A true KR20190053814A (ko) 2019-05-20

Family

ID=61619107

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187002270A KR20190053814A (ko) 2016-09-13 2017-04-26 음성 제시 방법, 음성 제시 프로그램, 음성 제시 시스템 및 단말 장치

Country Status (7)

Country Link
US (1) US10726845B2 (ko)
EP (1) EP3514696A4 (ko)
JP (1) JP6945130B2 (ko)
KR (1) KR20190053814A (ko)
CN (1) CN108093653B (ko)
SG (1) SG11201804242XA (ko)
WO (1) WO2018051570A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124323A (ja) * 2017-01-30 2018-08-09 パナソニックIpマネジメント株式会社 アナウンスシステムおよび音声情報変換装置
CN111104088B (zh) * 2018-10-25 2023-10-03 阿里巴巴集团控股有限公司 一种通过语音设备播报信息的方法及系统
US10679602B2 (en) * 2018-10-26 2020-06-09 Facebook Technologies, Llc Adaptive ANC based on environmental triggers
CN111476039B (zh) * 2019-01-04 2023-06-30 深圳永德利科技股份有限公司 智能车载系统的即时语言翻译方法及相关产品
JP2020154013A (ja) * 2019-03-18 2020-09-24 株式会社Subaru 車両用注意喚起装置、車両用注意喚起方法及びプログラム
US11455471B2 (en) * 2019-07-26 2022-09-27 Samsung Electronics Co., Ltd. System and method for explaining and compressing deep learning natural language understanding (NLU) models
JP2021156909A (ja) * 2020-03-25 2021-10-07 株式会社Jvcケンウッド 制御装置、制御方法、およびプログラム
KR20220037299A (ko) 2020-09-17 2022-03-24 삼성전자주식회사 전자 장치 및 그 제어 방법
US20220342628A1 (en) * 2021-04-27 2022-10-27 Apple Inc. Devices, Methods, and Graphical User Interfaces for Enabling Delivery of Audio Notifications
CN115273271B (zh) * 2022-06-27 2023-07-11 重庆长安汽车股份有限公司 一种基于车辆娱乐主机采集车辆数据的系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006512647A (ja) 2002-12-30 2006-04-13 シンガポール エアラインズ リミテッド 多言語交信方法とシステム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028304B1 (en) * 1998-05-26 2006-04-11 Rockwell Collins Virtual line replaceable unit for a passenger entertainment system, method and article of manufacture
GB2389761B (en) 2002-06-13 2006-04-26 Seiko Epson Corp A semiconductor chip for use in a mobile telephone
JP3920812B2 (ja) * 2003-05-27 2007-05-30 株式会社東芝 コミュニケーション支援装置、支援方法、及び支援プログラム
JP2007052329A (ja) * 2005-08-19 2007-03-01 Pentax Corp 音声作成方法および音声作成装置
JP3119135U (ja) * 2005-11-29 2006-02-16 靖治 徳勝 飛行機内の旅客用情報表示装置
US8370148B2 (en) * 2008-04-14 2013-02-05 At&T Intellectual Property I, L.P. System and method for answering a communication notification
JP5426133B2 (ja) * 2008-09-26 2014-02-26 株式会社東芝 音声出力装置、音声出力方法及びプログラム
JP5474455B2 (ja) * 2009-09-07 2014-04-16 日本電信電話株式会社 文書群処理装置、文書群処理方法および文書群処理プログラム
US20110219136A1 (en) * 2010-03-02 2011-09-08 International Business Machines Corporation Intelligent audio and visual media handling
JP5466575B2 (ja) * 2010-05-21 2014-04-09 日本電信電話株式会社 重要語抽出装置とその方法とプログラム
JP2012238305A (ja) 2011-04-26 2012-12-06 Panasonic Corp アナウンス情報提示システム、アナウンス情報提示装置及びアナウンス情報提示方法
JP2013012187A (ja) * 2011-06-03 2013-01-17 Panasonic Corp 負荷分散サーバシステム
JP5684082B2 (ja) * 2011-09-27 2015-03-11 株式会社東芝 対話支援装置、方法及びプログラム
US8798817B2 (en) * 2012-01-31 2014-08-05 Gulfstream Aerospace Corporation Methods and systems for requesting and retrieving aircraft data during flight of an aircraft
US10217111B2 (en) * 2013-01-29 2019-02-26 Genesys Telecommunications Laboratories, Inc. System and method for in-air customer service
WO2015008363A1 (ja) * 2013-07-18 2015-01-22 三菱電機株式会社 情報提示装置及び情報提示方法
CN105761532B (zh) * 2014-12-19 2018-03-02 大陆汽车投资(上海)有限公司 动态语音提示方法及车载系统
US10135937B2 (en) * 2015-02-19 2018-11-20 Microsoft Technology Licensing, Llc Personalized notifications
JP5856708B1 (ja) * 2015-08-31 2016-02-10 株式会社Wing of Freedom 翻訳システム及びサーバ

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006512647A (ja) 2002-12-30 2006-04-13 シンガポール エアラインズ リミテッド 多言語交信方法とシステム

Also Published As

Publication number Publication date
SG11201804242XA (en) 2018-06-28
JPWO2018051570A1 (ja) 2019-11-07
JP6945130B2 (ja) 2021-10-06
EP3514696A1 (en) 2019-07-24
US10726845B2 (en) 2020-07-28
EP3514696A4 (en) 2019-07-24
CN108093653A (zh) 2018-05-29
WO2018051570A1 (ja) 2018-03-22
CN108093653B (zh) 2023-03-28
US20180268823A1 (en) 2018-09-20

Similar Documents

Publication Publication Date Title
JP6945130B2 (ja) 音声提示方法、音声提示プログラム、音声提示システム及び端末装置
EP3190512B1 (en) Display device and operating method therefor
CN107193841B (zh) 媒体文件加速播放、传输及存储的方法和装置
US9344878B2 (en) Method and system for operating communication service
JP5185494B2 (ja) 多言語交信方法とシステム
CN112236817A (zh) 低延迟邻近群组翻译
US11664024B2 (en) Artificial intelligence device
US11234094B2 (en) Information processing device, information processing method, and information processing system
CN110176231B (zh) 音响输出系统、音响输出方法及存储介质
JP2000207170A (ja) 情報処理装置および情報処理方法
CN110996163A (zh) 用于自动字幕显示的系统和方法
JP2014219617A (ja) 音声案内システム及び音声案内方法
JP2005124169A (ja) 吹き出し字幕付き映像コンテンツ作成装置、送信装置、再生装置、提供システムならびにそれらで用いられるデータ構造および記録媒体
US11825238B2 (en) Videoconference system, method for transmitting information and computer program product
JP6172770B2 (ja) 要約筆記支援システム、情報配信装置、要約筆記支援方法、及びプログラム
JP7505491B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP4580345B2 (ja) コンテンツ送信装置およびコンテンツ出力装置
WO2022038928A1 (ja) コミュニケーションシステム
JP2015018079A (ja) 字幕音声生成装置
KR102414993B1 (ko) 연관 정보 제공 방법 및 시스템
WO2022237381A1 (zh) 保存会议记录的方法、终端及服务器
Fink A Note About the Appalachian Dialect
Fink A Note About Language and Dialect
KR20230075565A (ko) 3차원 가상 현실을 이용한 가상 발표 구현 방법 및 장치
KR20240026475A (ko) 방송 번역 애플리케이션 서비스 제공 시스템 및 이를 제공하는 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right