JP2020137083A - インターホンシステム - Google Patents

インターホンシステム Download PDF

Info

Publication number
JP2020137083A
JP2020137083A JP2019032604A JP2019032604A JP2020137083A JP 2020137083 A JP2020137083 A JP 2020137083A JP 2019032604 A JP2019032604 A JP 2019032604A JP 2019032604 A JP2019032604 A JP 2019032604A JP 2020137083 A JP2020137083 A JP 2020137083A
Authority
JP
Japan
Prior art keywords
unit
user
data
voice
character data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019032604A
Other languages
English (en)
Other versions
JP7304170B2 (ja
Inventor
宏明 川名
Hiroaki Kawana
宏明 川名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aiphone Co Ltd
Original Assignee
Aiphone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aiphone Co Ltd filed Critical Aiphone Co Ltd
Priority to JP2019032604A priority Critical patent/JP7304170B2/ja
Publication of JP2020137083A publication Critical patent/JP2020137083A/ja
Application granted granted Critical
Publication of JP7304170B2 publication Critical patent/JP7304170B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Interconnected Communication Systems, Intercoms, And Interphones (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】インターホン端末のユーザ間でのコミュニケーションを円滑に行うことが可能なインターホンシステムを提供する。
【解決手段】インターホンシステムは、第一ユーザが第二ユーザと通話するための第一マイク12および第一スピーカ13とを有する第一インターホン端末1と、第二ユーザが第一ユーザと通話するための第二マイク22および第二スピーカ23を有する第二インターホン端末2と、第一マイク12が集音する第一ユーザの音声を取得して文字データに変換する音声文字変換部52及び変換された文字データを所定の言語の翻訳データに翻訳する翻訳処理部53を有する制御装置5と、を備えている。翻訳データが、第二インターホン端末2に関連付けられたディスプレイ43に表示される。
【選択図】図2

Description

本発明は、インターホンシステムに関する。
通話相手が喋った言葉を文字データとして親機モニタおよび子機モニタにそれぞれ表示可能なインターホンシステムが知られている(特許文献1参照)。
特開2012−209863号公報
ところで、ユーザが外国人である場合などには、音声データをそのまま文字データとしてモニタに表示するだけでは不十分な場合がある。
そこで、本発明は、インターホン端末のユーザ間でのコミュニケーションを円滑に行うことが可能なインターホンシステムを提供することを目的とする。
上記目的を達成するために、本発明のインターホンシステムは、
第一ユーザが第二ユーザと通話するための第一マイクおよび第一スピーカを有する第一インターホン端末と、
前記第二ユーザが前記第一ユーザと通話するための第二マイクおよび第二スピーカを有する第二インターホン端末と、
前記第一マイクが集音する前記第一ユーザの音声を取得して文字データに変換する変換部と、変換された前記文字データを所定の言語の翻訳データに翻訳する翻訳処理部と、を有する制御装置と、
を備え、
前記翻訳データが、前記第二インターホン端末に関連付けられたディスプレイに表示される。
上記構成によれば、第一インターホン端末のユーザと第二インターホン端末のユーザとのコミュニケーションを円滑に行うことが可能なコミュニケーションシステムを提供することができる。特に、第一ユーザの音声を翻訳した翻訳データが第二インターホン端末に関連付けられたディスプレイに表示されるため、例えば、第一ユーザが日本語に慣れていない外国人の場合にも、第一ユーザと第二ユーザとの間で円滑なコミュニケーションを促進することができる。
また、本発明のインターホンシステムにおいて、
前記ディスプレイは、前記第二インターホン端末の近傍に配置されていてもよい。
また、本発明のインターホンシステムにおいて、
前記ディスプレイは、前記第二インターホン端末と一体化されていてもよい。
これらの構成によれば、第二ユーザがディスプレイを容易に視認することができ、円滑なコミュニケーションをさらに促進させることができる。
また、本発明のインターホンシステムにおいて、
前記文字データが、前記翻訳データとともに、前記ディスプレイに表示されてもよい。
この構成によれば、第一ユーザの音声そのままの文字データを翻訳データとともにディスプレイに表示することで、第一ユーザの音声を文字情報として第二ユーザが把握することができる。
また、本発明のインターホンシステムにおいて、
前記翻訳データおよび前記文字データの少なくとも一方が、前記第一インターホン端末に関連付けられた第二ディスプレイに表示されてもよい。
この構成によれば、文字データまたは翻訳データが第一ユーザ側のディスプレイにも表示されることで、第一ユーザ自身も自らの音声またはその翻訳データを文字情報として把握することができる。
また、本発明のインターホンシステムにおいて、
前記変換部は、前記翻訳データを翻訳音声データに変換するように構成され、
前記翻訳音声データが前記第二スピーカまたは前記ディスプレイに関連付けられた第三スピーカから出力されてもよい。
この構成によれば、翻訳されたデータを文字データだけではなく音声データとしても出力することで、第一ユーザと第二ユーザとの間での円滑なコミュニケーションをさらに促進させることができる。
また、本発明のインターホンシステムにおいて、
前記翻訳音声データが前記第一スピーカまたは前記第一インターホン端末に関連付けられた第四スピーカから出力されてもよい。
この構成によれば、第一ユーザの音声の翻訳音声データが第一ユーザ側のスピーカからも出力されることで、音声を発した第一ユーザが第二ユーザ側のスピーカでも翻訳音声が出力されていることを把握することができる。
また、本発明のインターホンシステムにおいて、
前記所定の言語は、前記第一ユーザが選択可能であってもよい。
第一ユーザの慣れ親しんでいる言語に応じて、翻訳される言語を適宜選択できることが好ましい。
また、本発明のインターホンシステムにおいて、
前記制御装置は、前記文字データおよび前記翻訳データの少なくとも一方に関する情報をビッグデータとして解析する解析部と、前記解析部による解析結果情報を出力する解析結果送信部と、をさらに有していてもよい。
この構成によれば、第一ユーザと第二ユーザとの通話情報のビックデータに基づいて、より効率的なコミュニケーションを図ることができるインターホンシステムを提供することが可能になる。
本発明によれば、インターホン端末のユーザ間でのコミュニケーションを円滑に行うことが可能なインターホンシステムを提供することができる。
本発明に係るインターホンシステムの一例を示す模式図である。 図1のインターホンシステムのブロック図である。 第一タブレット端末の初期画面を示す図である。 図1のインターホンシステムの動作の一例を示すフローチャートである。 各タブレット端末のディスプレイに翻訳文字データが表示された状態を示す図である。 各タブレット端末のディスプレイに翻訳文字データとともに文字データが表示された状態を示す図である。 本発明の第一変形例に係るインターホンシステムの動作の一例を示すフローチャートである。 第一変形例に係る動作において、各タブレット端末のディスプレイへのデータ表示状態を示す図である。 第一変形例の別の例における各タブレット端末のディスプレイへのデータ表示状態を示す図である。 本発明の第二変形例に係るインターホンシステムの動作の一例を示すフローチャートである。 本発明の第三変形例に係るインターホンシステムの制御装置を示すブロック図である。
以下、本実施形態に係るインターホンシステムの一例について、図面を参照して説明する。図1は本発明に係るインターホンシステム100の一例を示す模式図であり、図2は、図1に示すインターホンシステム100のブロック図である。
図1に示すように、インターホンシステム100は、子機1と、親機2と、第一タブレット端末3と、第二タブレット端末4と、制御装置5とを備えている。
子機1は、例えば、駅やバス停、空港などに設置される待合室や、券売機の近傍などに設置され得る。子機1は、施設(公共施設、商業施設、宿泊施設等)のインフォメーションオフィスに設置されてもよい。子機1は、宿泊施設の部屋に設置され、受付との連絡手段として用いられてもよい。子機1は、住居の玄関に設置されて来訪者が居住者を呼び出すための玄関子機として用いられてもよい。
親機2は、例えば、駅やバス停、空港などの管理室に設置されて、待合室や券売機近傍に設置された子機1からの呼出に応答するものであり得る。親機2は、施設(公共施設、商業施設、宿泊施設等)の管理室に設置され、インフォメーションオフィスに設置された子機1から呼出に応答するために用いられてもよい。親機2は、宿泊施設の受付等に設置され、部屋との連絡手段として用いられてもよい。親機2は、居室に設置されて玄関子機としての子機1からの呼び出しに応答するための居室親機として用いられてもよい。
なお、図1および図2では、子機1と親機2とは、伝送線L1によって接続した構成を示しているが、伝送線L1によらず無線通信としてもよい。
図2に示すように、子機1は、親機2を呼び出す呼出ボタン11と、親機2との間で通話するための子機マイク12および子機スピーカ13と、子機マイク12および子機スピーカ13を制御する子機音声処理部14と、親機2および第一タブレット端末3と通信する子機IF15と、子機1の各部を制御する子機CPU16と、を備えている。
親機2は、子機1からの呼び出しに対する応答操作や各種設定を行うための操作部21と、子機1との間で通話するための親機マイク22および親機スピーカ23と、親機マイク22および親機スピーカ23を制御する親機音声処理部24と、画像を表示する親機モニタ25と、親機モニタ25の表示を制御する画像処理部26と、子機1および第二タブレット端末4と通信する親機IF27と、親機2の各部を制御する親機CPU(Central Processing Unit)28と、を備えている。
第一タブレット端末3は、図1および図2に示すように、子機1の近傍(例えば、子機1の上部)に設置されている。第一タブレット端末3は、音声を出力するタブレットスピーカ31と、タブレットスピーカ31を制御する音声処理部32と、画像を表示するディスプレイ33と、ディスプレイ33の表示を制御する画像処理部34と、子機1および制御装置5と通信する通信部35と、第一タブレット端末3の各部を制御するタブレットCPU36と、を備えている。通信部35は、Bluetooth(登録商標)、Wi−Fi、4G、5G、IEEE802.11等の通信方式に従って、インターネットNを介して、子機1および制御装置5とデータ通信を行う。通信部35は、インターネットNを介して、子機マイク12が集音した音声の音声データを子機1から受信する。通信部35は、インターネットNを介して、制御装置5に、音声データと、音声データの言語の種類と、子機ユーザが選択した翻訳言語の情報を送信する。
図3は、第一タブレット端末3のディスプレイ33に初期画面として言語選択のための画面が表示された状態を示す図である。例えば、日本語から英語、中国語、韓国語への翻訳が可能な場合は、図3に示すように、ディスプレイ33には、英語、中国語、韓国語の現地語が付された選択ボタンがそれぞれ表示されている。また、図3では「****」が付された選択ボタンとして図示しているが、英語、中国語、韓国語以外の言語についても適宜選択可能である。子機ユーザは、ディスプレイ33に表示された初期画面を介して、通話音声の翻訳言語を選択することができる。ディスプレイ33内または第一タブレット端末3の近傍には、「ご希望の言語での音声翻訳を表示可能です。ご希望の言語をご選択ください。」といった内容の各国語での案内文が表示され得る。
第二タブレット端末4は、図1および図2に示すように、親機2の近傍(例えば、親機2の上部)に設置されている。第二タブレット端末4は、音声を出力するタブレットスピーカ41と、タブレットスピーカ41を制御する音声処理部42と、画像を表示するディスプレイ43と、ディスプレイ43の表示を制御する画像処理部44と、親機2および制御装置5と通信する通信部45と、第二タブレット端末4の各部を制御するタブレットCPU46と、を備えている。通信部45は、通信部35と同様に、インターネットNを介して、親機2および制御装置5とデータ通信を行う。通信部45は、インターネットNを介して、親機マイク22が集音した音声の音声データを親機2から受信する。通信部45は、インターネットNを介して、制御装置5に、音声データを送信する。
制御装置5は、例えば、クラウドサーバで構成されている。あるいは、制御装置5は、例えば、CPU、ROM(Read Only Memory)、およびRAM(Random Access Memory)や補助記憶装置等を備える1台または複数台のコンピュータで構成されてもよい。
制御装置5は、通信部51と、音声文字変換部52と、翻訳処理部53と、を備えている。通信部51は、第一タブレット端末3および第二タブレット端末4とそれぞれ通信可能である。音声文字変換部52には、子機マイク12および親機マイク22が集音した音声(音声信号)が入力され、音声信号が文字データに変換されて出力される。具体的には、音声文字変換部52は、入力された音声信号から音声の特徴を抽出して文字データを生成する。音声文字変換部52は、連続する文字データを基にあらかじめ登録されている単語群の中から単語を選択し、さらにあらかじめ登録されている辞書を参照して漢字等に変換し、文章データを生成して出力する。翻訳処理部53は、音声文字変換部52から出力された文章データを、第一タブレット端末3から受信した子機ユーザの選択言語に翻訳し、翻訳された翻訳文字データを出力する。翻訳処理部53は、ルールベース機械翻訳(RBMT: Rule Base Machine Translation)や統計的機械翻訳(SMT: Statistical Machine Translation)等の公知の手法を用いて翻訳処理を行う。
第一タブレット端末3の画像処理部34は、制御装置5の翻訳処理部53が出力して通信部51、35を介して受信した翻訳文字データを、ディスプレイ33に表示するための画像データを生成する。また、画像処理部34は、制御装置5の音声文字変換部52が出力して通信部51、35を介して受信した文章(文字)データを、ディスプレイ33に表示するための画像データを生成して出力してもよい。
同様に、第二タブレット端末4の画像処理部44は、制御装置5の翻訳処理部53が出力して通信部51、45を介して受信した翻訳文字データを、ディスプレイ43に表示するための画像データを生成して出力する。また、画像処理部44は、制御装置5の音声文字変換部52が出力して通信部51、45を介して受信した文章(文字)データを、ディスプレイ43に表示するための画像データを生成して出力してもよい。
このように構成されたインターホンシステム100について、図4および図5を参照して、動作の一例を説明する。図4は、インターホンシステム100の動作の一例を示すフローチャートである。図5は、各タブレット端末3,4のディスプレイ33,43に翻訳文字データが表示された状態を示す図である。本動作例において、子機ユーザは、日本語に慣れ親しんでいない外国人(例えば母国語が英語の外国人)とする。
子機1を通じて親機2側の親機ユーザとの通話を希望する子機ユーザは、第一タブレット端末3のディスプレイ33内あるいは第一タブレット端末3に表示された案内文を確認し、ディスプレイ33において所定の言語(ここでは、英語とする)を選択する。すると、まず、第一タブレット端末3のタブレットCPU36は、子機ユーザが所定の言語を選択したことのユーザ入力を検出する(ステップS1)。具体的には、タブレットCPU36は、子機ユーザが英語を選択したことのユーザ入力を検出する。
次に、タブレットCPU36は、検出されたユーザ入力に基づいて、複数の選択可能な言語のうち選択された言語の情報(選択言語情報)を制御装置5へ送信する(ステップS2)。具体的には、タブレットCPU36は、選択可能な英語、中国語、韓国語のうち、英語が選択されたことを選択言語情報として制御装置5へ送信する。
次に、子機ユーザが親機ユーザを呼び出すために呼出ボタン11を押下すると、子機CPU16の制御により呼出信号が子機IF15および伝送線L1を介して親機2に送信される(ステップS3)。
親機2において、親機IF27を介して親機CPU28が呼出信号を受信すると、親機CPU28は、親機音声処理部24を制御して親機スピーカ23から呼出音を報音する(ステップS4)。次に、親機2からの呼出音を認識した親機ユーザが、応答するために操作部21を応答操作すると、親機CPU28は、子機1と親機2の間の通話路を形成する(ステップS5)。これにより、子機1側では子機音声処理部14の制御で子機マイク12と子機スピーカ13とが能動状態となるとともに、親機2側では親機音声処理部24の制御で親機マイク22と親機スピーカ23とが能動状態となり、子機1と親機2との間での通話が可能となる。
次に、応答操作した親機ユーザが、親機マイク22に対して、例えば「どのようなご用件でしょうか。」と音声を入力すると、親機CPU28は、親機音声処理部24で音声処理された親機ユーザの音声(以下、親機ユーザ音声とする)を、親機IF27を介して、子機1および第二タブレット端末4に送信する(ステップS6)。
次に、子機1の子機CPU16は、子機IF15を介して親機ユーザ音声を受信し、子機音声処理部14を介して子機スピーカ13から親機ユーザ音声を報音する(ステップS7)。
一方、通信部45を介して親機ユーザ音声を受信した第二タブレット端末4のタブレットCPU46は、親機ユーザ音声を制御装置5へ送信する(ステップS8)。
通信部51を介して親機ユーザ音声を受信した制御装置5は、音声文字変換部52を制御して親機ユーザ音声を文字データに変換する(ステップS9)。続いて、制御装置5は、翻訳処理部53を制御して、音声文字変換部52で変換された文字データを、ステップS2において第一タブレット端末3から送信された選択言語である英語へ翻訳された翻訳文字データに変換する(ステップS10)。続いて、制御装置5は、翻訳処理部53で変換された翻訳文字データを第一タブレット端末3へ送信する(ステップS11)。具体的には、制御装置5は、「どのようなご用件でしょうか。」を例えば「How can I help you?」と翻訳した翻訳文字データを第一タブレット端末3に送信する。
次に、翻訳文字データを受信した第一タブレット端末3のタブレットCPU36は、画像処理部34を制御して、翻訳文字データをディスプレイ33に表示させる(ステップS12)。具体的には、タブレットCPU36は、図5に示すように、「How can I help you?」という文章をディスプレイ33に表示する。
次に、第一タブレット端末3のディスプレイ33に表示された翻訳文字データ「How can I help you?」を見た子機ユーザにより、子機マイク12から例えば「I’d like to go to ** station.」という音声が入力されると、子機CPU16は、子機音声処理部14で音声処理された子機ユーザの音声(以下、子機ユーザ音声とする)を、子機IF15を介して親機2および第一タブレット端末3に送信する(ステップS13)。
親機IF27を介して子機ユーザ音声を受信した親機2の親機CPU28は、当該子機ユーザ音声を、親機音声処理部24を介して親機スピーカ23から報音する(ステップS14)。
一方、通信部35を介して子機ユーザ音声を受信した第一タブレット端末3のタブレットCPU36は、当該子機ユーザ音声を制御装置5へ送信する(ステップS15)。
次に、通信部51を介して子機ユーザ音声を受信した制御装置5は、子機ユーザ音声が日本語であるかどうかを判定する(ステップS16)。子機ユーザ音声が日本語であると判定された場合には(ステップS16のYes)、制御装置5は、子機ユーザ音声を日本語へ翻訳する必要がないと判断し、子機ユーザ音声の文字データへの変換処理や文字データから翻訳文字データへの変換処理を行わずに処理を終了する。
一方、子機ユーザ音声が日本語ではないと判定された場合には(ステップS16のNo)、制御装置5は、音声文字変換部52を制御して、子機ユーザ音声を文字データに変換する(ステップS17)。具体的には、制御装置5は、音声文字変換部52において、子機ユーザ音声を「I’d like to go to ** station.」という文字データに変換する。続いて、制御装置5は、翻訳処理部53を制御して、音声文字変換部52で変換された子機ユーザ音声の文字データを、日本語へ翻訳された翻訳文字データに変換する(ステップS18)。具体的には、制御装置5は、翻訳処理部53において、「I’d like to go to ** station.」という文字データを「私は**駅に行きたいのですが。」と日本語に翻訳された翻訳文字データに変換する。続いて、制御装置5は、翻訳文字データを第二タブレット端末4へ送信する(ステップS19)。
次に、翻訳文字データを受信した第二タブレット端末4のタブレットCPU46は、画像処理部44を制御して、翻訳文字データをディスプレイ43に表示する(ステップS20)。具体的には、タブレットCPU46は、図5に示すように、「私は**駅に行きたいのですが。」という文章をディスプレイ43に表示する。
次に、ディスプレイ43に表示された「私は**駅に行きたいのですが。」という翻訳文字データを見た親機ユーザが**駅への行き方(あるいは、切符の買い方など)を案内するための音声を親機マイク22から入力すると、親機CPU28は、入力された親機ユーザ音声を子機1および第二タブレット端末4へ送信する(ステップS21)。その後の処理は、ステップS7以降を繰り返す。
このようにして、子機ユーザと親機ユーザとの間で所定の通話が実施された後、親機2の操作部21を通じて親機ユーザが所定の終話操作を行うと、ステップS5で形成された通話路が切断される(ステップS22)。これにより、第一タブレット端末3のディスプレイ33および第二タブレット端末4のディスプレイ43におけるデータ(文字データおよび翻訳文字データ)の表示が終了して、各ディスプレイ33,43は待ち受け状態に戻り、初期画面が表示される。
以上説明したように、本実施形態に係るインターホンシステム100は、子機ユーザ(第一ユーザまたは第二ユーザの一例)が親機ユーザ(第一ユーザまたは第二ユーザの一例)と通話するための子機マイク12(第一マイクまたは第二マイクの一例)および子機スピーカ13(第一スピーカまたは第二スピーカの一例)を有する子機1(第一インターホン端末または第二インターホン端末の一例)と、親機ユーザが子機ユーザと通話するための親機マイク22(第一マイクまたは第二マイクの一例)および親機スピーカ23(第一スピーカまたは第二スピーカの一例)を有する親機2(第一インターホン端末または第二インターホン端末の一例)と、を備えている。また、インターホンシステム100は、子機マイク12が集音する子機ユーザの音声および親機マイク22が集音する親機ユーザの音声を取得して文字データに変換する音声文字変換部52(変換部の一例)と、変換された文字データを所定の言語の翻訳データ(翻訳文字データ)に翻訳する翻訳処理部53と、を有する制御装置5を備えている。そして、子機ユーザ音声が翻訳された翻訳データが、親機2に関連付けられた第二タブレット端末4のディスプレイ43(第一ディスプレイの一例)に表示されるとともに、親機ユーザ音声が翻訳された翻訳データが子機1に関連付けられた第一タブレット端末3のディスプレイ33に表示される。このように、子機ユーザ音声の翻訳データおよび親機ユーザ音声の翻訳データが、相手方のタブレット端末3,4のディスプレイ33,43にそれぞれ表示される。そのため、例えば、子機ユーザが日本語に慣れていない外国人の場合にも、子機ユーザと親機ユーザとの間での円滑なコミュニケーションを促進することができる。
また、本実施形態に係るインターホンシステム100では、子機ユーザが自らの慣れ親しんでいる言語(母国語など)を翻訳言語として適宜選択可能である。これにより、インターホンシステム100の利便性をさらに高めることができる。
なお、上記の実施形態においては、翻訳処理部53において変換された翻訳文字データのみが各タブレット端末3,4のディスプレイ33,43に表示される構成を採用しているが、この例に限られない。例えば、制御装置5は、ステップS11やステップS19において、音声文字変換部52において変換された文字データを翻訳文字データとともにタブレット端末3,4へ送信し、タブレット端末3,4のタブレットCPU36,46は翻訳文字データとともに文字データをディスプレイ33,43に表示するようにしてもよい。具体的には、図6に示すように、子機ユーザが視認可能なディスプレイ33には親機ユーザ音声の文字データ「どのようなご用件でしょうか。」が翻訳文字データ「How can I help you?」とともに表示され、親機ユーザが視認可能なディスプレイ43には子機ユーザ音声の文字データ「I’d like to go to ** station.」が翻訳文字データ「私は**駅に行きたいのですが。」とともに表示されるようにしてもよい。このように、相手ユーザの音声そのままの文字データを翻訳データとともにディスプレイ33,43に表示することで、相手ユーザの音声を文字情報として把握することができる。
(第一変形例)
図7は、第一変形例に係るインターホンシステム100の動作の一例を示すフローチャートである。第一変形例のステップS1〜S5の処理は図4に示すステップS1〜S5と同様であるため、説明および図示は省略している。図8は、第一変形例においてディスプレイ33,43に表示される画像を示す図である。
図7に示すように、ステップS6およびステップS8において、親機ユーザ音声が第二タブレット端末4を介して制御装置5に送信されると、制御装置5は、ステップS9およびステップS10において、当該親機ユーザ音声を文字データへ変換してさらに当該文字データを翻訳文字データに変換する。続いて、本例においては、制御装置5は、翻訳文字データを、第一タブレット端末3へ送信する(ステップS11)。また、制御装置5は、翻訳文字データを、第二タブレット端末4へも送信する(ステップS11−1)。次に、第一タブレット端末3のタブレットCPU36は、ディスプレイ33に翻訳文字データを表示させる(ステップS12)。このとき、第二タブレット端末4のタブレットCPU46も、ディスプレイ43に翻訳文字データを表示させる(ステップS12−1)。具体的には、図8に示すように、第一タブレット端末3のディスプレイ33へ翻訳文字データ「How can I help you?」が表示されるとともに、第二タブレット端末4のディスプレイ43へも翻訳文字データ「How can I help you?」が表示される。その後の処理は、図4のステップS13以降とほぼ同様であるが、子機ユーザ音声についても、親機2側の第二タブレット端末4のディスプレイ43に子機ユーザ音声の翻訳文字データが表示されることに加えて(ステップS20)、子機1側の第一タブレット端末3のディスプレイ33にも子機ユーザ音声の翻訳文字データが表示される。
図4のフローチャートの例では、相手ユーザ音声の翻訳文字データのみが自ユーザ側のディスプレイ33,43に表示される構成となっているが、図7および図8に示すように、第一変形例では、自ユーザ音声の翻訳文字データや文字データが、相手ユーザ音声の翻訳文字データや文字データとともに自ユーザ側のディスプレイ33,43(第二ディスプレイの一例)に表示される。この構成によれば、音声を発した自ユーザ側のディスプレイ33,43にも翻訳文字データが表示されることで、ユーザ自身も自らの音声の翻訳データを文字情報として把握することができる。なお、図9に示す例のように、各ディスプレイ33,43に、子機ユーザ音声の文字データおよび翻訳文字データと、親機ユーザ音声の文字データおよび翻訳文字データとをそれぞれ表示するようにしてもよい。
(第二変形例)
図10は、第二変形例に係るインターホンシステム100の動作の一例を示すフローチャートである。第二変形例のステップS1〜S5の処理は図4に示すステップS1〜S5と同様であるため、説明および図示は省略している。
図10に示すように、ステップS6およびステップS8において、親機ユーザ音声が第二タブレット端末4を介して制御装置5に送信されると、制御装置5は、ステップS9およびステップS10において、当該親機ユーザ音声を文字データへ変換してさらに当該文字データを翻訳文字データに変換する。続いて、本例においては、制御装置5は、音声文字変換部52を制御して、翻訳文字データを、翻訳音声データ(音声信号)に変換する(S10−1)。そして、制御装置5は、翻訳文字データに加えて翻訳音声データを第一タブレット端末3へ送信する(ステップS11−2)。次に、第一タブレット端末3のタブレットCPU36は、ディスプレイ33に翻訳文字データを表示させる(ステップS12)。それとともに、タブレットCPU36は、タブレットスピーカ31から翻訳音声データを報音する(ステップS12−2)。その後の処理は、図4のステップS13以降とほぼ同様であるが、子機ユーザ音声についても、その翻訳文字データが音声文字変換部52において翻訳音声データに変換されて、当該翻訳音声データが第二タブレット端末4のタブレットスピーカ41から報音される。
このように、第二変形例に係るインターホンシステム100においては、ユーザ音声の翻訳文字データが、音声文字変換部52において翻訳音声データに変換され、当該翻訳音声データがタブレットスピーカ31,41(第三スピーカ、第四スピーカの一例)から出力される。この構成によれば、翻訳データを文字データだけではなく音声データとしても出力することで、子機ユーザと親機ユーザとの間での円滑なコミュニケーションをさらに促進させることができる。
なお、本例では、翻訳音声データが各タブレット端末3,4のタブレットスピーカ31,41から報音される構成としているが、この例に限られない。例えば、子機1の子機スピーカ13や親機2の親機スピーカ23から翻訳音声データが報音されるようにしてもよい。
(第三変形例)
図11は、第三変形例に係るインターホンシステム100の制御装置105を示すブロック図である。
図11に示すように、本変形例に係る制御装置105は、通信部51と、音声文字変換部52と、翻訳処理部53と、解析部54と、を備えている。制御装置105が、音声文字変換部52で変換された文字データおよび翻訳処理部53で変換された翻訳文字データの少なくとも一方をビッグデータとして解析するリクエストを受け付けると、解析部54が、受け付けた解析要求に基づいてデータ解析を行う。例えば、インターホンシステム100を運用する事業者が、親機2や各タブレット端末3,4などから解析要求を入力することができる。解析部54は、受け付けた解析要求に基づいて、例えば、月ごと、週ごと、曜日ごと、1時間ごと等の、翻訳処理の状況(例えば、翻訳言語、会話内容など)を解析する。解析されたデータは、通信部(解析結果送信部)51により解析要求を入力してきた事業者の端末(親機2、タブレット端末3,4など)へ外部ネットワークNを介して出力する。これにより、本インターホンシステム100における翻訳処理やデータ表示などの改善に役立つ情報などを事業者に提供することができる。
なお、本発明は、上述した実施形態に限定されず、適宜、変形、改良等が自在である。その他、上述した実施形態における各構成要素の材質、形状、寸法、数値、形態、数、配置場所等は、本発明を達成できるものであれば任意であり、限定されない。
上記の実施形態では、翻訳文字データを表示するディスプレイ33,43は、子機1や親機2とは別体のタブレット端末3,4が備えているが、この例に限られない。例えば、子機1がモニタを備え、当該モニタ(ディスプレイ)に翻訳文字データや文字データが表示されてもよい。また、親機2の親機モニタ25に翻訳文字データや文字データが表示されてもよい。すなわち、子機1や親機2と一体化されているディスプレイに翻訳文字データ等が表示されるようにしてもよい。
1 子機
2 親機
3 第一タブレット端末
4 第二タブレット端末
5 制御装置
11 呼出ボタン
12 子機マイク
13 子機スピーカ
14 子機音声処理部
15 子機インタフェース(子機IF)
16 子機CPU
21 操作部
22 親機マイク
23 親機スピーカ
24 親機音声処理部
25 親機モニタ
26 画像処理部
27 親機インタフェース(親機IF)
28 親機CPU
31 タブレットスピーカ
32 音声処理部
33 ディスプレイ
34 画像処理部
35 通信部
41 タブレットスピーカ
42 音声処理部
43 ディスプレイ
44 画像処理部
45 通信部
51 通信部(解析結果送信部)
52 音声文字変換部
53 翻訳処理部
54 解析部
100 インターホンシステム
105 制御装置

Claims (9)

  1. 第一ユーザが第二ユーザと通話するための第一マイクおよび第一スピーカを有する第一インターホン端末と、
    前記第二ユーザが前記第一ユーザと通話するための第二マイクおよび第二スピーカを有する第二インターホン端末と、
    前記第一マイクが集音する前記第一ユーザの音声を取得して文字データに変換する変換部と、変換された前記文字データを所定の言語の翻訳データに翻訳する翻訳処理部と、を有する制御装置と、
    を備え、
    前記翻訳データが、前記第二インターホン端末に関連付けられたディスプレイに表示される、インターホンシステム。
  2. 前記ディスプレイは、前記第二インターホン端末の近傍に配置されている、請求項1に記載のインターホンシステム。
  3. 前記ディスプレイは、前記第二インターホン端末と一体化されている、請求項1に記載のインターホンシステム。
  4. 前記文字データが、前記翻訳データとともに、前記ディスプレイに表示される、請求項1から3のいずれか一項に記載のインターホンシステム。
  5. 前記翻訳データおよび前記文字データの少なくとも一方が、前記第一インターホン端末に関連付けられた第二ディスプレイに表示される、請求項4に記載のインターホンシステム。
  6. 前記変換部は、前記翻訳データを翻訳音声データに変換するように構成され、
    前記翻訳音声データが前記第二スピーカまたは前記ディスプレイに関連付けられた第三スピーカから出力される、請求項1から5のいずれか一項に記載のインターホンシステム。
  7. 前記翻訳音声データが前記第一スピーカまたは前記第一インターホン端末に関連付けられた第四スピーカから出力される、請求項6に記載のインターホンシステム。
  8. 前記所定の言語は、前記第一ユーザが選択可能である、請求項1から7のいずれか一項に記載のインターホンシステム。
  9. 前記制御装置は、前記文字データおよび前記翻訳データの少なくとも一方に関する情報をビッグデータとして解析する解析部と、前記解析部による解析結果情報を出力する解析結果送信部と、をさらに有している、請求項1から8のいずれか一項に記載のインターホンシステム。
JP2019032604A 2019-02-26 2019-02-26 インターホンシステム Active JP7304170B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019032604A JP7304170B2 (ja) 2019-02-26 2019-02-26 インターホンシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019032604A JP7304170B2 (ja) 2019-02-26 2019-02-26 インターホンシステム

Publications (2)

Publication Number Publication Date
JP2020137083A true JP2020137083A (ja) 2020-08-31
JP7304170B2 JP7304170B2 (ja) 2023-07-06

Family

ID=72263795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019032604A Active JP7304170B2 (ja) 2019-02-26 2019-02-26 インターホンシステム

Country Status (1)

Country Link
JP (1) JP7304170B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112272361A (zh) * 2020-10-29 2021-01-26 哈尔滨海能达科技有限公司 语音处理方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0269681U (ja) * 1988-11-14 1990-05-28
JP2000134301A (ja) * 1998-10-23 2000-05-12 Noritz Corp 通話システム
JP2013018632A (ja) * 2011-07-13 2013-01-31 Mitsubishi Electric Corp エレベーターの非常通報装置
JP2017033056A (ja) * 2015-07-29 2017-02-09 株式会社ケアコム ナースコールシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0269681U (ja) * 1988-11-14 1990-05-28
JP2000134301A (ja) * 1998-10-23 2000-05-12 Noritz Corp 通話システム
JP2013018632A (ja) * 2011-07-13 2013-01-31 Mitsubishi Electric Corp エレベーターの非常通報装置
JP2017033056A (ja) * 2015-07-29 2017-02-09 株式会社ケアコム ナースコールシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112272361A (zh) * 2020-10-29 2021-01-26 哈尔滨海能达科技有限公司 语音处理方法及系统
CN112272361B (zh) * 2020-10-29 2022-05-31 哈尔滨海能达科技有限公司 语音处理方法及系统

Also Published As

Publication number Publication date
JP7304170B2 (ja) 2023-07-06

Similar Documents

Publication Publication Date Title
US10250847B2 (en) Video endpoints and related methods for transmitting stored text to other video endpoints
KR100695926B1 (ko) 텔레비전 전화 통역 시스템 및 텔레비전 전화 통역 방법
US9185211B2 (en) Apparatuses and methods for operating a communication system in one of a tone mode and a text mode
JP2015060423A (ja) 音声翻訳装置、音声翻訳方法およびプログラム
JP2008219903A (ja) 音声およびデータ接続を並列で扱うための通信サーバおよびこれを使用する方法
CN115380526A (zh) 用户终端、视频通话装置、视频通话系统及其控制方法
US10255266B2 (en) Relay apparatus, display apparatus, and communication system
JP7304170B2 (ja) インターホンシステム
KR101609585B1 (ko) 청각 장애인용 이동 통신 단말기
US20170310802A1 (en) Emergency services access device
US20230247131A1 (en) Presentation of communications
KR102299571B1 (ko) 장애인을 위한 동시통역 서비스 제공 시스템 및 그 방법
JP7467636B2 (ja) 使用者端末、放送装置、それを含む放送システム、及びその制御方法
JP7222802B2 (ja) インターホンシステム
CN113726952A (zh) 通话过程中的同声传译方法及装置、电子设备、存储介质
JP2020119043A (ja) 音声翻訳システムおよび音声翻訳方法
JP2001251429A (ja) 携帯電話を使用した音声翻訳システムおよび携帯電話
JP2002027039A (ja) 通信通訳システム
JPH03104432A (ja) 携帯電話機
JP6764253B2 (ja) 通信方法、通信プログラム及び通信端末
CN110600035A (zh) 一种基于语音实时转写的展示系统
US20230178081A1 (en) Display control system, display control method and information storage medium
KR102496398B1 (ko) 사용자 디바이스에 페어링되어 음성-텍스트를 변환하는 장치 및 그 방법
KR20220038969A (ko) 수어 통역시스템 및 서비스 방법
KR20030091834A (ko) 음성데이터와 문자데이터 상호 변환기능을 갖는 단말기 및단말기에서의 음성 데이터와 문자데이터 상호 변환 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7304170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150