JPWO2020026360A1 - コンピュータシステム、画面共有方法及びプログラム - Google Patents

コンピュータシステム、画面共有方法及びプログラム Download PDF

Info

Publication number
JPWO2020026360A1
JPWO2020026360A1 JP2020533955A JP2020533955A JPWO2020026360A1 JP WO2020026360 A1 JPWO2020026360 A1 JP WO2020026360A1 JP 2020533955 A JP2020533955 A JP 2020533955A JP 2020533955 A JP2020533955 A JP 2020533955A JP WO2020026360 A1 JPWO2020026360 A1 JP WO2020026360A1
Authority
JP
Japan
Prior art keywords
message
instructor
text
voice
instructed person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020533955A
Other languages
English (en)
Other versions
JP7058052B2 (ja
Inventor
俊二 菅谷
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Publication of JPWO2020026360A1 publication Critical patent/JPWO2020026360A1/ja
Application granted granted Critical
Publication of JP7058052B2 publication Critical patent/JP7058052B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】より容易に指示内容を適切に伝達することが容易なコンピュータシステム、画面共有方法及びプログラムを提供することを目的とする。【解決手段】画面共有を行って遠隔から指示を受けるコンピュータシステムは、予め登録されたデータベースから被指示者が使用する言語を抽出し、指示者からテキスト又は音声のメッセージを取得し、取得した前記メッセージを、抽出した前記言語に翻訳した翻訳データを生成し、生成した前記翻訳データを前記被指示者に対して、テキスト又は音声で出力する。【選択図】図1

Description

本発明は、画面共有を行って遠隔から指示を受けるコンピュータシステム、画面共有方法及びプログラムに関する。
近年、作業現場や工事現場等における現場作業員に対して、ウェアラブル端末や携帯端末等の端末装置を利用して、遠隔から様々な指示を行うことが行われている。このような指示の方法として、例えば、現場作業員が作業対象をカメラ等の撮影装置により撮影し、撮影した画像を、指示者が所持する指示者端末と、現場作業員が所持する被指示者端末とで画面共有し、指示者が被指示者に対して指示を行うことが行われている。
しかしながら、近年グローバルな環境や外国人労働者の増加に伴って、このような遠隔での指示において、指示者と被指示者とが使用する言語が異なっている場合が増加してきている。このような状況において、指示者が被指示者に適切な指示を行う構成として、指示者が使用する言語を翻訳し、翻訳後の指示内容を被指示者端末に表示することが開示されている(特許文献1参照)。
特開2009−289197号公報
しかしながら、特許文献1の構成では、翻訳した結果の言語が、被指示者にとって必ずしも適切な言語でないおそれがあったため、指示内容を適切に伝達することができないおそれがあった。
本発明は、より容易に指示内容を適切に伝達することが容易なコンピュータシステム、画面共有方法及びプログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
本発明は、画面共有を行って遠隔から指示を受けるコンピュータシステムであって、
予め登録されたデータベースから被指示者が使用する言語を抽出する抽出手段と、
指示者からテキスト又は音声のメッセージを取得する取得手段と、
取得した前記メッセージを、抽出した前記言語に翻訳した翻訳データを生成する生成手段と、
生成した前記翻訳データを前記被指示者に対して、テキスト又は音声で出力する翻訳データ出力手段と、
を備えることを特徴とするコンピュータシステムを提供する。
本発明によれば、画面共有を行って遠隔から指示を受けるコンピュータシステムは、予め登録されたデータベースから被指示者が使用する言語を抽出し、指示者からテキスト又は音声のメッセージを取得し、取得した前記メッセージを、抽出した前記言語に翻訳した翻訳データを生成し、生成した前記翻訳データを前記被指示者に対して、テキスト又は音声で出力する。
本発明は、コンピュータシステムのカテゴリであるが、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
本発明によれば、より容易に指示内容を適切に伝達することが容易なコンピュータシステム、画面共有方法及びプログラムを提供することが可能となる。
図1は、画面共有システム1の概要を示す図である。 図2は、画面共有システム1の全体構成図である。 図3は、指示者端末100、被指示者端末200が実行するメッセージ出力処理を示すフローチャートである。 図4は、指示者端末100、被指示者端末200が実行する代替メッセージ出力処理を示すフローチャートである。 図5は、使用言語データベースの一例を示す図である。 図6は、指示者端末100と被指示者端末200とがメッセージを出力した状態の一例を模式的に示した図である。 図7は、指示者端末100が出力する代替メッセージの一例を示す図である。 図8は、指示者端末100と被指示者端末200とがメッセージを出力した状態の一例を模式的に示した図である。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれらに限られるものではない。
[画面共有システム1の概要]
本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である画面共有システム1の概要を説明するための図である。画面共有システム1は、指示者端末100と被指示者端末200とから構成され、画面共有を行って遠隔から指示を受けるコンピュータシステムである。
なお、画面共有システム1は、指示者端末100と被指示者端末200とに加え、コンピュータ等の他の装置や端末が含まれていてもよい。
指示者端末100と被指示者端末200とは、公衆回線網等を介してデータ通信可能に接続されており、其々に設定された共有領域に表示した画像やオブジェクト等の共有対象を画面共有する。
指示者端末100は、現場作業員等の被指示者に遠隔から作業内容を指示する指示者が所持する端末である。指示者端末100は、被指示者とこの被指示者が使用する言語とを対応付けて登録した使用言語データベースを予め記憶している。指示者端末100は、指示者が指示した作業内容(テキストや音声によるメッセージ)を、被指示者の使用する言語に翻訳した翻訳データを生成し、被指示者端末200にこの翻訳データ出力する。
また、指示者端末100は、上述した構成に加え、作業内容を、同じニュアンスであり、かつ、被指示者が使用する言語に翻訳しやすい代替メッセージを複数出力する。指示者端末100は、出力した複数の代替メッセージの何れかを選択する入力を受け付け、受け付けた代替メッセージを、被指示者の使用する言語に翻訳した翻訳データを生成し、被指示者端末200に出力する。
被指示者端末200は、この指示者端末100が出力した翻訳データを取得し、この翻訳データに基づいたメッセージを出力する。被指示者端末200は、このメッセージを出力することにより、指示者が指示した作業内容を被指示者に対して表示する。
画面共有システム1が実行する処理の概要について説明する。
はじめに、指示者端末100と被指示者端末200とは、画面共有を実行する(ステップS01)。このとき、指示者端末100は、今回、画面共有を実行した被指示者端末200の所持者を、被指示者として特定する。この特定内容としては、例えば、被指示者端末200に対応付けられた被指示者の識別子(名称、ID等)を特定する。指示者端末100と被指示端末200とは、互いに予め設定された共有領域に表示した画像やオブジェクト等の共有対象を画面共有する。
指示者端末100は、予め登録された使用言語データベースから被指示者が使用する言語を抽出する(ステップS02)。指示者端末100は、特定した被指示者の識別子に対応付けられたこの被指示者が使用する言語を、データベースから抽出する。
指示者端末100は、指示者からテキスト又は音声のメッセージを取得する(ステップS03)。指示者端末100は、指示者からタッチパネルやキーボード等の入力部へのテキスト入力又はマイク等の入力部への音声入力を受け付けることにより、作業内容の指示を、メッセージとして受け付けることにより、指示者からの指示をメッセージとして取得する。
指示者端末100は、取得したメッセージを、抽出した被使用者が使用する言語に翻訳した翻訳データを生成する(ステップS04)。指示者端末100は、ルール翻訳や統計翻訳やディープニュートラルネットによる翻訳等の翻訳により、取得したメッセージを、被指示者が使用する言語に翻訳する。指示者端末100は、この翻訳したメッセージを、翻訳データとして生成する。
指示者端末100は、生成した翻訳データを、被指示者端末200に出力する(ステップS05)。指示者端末100は、画面共有を実行する被指示者端末200に、この翻訳データを送信することにより、出力する。
被指示者端末200は、翻訳データを取得する。被指示者端末200は、この取得した翻訳データに基づいて、指示者が入力したメッセージを被指示者が使用する言語に翻訳したものを出力する(ステップS06)。被指示者端末200は、共有領域の内部又は共有領域の外部に、このメッセージを出力することにより、指示者からの作業内容の指示を、被指示者に通知する。
以上が、画面共有システム1の概要である。
[画面共有システム1のシステム構成]
図2に基づいて、本発明の好適な実施形態である画面共有システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である画面共有システム1のシステム構成を示す図である。図2において、画面共有システム1は、指示者端末100及び被指示者端末200から構成され、画面共有を行って遠隔から指示を受けるコンピュータシステムである。指示者端末100と被指示者端末200とは、公衆回線網(インターネット網や、第3、第4世代通信網等)を介して、データ通信可能に接続されている。
なお、画面共有システム1は、上述した通り、コンピュータ等の他の端末や装置等が含まれていてもよい。
指示者端末100は、制御部として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部として、被指示者端末200と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi―Fi(Wireless―Fidelity)対応デバイス等を備える。また、指示者端末100は、記憶部として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。また、指示者端末100は、処理部として、各種処理を実行する各種デバイス等を備える。
指示者端末100において、制御部が所定のプログラムを読み込むことにより、通信部と協働して、翻訳データ出力モジュール110を実現する。また、指示者端末100において、制御部が所定のプログラムを読み込むことにより、記憶部と協働して、記憶モジュール120を実現する。また、指示者端末100において、制御部が所定のプログラムを読み込むことにより、処理部と協働して、被指示者特定モジュール130、言語抽出モジュール131、メッセージ取得モジュール132、メッセージ解析モジュール133、翻訳データ生成モジュール134、代替メッセージ出力モジュール135、選択受付モジュール136を実現する。
被指示者端末200は、指示者端末100と同様に、制御部として、CPU、RAM、ROM等を備え、通信部として、指示者端末100と通信可能にするためのデバイスを備え、処理部として、各種処理を実行する各種デバイス等を備える。
被指示者端末200において、制御部が所定のプログラムを読み込むことにより、通信部と協働して、翻訳データ取得モジュール210を実現する。また、被指示者端末200において、制御部が所定のプログラムを読み込むことにより、処理部と協働して、メッセージ出力モジュール230を実現する。
[メッセージ出力処理]
図3に基づいて、画面共有システム1が実行するメッセージ出力処理について説明する。図3は、指示者端末100、被指示者端末200が実行するメッセージ出力処理のフローチャートを示す図である。上述した各装置のモジュールが実行する処理について、本処理に併せて説明する。
はじめに、指示者端末100と被指示者端末200とは、画面共有を実行する(ステップS10)。ステップS10において、指示者端末100に予め設定された画面を共有する領域である共有領域と、被指示者端末200に予め設定された共有領域とにおいて、一方の共有領域に表示した画像やオブジェクト等の共有対象を他方の共有領域に表示する。
このとき、被指示者端末200は、自身に設けられたカメラ等の撮影装置により作業現場の動画や静止画等の画像を撮影し、この撮影した画像を共有領域に表示する。指示者端末100は、この画像を共有対象として画面共有する。指示者は、この画像を閲覧しつつ、被指示者に対して遠隔から指示を出す。
ステップS10で行われる画面共有それ自体は、一般的な画面共有と同様のものであるため、その詳細な説明は省略する。
被指示者特定モジュール130は、被指示者を特定する(ステップS11)。ステップS11において、被指示者特定モジュール130は、画面共有を行った被指示者端末200の識別子(電話番号、IPアドレス、MACアドレス、各種ID等の対象を一意に特定可能な情報)に基づいて、被指示者を特定する。被指示者特定モジュール130は、この被指示者端末200の識別子に予め対応付けられた被指示者の識別子(名称、識別番号、各種ID等の対象を一意に特定可能な情報)を特定する。被指示者特定モジュール130は、被指示者の識別子を特定することにより、被指示者を特定する。
言語抽出モジュール131は、予め登録された使用言語データベースから、被指示者が使用する言語を抽出する(ステップS12)。ステップS12において、言語抽出モジュール131は、予め被指示者の名称と識別子と使用言語とを対応付けて登録した使用言語データベースを参照することにより、今回の被指示者が使用する言語を抽出する。このとき、言語抽出モジュール131は、特定した被指示者の識別子に対応付けられた使用言語を抽出することにより、被指示者が使用する言語を抽出する。
[使用言語データベース]
図5に基づいて、使用言語データベースについて説明する。図5は、記憶モジュール120が記憶する使用言語データベースの一例を示す図である。使用言語データベースは、予め、被指示者の名称と、この被指示者の識別子と、この被指示者が使用する言語とを対応付けて登録したものである。記憶モジュール120は、予めこの使用言語データベースを記憶しておく。本例では、名称が、「被指示者A」には、識別子「0001」と使用言語「英語」とが対応付けて登録されている。その他の被指示者にとっても同様に、識別子と、使用言語とが対応付けて登録されている。
ステップS12において、言語抽出モジュール131が被指示者の使用言語を抽出する処理について、図5に基づいて説明する。上述した処理において、被指示者特定モジュール130は、今回の被指示者を特定する際、画面共有を行っている被指示者端末200の識別子に対応付けられた被指示者の識別子を特定する。このとき、被指示者特定モジュール130は、特定した被指示者の識別子が、「被指示者A」及び「0001」であるとする。言語抽出モジュール131は、この使用言語データベースを参照し、この特定した被指示者の識別子に対応付けられた使用言語を抽出する。このとき、言語抽出モジュール131は、特定した被指示者の識別子である「被指示者A」及び「0001」に対応付けられた使用言語である「英語」を抽出する。この時抽出した被指示者の使用言語を、後述する処理において活用する。
なお、上述した例では、使用言語を使用言語データベースに登録しているが、使用言語の代わりに、国籍を登録していてもよい。この場合、この国籍にさらに公用語を対応付けて登録しておき、被指示者が使用する言語として、この公用語を抽出すればよい。
このようにすることにより、指示者端末100は、被指示者が使用する言語を抽出する。予め被指示者と使用言語とを対応付けた使用言語データベースを用いることにより、指示者や被指示者が遠隔での指示を受ける際に、翻訳する言語を選択する必要がなくなり、作業効率を向上させることも可能となる。また、翻訳する言語を選択する必要がなくなり、より容易に指示内容を適切に伝達することが可能となる。
メッセージ取得モジュール132は、指示者からテキスト又は音声のメッセージを取得する(ステップS13)。ステップS13において、メッセージ取得モジュール132は、指示者からタッチパネルやキーボード等の入力部へのテキスト入力又はマイク等の集音装置等の入力部への音声入力を受け付けることにより、指示者からテキスト又は音声の入力を受け付ける。メッセージ取得モジュール132は、このように受け付けたテキスト又は音声を、メッセージとして取得する。
ステップS13の処理について、一例に基づいて説明する。メッセージ取得モジュール132は、例えば、指示者がメッセージとして、入力部に入力した「もうちょっと近づいてくれる?」とのテキストの入力を受け付けることにより、この「もうちょっと近づいてくれる?」をメッセージとして取得する。また、メッセージ取得モジュール132は、例えば、指示者がメッセージとして、集音装置に発話した「もうちょっと近づいてくれる?」との音声の入力を受け付けることにより、この「もうちょっと近づいてくれる?」をメッセージとして取得する。
このとき、メッセージ取得モジュール132は、取得したメッセージがテキストである場合、取得したメッセージを、共有領域内部又は共有領域外部の何れか又は双方に表示する構成であってもよい。また、メッセージ取得モジュール132は、メッセージを取得した時点では、共有領域内部又は共有領域外部に表示せずに、後述するメッセージを翻訳する処理が完了した時点で、共有領域内部又は共有領域外部の何れか又は双方に表示する構成であってもよい。また、取得したメッセージが音声である場合、取得したメッセージを、スピーカ等の放音装置から出力する構成であってもよい。また、メッセージ取得モジュール132は、メッセージを取得した時点では、放音装置から出力せずに、後述するメッセージを翻訳する処理が完了した時点で、放音装置から出力する構成であってもよい。また、取得したメッセージが音声である場合であっても、後述するテキスト認識した結果のテキストを、上述した取得したメッセージがテキストである場合と同様のタイミングで表示する構成であってもよい。
メッセージ解析モジュール133は、取得したメッセージを解析する(ステップS14)。ステップS14において、メッセージ解析モジュール133は、取得したメッセージがテキストであるか音声であるかを解析する。メッセージ解析モジュール133は、
メッセージがテキストである場合、後述するステップS15の処理を実行する。メッセージ解析モジュール133は、取得したメッセージが音声である場合、音声解析を実行する。メッセージ解析モジュール133は、音声解析の結果として、取得した音声を、テキスト認識し、認識したテキストに基づいて、後述する処理を実行する。
翻訳データ生成モジュール134は、取得したメッセージを抽出した被指示者が使用する言語に翻訳した翻訳データを生成する(ステップS15)。ステップS15において、翻訳データ生成モジュール134は、取得したメッセージがテキストである場合、このテキストを翻訳する。また、翻訳データ生成モジュール134は、取得したメッセージが音声である場合、音声解析の結果、認識したテキストを翻訳する。翻訳データ生成モジュール134は、この翻訳において、ルール翻訳、統計翻訳又はディープニュートラルネットによる翻訳等の翻訳により、メッセージを翻訳する。翻訳データ生成モジュール134は、この翻訳した結果を、翻訳データとして生成する。
翻訳データ生成モジュール134が実行する翻訳について、上述した例に基づいて説明する。翻訳データ生成モジュール134は、今回の被指示者の使用言語が英語であることから、取得したメッセージである「もうちょっと近づいてくれる?」を英語に翻訳する。その結果、翻訳データ生成モジュール134は、このメッセージの英訳である「Can you come a closer?」を翻訳データとして生成する。
翻訳データ出力モジュール110は、生成した翻訳データを、被指示者端末200に出力する(ステップS16)。
翻訳データ取得モジュール210は、指示者端末100が出力した翻訳データを取得する。
メッセージ出力モジュール230は、取得した翻訳データに基づいて、指示者が入力したメッセージを被指示者が使用する言語に翻訳した翻訳後メッセージを出力する(ステップS17)。ステップS17において、メッセージ出力モジュール230は、指示者端末100が取得したメッセージがテキストである場合、メッセージとして入力されたテキストを翻訳したものをテキスト又は音声として出力する。メッセージ出力モジュール230は、指示者端末100が取得したメッセージが音声である場合、メッセージとして入力された音声をテキスト認識した結果のテキストを翻訳したものをテキスト又は音声として出力する。
このとき、メッセージ出力モジュール230は、指示者端末100が取得したメッセージがテキストである場合、翻訳したメッセージを、共有領域内部又は共有領域外部の何れか又は双方に表示する構成であってもよい。また、メッセージ出力モジュール230は、指示者端末100が取得したメッセージが音声である場合、翻訳したメッセージを、放音装置から出力する構成であってもよい。また、放音装置から出力する構成であってもよい。また、メッセージ出力モジュール230は、指示者端末100が取得したメッセージがテキスト又は音声のいずれであっても、翻訳したメッセージを、共有領域内部又は共有領域外部の何れか又は双方にテキストとして表示するとともに、放音装置から出力する構成であってもよい。
図6に基づいて、指示者端末100と被指示者端末200とがメッセージを出力した状態を説明する。図6は、指示者端末100と被指示者端末200とがメッセージを出力した状態の一例を模式的に示した図である。図6において、指示者端末100と、被指示者端末200の其々の共有領域を模式的に示している。このとき、指示者端末100が取得したメッセージはテキストであるものとして説明する。また、メッセージは、上述した「もうちょっと近づいてくれる?」であるものとして説明する。また、被指示者は、上述した「被指示者A」であり、この被指示者Aが使用する言語は「英語」であるものとして説明する。なお、図6において、画像やオブジェクト等の共有対象についての記載は省略している。
メッセージ取得モジュール132は、取得したメッセージ300である「もうちょっと近づいてくれる?」を共有領域内に表示する。メッセージ出力モジュール230は、この取得したメッセージ300を英語に翻訳した翻訳後メッセージ310である「Can you come a closer?」」を共有領域内に表示する。このとき、取得したメッセージ300が音声である場合、メッセージ取得モジュール132は、取得したメッセージ300を音声又はテキストとして出力し、メッセージ出力モジュール230は、この取得したメッセージ300を英語に翻訳した翻訳後メッセージ310を音声又はテキストとして出力する。
なお、メッセージ取得モジュール132は、取得したメッセージ300がテキスト又は音声のいずれの場合であっても、このメッセージ300を、共有領域内に表示するとともに、音声として出力し、メッセージ出力モジュール230は、翻訳後メッセージ310を共有領域内に表示するとともに、音声として出力してもよい。
また、メッセージ300及び翻訳後メッセージ310の表示場所は、共有領域内であれば適宜変更可能である。また、メッセージ300及び翻訳後メッセージ310の表示場所は、共有領域内に限らず、共有領域外であってもよい。
このようにすることにより、指示者からの作業内容の指示を被指示者に通知する。
以上が、メッセージ出力処理である。
[代替メッセージ出力処理]
図4に基づいて、画面共有システム1が実行する代替メッセージ出力処理について説明する。図4は、指示者端末100、被指示者端末200が実行する代替メッセージ出力処理のフローチャートを示す図である。上述した各装置のモジュールが実行する処理について、本処理に併せて説明する。なお、上述したメッセージ出力処理と同様の処理については、その詳細な説明は省略する。
はじめに、指示者端末100と被指示者端末200とは、画面共有を実行する(ステップS20)。ステップS20の処理は、上述したステップS10の処理と同様である。
被指示者特定モジュール130は、被指示者を特定する(ステップS21)。ステップS21の処理は、上述したステップS11の処理と同様である。
言語抽出モジュール131は、予め登録された使用言語データベースから、被指示者が使用する言語を抽出する(ステップS22)。ステップS22の処理は、上述したステップS12の処理と同様である。
メッセージ取得モジュール132は、指示者からテキスト又は音声のメッセージを取得する(ステップS23)。ステップS23の処理は、上述したステップS13の処理と同様である。
メッセージ解析モジュール133は、取得したメッセージを解析する(ステップS24)。ステップS24の処理は、上述したステップS14の処理と同様である。
メッセージ解析モジュール133は、メッセージが翻訳に適したものであるか否かを判断する(ステップS25)。ステップS25において、メッセージ解析モジュール133は、メッセージを解析した結果、テキストとして入力されたメッセージに誤字や脱字が含まれているか否か、テキスト又は音声により入力されたメッセージが複数の意味にとれるか否か、テキスト又は音声として入力されたメッセージが不明瞭(例えば、方言が含まれている、環境音によりはっきりとしてない、口語により意味が不鮮明)か否かを判断する。すなわち、メッセージ解析モジュール133は、取得したメッセージが、翻訳先の言語に一意に変換可能なメッセージであるか否かを判断する。特に、メッセージが音声である場合、口述により入力が行われることから、複数の意味が含まれている場合や方言による違いが含まれている場合があることから有効となる。
メッセージ解析モジュール133は、メッセージが翻訳に適したものであると判断した場合(ステップS25 YES)、指示者端末100及び被指示者端末200は、上述したメッセージ出力処理でのステップS15以降の処理を実行する。本処理においては、説明の簡略化のために、処理を終了するものとして説明する。
メッセージ解析モジュール133は、メッセージが翻訳に適したものでないと判断した場合(ステップS25 NO)、代替メッセージ出力モジュール135は、取得したメッセージと同様のニュアンスであって、被指示者が使用する言語に翻訳しやすい代替メッセージを生成する(ステップS26)。ステップS26において、同様のニュアンスとは、類似したメッセージではあるものの、翻訳後の意味が異なるものを意味する。すなわち、取得したメッセージを核として、内容やメッセージの文言等を補完したものを代替メッセージとして生成する。
記憶モジュール120は、現場においてよく使われる言葉(戻って、片付けて、先に進んで等)をキーワードとして予め記憶させておき、このキーワードにさらに複数の言葉(工程を進める、作業者が進む等)を対応付けて記憶する。メッセージ解析モジュール133は、今回取得したメッセージに、このキーワードが含まれている場合、代替メッセージ出力モジュール135は、このキーワードに対応付けられた言葉を、取得したメッセージに補完したテキストを生成する。また、代替メッセージ出力モジュール135は、今回取得したメッセージに、このキーワードが含まれていない場合、一般的な言葉を、取得したメッセージに補完したテキストを生成する。
具体的な説明として、取得したメッセージが「ちょっと戻って」である場合について説明する。メッセージ解析モジュール133は、この「ちょっと戻って」をメッセージとして取得した場合、このメッセージに「戻って」という予め記憶したキーワードが含まれていることを解析する。代替メッセージ出力モジュール135は、この「戻って」というキーワードに対応付けられた「工程を進める」、「作業者が進む」を取得したメッセージに補完し、補完後のメッセージとして、「少し前の位置に戻ってくれませんか?」と、「少し前の工程に戻ってくれませんか?」とを、代替メッセージとして生成する。
なお、記憶モジュール120は、現場においてよく使われる言葉だけでなく、指示者の方言をキーワードとして予め記憶させて、このキーワードに共通語を対応付けて記憶していてもよい。すなわち、メッセージ解析モジュール133は、今回取得したメッセージに、この方言が含まれている場合、代替メッセージ出力モジュール135は、この方言に対応付けられた言葉を、取得したメッセージに補完したテキストを代替メッセージとして生成してもよい。
代替メッセージ出力モジュール135は、生成した代替メッセージを出力する(ステップS27)。ステップS27において、代替メッセージ出力モジュール135は、自身の表示部に取得したメッセージ、生成した代替メッセージを出力する。
選択受付モジュール136は、出力した代替メッセージに対する指示者からの選択入力を受け付ける(ステップS28)。ステップS28において、選択受付モジュール136は、指示者からのタッチ操作や音声入力やジェスチャー入力等の選択操作を受け付けることにより、指示者の意図に合った代替メッセージへの選択入力を受け付ける。
図7に基づいて、代替メッセージ出力モジュール135が出力する代替メッセージについて説明する。図7は、代替メッセージ出力モジュール135が出力する代替メッセージの一例を示す図である。代替メッセージ出力モジュール135は、表示部に、取得したメッセージ400、生成した代替メッセージ410,420、説明テキスト430を、出力する。取得したメッセージ400は、指示者から取得したメッセージである「ちょっと戻って」である。代替メッセージ410は、取得したメッセージの補完後の代替メッセージの一つである「A:少し前の位置に戻ってくれませんか?」である。また、代替メッセージ420は、取得したメッセージの補完後の代替メッセージの一つである「B:少し前の工程に戻ってくれませんか?」である。説明テキスト430は、指示者に代替メッセージの選択を促す説明文である「どちらの意味ですか?選択してください。」である。
指示者は、この代替メッセージ出力モジュール135が出力した代替メッセージ410,420の何れかを選択することにより、当人の意図に近いメッセージを選択することが可能となる。このとき、選択受付モジュール136により選択を受け付けた代替メッセージ420は、強調表示される。後述の処理において、画面共有時に指示者端末100に表示されるメッセージは、この選択された代替メッセージである。
なお、指示者は、代替メッセージ出力モジュール135が出力した代替メッセージが、当人の意図と異なっている場合、選択受付モジュール136は、その旨の入力を受け付ける。このとき、代替メッセージ出力モジュール135は、再度メッセージを取得するために指示者に対してメッセージの再入力を促す通知を表示する。代替メッセージ出力モジュール135は、メッセージ再入力を促す際、より具体的な指示内容をメッセージとして入力することや、より簡潔な指示内容をメッセージとして入力すること等を促す通知を併せて表示する。また、選択を受け付けた代替メッセージは、必ずしも強調表示される必要はない。
翻訳データ生成モジュール134は、選択を受け付けた代替メッセージを、抽出した被指示者が使用する言語に翻訳した翻訳データを生成する(ステップS29)。ステップS29の処理は、上述したステップS15の処理と同様である。本処理において、翻訳データ生成モジュール134は、選択を受け付けた代替メッセージが、「少し前の工程に戻ってくれませんか?」であることから、この代替メッセージを、英語に翻訳した「Will you come back to the process a little before?」を翻訳データとして生成する。
翻訳データ出力モジュール110は、生成した翻訳データを、被指示者端末200に出力する(ステップS30)。
翻訳データ取得モジュール210は、指示者端末100が出力した翻訳データを取得する。
メッセージ出力モジュール230は、取得した翻訳データに基づいて、指示者が入力したメッセージの代替メッセージを被指示者が使用する言語に翻訳した翻訳後メッセージを出力する(ステップS31)。ステップS31において、メッセージ出力モジュール230は、指示者端末100が取得したメッセージがテキストである場合、入力されたメッセージに基づいた代替メッセージのテキストを翻訳したものをテキスト又は音声として出力する。メッセージ出力モジュール230は、指示者端末100が取得したメッセージが音声である場合、メッセージとして入力された音声をテキスト認識した結果のテキストに基づいた代替メッセージのテキストを翻訳したものをテキスト又は音声として出力する。
このとき、メッセージ出力モジュール230は、指示者端末100が取得したメッセージがテキストである場合、このメッセージに基づいた代替メッセージを翻訳したメッセージを、共有領域内部又は共有領域外部の何れか又は双方に表示する構成であってもよい。また、メッセージ出力モジュール230は、指示者端末100が取得したメッセージが音声である場合、このメッセージに基づいた代替メッセージを翻訳したメッセージを、放音装置から出力する構成であってもよい。また、メッセージ出力モジュール230は、指示者端末100が取得したメッセージがテキスト又は音声のいずれであっても、このメッセージに基づいた代替メッセージを翻訳したメッセージを、共有領域内部又は共有領域外部の何れか又は双方にテキストとして表示するとともに、放音装置から出力する構成であってもよい。
図8に基づいて、指示者端末100と被指示者端末200とがメッセージを出力した状態を説明する。図8は、指示者端末100と被指示者端末200とがメッセージを出力した状態の一例を模式的に示した図である。図8において、指示者端末100と、被指示者端末200の其々の共有領域を模式的に示している。このとき、指示者端末100が取得したメッセージはテキストであるものとして説明する。また、メッセージは、上述した「ちょっと戻って」であるものとして説明する。また、被指示者は、上述した「被指示者A」であり、この被指示者Aが使用する言語は「英語」であるものとして説明する。なお、図8において、画像やオブジェクト等の共有対象についての記載は省略している。
代替メッセージ出力モジュール135は、取得したメッセージの代替メッセージ500である「少し前の工程に戻ってくれませんか?」を共有領域内に表示する。メッセージ出力モジュール230は、代替メッセージ500を英語に翻訳した翻訳後メッセージ510である「Will you come back to the process a little before?」」を共有領域内に表示する。このとき、取得したメッセージが音声である場合、メッセージ取得モジュール132は、取得したメッセージの代替メッセージ500を音声又はテキストとして出力し、メッセージ出力モジュール230は、この取得したメッセージの代替メッセージ500を英語に翻訳した翻訳後メッセージ510を音声又はテキストとして出力する。
なお、メッセージ取得モジュール132は、取得したメッセージがテキスト又は音声のいずれの場合であっても、この代替メッセージ500を、共有領域内に表示するとともに、音声として出力し、メッセージ出力モジュール230は、翻訳後メッセージ510を共有領域内に表示するとともに、音声として出力してもよい。
また、代替メッセージ500及び翻訳後メッセージ510の表示場所は、共有領域内であれば適宜変更可能である。また、代替メッセージ500及び翻訳後メッセージ510の表示場所は、共有領域内に限らず、共有領域外であってもよい。
このようにすることにより、指示者からの作業内容の指示を被指示者に通知する。
以上が、代替メッセージ出力処理である。
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態で提供される。また、プログラムは、例えば、フレキシブルディスク、CD(CD−ROMなど)、DVD(DVD−ROM、DVD−RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記録装置又は外部記録装置に転送し記録して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記録装置(記録媒体)に予め記録しておき、その記録装置から通信回線を介してコンピュータに提供するようにしてもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
1 画面共有システム、100 指示者端末、200 被指示者端末
本発明は、画面共有を行って遠隔から指示を受けるコンピュータシステムであって、
予め登録されたデータベースから被指示者が使用する言語を抽出する抽出手段と、
指示者からテキスト又は音声のメッセージを取得する取得手段と、
所定のキーワードと複数の言葉とを対応付けて記憶する記憶手段と、
前記メッセージが、翻訳に適したものでない場合、当該メッセージに、前記キーワードが含まれているとき、当該キーワードに対応付けて記憶された言葉を補完した、当該メッセージに、前記キーワードが含まれていないとき、一般的な言葉を補完した当該メッセージと同じニュアンスであって、前記被指示者が使用する言語に翻訳しやすい代替メッセージを出力する代替メッセージ出力手段と、
前記代替メッセージに対する選択を、前記指示者から受け付ける選択受付手段と、
前記メッセージが翻訳に適したものである場合、取得した当該メッセージを、当該メッセージが翻訳に適さないものである場合、受け付けた代替メッセージを、其々、抽出した前記言語に翻訳した翻訳データを生成する翻訳データ生成手段と、
生成した前記翻訳データを前記被指示者に対して、テキスト又は音声で出力する翻訳データ出力手段と、
を備えることを特徴とするコンピュータシステムを提供する。
本発明によれば、画面共有を行って遠隔から指示を受けるコンピュータシステムは、 予め登録されたデータベースから被指示者が使用する言語を抽出する抽出手段と、指示者からテキスト又は音声のメッセージを取得し、所定のキーワードと複数の言葉とを対応付けて記憶し、前記メッセージが、翻訳に適したものでない場合、当該メッセージに、前記キーワードが含まれているとき、当該キーワードに対応付けて記憶された言葉を補完した、当該メッセージに、前記キーワードが含まれていないとき、一般的な言葉を補完した当該メッセージと同じニュアンスであって、前記被指示者が使用する言語に翻訳しやすい代替メッセージを出力し、前記代替メッセージに対する選択を、前記指示者から受け付け、前記メッセージが翻訳に適したものである場合、取得した当該メッセージを、当該メッセージが翻訳に適さないものである場合、受け付けた代替メッセージを、其々、抽出した前記言語に翻訳した翻訳データを生成し、生成した前記翻訳データを前記被指示者に対して、テキスト又は音声で出力する。

Claims (4)

  1. 画面共有を行って遠隔から指示を受けるコンピュータシステムであって、
    予め登録されたデータベースから被指示者が使用する言語を抽出する抽出手段と、
    指示者からテキスト又は音声のメッセージを取得する取得手段と、
    取得した前記メッセージを、抽出した前記言語に翻訳した翻訳データを生成する生成手段と、
    生成した前記翻訳データを前記被指示者に対して、テキスト又は音声で出力する翻訳データ出力手段と、
    を備えることを特徴とするコンピュータシステム。
  2. 取得した前記メッセージと同じニュアンスであって、前記被指示者が使用する言語に翻訳しやすい代替メッセージを出力する代替メッセージ出力手段と、
    前記代替メッセージに対する選択を、前記指示者から受け付ける選択受付手段と、
    をさらに備え、
    前記生成手段は、選択された前記代替メッセージを、抽出した前記言語に翻訳した翻訳データを生成し、
    前記翻訳データ出力手段は、生成した前記翻訳データを前記被指示者に対して、テキスト又は音声で出力する、
    ことを特徴とする請求項1に記載のコンピュータシステム。
  3. 画面共有を行って遠隔から指示を受けるコンピュータシステムが実行する画面共有方法であって、
    予め登録されたデータベースから被指示者が使用する言語を抽出するステップと、
    指示者からテキスト又は音声のメッセージを取得するステップと、
    取得した前記メッセージを、抽出した前記言語に翻訳した翻訳データを生成するステップと、
    生成した前記翻訳データを前記被指示者に対して、テキスト又は音声で出力するステップと、
    を備えることを特徴とする画面共有方法。
  4. 画面共有を行って遠隔から指示を受けるコンピュータシステムに、
    予め登録されたデータベースから被指示者が使用する言語を抽出するステップ、
    指示者からテキスト又は音声のメッセージを取得するステップ、
    取得した前記メッセージを、抽出した前記言語に翻訳した翻訳データを生成するステップ、
    生成した前記翻訳データを前記被指示者に対して、テキスト又は音声で出力するステップ、
    を実行させるためのコンピュータ読み取り可能なプログラム。
JP2020533955A 2018-07-31 2018-07-31 コンピュータシステム、画面共有方法及びプログラム Active JP7058052B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/028748 WO2020026360A1 (ja) 2018-07-31 2018-07-31 コンピュータシステム、画面共有方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020026360A1 true JPWO2020026360A1 (ja) 2021-08-19
JP7058052B2 JP7058052B2 (ja) 2022-04-21

Family

ID=69231583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020533955A Active JP7058052B2 (ja) 2018-07-31 2018-07-31 コンピュータシステム、画面共有方法及びプログラム

Country Status (4)

Country Link
US (1) US20210294986A1 (ja)
JP (1) JP7058052B2 (ja)
CN (1) CN112789620A (ja)
WO (1) WO2020026360A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220139049A (ko) * 2021-04-07 2022-10-14 현대두산인프라코어(주) 건설 현장의 호출 공유 시스템 및 호출 공유 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03286255A (ja) * 1990-03-30 1991-12-17 Matsushita Electric Ind Co Ltd 対話型日英機械翻訳システム
JP2005275676A (ja) * 2004-03-24 2005-10-06 Nec Corp コンテンツ提供システム、コンテンツ提供方法、サーバおよびそのプログラム
JP2006004366A (ja) * 2004-06-21 2006-01-05 Advanced Telecommunication Research Institute International 機械翻訳システム及びそのためのコンピュータプログラム
JP2013009367A (ja) * 2011-05-24 2013-01-10 Ntt Docomo Inc サービスサーバ装置、サービス提供方法、サービス提供プログラム
JP2014235740A (ja) * 2013-06-03 2014-12-15 ゼロックス コーポレイションXerox Corporation 改善された翻訳のためのソーステキストの確信度駆動型書き換え
US20160034449A1 (en) * 2003-02-10 2016-02-04 At&T Intellectual Property I, L.P. Message Translations
JP2016085715A (ja) * 2014-10-29 2016-05-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 医用システム及び医用装置並びにプログラム
CN106991086A (zh) * 2017-06-08 2017-07-28 黑龙江工业学院 一种英语和俄语的互译方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3286255B2 (ja) 1998-12-21 2002-05-27 キヤノン株式会社 画像処理装置
CN102084417B (zh) * 2008-04-15 2014-05-21 飞书博公司 现场维护语音到语音翻译的系统和方法
JP6374854B2 (ja) * 2015-11-10 2018-08-15 株式会社オプティム 画面共有システム及び画面共有方法
WO2017175275A1 (ja) * 2016-04-04 2017-10-12 株式会社ミニマル・テクノロジーズ 翻訳システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03286255A (ja) * 1990-03-30 1991-12-17 Matsushita Electric Ind Co Ltd 対話型日英機械翻訳システム
US20160034449A1 (en) * 2003-02-10 2016-02-04 At&T Intellectual Property I, L.P. Message Translations
JP2005275676A (ja) * 2004-03-24 2005-10-06 Nec Corp コンテンツ提供システム、コンテンツ提供方法、サーバおよびそのプログラム
JP2006004366A (ja) * 2004-06-21 2006-01-05 Advanced Telecommunication Research Institute International 機械翻訳システム及びそのためのコンピュータプログラム
JP2013009367A (ja) * 2011-05-24 2013-01-10 Ntt Docomo Inc サービスサーバ装置、サービス提供方法、サービス提供プログラム
JP2014235740A (ja) * 2013-06-03 2014-12-15 ゼロックス コーポレイションXerox Corporation 改善された翻訳のためのソーステキストの確信度駆動型書き換え
JP2016085715A (ja) * 2014-10-29 2016-05-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 医用システム及び医用装置並びにプログラム
CN106991086A (zh) * 2017-06-08 2017-07-28 黑龙江工业学院 一种英语和俄语的互译方法

Also Published As

Publication number Publication date
WO2020026360A1 (ja) 2020-02-06
US20210294986A1 (en) 2021-09-23
JP7058052B2 (ja) 2022-04-21
CN112789620A (zh) 2021-05-11

Similar Documents

Publication Publication Date Title
US20200410174A1 (en) Translating Languages
KR102002979B1 (ko) 사람-대-사람 교류들을 가능하게 하기 위한 헤드 마운티드 디스플레이들의 레버리징
JP6233798B2 (ja) データを変換する装置及び方法
US9715873B2 (en) Method for adding realism to synthetic speech
US20190172444A1 (en) Spoken dialog device, spoken dialog method, and recording medium
CN111095892B (zh) 电子装置及其控制方法
KR20170030297A (ko) 자연어 처리 시스템, 자연어 처리 장치, 자연어 처리 방법 및 컴퓨터 판독가능 기록매체
KR20070118038A (ko) 정보처리 장치 및 정보처리 방법과 컴퓨터·프로그램
US20150179173A1 (en) Communication support apparatus, communication support method, and computer program product
JP2002125047A5 (ja)
JPWO2017208518A1 (ja) 情報処理装置
CN111063355A (zh) 会议记录的生成方法及记录终端
JP2017120616A (ja) 機械翻訳方法、及び、機械翻訳システム
EP2503545A1 (en) Arrangement and method relating to audio recognition
WO2020159140A1 (ko) 전자 장치 및 이의 제어 방법
JP2015104078A (ja) 撮像装置、撮像システム、サーバ、撮像方法、及び撮像プログラム
JP6054140B2 (ja) メッセージ管理装置、メッセージ提示装置、メッセージ管理装置の制御方法、およびメッセージ提示装置の制御方法
JP7058052B2 (ja) コンピュータシステム、画面共有方法及びプログラム
KR102300589B1 (ko) 수화통역 시스템
JP2017021672A (ja) 検索装置
US20190066676A1 (en) Information processing apparatus
CN112333258A (zh) 一种智能客服方法、存储介质及终端设备
JP7336872B2 (ja) 作業支援システムおよび作業支援方法ならびに作業支援装置
JP2009239466A (ja) 電話受付システム、電話受付方法、プログラム、及び記録媒体
KR20160131730A (ko) 자연어 처리 시스템, 자연어 처리 장치, 자연어 처리 방법 및 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220407

R150 Certificate of patent or registration of utility model

Ref document number: 7058052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150