JP2022056109A - Information processing device, information processing method, information processing program, and information processing system - Google Patents
Information processing device, information processing method, information processing program, and information processing system Download PDFInfo
- Publication number
- JP2022056109A JP2022056109A JP2020163922A JP2020163922A JP2022056109A JP 2022056109 A JP2022056109 A JP 2022056109A JP 2020163922 A JP2020163922 A JP 2020163922A JP 2020163922 A JP2020163922 A JP 2020163922A JP 2022056109 A JP2022056109 A JP 2022056109A
- Authority
- JP
- Japan
- Prior art keywords
- listener
- information
- information processing
- terminal device
- transmitter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 147
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 238000004891 communication Methods 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 13
- 238000011156 evaluation Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 20
- 238000012986 modification Methods 0.000 description 17
- 230000004048 modification Effects 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 206010011878 Deafness Diseases 0.000 description 11
- 231100000895 deafness Toxicity 0.000 description 11
- 208000016354 hearing loss disease Diseases 0.000 description 11
- 230000006870 function Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 4
- 239000013589 supplement Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000001502 supplementing effect Effects 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 208000001528 Coronaviridae Infections Diseases 0.000 description 1
- 208000019202 Orthocoronavirinae infectious disease Diseases 0.000 description 1
- 206010047531 Visual acuity reduced Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004315 low visual acuity Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、情報処理プログラム及び情報処理システムに関する。 The present invention relates to an information processing apparatus, an information processing method, an information processing program and an information processing system.
近年、遠隔コミュニケーションに関する技術の開発がますます盛んになっている。遠隔コミュニケーションでは、遠隔地にいる相手の映像や音声などを相互に通信することでコミュニケーションを図る。 In recent years, the development of technology related to remote communication has become more and more active. In remote communication, communication is achieved by communicating the video and audio of the other party in a remote location with each other.
しかしながら、上記の従来技術では、対面によるコミュニケーションと比べると、伝え手から聞き手に対して複雑な操作内容を正確に伝達することが困難な場合がある。遠隔コミュニケーションにおける複雑な操作内容の伝達を支援可能にする技術が求められている。 However, in the above-mentioned conventional technique, it may be difficult to accurately convey a complicated operation content from a transmitter to a listener as compared with face-to-face communication. There is a need for technology that can support the transmission of complex operation details in remote communication.
実施形態に係る情報処理装置は、遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する生成部と、前記生成部によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御部と、を備える。 The information processing apparatus according to the embodiment is an operation content transmitted from a transmitter who is a participant of the remote communication to the listener based on information of a listener who is a participant of the remote communication, and is the operation content of the listener. It includes a generation unit that generates auxiliary information that supplements the operation content for the operation target operated by the user, and an output control unit that controls the auxiliary information generated by the generation unit to be output to the terminal device of the listener.
以下に、本願に係る情報処理装置、情報処理方法、情報処理プログラム及び情報処理システムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、情報処理プログラム及び情報処理システムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an embodiment for implementing an information processing apparatus, an information processing method, an information processing program, and an information processing system according to the present application (hereinafter, referred to as “embodiment”) will be described in detail with reference to the drawings. Note that this embodiment does not limit the information processing apparatus, information processing method, information processing program, and information processing system according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.
(実施形態)
〔1.はじめに〕
近年、新型コロナウイルス感染症対策等により、テレワークを導入する企業が増加している。また、テレワーク導入に伴い、ビデオ会議やWeb会議といった遠隔コミュニケーションを利用する機会がますます増加している。例えば、遠隔コミュニケーションを利用して、伝え手から聞き手に対して、聞き手が操作する操作対象に対する操作内容を伝達する機会も増加している。
(Embodiment)
[1. Introduction]
In recent years, an increasing number of companies have introduced telework as a countermeasure against new coronavirus infectious diseases. In addition, with the introduction of telework, opportunities to use remote communication such as video conferences and web conferences are increasing more and more. For example, there is an increasing opportunity to convey the operation content of the operation target operated by the listener from the transmitter to the listener by using remote communication.
一般的に、遠隔コミュニケーションにおける操作内容の伝達は、対面での操作内容の伝達と比べると、複雑な操作内容を伝達することが難しいと言われている。例えば、遠隔コミュニケーションで操作内容を伝達する場合、伝え手は実際の操作対象が手元にない状態で聞き手に対して操作対象に対する操作内容を伝える必要があるため、複雑な操作内容を伝達することが難しい場合がある。また、聞き手は伝え手から伝達される操作内容を言語情報のみで理解する必要があるため、複雑な操作内容を理解することが難しい場合がある。 In general, it is said that it is more difficult to convey complicated operation contents in remote communication than in face-to-face communication. For example, when communicating the operation content by remote communication, the transmitter needs to convey the operation content to the listener to the listener without the actual operation target at hand, so it is possible to convey complicated operation content. It can be difficult. In addition, since the listener needs to understand the operation content transmitted from the transmitter only with linguistic information, it may be difficult to understand the complicated operation content.
そこで近年、遠隔コミュニケーションでの複雑な操作内容の伝達を助けるための技術が開発されている。例えば、遠隔地にいる伝え手の3次元ホログラフィックを現場の聞き手に提供することで、ミス軽減や伝達速度の向上に繋げる技術が知られている(参考URL:https://dynamics.microsoft.com/en-us/mixed-reality/overview/)。しかしながら、複雑な操作内容を伝達するにあたり、視覚情報、聴覚情報、触覚情報が豊富な対面での伝達に匹敵または対抗できるオンライン環境を提供するには、改善の余地がある。具体的には、遠隔コミュニケーションにおいて、より使い勝手がよく、かつ、様々なケースを吸収できる仕組みが必要である。例えば、聞き手の属性に応じて伝達内容を最適化する仕組み、聞き手の意思に応じた伝達内容をリアルタイムで提供する仕組み、聞き手が所在する現場の状況に応じたタイミングで伝達内容を提供する仕組み、そして精密な操作内容を提供する仕組みなどが望まれている。 Therefore, in recent years, a technique for assisting the transmission of complicated operation contents in remote communication has been developed. For example, there is a known technology that can reduce mistakes and improve transmission speed by providing 3D holographic images of transmitters in remote areas to listeners in the field (reference URL: https://dynamics.microsoft. com / en-us / mixed-reality / overview /). However, there is room for improvement in providing an online environment that is comparable to or can compete with face-to-face transmission, which is rich in visual information, auditory information, and tactile information in transmitting complicated operation contents. Specifically, in remote communication, there is a need for a mechanism that is easier to use and can absorb various cases. For example, a mechanism that optimizes the transmission content according to the attributes of the listener, a mechanism that provides the transmission content according to the listener's intention in real time, a mechanism that provides the transmission content at the timing according to the situation of the site where the listener is located, And a mechanism to provide precise operation contents is desired.
ここで、図1を用いて、比較例に係る情報処理の一例について説明する。図1は、比較例に係る情報処理の一例を示す図である。図1では、遠隔コミュニケーションを用いて、伝え手である参加者U11(以下、「伝え手U11」ともいう)が聞き手である参加者U21およびU22(以下、「聞き手U21およびU22」ともいう)に対して、聞き手が操作する装置Aに対する操作内容を伝達している。 Here, an example of information processing according to a comparative example will be described with reference to FIG. FIG. 1 is a diagram showing an example of information processing according to a comparative example. In FIG. 1, the participant U11 (hereinafter, also referred to as “transmitter U11”) who is a transmitter is referred to the participants U21 and U22 (hereinafter, also referred to as “listeners U21 and U22”) who are listeners by using remote communication. On the other hand, the operation content for the device A operated by the listener is transmitted.
また、聞き手U21およびU22は、それぞれヘッドマウントディスプレイである端末装置10-21および端末装置10-22を装着しており、端末装置10-21および端末装置10-22それぞれを通して伝え手U11の画像G1を見ることができる。また、聞き手U21およびU22は、端末装置10-21および端末装置10-22にそれぞれ搭載されたスピーカーを通して、伝え手U11の音声を聞くことができる。 Further, the listeners U21 and U22 are equipped with a terminal device 10-21 and a terminal device 10-22, which are head-mounted displays, respectively, and the image G1 of the transmitter U11 is passed through the terminal device 10-21 and the terminal device 10-22, respectively. Can be seen. Further, the listeners U21 and U22 can hear the voice of the transmitter U11 through the speakers mounted on the terminal device 10-21 and the terminal device 10-22, respectively.
また、2人の聞き手のうち、聞き手U21は、装置Aに対する操作の経験を有する経験者である。また、聞き手U22は、装置Aに対する操作の経験を有しない未経験者であり、かつ、音が聞こえにくい状態(難聴)である。図1に示すように、比較例では、聞き手の属性に関わらず、聞き手U21およびU22に対して同じ情報が伝達される。そのため、難聴である聞き手U22にとっては、伝え手U11の音声が聞き取りづらく、操作内容の伝達自体が困難な場合があった。また、未経験者である聞き手U22にとっては、馴染みのない専門用語が頻繁に登場するため、伝達される操作内容を理解することが困難な場合があった。 Further, of the two listeners, the listener U21 is an experienced person who has experience in operating the device A. Further, the listener U22 is an inexperienced person who has no experience in operating the device A, and is in a state where it is difficult to hear the sound (deafness). As shown in FIG. 1, in the comparative example, the same information is transmitted to the listeners U21 and U22 regardless of the attributes of the listener. Therefore, for the listener U22 who has deafness, it may be difficult to hear the voice of the transmitter U11, and it may be difficult to convey the operation content itself. In addition, it may be difficult for the inexperienced listener U22 to understand the transmitted operation content because unfamiliar technical terms frequently appear.
そこで、本願発明は、遠隔コミュニケーションの参加者である聞き手の属性情報に基づいて、遠隔コミュニケーションの参加者である伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を聞き手の端末装置に出力するよう制御する。これにより、本願発明は、伝え手によって伝達される操作内容に加えて、聞き手の属性に応じた補助情報を提供することができるので、遠隔コミュニケーションでの複雑な操作内容の伝達を助けることができる。したがって、本願発明は、遠隔コミュニケーションにおける複雑な操作内容の伝達を支援可能にすることができる。 Therefore, the present invention is an operation content transmitted from a transmitter who is a participant of remote communication to a listener based on attribute information of a listener who is a participant of remote communication, and is an operation target operated by the listener. It is controlled to output auxiliary information supplementing the operation contents to the listener's terminal device. As a result, the present invention can provide auxiliary information according to the attributes of the listener in addition to the operation content transmitted by the transmitter, and thus can assist the transmission of complicated operation content in remote communication. .. Therefore, the invention of the present application can support the transmission of complicated operation contents in remote communication.
〔2.情報処理の一例〕
次に、図2を用いて、実施形態に係る情報処理の一例について説明する。図2は、実施形態に係る情報処理の一例を示す図である。図2に示す情報処理は、実施形態に係る情報処理システム1によって実現される。情報処理システム1には、端末装置10と、情報処理装置100とが含まれる。以下の説明では、実施形態に係る情報処理として、端末装置10および情報処理装置100が協働して行う情報処理について説明する。本実施形態では、情報処理装置100は、実施形態に係る情報処理プログラムを実行し、端末装置10と協働することで、実施形態に係る情報処理を行う。
[2. An example of information processing]
Next, an example of information processing according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of information processing according to an embodiment. The information processing shown in FIG. 2 is realized by the information processing system 1 according to the embodiment. The information processing system 1 includes a
図2の説明に先立って、図3を用いて、実施形態に係る情報処理システム1の構成について説明する。図3は、実施形態に係る情報処理システム1の構成例を示す図である。図3に示すように、情報処理システム1には、端末装置10と、情報処理装置100とが含まれる。端末装置10と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図3に示す情報処理システム1には、任意の数の端末装置10と任意の数の情報処理装置100とが含まれてもよい。
Prior to the description of FIG. 2, the configuration of the information processing system 1 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 3, the information processing system 1 includes a
端末装置10は、遠隔コミュニケーションの参加者(以下、「参加者」ともいう)によって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)や、ヘッドマウントディスプレイ等である。本実施形態では、聞き手の端末装置10は、ヘッドマウントディスプレイであるものとする。また、伝え手の端末装置10は、ノート型PCであるものとする。
The
また、端末装置10には、遠隔コミュニケーションシステムを利用するためのアプリケーション(以下、「遠隔コミュニケーションアプリ」ともいう)がインストールされている。端末装置10は、遠隔コミュニケーションアプリに対する操作を行うための各種画像(例えば、ツールバーやアイコン等)を画面に表示する。また、端末装置10には、カメラ、マイク、スピーカーなどの機能を有するデバイスが搭載または接続されている。端末装置10は、それぞれのデバイスから入力された映像や音声を複数の拠点間で送受信する。
Further, an application for using the remote communication system (hereinafter, also referred to as "remote communication application") is installed in the
また、端末装置10には、参加者の物理的な状態を検知する各種のセンサが搭載または接続されている。例えば、端末装置10には、上述したカメラやマイクといったセンサが接続されている。端末装置10は、各種のセンサによって、参加者の物理的な状態を示すセンサ情報を検出する。例えば、端末装置10は、センサ情報の一例として、カメラによって参加者の画像を検出する。端末装置10は、センサ情報を検出すると、検出したセンサ情報を情報処理装置100に送信する。
Further, various sensors for detecting the physical state of the participant are mounted or connected to the
また、端末装置10は、情報処理装置100から補助情報を受信する。端末装置10は、補助情報を受信すると、補助情報を出力する。例えば、端末装置10は、補助情報が画像である場合には、補助情報を画面に表示する。また、端末装置10は、補助情報が音声である場合には、補完情報をスピーカーから出力する。
Further, the
なお、図3に示すように、端末装置10を利用する参加者に応じて、端末装置10を端末装置10-1~10-N(Nは自然数)のように区別して説明する場合がある。例えば、端末装置10-21は、図2に示す参加者U21によって利用される端末装置10である。また、例えば、端末装置10-22は、図2に示す参加者U22によって利用される端末装置10である。また、以下では、端末装置10-1~10-N(Nは自然数)について、特に区別なく説明する場合には、端末装置10と記載する。
As shown in FIG. 3, the
情報処理装置100は、端末装置10から聞き手の情報を取得する。具体的には、情報処理装置100は、端末装置10から聞き手のセンサ情報を取得する。情報処理装置100は、聞き手のセンサ情報を取得すると、取得した聞き手のセンサ情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。続いて、情報処理装置100は、聞き手が操作内容に関する操作に困難をきたしていると判定した場合、聞き手の属性情報に基づいて、伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する。また、情報処理装置100は、生成した補助情報を聞き手の端末装置10に出力するよう制御する。具体的には、情報処理装置100は、生成した補助情報を聞き手の端末装置10に送信する。
The
ここから、図2の説明に戻る。図2では、図1と同様に、遠隔コミュニケーションを用いて、伝え手U11が聞き手U21およびU22に対して、聞き手が操作する装置Aに対する操作内容を伝達している。ここで、図2に示す例では、情報処理装置100が、聞き手U22の属性情報に基づいて、装置Aに対する操作内容を補う補助情報を聞き手U22の端末装置10-22に出力する点が図1と異なる。
From here, it returns to the explanation of FIG. In FIG. 2, similarly to FIG. 1, the transmitter U11 transmits the operation contents for the device A operated by the listener to the listeners U21 and U22 by using remote communication. Here, in the example shown in FIG. 2, the
図示は省略するが、まず、聞き手U22が、「わからない単語が多いし、声が聞き取りづらいです。」と発言したとする。このとき、聞き手U22が装着している端末装置10-22に搭載されたマイクは、聞き手U22の発言の音声を検出する。続いて、端末装置10-22は、聞き手U22の発言の音声を検出すると、検出した音声データを情報処理装置100に送信する。
Although the illustration is omitted, first, it is assumed that the listener U22 said, "There are many words that I do not understand and it is difficult to hear the voice." At this time, the microphone mounted on the terminal device 10-22 worn by the listener U22 detects the voice of the listener U22's speech. Subsequently, when the terminal device 10-22 detects the voice of the listener U22's speech, the terminal device 10-22 transmits the detected voice data to the
情報処理装置100は、端末装置10-22から聞き手U22の音声データを取得する。続いて、情報処理装置100は、聞き手U22の音声データを取得すると、取得した聞き手U22の音声データに基づいて、聞き手U22が操作内容に関する操作に困難をきたしているか否かを判定する。図2では、情報処理装置100は、聞き手U22が操作内容に関する操作に困難をきたしていると判定する。
The
情報処理装置100は、聞き手U22が操作内容に関する操作に困難をきたしていると判定した場合、聞き手U22が難聴であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容を文字にした字幕を含む画像G21を生成する。続いて、情報処理装置100は、生成した画像G21を聞き手U22の端末装置10-22に表示するよう制御する。
When the
これにより、情報処理装置100は、難聴である聞き手U22が伝え手U11の音声を聞き取りづらい場合であっても、補助情報である字幕を含む画像G21により視覚的に操作内容を知覚することを可能にする。したがって、情報処理装置100は、難聴である聞き手U22に対する操作内容の伝達を助けることができる。
As a result, the
また、情報処理装置100は、聞き手U22が操作内容に関する操作に困難をきたしていると判定した場合、聞き手U22が未経験者であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容に登場する専門用語の意味を文字にした字幕を含む画像G22を生成する。続いて、情報処理装置100は、生成した画像G22を聞き手U22の端末装置10-22に表示するよう制御する。
Further, when the
これにより、情報処理装置100は、未経験者である聞き手U22にとって馴染みのない専門用語が頻繁に登場する場合であっても、補助情報である字幕を含む画像G22により専門用語の意味をその都度確認可能にすることができる。したがって、情報処理装置100は、未経験者である聞き手U22が操作内容を理解するのを助けることができる。
As a result, the
〔3.情報処理装置の構成〕
次に、図4を用いて、実施形態に係る情報処理装置100の構成について説明する。図4は、実施形態に係る情報処理装置100の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示させるための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Information processing device configuration]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、図4に示すように、参加者情報記憶部121とセンサ情報記憶部122を有する。
(Memory unit 120)
The
(参加者情報記憶部121)
参加者情報記憶部121は、参加者の属性に関する各種の情報を記憶する。具体的には、参加者情報記憶部121は、参加者を識別可能な識別情報(参加者IDともいう)と参加者の属性情報とを対応付けて記憶する。図5を用いて、参加者情報記憶部121の一例について説明する。図5は、実施形態に係る参加者情報記憶部の一例を示す図である。
(Participant Information Memory Unit 121)
The participant
図5に示す例では、参加者情報記憶部121は、装置Aに対する操作の経験者であることを示す参加者U21の属性情報である「経験者」と参加者U21の参加者ID「U21」とを対応付けて記憶する。また、参加者情報記憶部121は、装置Aに対する操作の未経験者であることを示す参加者U22の属性情報である「未経験者」および音が聞こえづらい状態であることを示す参加者U22の属性情報である「難聴」と参加者U22の参加者ID「U22」とを対応付けて記憶する。
In the example shown in FIG. 5, the participant
(センサ情報記憶部122)
センサ情報記憶部122は、参加者の物理的な状態を示す各種のセンサ情報を記憶する。具体的には、センサ情報記憶部122は、参加者を識別可能な識別情報(参加者IDともいう)と参加者のセンサ情報とを対応付けて記憶する。
(Sensor information storage unit 122)
The sensor
図2に示す例では、センサ情報記憶部122は、参加者U11の画像データおよび音声データと参加者U11の参加者ID「U11」とを対応付けて記憶する。センサ情報記憶部122は、参加者U21の画像データおよび音声データと参加者U21の参加者ID「U21」とを対応付けて記憶する。また、センサ情報記憶部122は、参加者U22の画像データおよび音声データと参加者U22の参加者ID「U22」とを対応付けて記憶する。
In the example shown in FIG. 2, the sensor
(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 4, the
図4に示すように、制御部130は、取得部131と、判定部132と、生成部133と、出力制御部134とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 4, the
(取得部131)
取得部131は、端末装置10から参加者の情報を取得する。具体的には、取得部131は、端末装置10から聞き手の情報を取得する。また、取得部131は、端末装置10から聞き手のセンサ情報を取得する。例えば、取得部131は、端末装置10から聞き手の画像データおよび音声データを取得する。続いて、取得部131は、聞き手のセンサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部122に格納する。
(Acquisition unit 131)
The
また、取得部131は、端末装置10から伝え手の情報を取得する。具体的には、取得部131は、端末装置10から伝え手のセンサ情報を取得する。例えば、取得部131は、端末装置10から伝え手の画像データおよび音声データを取得する。続いて、取得部131は、伝え手のセンサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部122に格納する。
Further, the
(判定部132)
判定部132は、聞き手の情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。具体的には、判定部132は、取得部131によって取得された聞き手のセンサ情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。
(Judgment unit 132)
The
例えば、判定部132は、取得部131によって取得された聞き手の音声データに基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。例えば、判定部132は、公知の音声認識技術を用いて、取得部131によって取得された聞き手の音声データを文字列に変換する。図2に示す例では、判定部132は、聞き手U22の音声データを文字列である「わからない単語が多いし、声が聞き取りづらいです。」に変換する。
For example, the
続いて、判定部132は、変換した文字列を形態素解析して、単語に分解する。続いて、判定部132は、分解された単語の中に特定の単語が含まれるか否かを判定する。例えば、判定部132は、聞き手が操作内容に関する操作に困難をきたしている場合に発せられやすい単語リスト(以下、単語リストともいう)に含まれる単語が分解された単語の中に含まれるか否かを判定する。例えば、単語リストには、「わからない」、「困った」、「聞き取りづらい」などの単語が含まれているとする。図2に示す例では、判定部132は、分解された単語の中に単語リストに含まれる単語である「わからない」と「聞き取りづらい」が含まれると判定する。
Subsequently, the
続いて、判定部132は、分解された単語の中に特定の単語が含まれると判定した場合、聞き手が操作内容に関する操作に困難をきたしていると判定する。一方、判定部132は、分解された単語の中に特定の単語が含まれないと判定した場合、聞き手が操作内容に関する操作に困難をきたしていないと判定する。図2に示す例では、判定部132は、分解された単語の中に単語リストに含まれる単語である「わからない」と「聞き取りづらい」が含まれると判定したので、聞き手U22が操作内容に関する操作に困難をきたしていると判定する。
Subsequently, when it is determined that the decomposed word includes a specific word, the
(生成部133)
生成部133は、遠隔コミュニケーションの参加者である聞き手の情報に基づいて、遠隔コミュニケーションの参加者である伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する。具体的には、生成部133は、判定部132によって聞き手が操作に困難をきたしていると判定された場合に、補助情報を生成する。例えば、生成部133は、聞き手の情報の一例として、聞き手の属性に関する属性情報に基づいて、補助情報を生成する。
(Generation unit 133)
The
図2に示す例では、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、参加者情報記憶部121を参照して、聞き手U22の属性情報を取得する。例えば、生成部133は、聞き手U22が難聴であるという属性情報を取得する。続いて、生成部133は、聞き手U22が難聴であるという属性情報を取得すると、聞き手U22が難聴であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容を文字にした字幕を含む画像G21を生成する。例えば、生成部133は、センサ情報記憶部122を参照して、伝え手U11の音声データを取得する。続いて、生成部133は、公知の音声認識技術を用いて、伝え手U11の音声データを文字列に変換する。続いて、生成部133は、変換した文字列に基づいて、伝え手U11によって伝達される操作内容を文字にした字幕を含む画像G21を生成する。
In the example shown in FIG. 2, when the
また、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、参加者情報記憶部121を参照して、聞き手U22が未経験者であるという属性情報を取得する。続いて、生成部133は、聞き手U22が未経験者であるという属性情報を取得すると、聞き手U22が未経験者であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容に登場する専門用語の意味を文字にした字幕を含む画像G22を生成する。例えば、生成部133は、センサ情報記憶部122を参照して、伝え手U11の音声データを取得する。続いて、生成部133は、公知の音声認識技術を用いて、伝え手U11の音声データを文字列に変換する。続いて、生成部133は、変換した文字列の中から伝え手U11によって伝達される操作内容に登場する専門用語を抽出する。続いて、生成部133は、専門用語の意味が掲載された辞書等を参照して、抽出した専門用語の意味を文字にした字幕を含む画像G22を生成する。
Further, when the
(出力制御部134)
出力制御部134は、生成部133によって生成された補助情報を聞き手の端末装置10に出力するよう制御する。具体的には、出力制御部134は、生成部133によって補助情報が生成されると、生成部133によって生成された補助情報を聞き手の端末装置10に送信する。図2に示す例では、出力制御部134は、生成部133によって画像G21および画像G22が生成されると、生成された画像G21および画像G22を聞き手U22の端末装置10-22に送信する。
(Output control unit 134)
The
〔4.変形例〕
上述した実施形態に係る情報処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
[4. Modification example]
The information processing system 1 according to the above-described embodiment may be implemented in various different forms other than the above-described embodiment. Therefore, another embodiment of the information processing system 1 will be described below. The same parts as those in the embodiment are designated by the same reference numerals, and the description thereof will be omitted.
〔4-1.第1の変形例〕
まず、図6を用いて、第1の変形例に係る情報処理について説明する。図6は、第1の変形例に係る情報処理の一例を示す図である。図6では、図2と同様に、遠隔コミュニケーションを用いて、伝え手U11が聞き手U21およびU22に対して、聞き手が操作する装置Aに対する操作内容を伝達している。ここで、図6に示す例では、情報処理装置100が、聞き手U22が所在する現場の音声情報に基づいて、装置Aに対する操作内容を補う補助情報を聞き手U22の端末装置10-22に出力する点が図2と異なる。
[4-1. First modification]
First, information processing according to the first modification will be described with reference to FIG. FIG. 6 is a diagram showing an example of information processing according to the first modification. In FIG. 6, similarly to FIG. 2, the transmitter U11 transmits the operation contents for the device A operated by the listener to the listeners U21 and U22 by using remote communication. Here, in the example shown in FIG. 6, the
図示は省略するが、まず、聞き手U22が、「読めない漢字があるので、ひらがなにしてほしい。あと、文字をもっと大きくしてほしい。」と発言したとする。このとき、聞き手U22が装着している端末装置10-22に搭載されたマイクは、聞き手U22の発言の音声を検出する。続いて、端末装置10-22は、聞き手U22の発言の音声を検出すると、検出した音声データを情報処理装置100に送信する。
Although not shown, it is assumed that the listener U22 first said, "There are some unreadable Chinese characters, so I want you to use hiragana. Also, I want you to make the characters larger." At this time, the microphone mounted on the terminal device 10-22 worn by the listener U22 detects the voice of the listener U22's speech. Subsequently, when the terminal device 10-22 detects the voice of the listener U22's speech, the terminal device 10-22 transmits the detected voice data to the
取得部131は、端末装置10-22から聞き手U22の音声データを取得する。判定部132は、公知の音声認識技術を用いて、取得部131によって取得された聞き手U22の音声データを文字列である「読めない漢字があるので、ひらがなにしてほしい。あと、文字をもっと大きくしてほしい。」に変換する。
The
続いて、判定部132は、変換した文字列を形態素解析して、単語に分解する。続いて、判定部132は、上述した単語リストに含まれる単語が分解された単語の中に含まれるか否かを判定する。図6に示す例では、判定部132は、分解された単語の中に単語リストに含まれる単語である「読めない」と「してほしい」が含まれると判定する。
Subsequently, the
続いて、判定部132は、分解された単語の中に単語リストに含まれる単語である「読めない」と「してほしい」が含まれると判定したので、聞き手U22が操作内容に関する操作に困難をきたしていると判定する。
Subsequently, the
図6に示す例では、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、聞き手U22の音声データを変換した文字列に含まれる「ひらがなにしてほしい」に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容をひらがなで表記した字幕を含む画像G31を生成する。
In the example shown in FIG. 6, when the
具体的には、生成部133は、聞き手U22の音声データを変換した文字列に含まれる「ひらがなにしてほしい」の意味を「ひらがなに変換してほしい」であると解析する。続いて、生成部133は、聞き手U22の音声データを変換した文字列を意味解析すると、記憶部120に記憶された処理リストを参照して、意味解析した結果に対応する処理を実行する。より具体的には、記憶部120は、「〇〇してほしい」という文字列と「〇〇」に対応する処理とが対応付けられた処理リストを記憶する。例えば、記憶部120は、「ひらがなに変換してほしい」という文字列と、ひらがなに変換する処理とが対応付けられた処理リストを記憶する。生成部133は、意味解析した結果である「ひらがなに変換してほしい」という文字列に対応する処理として、伝え手U11の音声データをひらがなに変換する処理を実行する。例えば、生成部133は、公知の音声認識技術を用いて、伝え手U11の音声データを文字列に変換する。続いて、生成部133は、変換した文字列をひらがなに変換する。続いて、生成部133は、伝え手U11によって伝達される操作内容をひらがなで表記した字幕を含む画像G31を生成する。
Specifically, the
また、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、聞き手U22の音声データを変換した文字列に含まれる「文字をもっと大きくしてほしい」に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容を示す文字の大きさが拡大された字幕を含む画像G31を生成する。
Further, when the
具体的には、生成部133は、聞き手U22の音声データを変換した文字列に含まれる「文字をもっと大きくしてほしい」の意味を「文字のサイズを拡大してほしい」であると解析する。生成部133は、聞き手U22の音声データを変換した文字列を意味解析すると、記憶部120に記憶された処理リストを参照して、意味解析した結果に基づく処理を実行する。例えば、記憶部120は、「文字のサイズを拡大してほしい」という文字列と、文字のサイズを拡大する処理とが対応付けられた処理リストを記憶する。生成部133は、意味解析した結果である「文字のサイズを拡大してほしい」という文字列に対応する処理として、伝え手U11によって伝達される操作内容を示す文字のサイズを拡大する処理を実行する。例えば、生成部133は、伝え手U11の音声データを変換した文字列に基づいて、伝え手U11によって伝達される操作内容を示す文字のサイズを拡大した字幕を含む画像G31を生成する。
Specifically, the
出力制御部134は、生成部133によって画像G31が生成されると、生成された画像G31を聞き手U22の端末装置10-22に送信する。
When the image G31 is generated by the
図6では、生成部133が、補助情報の一例として、伝え手U11によって伝達される操作内容をひらがなで表記した文字情報を生成する例について説明したが、ひらがな以外で表記した文字情報を生成してもよい。例えば、生成部133は、補助情報の一例として、カタカナ、漢字またはローマ字で表記された文字情報を生成してもよい。
In FIG. 6, as an example of auxiliary information, the
なお、生成部133は、補助情報の一例として、日本語以外の他の言語に翻訳された文字情報を生成してもよい。例えば、生成部133は、聞き手の母国語が英語であるという属性情報に基づいて、伝え手によって伝達される操作内容を英語に翻訳した字幕を生成してもよい。
The
また、図6では、生成部133が、補助情報の一例として、伝え手U11によって伝達される操作内容を示す文字の大きさが拡大された文字情報を生成する例について説明したが、これに限られない。例えば、生成部133は、補助情報の一例として、文字の大きさが縮小された文字情報を生成してもよい。
Further, in FIG. 6, as an example of auxiliary information, an example in which the
〔4-2.第2の変形例〕
次に、図7を用いて、第2の変形例に係る情報処理について説明する。図7は、第2の変形例に係る情報処理の一例を示す図である。図7では、遠隔コミュニケーションを用いて、伝え手U11が、同じ現場に所在する聞き手U23およびU24に対して、聞き手が操作する装置O1に対する操作内容を伝達している。
[4-2. Second variant]
Next, the information processing according to the second modification will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of information processing according to the second modification. In FIG. 7, the transmitter U11 uses remote communication to convey to the listeners U23 and U24 located at the same site, the operation content for the device O1 operated by the listener.
取得部131は、聞き手U21およびU22が所在する現場の画像情報を取得する。例えば、取得部131は、聞き手U21およびU22が所在する現場に設置されたカメラC1から聞き手U21およびU22が所在する現場の画像情報を取得する。
The
判定部132は、聞き手U21およびU22が所在する現場の画像情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定する。具体的には、判定部132は、取得部131によって取得された現場の画像情報に基づいて、聞き手U21およびU22が操作内容を確認している最中であるか否かを判定する。
The
例えば、判定部132は、公知の物体認識技術を用いて、現場の画像情報に含まれる装置O1の領域を特定する。また、判定部132は、公知の姿勢推定技術を用いて、現場の画像情報に含まれる聞き手U21およびU22の人物領域を特定する。続いて、判定部132は、特定された聞き手U21およびU22のうち少なくともいずれか一方が装置O1に接触しているか否かを判定する。判定部132は、聞き手U21およびU22のうち少なくともいずれか一方が装置O1に接触していると判定した場合、聞き手U21およびU22が操作内容を確認している最中であると判定する。続いて、判定部132は、聞き手U21およびU22が操作内容を確認している最中であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングではないと判定する。
For example, the
生成部133は、判定部132によって伝え手から聞き手に対して操作内容を伝達するタイミングではないと判定された場合、次の操作内容を伝達するのを少し待つよう促す画像を生成する。出力制御部134は、生成部133によって次の操作内容を伝達するのを少し待つよう促す画像が生成されると、生成された画像を伝え手の端末装置10に表示するよう制御する。
When the
一方、判定部132は、聞き手U21およびU22のいずれも装置O1に接触していないと判定した場合、聞き手U21およびU22が操作内容を確認している最中ではないと判定する。続いて、判定部132は、聞き手U21およびU22が操作内容を確認している最中ではないと判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定する。
On the other hand, when the
生成部133は、判定部132によって伝え手から聞き手に対して操作内容を伝達するタイミングであると判定された場合、次の操作内容を伝達するのを促す画像を生成してもよい。出力制御部134は、生成部133によって次の操作内容を伝達するのを促す画像が生成されると、生成された画像を伝え手の端末装置10に表示するよう制御してもよい。このようにして、出力制御部134は、判定部132によって判定されたタイミングに関する情報を伝え手の端末装置10に出力するよう制御する。
When the
図7では、判定部132が、聞き手U21およびU22が所在する現場の画像情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定する例について説明したが、聞き手の情報は画像情報でなくてもよい。具体的には、判定部132は、聞き手が所在する現場の音声情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定してもよい。判定部132は、現場の音声情報に基づいて、聞き手U21およびU22による発話がない状態が所定の時間以上であるか否かを判定する。判定部132は、例えば、聞き手U21およびU22による発話がない状態が所定の時間以上であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定してもよい。あるいは、判定部132は、現場の音声情報に基づいて、聞き手U21およびU22による発話に「OKです」といった文言が含まれるか否かを判定する。判定部132は、例えば、聞き手U21およびU22による発話に「OKです」といった文言が含まれると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定してもよい。
FIG. 7 has described an example in which the
また、判定部132は、聞き手が操作する装置O1から発生するシグナル情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定してもよい。例えば、判定部132は、聞き手が装置O1を操作している時のみ発生するシグナル情報を装置O1から取得することができる。続いて、判定部132は、取得したシグナル情報に基づいて、聞き手による操作が行われていない状態が所定の時間以上であるか否かを判定する。判定部132は、例えば、聞き手による操作が行われていない状態が所定の時間以上であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定してもよい。あるいは、判定部132は、取得したシグナル情報に基づいて、聞き手による操作が行われている状態が所定の時間以上であるか否かを判定する。判定部132は、例えば、聞き手による操作が行われている状態が所定の時間以上であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングではないと判定してもよい。
Further, the
〔4-3.第3の変形例〕
次に、図8を用いて、第3の変形例に係る情報処理について説明する。図8は、第3の変形例に係る情報処理の一例を示す図である。図8では、遠隔コミュニケーションを用いて、伝え手U11が、聞き手U25に対して、聞き手U25が操作するドローンのコントローラO25に対する操作内容を伝達している。
[4-3. Third variant]
Next, the information processing according to the third modification will be described with reference to FIG. FIG. 8 is a diagram showing an example of information processing according to the third modification. In FIG. 8, the transmitter U11 conveys to the listener U25 the operation content of the drone controller O25 operated by the listener U25 by using remote communication.
図8では、取得部131が、聞き手U25によるコントローラO25に対する操作を撮像した操作動画を取得する。例えば、取得部131は、眼鏡型のヘッドマウントディスプレイである聞き手U25の端末装置10-25に搭載されたカメラC25から、聞き手U25によるコントローラO25に対する操作を撮像した操作動画を取得する。出力制御部134は、取得部131によって取得された操作動画を伝え手U11の端末装置10の画面に表示するよう制御する。これにより、伝え手側は、取得部131によって取得された操作動画を繰り返し再生することができるため、聞き手側の評価をよりしやすくなる。
In FIG. 8, the
また、取得部131は、聞き手U25の操作に対する伝え手U11の評価を示す評価情報を伝え手U11の端末装置10から取得する。出力制御部134は、取得部131によって取得された評価情報を聞き手U25の端末装置10-25に出力するよう制御する。
Further, the
〔4-4.第4の変形例〕
次に、図9を用いて、第4の変形例に係る情報処理について説明する。図9は、第4の変形例に係る情報処理の一例を示す図である。図9では、図8と同様に、遠隔コミュニケーションを用いて、伝え手U11が、聞き手U26に対して、聞き手U26が操作するドローンのコントローラO26に対する操作内容を伝達している。
[4-4. Fourth variant]
Next, the information processing according to the fourth modification will be described with reference to FIG. 9. FIG. 9 is a diagram showing an example of information processing according to the fourth modification. In FIG. 9, similarly to FIG. 8, the transmitter U11 conveys to the listener U26 the operation content of the drone controller O26 operated by the listener U26 by using remote communication.
図9では、生成部133が、聞き手の情報の一例として、聞き手U26がドローンを操作するのに用いられるコントローラO26の信号情報に基づいて、補助情報である見本動画G42を生成する。具体的には、取得部131は、聞き手U26のコントローラO26からコントローラO26の信号情報を取得する。続いて、判定部132は、取得部131によって取得された信号情報に基づいて、聞き手U26が操作内容に関する操作に困難をきたしているか否かを判定する。例えば、判定部132は、取得部131によって取得された信号情報に基づいて、聞き手U26が現在行っている操作を判定する。続いて、判定部132は、あらかじめ用意された操作手順に基づいて、聞き手U26が現在行っている操作が操作手順と比べてどの程度遅れているかを判定する。例えば、判定部132は、聞き手U26が現在行っている操作が操作手順と比べて所定の閾値を超えて遅れていると判定した場合には、聞き手U26が操作内容に関する操作に困難をきたしていると判定する。生成部133は、判定部132によって聞き手U26が操作内容に関する操作に困難をきたしていると判定された場合、ドローンに対する見本操作を撮像した見本動画G42を生成する。出力制御部134は、生成部133によって生成された見本動画G42を聞き手U26の端末装置10-26に表示するよう制御する。例えば、出力制御部134は、聞き手U26による実際の操作を撮像した動画G41の横に同じ大きさの見本動画G42が表示されるように制御する。
In FIG. 9, the
〔4-5.その他の変形例〕
生成部133は、聞き手の情報の一例として、聞き手が所在する現場の画像情報に基づいて、補助情報を生成してもよい。例えば、生成部133は、聞き手が所在する現場の画像情報に基づいて、補助情報の一例として、操作対象の操作部位を示す部位画像、または操作対象に対する操作方向を示す方向画像を生成する。
[4-5. Other variants]
As an example of the listener's information, the
また、生成部133は、聞き手が所在する現場の画像情報に基づいて、補助情報の一例として、操作対象の所定の領域を拡大した拡大画像を生成してもよい。例えば、生成部133は、操作対象の精密領域を拡大した拡大画像を生成する。
Further, the
〔5.効果〕
上述してきたように、実施形態に係る情報処理装置100は、生成部133と出力制御部134を備える。生成部133は、遠隔コミュニケーションの参加者である聞き手の情報に基づいて、遠隔コミュニケーションの参加者である伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する。出力制御部134は、生成部133によって生成された補助情報を聞き手の端末装置10に出力するよう制御する。また、生成部133は、聞き手の情報として、聞き手の属性に関する属性情報、聞き手が所在する現場の音声情報、聞き手が所在する現場の画像情報、または聞き手が操作対象を操作するのに用いられる制御装置の信号情報に基づいて、補助情報を生成する。
[5. effect〕
As described above, the
これにより、情報処理装置100は、伝え手によって伝達される操作内容に加えて、聞き手に応じた補助情報を提供することができるので、遠隔コミュニケーションでの複雑な操作内容の伝達を助けることができる。したがって、本願発明は、遠隔コミュニケーションにおける複雑な操作内容の伝達を支援可能にすることができる。
As a result, the
また、生成部133は、補助情報として、操作対象の操作部位を示す部位画像、または操作対象に対する操作方向を示す方向画像を生成する。出力制御部134は、部位画像または方向画像のうち少なくともいずれか1つを聞き手の端末装置10の画面に表示する。
Further, the
これにより、情報処理装置100は、伝え手によって伝達される操作内容に加えて、操作対象の操作部位を示す部位画像、または操作対象に対する操作方向を示す方向画像を提供することができるので、遠隔コミュニケーションでの複雑な操作内容の伝達を助けることができる。
As a result, the
また、生成部133は、補助情報として、操作対象の所定の領域を拡大した拡大画像を生成する。出力制御部134は、拡大画像を聞き手の端末装置10の画面に表示する。
In addition, the
これにより、情報処理装置100は、例えば、精密領域を拡大して表示することができるので、遠隔コミュニケーションでの精密領域に関する操作内容の伝達を助けることができる。
As a result, the
また、生成部133は、補助情報として、操作内容を示す文字情報または操作内容に関する用語の意味を説明する文字情報を生成する。出力制御部134は、文字情報を聞き手の端末装置10の画面に表示する。
In addition, the
これにより、情報処理装置100は、例えば、難聴である聞き手が伝え手の音声を聞き取りづらい場合であっても、補助情報である文字情報により視覚的に操作内容を知覚することを可能にする。したがって、情報処理装置100は、例えば、難聴である聞き手に対する操作内容の伝達を助けることができる。また、情報処理装置100は、例えば、未経験者である聞き手にとって馴染みのない専門用語が頻繁に登場する場合であっても、補助情報である文字情報により専門用語の意味をその都度確認可能にすることができる。したがって、情報処理装置100は、例えば、未経験者である聞き手が操作内容を理解するのを助けることができる。
Thereby, for example, the
また、生成部133は、補助情報として、文字の大きさが拡大または縮小された文字情報を生成する。出力制御部134は、文字の大きさが拡大または縮小された文字情報を聞き手の端末装置10の画面に表示する。
In addition, the
これにより、情報処理装置100は、例えば、文字を大きくすることで、視力の低い聞き手が伝え手の操作内容を視覚的に知覚することを助けることができる。また、情報処理装置100は、例えば、文字を小さくすることで、聞き手の手元や操作対象の邪魔にならないように画面中に伝え手の操作内容を表示することができる。したがって、情報処理装置100は、聞き手が操作内容を視覚的に理解するのを助けることができる。
As a result, the
また、生成部133は、補助情報として、ひらがな、カタカナ、漢字またはローマ字で表記された文字情報を生成する。出力制御部134は、ひらがな、カタカナ、漢字またはローマ字で表記された文字情報を聞き手の端末装置10の画面に表示する。
In addition, the
これにより、情報処理装置100は、聞き手に応じた日本語の表示態様によって、聞き手が伝え手の操作内容を理解するのを助けることができる。
Thereby, the
また、生成部133は、補助情報として、日本語以外の他の言語に翻訳された文字情報を生成する。出力制御部134は、他の言語に翻訳された文字情報を聞き手の端末装置10の画面に表示する。
In addition, the
これにより、情報処理装置100は、聞き手に応じた言語によって、聞き手が伝え手の操作内容を理解するのを助けることができる。
Thereby, the
また、情報処理装置100は、判定部132をさらに備える。判定部132は、聞き手の情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。生成部133は、判定部132によって聞き手が操作に困難をきたしていると判定された場合に、補助情報を生成する。
Further, the
これにより、情報処理装置100は、聞き手が困っているときに補助情報を生成することができるので、聞き手が伝え手の操作内容を理解するのを助けることができる。
As a result, the
また、判定部132は、聞き手の情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定する。出力制御部134は、判定部132によって判定されたタイミングに関する情報を伝え手の端末装置10に出力するよう制御する。
Further, the
これにより、情報処理装置100は、聞き手にとって受け入れやすいタイミングで、伝え手から聞き手に対して操作内容を伝達することができるので、聞き手が伝え手の操作内容を理解するのを助けることができる。
As a result, the
また、生成部133は、補助情報として、操作対象に対する見本操作を撮像した見本動画を生成する。出力制御部134は、見本動画を聞き手の端末装置10の画面に表示するよう制御する。
In addition, the
これにより、情報処理装置100は、伝え手によって伝達される操作内容に加えて、見本動画を見ることができるので、聞き手が伝え手の操作内容を理解するのを助けることができる。
As a result, the
また、情報処理装置100は、取得部131をさらに備える。取得部131は、聞き手による操作対象に対する操作を撮像した操作動画を取得する。出力制御部134は、操作動画を伝え手の端末装置10の画面に表示するよう制御する。
Further, the
これにより、情報処理装置100は、伝え手に対して、自身が伝達した操作内容が聞き手にどの程度伝わっているか、フィードバックすることができる。
As a result, the
また、取得部131は、聞き手の操作に対する伝え手の評価を示す評価情報を取得する。出力制御部134は、評価情報を聞き手の端末装置10に出力するよう制御する。
In addition, the
これにより、情報処理装置100は、聞き手に対して、どの程度操作内容を正しく理解しているか、伝え手の評価をフィードバックすることができる。
As a result, the
〔6.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
[6. Hardware configuration]
Further, the
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on a program stored in the ROM 1300 or the
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.
〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or are described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the generation unit can be read as a generation means or a generation circuit.
1 情報処理システム
10 端末装置
100 情報処理装置
110 通信部
120 記憶部
130 制御部
131 取得部
132 判定部
133 生成部
134 出力制御部
1
Claims (16)
前記生成部によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御部と、
を備える情報処理装置。 Based on the information of the listener who is a participant of the remote communication, the operation content transmitted from the transmitter who is the participant of the remote communication to the listener, and the operation content for the operation target operated by the listener. A generator that generates supplementary information,
An output control unit that controls the auxiliary information generated by the generation unit to be output to the listener's terminal device.
Information processing device equipped with.
前記聞き手の情報として、前記聞き手の属性に関する属性情報、前記聞き手が所在する現場の音声情報、前記聞き手が所在する現場の画像情報、または前記聞き手が前記操作対象を操作するのに用いられる制御装置の信号情報に基づいて、前記補助情報を生成する、
請求項1に記載の情報処理装置。 The generator is
As the listener information, attribute information regarding the attributes of the listener, audio information at the site where the listener is located, image information at the site where the listener is located, or a control device used by the listener to operate the operation target. Generates the auxiliary information based on the signal information of
The information processing apparatus according to claim 1.
前記補助情報として、前記操作対象の操作部位を示す部位画像、または前記操作対象に対する操作方向を示す方向画像を生成し、
前記出力制御部は、
前記部位画像または前記方向画像のうち少なくともいずれか1つを前記聞き手の端末装置の画面に表示する、
請求項1または2に記載の情報処理装置。 The generator is
As the auxiliary information, a part image showing the operation part of the operation target or a direction image showing the operation direction with respect to the operation target is generated.
The output control unit
At least one of the site image and the direction image is displayed on the screen of the listener's terminal device.
The information processing apparatus according to claim 1 or 2.
前記補助情報として、前記操作対象の所定の領域を拡大した拡大画像を生成し、
前記出力制御部は、
前記拡大画像を前記聞き手の端末装置の画面に表示する、
請求項1~3のいずれか1項に記載の情報処理装置。 The generator is
As the auxiliary information, an enlarged image in which a predetermined area of the operation target is enlarged is generated.
The output control unit
Displaying the enlarged image on the screen of the listener's terminal device,
The information processing apparatus according to any one of claims 1 to 3.
前記補助情報として、前記操作内容を示す文字情報または前記操作内容に関する用語の意味を説明する文字情報を生成し、
前記出力制御部は、
前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項1~4のいずれか1項に記載の情報処理装置。 The generator is
As the auxiliary information, character information indicating the operation content or character information explaining the meaning of terms related to the operation content is generated.
The output control unit
Displaying the character information on the screen of the listener's terminal device,
The information processing apparatus according to any one of claims 1 to 4.
前記補助情報として、文字の大きさが拡大または縮小された前記文字情報を生成する、
前記出力制御部は、
前記文字の大きさが拡大または縮小された前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項5に記載の情報処理装置。 The generator is
As the auxiliary information, the character information in which the size of the character is enlarged or reduced is generated.
The output control unit
The character information in which the size of the character is enlarged or reduced is displayed on the screen of the terminal device of the listener.
The information processing apparatus according to claim 5.
前記補助情報として、ひらがな、カタカナ、漢字またはローマ字で表記された前記文字情報を生成し、
前記出力制御部は、
前記ひらがな、前記カタカナ、前記漢字または前記ローマ字で表記された前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項5または6に記載の情報処理装置。 The generator is
As the auxiliary information, the character information written in hiragana, katakana, kanji or romaji is generated.
The output control unit
The character information expressed in the hiragana, the katakana, the kanji, or the romaji is displayed on the screen of the terminal device of the listener.
The information processing apparatus according to claim 5 or 6.
前記補助情報として、日本語以外の他の言語に翻訳された前記文字情報を生成し、
前記出力制御部は、
前記他の言語に翻訳された前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項5~7のいずれか1項に記載の情報処理装置。 The generator is
As the auxiliary information, the character information translated into a language other than Japanese is generated.
The output control unit
The character information translated into the other language is displayed on the screen of the terminal device of the listener.
The information processing apparatus according to any one of claims 5 to 7.
前記生成部は、
前記判定部によって前記聞き手が前記操作に困難をきたしていると判定された場合に、前記補助情報を生成する、
請求項1~8のいずれか1項に記載の情報処理装置。 Further, a determination unit for determining whether or not the listener has difficulty in the operation related to the operation content based on the listener's information is provided.
The generator is
When the determination unit determines that the listener is having difficulty in the operation, the auxiliary information is generated.
The information processing apparatus according to any one of claims 1 to 8.
前記出力制御部は、
前記判定部によって判定されたタイミングに関する情報を前記伝え手の端末装置に出力するよう制御する、
請求項1~9のいずれか1項に記載の情報処理装置。 Further, a determination unit for determining the timing at which the operation content is transmitted from the transmitter to the listener based on the listener's information is provided.
The output control unit
Controlled to output information regarding the timing determined by the determination unit to the terminal device of the transmitter.
The information processing apparatus according to any one of claims 1 to 9.
前記補助情報として、前記操作対象に対する見本操作を撮像した見本動画を生成し、
前記出力制御部は、
前記見本動画を前記聞き手の端末装置の画面に表示するよう制御する、
請求項1~10のいずれか1項に記載の情報処理装置。 The generator is
As the auxiliary information, a sample moving image of the sample operation for the operation target is generated.
The output control unit
Controlling the display of the sample moving image on the screen of the listener's terminal device,
The information processing apparatus according to any one of claims 1 to 10.
前記出力制御部は、
前記操作動画を前記伝え手の端末装置の画面に表示するよう制御する、
請求項1~11のいずれか1項に記載の情報処理装置。 Further provided with an acquisition unit for acquiring an operation moving image of an operation of the operation target by the listener.
The output control unit
Controlling the operation video to be displayed on the screen of the terminal device of the transmitter,
The information processing apparatus according to any one of claims 1 to 11.
前記聞き手の操作に対する前記伝え手の評価を示す評価情報を取得し、
前記出力制御部は、
前記評価情報を前記聞き手の端末装置に出力するよう制御する、
請求項12に記載の情報処理装置。 The acquisition unit
Obtaining evaluation information indicating the evaluation of the transmitter with respect to the operation of the listener,
The output control unit
Controlled to output the evaluation information to the listener's terminal device.
The information processing apparatus according to claim 12.
遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する生成工程と、
前記生成工程によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御工程と、
を含む情報処理方法。 It is an information processing method executed by a computer.
Based on the information of the listener who is a participant of the remote communication, the operation content transmitted from the transmitter who is the participant of the remote communication to the listener, and the operation content for the operation target operated by the listener. The generation process to generate supplementary information and
An output control step that controls the auxiliary information generated by the generation step to be output to the listener's terminal device, and
Information processing methods including.
前記生成手順によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 Based on the information of the listener who is a participant of the remote communication, the operation content transmitted from the transmitter who is the participant of the remote communication to the listener, and the operation content for the operation target operated by the listener. The generation procedure to generate supplementary information and
An output control procedure for controlling the auxiliary information generated by the generation procedure to be output to the listener's terminal device, and an output control procedure.
An information processing program characterized by having a computer execute.
前記情報処理装置は、
遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する生成部と、
前記生成部によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御部と、
を備え、
前記参加者である聞き手の端末装置は、
前記生成部によって生成された前記補助情報を出力する、
情報処理システム。 An information processing system that includes an information processing device and a terminal device of a participant in remote communication.
The information processing device is
Based on the information of the listener who is a participant of the remote communication, the operation content transmitted from the transmitter who is the participant of the remote communication to the listener, and the operation content for the operation target operated by the listener. A generator that generates supplementary information,
An output control unit that controls the auxiliary information generated by the generation unit to be output to the listener's terminal device.
Equipped with
The terminal device of the listener who is the participant
Outputs the auxiliary information generated by the generator.
Information processing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020163922A JP7152454B2 (en) | 2020-09-29 | 2020-09-29 | Information processing device, information processing method, information processing program, and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020163922A JP7152454B2 (en) | 2020-09-29 | 2020-09-29 | Information processing device, information processing method, information processing program, and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022056109A true JP2022056109A (en) | 2022-04-08 |
JP7152454B2 JP7152454B2 (en) | 2022-10-12 |
Family
ID=80999051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020163922A Active JP7152454B2 (en) | 2020-09-29 | 2020-09-29 | Information processing device, information processing method, information processing program, and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7152454B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11212946A (en) * | 1998-01-22 | 1999-08-06 | Tsubasa System Kk | Remote guidance method |
US20130325970A1 (en) * | 2012-05-30 | 2013-12-05 | Palo Alto Research Center Incorporated | Collaborative video application for remote servicing |
-
2020
- 2020-09-29 JP JP2020163922A patent/JP7152454B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11212946A (en) * | 1998-01-22 | 1999-08-06 | Tsubasa System Kk | Remote guidance method |
US20130325970A1 (en) * | 2012-05-30 | 2013-12-05 | Palo Alto Research Center Incorporated | Collaborative video application for remote servicing |
Also Published As
Publication number | Publication date |
---|---|
JP7152454B2 (en) | 2022-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11114091B2 (en) | Method and system for processing audio communications over a network | |
EP3190512B1 (en) | Display device and operating method therefor | |
US10741172B2 (en) | Conference system, conference system control method, and program | |
US11330342B2 (en) | Method and apparatus for generating caption | |
JP2003345379A6 (en) | Audio-video conversion apparatus and method, audio-video conversion program | |
CN112236817A (en) | Low latency neighbor group translation | |
WO2001045088A1 (en) | Electronic translator for assisting communications | |
JP2003345379A (en) | Audio video conversion apparatus and method, and audio video conversion program | |
KR102390187B1 (en) | Method and system for providing translation for conference assistance | |
US20180286388A1 (en) | Conference support system, conference support method, program for conference support device, and program for terminal | |
US20200327893A1 (en) | Information processing device and information processing method | |
US20180288109A1 (en) | Conference support system, conference support method, program for conference support apparatus, and program for terminal | |
US20180288110A1 (en) | Conference support system, conference support method, program for conference support device, and program for terminal | |
JP7194507B2 (en) | CONFERENCE SYSTEM, CONFERENCE SYSTEM CONTROL METHOD AND PROGRAM | |
EP4322090A1 (en) | Information processing device and information processing method | |
JP2022056109A (en) | Information processing device, information processing method, information processing program, and information processing system | |
US9697851B2 (en) | Note-taking assistance system, information delivery device, terminal, note-taking assistance method, and computer-readable recording medium | |
JP2004334207A (en) | Assistance for dynamic pronunciation for training of japanese and chinese speech recognition system | |
US20170351651A1 (en) | Smart bookmark device and bookmark synchronization system | |
Hughes et al. | Voice Interaction for Accessible Immersive Video Players. | |
JP2020119043A (en) | Voice translation system and voice translation method | |
US20240347045A1 (en) | Information processing device, information processing method, and program | |
JP2013168158A (en) | Exemplar descriptions of homophones to assist visually impaired users | |
JP7471979B2 (en) | Meeting Support System | |
KR20230021297A (en) | An apparatus and method for providing conversational english lecturing contents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7152454 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |