JP7152454B2 - Information processing device, information processing method, information processing program, and information processing system - Google Patents
Information processing device, information processing method, information processing program, and information processing system Download PDFInfo
- Publication number
- JP7152454B2 JP7152454B2 JP2020163922A JP2020163922A JP7152454B2 JP 7152454 B2 JP7152454 B2 JP 7152454B2 JP 2020163922 A JP2020163922 A JP 2020163922A JP 2020163922 A JP2020163922 A JP 2020163922A JP 7152454 B2 JP7152454 B2 JP 7152454B2
- Authority
- JP
- Japan
- Prior art keywords
- listener
- information
- information processing
- terminal device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 140
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000004891 communication Methods 0.000 claims description 61
- 238000000034 method Methods 0.000 claims description 25
- 238000011156 evaluation Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 20
- 230000004048 modification Effects 0.000 description 20
- 238000012986 modification Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 206010048865 Hypoacusis Diseases 0.000 description 6
- 239000013589 supplement Substances 0.000 description 6
- 208000032041 Hearing impaired Diseases 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 208000001528 Coronaviridae Infections Diseases 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、情報処理装置、情報処理方法、情報処理プログラム及び情報処理システムに関する。 The present invention relates to an information processing device, an information processing method, an information processing program, and an information processing system.
近年、遠隔コミュニケーションに関する技術の開発がますます盛んになっている。遠隔コミュニケーションでは、遠隔地にいる相手の映像や音声などを相互に通信することでコミュニケーションを図る。 In recent years, the development of technology related to remote communication has become more and more popular. In remote communication, communication is achieved by mutual communication of images, voices, etc. of a partner at a remote location.
しかしながら、上記の従来技術では、対面によるコミュニケーションと比べると、伝え手から聞き手に対して複雑な操作内容を正確に伝達することが困難な場合がある。遠隔コミュニケーションにおける複雑な操作内容の伝達を支援可能にする技術が求められている。 However, with the above-described conventional technology, it may be difficult for the sender to accurately convey complicated operation details to the listener compared to face-to-face communication. There is a demand for a technology that can support the transmission of complicated operation details in remote communication.
実施形態に係る情報処理装置は、遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する生成部と、前記生成部によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御部と、を備える。 An information processing apparatus according to an embodiment provides an operation content transmitted from a transmitter who is a participant in remote communication to the listener based on information about the listener who is a participant in the remote communication. a generation unit that generates auxiliary information that supplements the operation content for the operation target operated by the , and an output control unit that controls to output the auxiliary information generated by the generation unit to the terminal device of the listener.
以下に、本願に係る情報処理装置、情報処理方法、情報処理プログラム及び情報処理システムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、情報処理プログラム及び情報処理システムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for implementing an information processing apparatus, an information processing method, an information processing program, and an information processing system (hereinafter referred to as "embodiments") according to the present application will be described in detail with reference to the drawings. Note that the information processing apparatus, information processing method, information processing program, and information processing system according to the present application are not limited to these embodiments. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
(実施形態)
〔1.はじめに〕
近年、新型コロナウイルス感染症対策等により、テレワークを導入する企業が増加している。また、テレワーク導入に伴い、ビデオ会議やWeb会議といった遠隔コミュニケーションを利用する機会がますます増加している。例えば、遠隔コミュニケーションを利用して、伝え手から聞き手に対して、聞き手が操作する操作対象に対する操作内容を伝達する機会も増加している。
(embodiment)
[1. Introduction]
In recent years, an increasing number of companies have introduced telework as a countermeasure against the new coronavirus infection. In addition, with the introduction of telework, there are more and more opportunities to use remote communication such as video conferences and web conferences. For example, using remote communication, there are increasing opportunities for a sender to transmit to a listener the details of an operation performed on an operation target operated by the listener.
一般的に、遠隔コミュニケーションにおける操作内容の伝達は、対面での操作内容の伝達と比べると、複雑な操作内容を伝達することが難しいと言われている。例えば、遠隔コミュニケーションで操作内容を伝達する場合、伝え手は実際の操作対象が手元にない状態で聞き手に対して操作対象に対する操作内容を伝える必要があるため、複雑な操作内容を伝達することが難しい場合がある。また、聞き手は伝え手から伝達される操作内容を言語情報のみで理解する必要があるため、複雑な操作内容を理解することが難しい場合がある。 In general, it is said that it is more difficult to convey complicated operation details in remote communication than in face-to-face communication. For example, when transmitting operation details by remote communication, the transmitter needs to communicate the operation details of the operation target to the listener when the actual operation target is not at hand, so it is possible to transmit complicated operation details. It can be difficult. In addition, since the listener needs to understand the content of the operation transmitted from the sender only with verbal information, it may be difficult for the listener to understand the content of the complicated operation.
そこで近年、遠隔コミュニケーションでの複雑な操作内容の伝達を助けるための技術が開発されている。例えば、遠隔地にいる伝え手の3次元ホログラフィックを現場の聞き手に提供することで、ミス軽減や伝達速度の向上に繋げる技術が知られている(参考URL:https://dynamics.microsoft.com/en-us/mixed-reality/overview/)。しかしながら、複雑な操作内容を伝達するにあたり、視覚情報、聴覚情報、触覚情報が豊富な対面での伝達に匹敵または対抗できるオンライン環境を提供するには、改善の余地がある。具体的には、遠隔コミュニケーションにおいて、より使い勝手がよく、かつ、様々なケースを吸収できる仕組みが必要である。例えば、聞き手の属性に応じて伝達内容を最適化する仕組み、聞き手の意思に応じた伝達内容をリアルタイムで提供する仕組み、聞き手が所在する現場の状況に応じたタイミングで伝達内容を提供する仕組み、そして精密な操作内容を提供する仕組みなどが望まれている。 Therefore, in recent years, techniques have been developed for assisting transmission of complicated operation contents in remote communication. For example, there is a known technology that reduces mistakes and improves communication speed by providing a 3D holographic image of a remote speaker to a listener on site (Reference URL: https://dynamics.microsoft.com/). com/en-us/mixed-reality/overview/). However, there is room for improvement in providing an online environment that can compete with or compete with face-to-face communication, which is rich in visual, auditory, and tactile information, in communicating complex operational content. Specifically, in remote communication, there is a need for a mechanism that is more user-friendly and can absorb various cases. For example, a mechanism to optimize the content of communication according to the attributes of the listener, a mechanism to provide the content of communication according to the intention of the listener in real time, a mechanism to provide the content of communication at the timing according to the situation of the site where the listener is located, There is also a demand for a mechanism that provides precise operation details.
ここで、図1を用いて、比較例に係る情報処理の一例について説明する。図1は、比較例に係る情報処理の一例を示す図である。図1では、遠隔コミュニケーションを用いて、伝え手である参加者U11(以下、「伝え手U11」ともいう)が聞き手である参加者U21およびU22(以下、「聞き手U21およびU22」ともいう)に対して、聞き手が操作する装置Aに対する操作内容を伝達している。 Here, an example of information processing according to a comparative example will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of information processing according to a comparative example. In FIG. 1, using remote communication, a participant U11 who is a communicator (hereinafter also referred to as “communicator U11”) communicates with participants U21 and U22 who are listeners (hereinafter also referred to as “listeners U21 and U22”). On the other hand, the content of the operation for the device A operated by the listener is transmitted.
また、聞き手U21およびU22は、それぞれヘッドマウントディスプレイである端末装置10-21および端末装置10-22を装着しており、端末装置10-21および端末装置10-22それぞれを通して伝え手U11の画像G1を見ることができる。また、聞き手U21およびU22は、端末装置10-21および端末装置10-22にそれぞれ搭載されたスピーカーを通して、伝え手U11の音声を聞くことができる。 Listeners U21 and U22 wear terminal devices 10-21 and 10-22, which are head-mounted displays, respectively. can see Listeners U21 and U22 can hear the voice of the communicator U11 through speakers installed in the terminal devices 10-21 and 10-22, respectively.
また、2人の聞き手のうち、聞き手U21は、装置Aに対する操作の経験を有する経験者である。また、聞き手U22は、装置Aに対する操作の経験を有しない未経験者であり、かつ、音が聞こえにくい状態(難聴)である。図1に示すように、比較例では、聞き手の属性に関わらず、聞き手U21およびU22に対して同じ情報が伝達される。そのため、難聴である聞き手U22にとっては、伝え手U11の音声が聞き取りづらく、操作内容の伝達自体が困難な場合があった。また、未経験者である聞き手U22にとっては、馴染みのない専門用語が頻繁に登場するため、伝達される操作内容を理解することが困難な場合があった。 Also, of the two listeners, the listener U21 is an experienced person who has experience operating the device A. FIG. Also, the listener U22 is an inexperienced person who has no experience of operating the device A, and is in a state where it is difficult to hear sounds (hard of hearing). As shown in FIG. 1, in the comparative example, the same information is transmitted to listeners U21 and U22 regardless of the attributes of the listeners. For this reason, the hearing-impaired listener U22 may find it difficult to hear the voice of the transmitter U11, making it difficult to transmit the operation content itself. In addition, for the inexperienced listener U22, unfamiliar technical terms frequently appear, so there are cases where it is difficult for the listener U22 to understand the transmitted operation details.
そこで、本願発明は、遠隔コミュニケーションの参加者である聞き手の属性情報に基づいて、遠隔コミュニケーションの参加者である伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を聞き手の端末装置に出力するよう制御する。これにより、本願発明は、伝え手によって伝達される操作内容に加えて、聞き手の属性に応じた補助情報を提供することができるので、遠隔コミュニケーションでの複雑な操作内容の伝達を助けることができる。したがって、本願発明は、遠隔コミュニケーションにおける複雑な操作内容の伝達を支援可能にすることができる。 Therefore, according to the present invention, based on the attribute information of the listener who is a participant in the remote communication, the operation content transmitted from the transmitter who is a participant in the remote communication to the listener is an operation target operated by the listener. control so that auxiliary information that supplements the operation content for the listener is output to the terminal device of the listener. As a result, the present invention can provide supplementary information according to the attributes of the listener in addition to the operational details transmitted by the sender, so that it is possible to assist the transmission of complicated operational details in remote communication. . Therefore, the present invention can support transmission of complicated operation contents in remote communication.
〔2.情報処理の一例〕
次に、図2を用いて、実施形態に係る情報処理の一例について説明する。図2は、実施形態に係る情報処理の一例を示す図である。図2に示す情報処理は、実施形態に係る情報処理システム1によって実現される。情報処理システム1には、端末装置10と、情報処理装置100とが含まれる。以下の説明では、実施形態に係る情報処理として、端末装置10および情報処理装置100が協働して行う情報処理について説明する。本実施形態では、情報処理装置100は、実施形態に係る情報処理プログラムを実行し、端末装置10と協働することで、実施形態に係る情報処理を行う。
[2. Example of information processing]
Next, an example of information processing according to the embodiment will be described using FIG. FIG. 2 is a diagram illustrating an example of information processing according to the embodiment; The information processing shown in FIG. 2 is implemented by the information processing system 1 according to the embodiment. The information processing system 1 includes a
図2の説明に先立って、図3を用いて、実施形態に係る情報処理システム1の構成について説明する。図3は、実施形態に係る情報処理システム1の構成例を示す図である。図3に示すように、情報処理システム1には、端末装置10と、情報処理装置100とが含まれる。端末装置10と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図3に示す情報処理システム1には、任意の数の端末装置10と任意の数の情報処理装置100とが含まれてもよい。
Prior to the description of FIG. 2, the configuration of the information processing system 1 according to the embodiment will be described using FIG. FIG. 3 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 3 , the information processing system 1 includes a
端末装置10は、遠隔コミュニケーションの参加者(以下、「参加者」ともいう)によって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)や、ヘッドマウントディスプレイ等である。本実施形態では、聞き手の端末装置10は、ヘッドマウントディスプレイであるものとする。また、伝え手の端末装置10は、ノート型PCであるものとする。
The
また、端末装置10には、遠隔コミュニケーションシステムを利用するためのアプリケーション(以下、「遠隔コミュニケーションアプリ」ともいう)がインストールされている。端末装置10は、遠隔コミュニケーションアプリに対する操作を行うための各種画像(例えば、ツールバーやアイコン等)を画面に表示する。また、端末装置10には、カメラ、マイク、スピーカーなどの機能を有するデバイスが搭載または接続されている。端末装置10は、それぞれのデバイスから入力された映像や音声を複数の拠点間で送受信する。
An application for using the remote communication system (hereinafter also referred to as “remote communication application”) is installed in the
また、端末装置10には、参加者の物理的な状態を検知する各種のセンサが搭載または接続されている。例えば、端末装置10には、上述したカメラやマイクといったセンサが接続されている。端末装置10は、各種のセンサによって、参加者の物理的な状態を示すセンサ情報を検出する。例えば、端末装置10は、センサ情報の一例として、カメラによって参加者の画像を検出する。端末装置10は、センサ情報を検出すると、検出したセンサ情報を情報処理装置100に送信する。
In addition, the
また、端末装置10は、情報処理装置100から補助情報を受信する。端末装置10は、補助情報を受信すると、補助情報を出力する。例えば、端末装置10は、補助情報が画像である場合には、補助情報を画面に表示する。また、端末装置10は、補助情報が音声である場合には、補完情報をスピーカーから出力する。
The
なお、図3に示すように、端末装置10を利用する参加者に応じて、端末装置10を端末装置10-1~10-N(Nは自然数)のように区別して説明する場合がある。例えば、端末装置10-21は、図2に示す参加者U21によって利用される端末装置10である。また、例えば、端末装置10-22は、図2に示す参加者U22によって利用される端末装置10である。また、以下では、端末装置10-1~10-N(Nは自然数)について、特に区別なく説明する場合には、端末装置10と記載する。
Note that, as shown in FIG. 3, the
情報処理装置100は、端末装置10から聞き手の情報を取得する。具体的には、情報処理装置100は、端末装置10から聞き手のセンサ情報を取得する。情報処理装置100は、聞き手のセンサ情報を取得すると、取得した聞き手のセンサ情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。続いて、情報処理装置100は、聞き手が操作内容に関する操作に困難をきたしていると判定した場合、聞き手の属性情報に基づいて、伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する。また、情報処理装置100は、生成した補助情報を聞き手の端末装置10に出力するよう制御する。具体的には、情報処理装置100は、生成した補助情報を聞き手の端末装置10に送信する。
The
ここから、図2の説明に戻る。図2では、図1と同様に、遠隔コミュニケーションを用いて、伝え手U11が聞き手U21およびU22に対して、聞き手が操作する装置Aに対する操作内容を伝達している。ここで、図2に示す例では、情報処理装置100が、聞き手U22の属性情報に基づいて、装置Aに対する操作内容を補う補助情報を聞き手U22の端末装置10-22に出力する点が図1と異なる。
From here, the description returns to FIG. In FIG. 2, as in FIG. 1, the communicator U11 uses remote communication to communicate to listeners U21 and U22 the details of the operation of the device A operated by the listeners. Here, in the example shown in FIG. 2, the
図示は省略するが、まず、聞き手U22が、「わからない単語が多いし、声が聞き取りづらいです。」と発言したとする。このとき、聞き手U22が装着している端末装置10-22に搭載されたマイクは、聞き手U22の発言の音声を検出する。続いて、端末装置10-22は、聞き手U22の発言の音声を検出すると、検出した音声データを情報処理装置100に送信する。
Although illustration is omitted, first, it is assumed that the listener U22 says, "There are many words I do not understand, and it is difficult to hear the voice." At this time, the microphone mounted on the terminal device 10-22 worn by the listener U22 detects the speech of the listener U22. Subsequently, when the terminal device 10-22 detects the speech of the listener U22, the terminal device 10-22 transmits the detected speech data to the
情報処理装置100は、端末装置10-22から聞き手U22の音声データを取得する。続いて、情報処理装置100は、聞き手U22の音声データを取得すると、取得した聞き手U22の音声データに基づいて、聞き手U22が操作内容に関する操作に困難をきたしているか否かを判定する。図2では、情報処理装置100は、聞き手U22が操作内容に関する操作に困難をきたしていると判定する。
The
情報処理装置100は、聞き手U22が操作内容に関する操作に困難をきたしていると判定した場合、聞き手U22が難聴であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容を文字にした字幕を含む画像G21を生成する。続いて、情報処理装置100は、生成した画像G21を聞き手U22の端末装置10-22に表示するよう制御する。
When the
これにより、情報処理装置100は、難聴である聞き手U22が伝え手U11の音声を聞き取りづらい場合であっても、補助情報である字幕を含む画像G21により視覚的に操作内容を知覚することを可能にする。したがって、情報処理装置100は、難聴である聞き手U22に対する操作内容の伝達を助けることができる。
As a result, the
また、情報処理装置100は、聞き手U22が操作内容に関する操作に困難をきたしていると判定した場合、聞き手U22が未経験者であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容に登場する専門用語の意味を文字にした字幕を含む画像G22を生成する。続いて、情報処理装置100は、生成した画像G22を聞き手U22の端末装置10-22に表示するよう制御する。
Further, when the
これにより、情報処理装置100は、未経験者である聞き手U22にとって馴染みのない専門用語が頻繁に登場する場合であっても、補助情報である字幕を含む画像G22により専門用語の意味をその都度確認可能にすることができる。したがって、情報処理装置100は、未経験者である聞き手U22が操作内容を理解するのを助けることができる。
As a result, even when technical terms unfamiliar to the inexperienced listener U22 appear frequently, the
〔3.情報処理装置の構成〕
次に、図4を用いて、実施形態に係る情報処理装置100の構成について説明する。図4は、実施形態に係る情報処理装置100の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示させるための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Configuration of Information Processing Device]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、図4に示すように、参加者情報記憶部121とセンサ情報記憶部122を有する。
(storage unit 120)
The
(参加者情報記憶部121)
参加者情報記憶部121は、参加者の属性に関する各種の情報を記憶する。具体的には、参加者情報記憶部121は、参加者を識別可能な識別情報(参加者IDともいう)と参加者の属性情報とを対応付けて記憶する。図5を用いて、参加者情報記憶部121の一例について説明する。図5は、実施形態に係る参加者情報記憶部の一例を示す図である。
(Participant information storage unit 121)
The participant
図5に示す例では、参加者情報記憶部121は、装置Aに対する操作の経験者であることを示す参加者U21の属性情報である「経験者」と参加者U21の参加者ID「U21」とを対応付けて記憶する。また、参加者情報記憶部121は、装置Aに対する操作の未経験者であることを示す参加者U22の属性情報である「未経験者」および音が聞こえづらい状態であることを示す参加者U22の属性情報である「難聴」と参加者U22の参加者ID「U22」とを対応付けて記憶する。
In the example shown in FIG. 5, the participant
(センサ情報記憶部122)
センサ情報記憶部122は、参加者の物理的な状態を示す各種のセンサ情報を記憶する。具体的には、センサ情報記憶部122は、参加者を識別可能な識別情報(参加者IDともいう)と参加者のセンサ情報とを対応付けて記憶する。
(Sensor information storage unit 122)
The sensor
図2に示す例では、センサ情報記憶部122は、参加者U11の画像データおよび音声データと参加者U11の参加者ID「U11」とを対応付けて記憶する。センサ情報記憶部122は、参加者U21の画像データおよび音声データと参加者U21の参加者ID「U21」とを対応付けて記憶する。また、センサ情報記憶部122は、参加者U22の画像データおよび音声データと参加者U22の参加者ID「U22」とを対応付けて記憶する。
In the example shown in FIG. 2, the sensor
(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(control unit 130)
Returning to the description of FIG. 4, the
図4に示すように、制御部130は、取得部131と、判定部132と、生成部133と、出力制御部134とを有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 4, the
(取得部131)
取得部131は、端末装置10から参加者の情報を取得する。具体的には、取得部131は、端末装置10から聞き手の情報を取得する。また、取得部131は、端末装置10から聞き手のセンサ情報を取得する。例えば、取得部131は、端末装置10から聞き手の画像データおよび音声データを取得する。続いて、取得部131は、聞き手のセンサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部122に格納する。
(Acquisition unit 131)
The
また、取得部131は、端末装置10から伝え手の情報を取得する。具体的には、取得部131は、端末装置10から伝え手のセンサ情報を取得する。例えば、取得部131は、端末装置10から伝え手の画像データおよび音声データを取得する。続いて、取得部131は、伝え手のセンサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部122に格納する。
Also, the
(判定部132)
判定部132は、聞き手の情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。具体的には、判定部132は、取得部131によって取得された聞き手のセンサ情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。
(Determination unit 132)
The
例えば、判定部132は、取得部131によって取得された聞き手の音声データに基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。例えば、判定部132は、公知の音声認識技術を用いて、取得部131によって取得された聞き手の音声データを文字列に変換する。図2に示す例では、判定部132は、聞き手U22の音声データを文字列である「わからない単語が多いし、声が聞き取りづらいです。」に変換する。
For example, the
続いて、判定部132は、変換した文字列を形態素解析して、単語に分解する。続いて、判定部132は、分解された単語の中に特定の単語が含まれるか否かを判定する。例えば、判定部132は、聞き手が操作内容に関する操作に困難をきたしている場合に発せられやすい単語リスト(以下、単語リストともいう)に含まれる単語が分解された単語の中に含まれるか否かを判定する。例えば、単語リストには、「わからない」、「困った」、「聞き取りづらい」などの単語が含まれているとする。図2に示す例では、判定部132は、分解された単語の中に単語リストに含まれる単語である「わからない」と「聞き取りづらい」が含まれると判定する。
Subsequently, the
続いて、判定部132は、分解された単語の中に特定の単語が含まれると判定した場合、聞き手が操作内容に関する操作に困難をきたしていると判定する。一方、判定部132は、分解された単語の中に特定の単語が含まれないと判定した場合、聞き手が操作内容に関する操作に困難をきたしていないと判定する。図2に示す例では、判定部132は、分解された単語の中に単語リストに含まれる単語である「わからない」と「聞き取りづらい」が含まれると判定したので、聞き手U22が操作内容に関する操作に困難をきたしていると判定する。
Subsequently, when determining that a specific word is included in the decomposed words, the
(生成部133)
生成部133は、遠隔コミュニケーションの参加者である聞き手の情報に基づいて、遠隔コミュニケーションの参加者である伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する。具体的には、生成部133は、判定部132によって聞き手が操作に困難をきたしていると判定された場合に、補助情報を生成する。例えば、生成部133は、聞き手の情報の一例として、聞き手の属性に関する属性情報に基づいて、補助情報を生成する。
(Generating unit 133)
Based on the information of the listener who is a participant in the remote communication, the generating
図2に示す例では、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、参加者情報記憶部121を参照して、聞き手U22の属性情報を取得する。例えば、生成部133は、聞き手U22が難聴であるという属性情報を取得する。続いて、生成部133は、聞き手U22が難聴であるという属性情報を取得すると、聞き手U22が難聴であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容を文字にした字幕を含む画像G21を生成する。例えば、生成部133は、センサ情報記憶部122を参照して、伝え手U11の音声データを取得する。続いて、生成部133は、公知の音声認識技術を用いて、伝え手U11の音声データを文字列に変換する。続いて、生成部133は、変換した文字列に基づいて、伝え手U11によって伝達される操作内容を文字にした字幕を含む画像G21を生成する。
In the example shown in FIG. 2 , when the
また、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、参加者情報記憶部121を参照して、聞き手U22が未経験者であるという属性情報を取得する。続いて、生成部133は、聞き手U22が未経験者であるという属性情報を取得すると、聞き手U22が未経験者であるという属性情報に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容に登場する専門用語の意味を文字にした字幕を含む画像G22を生成する。例えば、生成部133は、センサ情報記憶部122を参照して、伝え手U11の音声データを取得する。続いて、生成部133は、公知の音声認識技術を用いて、伝え手U11の音声データを文字列に変換する。続いて、生成部133は、変換した文字列の中から伝え手U11によって伝達される操作内容に登場する専門用語を抽出する。続いて、生成部133は、専門用語の意味が掲載された辞書等を参照して、抽出した専門用語の意味を文字にした字幕を含む画像G22を生成する。
In addition, when the
(出力制御部134)
出力制御部134は、生成部133によって生成された補助情報を聞き手の端末装置10に出力するよう制御する。具体的には、出力制御部134は、生成部133によって補助情報が生成されると、生成部133によって生成された補助情報を聞き手の端末装置10に送信する。図2に示す例では、出力制御部134は、生成部133によって画像G21および画像G22が生成されると、生成された画像G21および画像G22を聞き手U22の端末装置10-22に送信する。
(Output control unit 134)
The
〔4.変形例〕
上述した実施形態に係る情報処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
[4. Modification]
The information processing system 1 according to the above-described embodiments may be implemented in various different forms other than the above-described embodiments. Therefore, other embodiments of the information processing system 1 will be described below. In addition, the same code|symbol is attached|subjected to the same part as embodiment, and description is abbreviate|omitted.
〔4-1.第1の変形例〕
まず、図6を用いて、第1の変形例に係る情報処理について説明する。図6は、第1の変形例に係る情報処理の一例を示す図である。図6では、図2と同様に、遠隔コミュニケーションを用いて、伝え手U11が聞き手U21およびU22に対して、聞き手が操作する装置Aに対する操作内容を伝達している。ここで、図6に示す例では、情報処理装置100が、聞き手U22が所在する現場の音声情報に基づいて、装置Aに対する操作内容を補う補助情報を聞き手U22の端末装置10-22に出力する点が図2と異なる。
[4-1. First modification]
First, with reference to FIG. 6, information processing according to the first modified example will be described. FIG. 6 is a diagram illustrating an example of information processing according to the first modification. In FIG. 6, as in FIG. 2, using remote communication, the transmitter U11 communicates to listeners U21 and U22 the details of the operation of device A operated by the listeners. Here, in the example shown in FIG. 6, the
図示は省略するが、まず、聞き手U22が、「読めない漢字があるので、ひらがなにしてほしい。あと、文字をもっと大きくしてほしい。」と発言したとする。このとき、聞き手U22が装着している端末装置10-22に搭載されたマイクは、聞き手U22の発言の音声を検出する。続いて、端末装置10-22は、聞き手U22の発言の音声を検出すると、検出した音声データを情報処理装置100に送信する。
Although illustration is omitted, first, it is assumed that the listener U22 says, "Since there are some kanji characters that I cannot read, I want you to write them in hiragana. Also, I want you to make the characters larger." At this time, the microphone mounted on the terminal device 10-22 worn by the listener U22 detects the speech of the listener U22. Subsequently, when the terminal device 10-22 detects the speech of the listener U22, the terminal device 10-22 transmits the detected speech data to the
取得部131は、端末装置10-22から聞き手U22の音声データを取得する。判定部132は、公知の音声認識技術を用いて、取得部131によって取得された聞き手U22の音声データを文字列である「読めない漢字があるので、ひらがなにしてほしい。あと、文字をもっと大きくしてほしい。」に変換する。
続いて、判定部132は、変換した文字列を形態素解析して、単語に分解する。続いて、判定部132は、上述した単語リストに含まれる単語が分解された単語の中に含まれるか否かを判定する。図6に示す例では、判定部132は、分解された単語の中に単語リストに含まれる単語である「読めない」と「してほしい」が含まれると判定する。
Subsequently, the
続いて、判定部132は、分解された単語の中に単語リストに含まれる単語である「読めない」と「してほしい」が含まれると判定したので、聞き手U22が操作内容に関する操作に困難をきたしていると判定する。
Subsequently, the
図6に示す例では、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、聞き手U22の音声データを変換した文字列に含まれる「ひらがなにしてほしい」に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容をひらがなで表記した字幕を含む画像G31を生成する。
In the example shown in FIG. 6 , when the
具体的には、生成部133は、聞き手U22の音声データを変換した文字列に含まれる「ひらがなにしてほしい」の意味を「ひらがなに変換してほしい」であると解析する。続いて、生成部133は、聞き手U22の音声データを変換した文字列を意味解析すると、記憶部120に記憶された処理リストを参照して、意味解析した結果に対応する処理を実行する。より具体的には、記憶部120は、「〇〇してほしい」という文字列と「〇〇」に対応する処理とが対応付けられた処理リストを記憶する。例えば、記憶部120は、「ひらがなに変換してほしい」という文字列と、ひらがなに変換する処理とが対応付けられた処理リストを記憶する。生成部133は、意味解析した結果である「ひらがなに変換してほしい」という文字列に対応する処理として、伝え手U11の音声データをひらがなに変換する処理を実行する。例えば、生成部133は、公知の音声認識技術を用いて、伝え手U11の音声データを文字列に変換する。続いて、生成部133は、変換した文字列をひらがなに変換する。続いて、生成部133は、伝え手U11によって伝達される操作内容をひらがなで表記した字幕を含む画像G31を生成する。
Specifically, the generating
また、生成部133は、判定部132によって聞き手U22が操作内容に関する操作に困難をきたしていると判定された場合、聞き手U22の音声データを変換した文字列に含まれる「文字をもっと大きくしてほしい」に基づいて、補助情報の一例として、伝え手U11によって伝達される操作内容を示す文字の大きさが拡大された字幕を含む画像G31を生成する。
In addition, when the
具体的には、生成部133は、聞き手U22の音声データを変換した文字列に含まれる「文字をもっと大きくしてほしい」の意味を「文字のサイズを拡大してほしい」であると解析する。生成部133は、聞き手U22の音声データを変換した文字列を意味解析すると、記憶部120に記憶された処理リストを参照して、意味解析した結果に基づく処理を実行する。例えば、記憶部120は、「文字のサイズを拡大してほしい」という文字列と、文字のサイズを拡大する処理とが対応付けられた処理リストを記憶する。生成部133は、意味解析した結果である「文字のサイズを拡大してほしい」という文字列に対応する処理として、伝え手U11によって伝達される操作内容を示す文字のサイズを拡大する処理を実行する。例えば、生成部133は、伝え手U11の音声データを変換した文字列に基づいて、伝え手U11によって伝達される操作内容を示す文字のサイズを拡大した字幕を含む画像G31を生成する。
Specifically, the
出力制御部134は、生成部133によって画像G31が生成されると、生成された画像G31を聞き手U22の端末装置10-22に送信する。
When the image G31 is generated by the
図6では、生成部133が、補助情報の一例として、伝え手U11によって伝達される操作内容をひらがなで表記した文字情報を生成する例について説明したが、ひらがな以外で表記した文字情報を生成してもよい。例えば、生成部133は、補助情報の一例として、カタカナ、漢字またはローマ字で表記された文字情報を生成してもよい。
FIG. 6 illustrates an example in which the
なお、生成部133は、補助情報の一例として、日本語以外の他の言語に翻訳された文字情報を生成してもよい。例えば、生成部133は、聞き手の母国語が英語であるという属性情報に基づいて、伝え手によって伝達される操作内容を英語に翻訳した字幕を生成してもよい。
Note that the
また、図6では、生成部133が、補助情報の一例として、伝え手U11によって伝達される操作内容を示す文字の大きさが拡大された文字情報を生成する例について説明したが、これに限られない。例えば、生成部133は、補助情報の一例として、文字の大きさが縮小された文字情報を生成してもよい。
In addition, in FIG. 6, an example in which the
〔4-2.第2の変形例〕
次に、図7を用いて、第2の変形例に係る情報処理について説明する。図7は、第2の変形例に係る情報処理の一例を示す図である。図7では、遠隔コミュニケーションを用いて、伝え手U11が、同じ現場に所在する聞き手U23およびU24に対して、聞き手が操作する装置O1に対する操作内容を伝達している。
[4-2. Second modification]
Next, information processing according to the second modification will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of information processing according to the second modification. In FIG. 7, using remote communication, the communicator U11 communicates to listeners U23 and U24 located at the same site the details of the operation of the device O1 operated by the listeners.
取得部131は、聞き手U21およびU22が所在する現場の画像情報を取得する。例えば、取得部131は、聞き手U21およびU22が所在する現場に設置されたカメラC1から聞き手U21およびU22が所在する現場の画像情報を取得する。
判定部132は、聞き手U21およびU22が所在する現場の画像情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定する。具体的には、判定部132は、取得部131によって取得された現場の画像情報に基づいて、聞き手U21およびU22が操作内容を確認している最中であるか否かを判定する。
The
例えば、判定部132は、公知の物体認識技術を用いて、現場の画像情報に含まれる装置O1の領域を特定する。また、判定部132は、公知の姿勢推定技術を用いて、現場の画像情報に含まれる聞き手U21およびU22の人物領域を特定する。続いて、判定部132は、特定された聞き手U21およびU22のうち少なくともいずれか一方が装置O1に接触しているか否かを判定する。判定部132は、聞き手U21およびU22のうち少なくともいずれか一方が装置O1に接触していると判定した場合、聞き手U21およびU22が操作内容を確認している最中であると判定する。続いて、判定部132は、聞き手U21およびU22が操作内容を確認している最中であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングではないと判定する。
For example, the
生成部133は、判定部132によって伝え手から聞き手に対して操作内容を伝達するタイミングではないと判定された場合、次の操作内容を伝達するのを少し待つよう促す画像を生成する。出力制御部134は、生成部133によって次の操作内容を伝達するのを少し待つよう促す画像が生成されると、生成された画像を伝え手の端末装置10に表示するよう制御する。
When the
一方、判定部132は、聞き手U21およびU22のいずれも装置O1に接触していないと判定した場合、聞き手U21およびU22が操作内容を確認している最中ではないと判定する。続いて、判定部132は、聞き手U21およびU22が操作内容を確認している最中ではないと判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定する。
On the other hand, when determining that neither of the listeners U21 and U22 is touching the device O1, the
生成部133は、判定部132によって伝え手から聞き手に対して操作内容を伝達するタイミングであると判定された場合、次の操作内容を伝達するのを促す画像を生成してもよい。出力制御部134は、生成部133によって次の操作内容を伝達するのを促す画像が生成されると、生成された画像を伝え手の端末装置10に表示するよう制御してもよい。このようにして、出力制御部134は、判定部132によって判定されたタイミングに関する情報を伝え手の端末装置10に出力するよう制御する。
When the
図7では、判定部132が、聞き手U21およびU22が所在する現場の画像情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定する例について説明したが、聞き手の情報は画像情報でなくてもよい。具体的には、判定部132は、聞き手が所在する現場の音声情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定してもよい。判定部132は、現場の音声情報に基づいて、聞き手U21およびU22による発話がない状態が所定の時間以上であるか否かを判定する。判定部132は、例えば、聞き手U21およびU22による発話がない状態が所定の時間以上であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定してもよい。あるいは、判定部132は、現場の音声情報に基づいて、聞き手U21およびU22による発話に「OKです」といった文言が含まれるか否かを判定する。判定部132は、例えば、聞き手U21およびU22による発話に「OKです」といった文言が含まれると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定してもよい。
FIG. 7 describes an example in which the
また、判定部132は、聞き手が操作する装置O1から発生するシグナル情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定してもよい。例えば、判定部132は、聞き手が装置O1を操作している時のみ発生するシグナル情報を装置O1から取得することができる。続いて、判定部132は、取得したシグナル情報に基づいて、聞き手による操作が行われていない状態が所定の時間以上であるか否かを判定する。判定部132は、例えば、聞き手による操作が行われていない状態が所定の時間以上であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングであると判定してもよい。あるいは、判定部132は、取得したシグナル情報に基づいて、聞き手による操作が行われている状態が所定の時間以上であるか否かを判定する。判定部132は、例えば、聞き手による操作が行われている状態が所定の時間以上であると判定した場合、伝え手から聞き手に対して操作内容を伝達するタイミングではないと判定してもよい。
Further, the
〔4-3.第3の変形例〕
次に、図8を用いて、第3の変形例に係る情報処理について説明する。図8は、第3の変形例に係る情報処理の一例を示す図である。図8では、遠隔コミュニケーションを用いて、伝え手U11が、聞き手U25に対して、聞き手U25が操作するドローンのコントローラO25に対する操作内容を伝達している。
[4-3. Third modification]
Next, information processing according to the third modification will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of information processing according to the third modification. In FIG. 8, using remote communication, the communicator U11 communicates to the listener U25 the details of the operation of the controller O25 of the drone operated by the listener U25.
図8では、取得部131が、聞き手U25によるコントローラO25に対する操作を撮像した操作動画を取得する。例えば、取得部131は、眼鏡型のヘッドマウントディスプレイである聞き手U25の端末装置10-25に搭載されたカメラC25から、聞き手U25によるコントローラO25に対する操作を撮像した操作動画を取得する。出力制御部134は、取得部131によって取得された操作動画を伝え手U11の端末装置10の画面に表示するよう制御する。これにより、伝え手側は、取得部131によって取得された操作動画を繰り返し再生することができるため、聞き手側の評価をよりしやすくなる。
In FIG. 8, the
また、取得部131は、聞き手U25の操作に対する伝え手U11の評価を示す評価情報を伝え手U11の端末装置10から取得する。出力制御部134は、取得部131によって取得された評価情報を聞き手U25の端末装置10-25に出力するよう制御する。
In addition, the
〔4-4.第4の変形例〕
次に、図9を用いて、第4の変形例に係る情報処理について説明する。図9は、第4の変形例に係る情報処理の一例を示す図である。図9では、図8と同様に、遠隔コミュニケーションを用いて、伝え手U11が、聞き手U26に対して、聞き手U26が操作するドローンのコントローラO26に対する操作内容を伝達している。
[4-4. Fourth modification]
Next, information processing according to the fourth modification will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of information processing according to the fourth modification. In FIG. 9, as in FIG. 8, the communicator U11 uses remote communication to communicate to the listener U26 the details of the operation of the controller O26 of the drone operated by the listener U26.
図9では、生成部133が、聞き手の情報の一例として、聞き手U26がドローンを操作するのに用いられるコントローラO26の信号情報に基づいて、補助情報である見本動画G42を生成する。具体的には、取得部131は、聞き手U26のコントローラO26からコントローラO26の信号情報を取得する。続いて、判定部132は、取得部131によって取得された信号情報に基づいて、聞き手U26が操作内容に関する操作に困難をきたしているか否かを判定する。例えば、判定部132は、取得部131によって取得された信号情報に基づいて、聞き手U26が現在行っている操作を判定する。続いて、判定部132は、あらかじめ用意された操作手順に基づいて、聞き手U26が現在行っている操作が操作手順と比べてどの程度遅れているかを判定する。例えば、判定部132は、聞き手U26が現在行っている操作が操作手順と比べて所定の閾値を超えて遅れていると判定した場合には、聞き手U26が操作内容に関する操作に困難をきたしていると判定する。生成部133は、判定部132によって聞き手U26が操作内容に関する操作に困難をきたしていると判定された場合、ドローンに対する見本操作を撮像した見本動画G42を生成する。出力制御部134は、生成部133によって生成された見本動画G42を聞き手U26の端末装置10-26に表示するよう制御する。例えば、出力制御部134は、聞き手U26による実際の操作を撮像した動画G41の横に同じ大きさの見本動画G42が表示されるように制御する。
In FIG. 9, the
〔4-5.その他の変形例〕
生成部133は、聞き手の情報の一例として、聞き手が所在する現場の画像情報に基づいて、補助情報を生成してもよい。例えば、生成部133は、聞き手が所在する現場の画像情報に基づいて、補助情報の一例として、操作対象の操作部位を示す部位画像、または操作対象に対する操作方向を示す方向画像を生成する。
[4-5. Other Modifications]
The
また、生成部133は、聞き手が所在する現場の画像情報に基づいて、補助情報の一例として、操作対象の所定の領域を拡大した拡大画像を生成してもよい。例えば、生成部133は、操作対象の精密領域を拡大した拡大画像を生成する。
Further, the
〔5.効果〕
上述してきたように、実施形態に係る情報処理装置100は、生成部133と出力制御部134を備える。生成部133は、遠隔コミュニケーションの参加者である聞き手の情報に基づいて、遠隔コミュニケーションの参加者である伝え手から聞き手に対して伝達される操作内容であって、聞き手が操作する操作対象に対する操作内容を補う補助情報を生成する。出力制御部134は、生成部133によって生成された補助情報を聞き手の端末装置10に出力するよう制御する。また、生成部133は、聞き手の情報として、聞き手の属性に関する属性情報、聞き手が所在する現場の音声情報、聞き手が所在する現場の画像情報、または聞き手が操作対象を操作するのに用いられる制御装置の信号情報に基づいて、補助情報を生成する。
[5. effect〕
As described above, the
これにより、情報処理装置100は、伝え手によって伝達される操作内容に加えて、聞き手に応じた補助情報を提供することができるので、遠隔コミュニケーションでの複雑な操作内容の伝達を助けることができる。したがって、本願発明は、遠隔コミュニケーションにおける複雑な操作内容の伝達を支援可能にすることができる。
As a result, the
また、生成部133は、補助情報として、操作対象の操作部位を示す部位画像、または操作対象に対する操作方向を示す方向画像を生成する。出力制御部134は、部位画像または方向画像のうち少なくともいずれか1つを聞き手の端末装置10の画面に表示する。
In addition, the
これにより、情報処理装置100は、伝え手によって伝達される操作内容に加えて、操作対象の操作部位を示す部位画像、または操作対象に対する操作方向を示す方向画像を提供することができるので、遠隔コミュニケーションでの複雑な操作内容の伝達を助けることができる。
As a result, the
また、生成部133は、補助情報として、操作対象の所定の領域を拡大した拡大画像を生成する。出力制御部134は、拡大画像を聞き手の端末装置10の画面に表示する。
In addition, the
これにより、情報処理装置100は、例えば、精密領域を拡大して表示することができるので、遠隔コミュニケーションでの精密領域に関する操作内容の伝達を助けることができる。
As a result, the
また、生成部133は、補助情報として、操作内容を示す文字情報または操作内容に関する用語の意味を説明する文字情報を生成する。出力制御部134は、文字情報を聞き手の端末装置10の画面に表示する。
In addition, the
これにより、情報処理装置100は、例えば、難聴である聞き手が伝え手の音声を聞き取りづらい場合であっても、補助情報である文字情報により視覚的に操作内容を知覚することを可能にする。したがって、情報処理装置100は、例えば、難聴である聞き手に対する操作内容の伝達を助けることができる。また、情報処理装置100は、例えば、未経験者である聞き手にとって馴染みのない専門用語が頻繁に登場する場合であっても、補助情報である文字情報により専門用語の意味をその都度確認可能にすることができる。したがって、情報処理装置100は、例えば、未経験者である聞き手が操作内容を理解するのを助けることができる。
As a result, the
また、生成部133は、補助情報として、文字の大きさが拡大または縮小された文字情報を生成する。出力制御部134は、文字の大きさが拡大または縮小された文字情報を聞き手の端末装置10の画面に表示する。
In addition, the
これにより、情報処理装置100は、例えば、文字を大きくすることで、視力の低い聞き手が伝え手の操作内容を視覚的に知覚することを助けることができる。また、情報処理装置100は、例えば、文字を小さくすることで、聞き手の手元や操作対象の邪魔にならないように画面中に伝え手の操作内容を表示することができる。したがって、情報処理装置100は、聞き手が操作内容を視覚的に理解するのを助けることができる。
As a result, the
また、生成部133は、補助情報として、ひらがな、カタカナ、漢字またはローマ字で表記された文字情報を生成する。出力制御部134は、ひらがな、カタカナ、漢字またはローマ字で表記された文字情報を聞き手の端末装置10の画面に表示する。
The
これにより、情報処理装置100は、聞き手に応じた日本語の表示態様によって、聞き手が伝え手の操作内容を理解するのを助けることができる。
As a result, the
また、生成部133は、補助情報として、日本語以外の他の言語に翻訳された文字情報を生成する。出力制御部134は、他の言語に翻訳された文字情報を聞き手の端末装置10の画面に表示する。
The
これにより、情報処理装置100は、聞き手に応じた言語によって、聞き手が伝え手の操作内容を理解するのを助けることができる。
As a result, the
また、情報処理装置100は、判定部132をさらに備える。判定部132は、聞き手の情報に基づいて、聞き手が操作内容に関する操作に困難をきたしているか否かを判定する。生成部133は、判定部132によって聞き手が操作に困難をきたしていると判定された場合に、補助情報を生成する。
これにより、情報処理装置100は、聞き手が困っているときに補助情報を生成することができるので、聞き手が伝え手の操作内容を理解するのを助けることができる。
As a result, the
また、判定部132は、聞き手の情報に基づいて、伝え手から聞き手に対して操作内容を伝達するタイミングを判定する。出力制御部134は、判定部132によって判定されたタイミングに関する情報を伝え手の端末装置10に出力するよう制御する。
Also, the
これにより、情報処理装置100は、聞き手にとって受け入れやすいタイミングで、伝え手から聞き手に対して操作内容を伝達することができるので、聞き手が伝え手の操作内容を理解するのを助けることができる。
As a result, the
また、生成部133は、補助情報として、操作対象に対する見本操作を撮像した見本動画を生成する。出力制御部134は、見本動画を聞き手の端末装置10の画面に表示するよう制御する。
In addition, the
これにより、情報処理装置100は、伝え手によって伝達される操作内容に加えて、見本動画を見ることができるので、聞き手が伝え手の操作内容を理解するのを助けることができる。
As a result, the
また、情報処理装置100は、取得部131をさらに備える。取得部131は、聞き手による操作対象に対する操作を撮像した操作動画を取得する。出力制御部134は、操作動画を伝え手の端末装置10の画面に表示するよう制御する。
これにより、情報処理装置100は、伝え手に対して、自身が伝達した操作内容が聞き手にどの程度伝わっているか、フィードバックすることができる。
As a result, the
また、取得部131は、聞き手の操作に対する伝え手の評価を示す評価情報を取得する。出力制御部134は、評価情報を聞き手の端末装置10に出力するよう制御する。
In addition, the
これにより、情報処理装置100は、聞き手に対して、どの程度操作内容を正しく理解しているか、伝え手の評価をフィードバックすることができる。
As a result, the
〔6.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
[6. Hardware configuration]
Also, the
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on programs stored in the ROM 1300 or
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . CPU 1100 also outputs the generated data to an output device via input/output interface 1600 .
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.
〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Further, among the processes described in the above embodiments and modifications, all or part of the processes described as being performed automatically can be performed manually, or described as being performed manually. All or part of the processing can also be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Also, the above-described embodiments and modifications can be appropriately combined within a range that does not contradict the processing contents.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the generating unit can be read as generating means or a generating circuit.
1 情報処理システム
10 端末装置
100 情報処理装置
110 通信部
120 記憶部
130 制御部
131 取得部
132 判定部
133 生成部
134 出力制御部
1
Claims (16)
前記生成部によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御部と、
を備える情報処理装置。 Based on the information of the listener who is a participant in the remote communication, the operation content transmitted from the transmitter who is a participant in the remote communication to the listener, and the operation content for the operation target operated by the listener. a generation unit that generates auxiliary information to be supplemented when it is determined that the listener is having difficulty in performing an operation related to the operation content ;
an output control unit that controls to output the auxiliary information generated by the generation unit to the terminal device of the listener;
Information processing device.
前記聞き手の情報として、前記聞き手の属性に関する属性情報、前記聞き手が所在する現場の音声情報、前記聞き手が所在する現場の画像情報、または前記聞き手が前記操作対象を操作するのに用いられる制御装置の信号情報に基づいて、前記補助情報を生成する、
請求項1に記載の情報処理装置。 The generating unit
Attribute information relating to attributes of the listener, audio information of the site where the listener is located, image information of the site where the listener is located, or a control device used by the listener to operate the operation target as the information of the listener. generating the auxiliary information based on the signal information of
The information processing device according to claim 1 .
前記補助情報として、前記操作対象の操作部位を示す部位画像、または前記操作対象に対する操作方向を示す方向画像を生成し、
前記出力制御部は、
前記部位画像または前記方向画像のうち少なくともいずれか1つを前記聞き手の端末装置の画面に表示する、
請求項1または2に記載の情報処理装置。 The generating unit
generating, as the auxiliary information, a part image indicating an operation part of the operation target or a direction image indicating an operation direction with respect to the operation target;
The output control unit is
displaying at least one of the region image and the direction image on the screen of the terminal device of the listener;
The information processing apparatus according to claim 1 or 2.
前記補助情報として、前記操作対象の所定の領域を拡大した拡大画像を生成し、
前記出力制御部は、
前記拡大画像を前記聞き手の端末装置の画面に表示する、
請求項1~3のいずれか1項に記載の情報処理装置。 The generating unit
generating an enlarged image obtained by enlarging a predetermined area of the operation target as the auxiliary information;
The output control unit is
displaying the enlarged image on the screen of the terminal device of the listener;
The information processing apparatus according to any one of claims 1 to 3.
前記補助情報として、前記操作内容を示す文字情報または前記操作内容に関する用語の意味を説明する文字情報を生成し、
前記出力制御部は、
前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項1~4のいずれか1項に記載の情報処理装置。 The generating unit
generating, as the auxiliary information, character information indicating the content of the operation or character information explaining the meaning of terms related to the content of the operation;
The output control unit is
displaying the character information on the screen of the terminal device of the listener;
The information processing apparatus according to any one of claims 1 to 4.
前記補助情報として、文字の大きさが拡大または縮小された前記文字情報を生成する、
前記出力制御部は、
前記文字の大きさが拡大または縮小された前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項5に記載の情報処理装置。 The generating unit
generating the character information in which the character size is enlarged or reduced as the auxiliary information;
The output control unit is
displaying the character information with the character size enlarged or reduced on the screen of the terminal device of the listener;
The information processing device according to claim 5 .
前記補助情報として、ひらがな、カタカナ、漢字またはローマ字で表記された前記文字情報を生成し、
前記出力制御部は、
前記ひらがな、前記カタカナ、前記漢字または前記ローマ字で表記された前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項5または6に記載の情報処理装置。 The generating unit
generating the character information written in hiragana, katakana, kanji, or romaji as the auxiliary information;
The output control unit is
Displaying the character information written in the hiragana, the katakana, the kanji, or the romaji on the screen of the terminal device of the listener;
The information processing apparatus according to claim 5 or 6.
前記補助情報として、日本語以外の他の言語に翻訳された前記文字情報を生成し、
前記出力制御部は、
前記他の言語に翻訳された前記文字情報を前記聞き手の端末装置の画面に表示する、
請求項5~7のいずれか1項に記載の情報処理装置。 The generating unit
generating the character information translated into a language other than Japanese as the auxiliary information;
The output control unit is
displaying the character information translated into the other language on the screen of the terminal device of the listener;
The information processing apparatus according to any one of claims 5 to 7.
前記生成部は、
前記判定部によって前記聞き手が前記操作に困難をきたしていると判定された場合に、前記補助情報を生成する、
請求項1~8のいずれか1項に記載の情報処理装置。 Based on the information of the listener, further comprising a determination unit that determines whether or not the listener is having difficulty with the operation related to the operation content,
The generating unit
generating the auxiliary information when the determination unit determines that the listener is having difficulty with the operation;
The information processing apparatus according to any one of claims 1 to 8.
前記出力制御部は、
前記判定部によって判定されたタイミングに関する情報を前記伝え手の端末装置に出力するよう制御する、
請求項1~9のいずれか1項に記載の情報処理装置。 further comprising a determination unit that determines a timing for transmitting the operation content from the transmitter to the listener based on the listener's information,
The output control unit is
Control to output information about the timing determined by the determination unit to the terminal device of the transmitter;
The information processing apparatus according to any one of claims 1 to 9.
前記補助情報として、前記操作対象に対する見本操作を撮像した見本動画を生成し、
前記出力制御部は、
前記見本動画を前記聞き手の端末装置の画面に表示するよう制御する、
請求項1~10のいずれか1項に記載の情報処理装置。 The generating unit
generating, as the auxiliary information, a sample video image of a sample operation on the operation target;
The output control unit is
Control to display the sample video on the screen of the terminal device of the listener,
The information processing apparatus according to any one of claims 1 to 10.
前記出力制御部は、
前記操作動画を前記伝え手の端末装置の画面に表示するよう制御する、
請求項1~11のいずれか1項に記載の情報処理装置。 Further comprising an acquisition unit that acquires an operation video in which the listener's operation on the operation target is captured,
The output control unit is
controlling to display the operation video on the screen of the terminal device of the sender;
The information processing apparatus according to any one of claims 1 to 11.
前記聞き手の操作に対する前記伝え手の評価を示す評価情報を取得し、
前記出力制御部は、
前記評価情報を前記聞き手の端末装置に出力するよう制御する、
請求項12に記載の情報処理装置。 The acquisition unit
Acquiring evaluation information indicating the reporter's evaluation of the listener's operation,
The output control unit is
controlling to output the evaluation information to the terminal device of the listener;
The information processing apparatus according to claim 12.
遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を、前記聞き手が前記操作内容に関する操作に困難をきたしていると判定された場合に生成する生成工程と、
前記生成工程によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御工程と、
を含む情報処理方法。 A computer-executed information processing method comprising:
Based on the information of the listener who is a participant in the remote communication, the operation content transmitted from the transmitter who is a participant in the remote communication to the listener, and the operation content for the operation target operated by the listener. a generation step of generating auxiliary information to be supplemented when it is determined that the listener is having difficulty in performing an operation related to the operation content ;
an output control step of controlling output of the auxiliary information generated by the generating step to the terminal device of the listener;
Information processing method including.
前記生成手順によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 Based on the information of the listener who is a participant in the remote communication, the operation content transmitted from the transmitter who is a participant in the remote communication to the listener, and the operation content for the operation target operated by the listener. a generation procedure for generating auxiliary information to be supplemented when it is determined that the listener is having difficulty performing an operation related to the operation content ;
an output control procedure for controlling output of the auxiliary information generated by the generation procedure to the terminal device of the listener;
An information processing program characterized by causing a computer to execute
前記情報処理装置は、
遠隔コミュニケーションの参加者である聞き手の情報に基づいて、前記遠隔コミュニケーションの参加者である伝え手から前記聞き手に対して伝達される操作内容であって、前記聞き手が操作する操作対象に対する操作内容を補う補助情報を、前記聞き手が前記操作内容に関する操作に困難をきたしていると判定された場合に生成する生成部と、
前記生成部によって生成された前記補助情報を前記聞き手の端末装置に出力するよう制御する出力制御部と、
を備え、
前記参加者である聞き手の端末装置は、
前記生成部によって生成された前記補助情報を出力する、
情報処理システム。 An information processing system including an information processing device and a terminal device of a remote communication participant,
The information processing device is
Based on the information of the listener who is a participant in the remote communication, the operation content transmitted from the transmitter who is a participant in the remote communication to the listener, and the operation content for the operation target operated by the listener. a generation unit that generates auxiliary information to be supplemented when it is determined that the listener is having difficulty in performing an operation related to the operation content ;
an output control unit that controls to output the auxiliary information generated by the generation unit to the terminal device of the listener;
with
The terminal device of the listener who is the participant,
outputting the auxiliary information generated by the generator;
Information processing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020163922A JP7152454B2 (en) | 2020-09-29 | 2020-09-29 | Information processing device, information processing method, information processing program, and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020163922A JP7152454B2 (en) | 2020-09-29 | 2020-09-29 | Information processing device, information processing method, information processing program, and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022056109A JP2022056109A (en) | 2022-04-08 |
JP7152454B2 true JP7152454B2 (en) | 2022-10-12 |
Family
ID=80999051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020163922A Active JP7152454B2 (en) | 2020-09-29 | 2020-09-29 | Information processing device, information processing method, information processing program, and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7152454B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130325970A1 (en) | 2012-05-30 | 2013-12-05 | Palo Alto Research Center Incorporated | Collaborative video application for remote servicing |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11212946A (en) * | 1998-01-22 | 1999-08-06 | Tsubasa System Kk | Remote guidance method |
-
2020
- 2020-09-29 JP JP2020163922A patent/JP7152454B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130325970A1 (en) | 2012-05-30 | 2013-12-05 | Palo Alto Research Center Incorporated | Collaborative video application for remote servicing |
Also Published As
Publication number | Publication date |
---|---|
JP2022056109A (en) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6751122B2 (en) | Page control method and apparatus | |
US6377925B1 (en) | Electronic translator for assisting communications | |
US8645121B2 (en) | Language translation of visual and audio input | |
EP1486949A1 (en) | Audio video conversion apparatus and method, and audio video conversion program | |
JP2003345379A6 (en) | Audio-video conversion apparatus and method, audio-video conversion program | |
JP6233798B2 (en) | Apparatus and method for converting data | |
US10741172B2 (en) | Conference system, conference system control method, and program | |
US11281707B2 (en) | System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information | |
KR102390187B1 (en) | Method and system for providing translation for conference assistance | |
US20200327893A1 (en) | Information processing device and information processing method | |
US20180286388A1 (en) | Conference support system, conference support method, program for conference support device, and program for terminal | |
US20190251990A1 (en) | Information processing apparatus and information processing method | |
WO2022035929A1 (en) | System and method for augmented reality video conferencing | |
EP3776171A1 (en) | Non-disruptive nui command | |
US11900931B2 (en) | Information processing apparatus and information processing method | |
US10216732B2 (en) | Information presentation method, non-transitory recording medium storing thereon computer program, and information presentation system | |
US20190267028A1 (en) | Information processing apparatus and information processing method | |
JP2020027132A (en) | Information processing device and program | |
JP7152454B2 (en) | Information processing device, information processing method, information processing program, and information processing system | |
US9697851B2 (en) | Note-taking assistance system, information delivery device, terminal, note-taking assistance method, and computer-readable recording medium | |
JP2008084055A (en) | Help management terminal, help management method and help management program | |
JP6950708B2 (en) | Information processing equipment, information processing methods, and information processing systems | |
CN117809649A (en) | Display device and semantic analysis method | |
TWI795081B (en) | On-device real-time translation of media content on a mobile electronic device | |
CN113221514A (en) | Text processing method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7152454 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |